Redmine: управление проектами без лицензий и ограничений 🧩
Redmine - бесплатный веб-инструмент для управления проектами и отслеживания задач (тикетов) с открытым исходным кодом. Распространяется по лицензии GNU GPL, что означает свободное использование и доработку без лицензионных платежей.
Что дает Redmine команде:
▪️ ведение нескольких проектов на одной платформе;
▪️ удобная система тикетов: баги, задачи, запросы, статусы, приоритеты, SLA;
▪️ гибкие роли и права доступа для команд и отделов;
▪️ диаграммы Ганта и календарь для планирования;
▪️ учет времени по задачам;
▪️ встроенные Wiki и форумы для документации и обсуждений;
▪️ интеграция с Git, SVN и другими SCM, плюс REST API;
▪️ email-уведомления и создание задач прямо из почты.
Redmine гибко настраивается под процессы команды - от классического управления проектами до ведения dev-команды.
Наше решение включает:
▪️ Безопасное оригинальное ПО
▪️ Контейнеризованное развертывание (Docker)
▪️ Redmine 6.0.5 с MySQL 8.0 и Nginx
▪️ Автоматические SSL-сертификаты через Let's Encrypt
Готовая к работе система за несколько минут
Подробнее: https://hostkey.ru/apps/business-apps/redmine/
Redmine - бесплатный веб-инструмент для управления проектами и отслеживания задач (тикетов) с открытым исходным кодом. Распространяется по лицензии GNU GPL, что означает свободное использование и доработку без лицензионных платежей.
Что дает Redmine команде:
▪️ ведение нескольких проектов на одной платформе;
▪️ удобная система тикетов: баги, задачи, запросы, статусы, приоритеты, SLA;
▪️ гибкие роли и права доступа для команд и отделов;
▪️ диаграммы Ганта и календарь для планирования;
▪️ учет времени по задачам;
▪️ встроенные Wiki и форумы для документации и обсуждений;
▪️ интеграция с Git, SVN и другими SCM, плюс REST API;
▪️ email-уведомления и создание задач прямо из почты.
Redmine гибко настраивается под процессы команды - от классического управления проектами до ведения dev-команды.
Наше решение включает:
▪️ Безопасное оригинальное ПО
▪️ Контейнеризованное развертывание (Docker)
▪️ Redmine 6.0.5 с MySQL 8.0 и Nginx
▪️ Автоматические SSL-сертификаты через Let's Encrypt
Готовая к работе система за несколько минут
Подробнее: https://hostkey.ru/apps/business-apps/redmine/
👍4❤2👏2🔥1
✨ Друзья, мы снова спешим к вам с новостями! ✨
Мы запускаем розыгрыш, где участниками смогут стать все подписчики канала!
Уже в декабре Telegram автоматически определит трёх счастливчиков, которые получат подписку Telegram Premium на 6 месяцев.
Спасибо, что вы с нами! Мы делимся новостями индустрии, новинками и спецпредложениями HOSTKEY — и хотим, чтобы каждый подписчик чувствовал пользу и внимание.
Желаем всем удачи!
Мы запускаем розыгрыш, где участниками смогут стать все подписчики канала!
Уже в декабре Telegram автоматически определит трёх счастливчиков, которые получат подписку Telegram Premium на 6 месяцев.
Спасибо, что вы с нами! Мы делимся новостями индустрии, новинками и спецпредложениями HOSTKEY — и хотим, чтобы каждый подписчик чувствовал пользу и внимание.
Желаем всем удачи!
👏10❤5👍4🤬1🥱1
Хватит ли мне недорогой VPS? Разбираемся на цифрах, а не “на глаз” 🚀
При выборе VPS почти все упираются в одну и ту же дилемму:
взять самый дешевый тариф и сэкономить или доплатить за “запас по мощности”?
Чтобы не гадать, мы прогнали через тесты четыре недорогие конфигурации VPS HOSTKEY - все с одинаковыми параметрами: 2 vCPU, 2 ГБ RAM, 20 ГБ диска, но на разном “железе”:
— vm.nano - Intel + SSD
— vm.v2-nano - AMD EPYC + NVMe
— vm.v3-nano - новый AMD EPYC + NVMe
— vm.ryzen-2 - Ryzen / топ в бюджетной линейке + NVMe
Что показали тесты
Мы прогнали CPU, память, диск, веб-нагрузку (в т.ч. Битрикс24) и VPN.
Коротко:
— CPU
При переходе от vm.nano к vm.ryzen-2 производительность выросла почти в 7 раз
Это не “абстрактные проценты” - сайт реально отвечает заметно быстрее.
— Веб-нагрузка
Главная страница: от 8,4k до 36,9k запросов/сек и сокращение времени отклика с 1,188 ms до 0,271 ms.
Для пользователя это разница между “всё летает” и “что-то опять подтормаживает”.
— Память и диск
Переход на NVMe и новые платформы даёт до +167% по скорости диска и до +58% по памяти.
Это критично для Битрикс, CRM, CRM+сайт, большого количества запросов.
— VPN
Все конфигурации потянули OpenVPN, но:
vm.ryzen-2 показал лучшую эффективность туннеля (до 95% от скорости канала) и стабильность под нагрузкой - это важно, если половина команды сидит на удалёнке.
Так хватит ли “минималки”?
Наши выводы после тестов:
— vm.nano - только для статических сайтов-визиток, тестов, пет-проектов и пары лёгких ботов. Для серьёзной веб-нагрузки и CRM - нет.
— vm.v2-nano - минимальный порог для коммерческого проекта: небольшой интернет-магазин, корпоративный сайт, лёгкий Bitrix/CRM, немного ботов.
— vm.v3-nano - золотая середина. Оптимум по цене/производительности для большинства задач, если проект уже зарабатывает и вы не хотите упираться в сервер через пару месяцев.
— vm.ryzen-2 - максимум в бюджетной линейке. Если планируете рост трафика, крутите Битрикс24, CRM, VPN для команды или тяжёлые веб-приложения - берите сразу его.
👉 Практический совет: для любого коммерческого проекта лучше стартовать минимум с vm.v3-nano. Экономия 200–300 ₽ в месяц на VPS легко превращается в тысячи рублей потерянной выручки из-за медленного сайта и просевших конверсий.
При выборе VPS почти все упираются в одну и ту же дилемму:
взять самый дешевый тариф и сэкономить или доплатить за “запас по мощности”?
Чтобы не гадать, мы прогнали через тесты четыре недорогие конфигурации VPS HOSTKEY - все с одинаковыми параметрами: 2 vCPU, 2 ГБ RAM, 20 ГБ диска, но на разном “железе”:
— vm.nano - Intel + SSD
— vm.v2-nano - AMD EPYC + NVMe
— vm.v3-nano - новый AMD EPYC + NVMe
— vm.ryzen-2 - Ryzen / топ в бюджетной линейке + NVMe
Что показали тесты
Мы прогнали CPU, память, диск, веб-нагрузку (в т.ч. Битрикс24) и VPN.
Коротко:
— CPU
При переходе от vm.nano к vm.ryzen-2 производительность выросла почти в 7 раз
Это не “абстрактные проценты” - сайт реально отвечает заметно быстрее.
— Веб-нагрузка
Главная страница: от 8,4k до 36,9k запросов/сек и сокращение времени отклика с 1,188 ms до 0,271 ms.
Для пользователя это разница между “всё летает” и “что-то опять подтормаживает”.
— Память и диск
Переход на NVMe и новые платформы даёт до +167% по скорости диска и до +58% по памяти.
Это критично для Битрикс, CRM, CRM+сайт, большого количества запросов.
— VPN
Все конфигурации потянули OpenVPN, но:
vm.ryzen-2 показал лучшую эффективность туннеля (до 95% от скорости канала) и стабильность под нагрузкой - это важно, если половина команды сидит на удалёнке.
Так хватит ли “минималки”?
Наши выводы после тестов:
— vm.nano - только для статических сайтов-визиток, тестов, пет-проектов и пары лёгких ботов. Для серьёзной веб-нагрузки и CRM - нет.
— vm.v2-nano - минимальный порог для коммерческого проекта: небольшой интернет-магазин, корпоративный сайт, лёгкий Bitrix/CRM, немного ботов.
— vm.v3-nano - золотая середина. Оптимум по цене/производительности для большинства задач, если проект уже зарабатывает и вы не хотите упираться в сервер через пару месяцев.
— vm.ryzen-2 - максимум в бюджетной линейке. Если планируете рост трафика, крутите Битрикс24, CRM, VPN для команды или тяжёлые веб-приложения - берите сразу его.
👉 Практический совет: для любого коммерческого проекта лучше стартовать минимум с vm.v3-nano. Экономия 200–300 ₽ в месяц на VPS легко превращается в тысячи рублей потерянной выручки из-за медленного сайта и просевших конверсий.
❤4👍2🔥2
AMD усиливает давление на рынке ИИ-ускорителей 🚀
На Financial Analyst Day 2025 AMDпредставила линейку Instinct MI400 на архитектуре CDNA 5 - запуск запланирован на 2026 год. Главное:
— до 2 раз выше производительность по сравнению с MI350;
— до 40 PFLOPS FP4 и 20 PFLOPS FP8 для задач ИИ;
— до 432 ГБ HBM4 (против 288 ГБ у прошлого поколения);
— пропускная способность памяти - до 19,6 ТБ/с и новый канал горизонтального масштабирования на 300 ГБ/с.
Линейка будет включать две модели:
Instinct MI455X - для масштабного обучения ИИ и облачных развертываний;
Instinct MI430X - для HPC и гос-инициатив в области ИИ, с упором на FP64 и гибрид CPU+GPU.
AMD прямо нацеливается в сегмент дата-центров и ИИ-инфраструктуры, где сейчас доминирует NVIDIA. По заявлениям AMD, MI400 превосходит конкуренты по объёму памяти в 1,5 раза и обеспечивает более высокую скорость обмена данными между GPU в кластере.
Увеличенный объем памяти и высокая пропускная способность делают MI400 особенно интересной для обучения больших моделей и next-gen кластеров. AMD обещает поставки партнёрам с первого дня релиза, избегая дефицита, характерного для дата-центровых GPU.
После 2026 года AMD переходит на ежегодный цикл обновления Instinct - серия MI500 уже в разработке и ожидается в 2027 году.
На Financial Analyst Day 2025 AMDпредставила линейку Instinct MI400 на архитектуре CDNA 5 - запуск запланирован на 2026 год. Главное:
— до 2 раз выше производительность по сравнению с MI350;
— до 40 PFLOPS FP4 и 20 PFLOPS FP8 для задач ИИ;
— до 432 ГБ HBM4 (против 288 ГБ у прошлого поколения);
— пропускная способность памяти - до 19,6 ТБ/с и новый канал горизонтального масштабирования на 300 ГБ/с.
Линейка будет включать две модели:
Instinct MI455X - для масштабного обучения ИИ и облачных развертываний;
Instinct MI430X - для HPC и гос-инициатив в области ИИ, с упором на FP64 и гибрид CPU+GPU.
AMD прямо нацеливается в сегмент дата-центров и ИИ-инфраструктуры, где сейчас доминирует NVIDIA. По заявлениям AMD, MI400 превосходит конкуренты по объёму памяти в 1,5 раза и обеспечивает более высокую скорость обмена данными между GPU в кластере.
Увеличенный объем памяти и высокая пропускная способность делают MI400 особенно интересной для обучения больших моделей и next-gen кластеров. AMD обещает поставки партнёрам с первого дня релиза, избегая дефицита, характерного для дата-центровых GPU.
После 2026 года AMD переходит на ежегодный цикл обновления Instinct - серия MI500 уже в разработке и ожидается в 2027 году.
🔥3❤2
ИИ "Яндекса" отражает до 150 DDoS-атак в месяц
"Яндекс" сообщил, что его система на базе искусственного интеллекта ежемесячно отражает от 50 до 150 DDoS-атак. С начала 2025 года зафиксировано около 800 таких инцидентов. Более 99,9% атак нейтрализуются автоматически, без участия специалистов по безопасности.
Как работает система
Сервис "Антиробот" в режиме реального времени анализирует запросы ко всем сервисам "Яндекса" и определяет их источник - человек или бот. По словам директора по ИБ компании Александра Каледы, ключевое преимущество ИИ - способность находить нестандартные сочетания технических и поведенческих признаков атак, которые сложно обойти злоумышленникам.
После нейтрализации каждая атака проходит разбор. 75% инцидентов анализируются автоматически: система фиксирует и классифицирует атаки, а затем передаёт их данные в обучающую выборку для ИИ. Это позволяет быстро адаптироваться к новым типам угроз.
Автоматизация защиты становится стандартом
Опыт "Яндекса" показывает общий тренд: эффективная защита от DDoS требует автоматизации и машинного обучения. Атаки становятся сложнее, их объём растёт, а время на реакцию сокращается - ручное управление уже не справляется.
Для большинства компаний разработка собственных ИИ-систем защиты нецелесообразна. Альтернатива - использовать готовые решения провайдеров, которые встраивают подобные технологии в свою инфраструктуру.
В HOSTKEY все серверы защищены от DDoS по умолчанию - кроме размещённых в США, Исландии и Турции. Базовая защита работает постоянно и эффективна против атак на превышение пропускной способности порта.
Для проектов с требованиями к бесперебойности доступна расширенная защита с алгоритмами машинного обучения - в дата-центрах Нидерландов и России. Она фильтрует сложные атаки - например, syn flood или udp-flood небольшого объёма (около 20 Мбит/с), использующие уязвимости протоколов. Система противостоит атакам до 650 Гбит/с без деградации сервисов.
Подробнее о защите от DDoS: https://hostkey.ru/services/intelligent-ddos-protection/
"Яндекс" сообщил, что его система на базе искусственного интеллекта ежемесячно отражает от 50 до 150 DDoS-атак. С начала 2025 года зафиксировано около 800 таких инцидентов. Более 99,9% атак нейтрализуются автоматически, без участия специалистов по безопасности.
Как работает система
Сервис "Антиробот" в режиме реального времени анализирует запросы ко всем сервисам "Яндекса" и определяет их источник - человек или бот. По словам директора по ИБ компании Александра Каледы, ключевое преимущество ИИ - способность находить нестандартные сочетания технических и поведенческих признаков атак, которые сложно обойти злоумышленникам.
После нейтрализации каждая атака проходит разбор. 75% инцидентов анализируются автоматически: система фиксирует и классифицирует атаки, а затем передаёт их данные в обучающую выборку для ИИ. Это позволяет быстро адаптироваться к новым типам угроз.
Автоматизация защиты становится стандартом
Опыт "Яндекса" показывает общий тренд: эффективная защита от DDoS требует автоматизации и машинного обучения. Атаки становятся сложнее, их объём растёт, а время на реакцию сокращается - ручное управление уже не справляется.
Для большинства компаний разработка собственных ИИ-систем защиты нецелесообразна. Альтернатива - использовать готовые решения провайдеров, которые встраивают подобные технологии в свою инфраструктуру.
В HOSTKEY все серверы защищены от DDoS по умолчанию - кроме размещённых в США, Исландии и Турции. Базовая защита работает постоянно и эффективна против атак на превышение пропускной способности порта.
Для проектов с требованиями к бесперебойности доступна расширенная защита с алгоритмами машинного обучения - в дата-центрах Нидерландов и России. Она фильтрует сложные атаки - например, syn flood или udp-flood небольшого объёма (около 20 Мбит/с), использующие уязвимости протоколов. Система противостоит атакам до 650 Гбит/с без деградации сервисов.
Подробнее о защите от DDoS: https://hostkey.ru/services/intelligent-ddos-protection/
👍6🔥4❤1
CTFZone 2025: международные соревнования по этичному хакингу привлекли команды из 52 стран
25 ноября BI.ZONЕ объявила итоги международных соревнований по кибербезопасности CTFZone 2025. Финал, состоявшийся 22 ноября в онлайн-формате, собрал 10 сильнейших команд из России, Китая, Франции, Вьетнама и Индии. Четыре команды входят в топ-10 мирового рейтинга CTFtime.
Квалификационный этап CTFZone 2025 Quals прошел 16-17 августа и привлек 664 команды из 52 стран. Финал проводился 22 ноября с 12:00 до 21:00 (МСК) в формате attack-defence, где участники одновременно атакуют сервисы соперников и защищают собственные системы.
Методисты CTFZone подготовили новые концепции сервисов, не встречавшиеся ранее в attack-defence формате. Один из сервисов базировался на уязвимой реализации системного вызова в ядре Linux.
Результаты и призовой фонд:
Призовой фонд составил $18,000 и был распределен между командами-победителями:
1. P1G BuT S4D (смешанная команда России и Китая) - $10,000
2. dtl (Россия) - $5,000
3. The Flat Network Society (Франция) - $3,000
Евгений Волошин, директор по стратегии BI.ZONЕ, отметил: "CTFZone - это не просто состязание, а площадка для экспериментов, где команды воспроизводят реальные сценарии и проверяют гипотезы в безопасной среде." Соревнования включают задачи по облачной безопасности, AI, контейнерам и Web3, формируя новое поколение специалистов, способных противостоять реальным угрозам.
Партнером CTFZone выступила платформа Yandex Cloud, предоставившая вычислительные ресурсы для квалификации и финала.
Практическая кибербезопасность для production-систем:
Соревнования CTF демонстрируют актуальность комплексной защиты инфраструктуры. В production-среде критически важна защита от DDoS-атак, которые остаются одной из распространенных угроз.
HOSTKEY предоставляет многоуровневую защиту от DDoS-атак:
Базовая защита (бесплатно): Автоматическая фильтрация на серверах в Нидерландах, Финляндии, Германии и России. Эффективна против "грубых" атак, направленных на превышение пропускной способности.
Расширенная защита L3-L4: Доступна в Нидерландах и России для выделенных серверов. Использует алгоритмы машинного обучения для фильтрации сложных атак (SYN flood, UDP flood и других). Лимит входящего трафика до 10 Гбит/с, противостоит атакам до 650 Гбит/с. Стоимость: 5,000 руб/мес за 1 ТБ очищенного трафика (первый 1 ТБ бесплатно).
Система обеспечивает непрерывный анализ трафика с автоматическим включением защиты без деградации сервисов.
Подробнее: https://hostkey.ru/services/intelligent-ddos-protection/
25 ноября BI.ZONЕ объявила итоги международных соревнований по кибербезопасности CTFZone 2025. Финал, состоявшийся 22 ноября в онлайн-формате, собрал 10 сильнейших команд из России, Китая, Франции, Вьетнама и Индии. Четыре команды входят в топ-10 мирового рейтинга CTFtime.
Квалификационный этап CTFZone 2025 Quals прошел 16-17 августа и привлек 664 команды из 52 стран. Финал проводился 22 ноября с 12:00 до 21:00 (МСК) в формате attack-defence, где участники одновременно атакуют сервисы соперников и защищают собственные системы.
Методисты CTFZone подготовили новые концепции сервисов, не встречавшиеся ранее в attack-defence формате. Один из сервисов базировался на уязвимой реализации системного вызова в ядре Linux.
Результаты и призовой фонд:
Призовой фонд составил $18,000 и был распределен между командами-победителями:
1. P1G BuT S4D (смешанная команда России и Китая) - $10,000
2. dtl (Россия) - $5,000
3. The Flat Network Society (Франция) - $3,000
Евгений Волошин, директор по стратегии BI.ZONЕ, отметил: "CTFZone - это не просто состязание, а площадка для экспериментов, где команды воспроизводят реальные сценарии и проверяют гипотезы в безопасной среде." Соревнования включают задачи по облачной безопасности, AI, контейнерам и Web3, формируя новое поколение специалистов, способных противостоять реальным угрозам.
Партнером CTFZone выступила платформа Yandex Cloud, предоставившая вычислительные ресурсы для квалификации и финала.
Практическая кибербезопасность для production-систем:
Соревнования CTF демонстрируют актуальность комплексной защиты инфраструктуры. В production-среде критически важна защита от DDoS-атак, которые остаются одной из распространенных угроз.
HOSTKEY предоставляет многоуровневую защиту от DDoS-атак:
Базовая защита (бесплатно): Автоматическая фильтрация на серверах в Нидерландах, Финляндии, Германии и России. Эффективна против "грубых" атак, направленных на превышение пропускной способности.
Расширенная защита L3-L4: Доступна в Нидерландах и России для выделенных серверов. Использует алгоритмы машинного обучения для фильтрации сложных атак (SYN flood, UDP flood и других). Лимит входящего трафика до 10 Гбит/с, противостоит атакам до 650 Гбит/с. Стоимость: 5,000 руб/мес за 1 ТБ очищенного трафика (первый 1 ТБ бесплатно).
Система обеспечивает непрерывный анализ трафика с автоматическим включением защиты без деградации сервисов.
Подробнее: https://hostkey.ru/services/intelligent-ddos-protection/
👍10🔥5❤3
Три новых решения в маркетплейсе HOSTKEY: FreePBX 17, Haltdos Community WAF и KVM с веб-управлением
1. FreePBX 17 на Debian 12
Развертывание IP-АТС с веб-интерфейсом, системой очередей, IVR и функцией записи разговоров.
Реализованный функционал:
- FreePBX 17 + Asterisk 21 через официальный инсталлятор Sangoma;
- HTTPS с предустановленными SSL-сертификатами;
- Готовая конфигурация для тестирования: системы очередей, IVR, запись вызовов, интеграции.
Минимальные требования: Debian 12, 2 vCPU, 2 ГБ RAM, от 40 ГБ дискового пространства, открытые порты 80/443, 5060/UDP, 10000–20000/UDP.
Документация: https://cc.hostkey.ru/s/freepbx
2. Haltdos Community WAF
Web Application Firewall с графическим интерфейсом для защиты веб-сервисов от уязвимостей OWASP Top 10, XSS, SQL-инъекций и других векторов атак.
Функциональные возможности:
- Развертывание в качестве reverse proxy перед защищаемыми приложениями;
- Веб-панель управления с HTTPS (Let's Encrypt) на выделенном доменном имени;
- Управление через GUI: конфигурация сайтов, правила фильтрации, GeoIP-политики, SSL-сертификаты, балансировка нагрузки.
Минимальные требования: от 2 vCPU, 2 ГБ RAM, от 60 ГБ дискового пространства.
Документация: https://cc.hostkey.ru/s/haltdos
3. KVM with Web Management (Cockpit Machines)
Готовое решение для виртуализации с веб-управлением:
Технические характеристики:
- KVM + libvirt;
- Веб-управление через Cockpit Machines: управление ВМ, монтирование ISO-образов, создание снимков, доступ к консоли через браузер;
- HTTPS-доступ с автоматическими сертификатами Let's Encrypt.
Минимальные требования: от 4 vCPU, 8 ГБ RAM, от 100 ГБ дискового пространства, открытые порты 9090/tcp (Cockpit) и 22/tcp (SSH).
Документация: https://cc.hostkey.ru/s/kvm_hypervisor
1. FreePBX 17 на Debian 12
Развертывание IP-АТС с веб-интерфейсом, системой очередей, IVR и функцией записи разговоров.
Реализованный функционал:
- FreePBX 17 + Asterisk 21 через официальный инсталлятор Sangoma;
- HTTPS с предустановленными SSL-сертификатами;
- Готовая конфигурация для тестирования: системы очередей, IVR, запись вызовов, интеграции.
Минимальные требования: Debian 12, 2 vCPU, 2 ГБ RAM, от 40 ГБ дискового пространства, открытые порты 80/443, 5060/UDP, 10000–20000/UDP.
Документация: https://cc.hostkey.ru/s/freepbx
2. Haltdos Community WAF
Web Application Firewall с графическим интерфейсом для защиты веб-сервисов от уязвимостей OWASP Top 10, XSS, SQL-инъекций и других векторов атак.
Функциональные возможности:
- Развертывание в качестве reverse proxy перед защищаемыми приложениями;
- Веб-панель управления с HTTPS (Let's Encrypt) на выделенном доменном имени;
- Управление через GUI: конфигурация сайтов, правила фильтрации, GeoIP-политики, SSL-сертификаты, балансировка нагрузки.
Минимальные требования: от 2 vCPU, 2 ГБ RAM, от 60 ГБ дискового пространства.
Документация: https://cc.hostkey.ru/s/haltdos
3. KVM with Web Management (Cockpit Machines)
Готовое решение для виртуализации с веб-управлением:
Технические характеристики:
- KVM + libvirt;
- Веб-управление через Cockpit Machines: управление ВМ, монтирование ISO-образов, создание снимков, доступ к консоли через браузер;
- HTTPS-доступ с автоматическими сертификатами Let's Encrypt.
Минимальные требования: от 4 vCPU, 8 ГБ RAM, от 100 ГБ дискового пространства, открытые порты 9090/tcp (Cockpit) и 22/tcp (SSH).
Документация: https://cc.hostkey.ru/s/kvm_hypervisor
👍12❤5
Похоже, «облако» в России перестаёт быть модным словом и становится нормой.
Министр цифрового развития Максут Шадаев уже прямо говорит: все больше отечественных ИТ-решений переезжают в облака, особенно в сфере ИИ. И это логично: железо дорожает, импортозамещение требует вложений, а бизнесу при этом нужно развиваться, а не просто «держать инфраструктуру включённой».
Почему облака выигрывают:
▪️ отсутствие необходимости в капитальных инвестициях в аппаратное обеспечение;
▪️ оперативное развертывание и масштабирование сервисов;;
▪️ упрощенное внедрение AI и прикладных решений.
Мы в HOSTKEY это видим по запросам клиентов каждый день: компании уходят от покупки «железа впрок» к частным и гибридным облакам, аренде мощных серверов под ИИ и размещению в дата-центрах TIER III в России и за рубежом.
Если вы как раз думаете, как сократить ИТ-затраты и при этом не тормозить развитие продукта, - напишите нам. Поможем подобрать облачную инфраструктуру под ваши задачи, без лишней теории и с понятной экономикой.
Переход к решениям: https://hostkey.ru/vps/
Министр цифрового развития Максут Шадаев уже прямо говорит: все больше отечественных ИТ-решений переезжают в облака, особенно в сфере ИИ. И это логично: железо дорожает, импортозамещение требует вложений, а бизнесу при этом нужно развиваться, а не просто «держать инфраструктуру включённой».
Почему облака выигрывают:
▪️ отсутствие необходимости в капитальных инвестициях в аппаратное обеспечение;
▪️ оперативное развертывание и масштабирование сервисов;;
▪️ упрощенное внедрение AI и прикладных решений.
Мы в HOSTKEY это видим по запросам клиентов каждый день: компании уходят от покупки «железа впрок» к частным и гибридным облакам, аренде мощных серверов под ИИ и размещению в дата-центрах TIER III в России и за рубежом.
Если вы как раз думаете, как сократить ИТ-затраты и при этом не тормозить развитие продукта, - напишите нам. Поможем подобрать облачную инфраструктуру под ваши задачи, без лишней теории и с понятной экономикой.
Переход к решениям: https://hostkey.ru/vps/
👏15❤6👍3
Российский бизнес уверенно уходит в мультиоблако.
Согласно исследованию, 69% компаний уже имеют или разрабатывают стратегию внедрения облаков, а 41% тех, кто пользуется виртуальной инфраструктурой, работают минимум с двумя провайдерами. Лидером в адаптации мультиоблака является крупный бизнес с годовыми затратами на облачную инфраструктуру от 500 тыс. до 10 млн руб.
Зачем всё это?
▪️диверсификация рисков и отказоустойчивость;
▪️выбор лучших сервисов у разных провайдеров под конкретные задачи;
▪️гибкость при масштабировании и запуске новых продуктов.
Одновременно с преимуществами возрастает сложность инфраструктуры: необходимость обеспечения безопасности, интеграции компонентов и управления разнородными средами. Здесь как раз и нужен провайдер, который умеет работать с гибридными и мультиоблачными архитектурами.
HOSTKEY помогает строить инфраструктуру с опорой на частные и публичные облака, выделенные серверы и площадки TIER III в России и за рубежом - так, чтобы мультиоблако было не проблемой, а конкурентным преимуществом.
Согласно исследованию, 69% компаний уже имеют или разрабатывают стратегию внедрения облаков, а 41% тех, кто пользуется виртуальной инфраструктурой, работают минимум с двумя провайдерами. Лидером в адаптации мультиоблака является крупный бизнес с годовыми затратами на облачную инфраструктуру от 500 тыс. до 10 млн руб.
Зачем всё это?
▪️диверсификация рисков и отказоустойчивость;
▪️выбор лучших сервисов у разных провайдеров под конкретные задачи;
▪️гибкость при масштабировании и запуске новых продуктов.
Одновременно с преимуществами возрастает сложность инфраструктуры: необходимость обеспечения безопасности, интеграции компонентов и управления разнородными средами. Здесь как раз и нужен провайдер, который умеет работать с гибридными и мультиоблачными архитектурами.
HOSTKEY помогает строить инфраструктуру с опорой на частные и публичные облака, выделенные серверы и площадки TIER III в России и за рубежом - так, чтобы мультиоблако было не проблемой, а конкурентным преимуществом.
👍7❤3
Треть британских врачей использует ChatGPT для консультаций: проблема безопасности данных
Исследование Nuffield Trust, охватившее более 2,1 тыс. семейных врачей в Великобритании, показало: каждый третий специалист применяет ChatGPT и другие ИИ-инструменты прямо во время приёма пациентов. За год эта цифра выросла с 20% до 25%.
Врачи обращаются к искусственному интеллекту для составления сводок по приемам, упрощения диагностики и рутинных задач. Но есть проблема: подавляющее большинство не знают, какие ИИ-инструменты безопасны для работы с медицинскими данными. Они опасаются клинических ошибок и - самое важное - утечек конфиденциальной информации пациентов.
Подавляющее большинство врачей признаются, что не знают, какие ИИ-инструменты безопасны для работы с медицинскими данными. Они опасаются профессиональных и медико-правовых проблем, рисков клинических ошибок и- самое важное - утечек конфиденциальной информации пациентов.
Собственная инфраструктура как решение
Ситуация в британской медицине - пример более широкой проблемы. Любая организация, работающая с конфиденциальными данными, сталкивается с рисками при использовании публичных ИИ-сервисов.
Решение - развертывание LLM-моделей на собственной инфраструктуре. Это даёт полный контроль над данными и исключает риски утечки информации.
Преимущества собственной инфраструктуры:
- Полный контроль над данными;
- Соответствие требованиям регуляторов по защите персональных данных;
- Отсутствие рисков утечки конфиденциальной информации в публичные сервисы;
- Возможность кастомизации моделей под специфику медицинских задач;
- Размещение в дата-центрах TIER III с гарантией доступности 99,982%.
HOSTKEY предоставляет предустановленные LLM-модели с открытым исходным кодом на выделенных GPU-серверах: DeepSeek-r1, Llama-3.3-70B, Qwen3, Phi-4. Модели можно кастомизировать под ваши задачи. Готовые решения развертываются за несколько минут.
Узнать больше: https://hostkey.ru/apps/llms/
Исследование Nuffield Trust, охватившее более 2,1 тыс. семейных врачей в Великобритании, показало: каждый третий специалист применяет ChatGPT и другие ИИ-инструменты прямо во время приёма пациентов. За год эта цифра выросла с 20% до 25%.
Врачи обращаются к искусственному интеллекту для составления сводок по приемам, упрощения диагностики и рутинных задач. Но есть проблема: подавляющее большинство не знают, какие ИИ-инструменты безопасны для работы с медицинскими данными. Они опасаются клинических ошибок и - самое важное - утечек конфиденциальной информации пациентов.
Подавляющее большинство врачей признаются, что не знают, какие ИИ-инструменты безопасны для работы с медицинскими данными. Они опасаются профессиональных и медико-правовых проблем, рисков клинических ошибок и- самое важное - утечек конфиденциальной информации пациентов.
Собственная инфраструктура как решение
Ситуация в британской медицине - пример более широкой проблемы. Любая организация, работающая с конфиденциальными данными, сталкивается с рисками при использовании публичных ИИ-сервисов.
Решение - развертывание LLM-моделей на собственной инфраструктуре. Это даёт полный контроль над данными и исключает риски утечки информации.
Преимущества собственной инфраструктуры:
- Полный контроль над данными;
- Соответствие требованиям регуляторов по защите персональных данных;
- Отсутствие рисков утечки конфиденциальной информации в публичные сервисы;
- Возможность кастомизации моделей под специфику медицинских задач;
- Размещение в дата-центрах TIER III с гарантией доступности 99,982%.
HOSTKEY предоставляет предустановленные LLM-модели с открытым исходным кодом на выделенных GPU-серверах: DeepSeek-r1, Llama-3.3-70B, Qwen3, Phi-4. Модели можно кастомизировать под ваши задачи. Готовые решения развертываются за несколько минут.
Узнать больше: https://hostkey.ru/apps/llms/
👍8❤5💯3
Пишем LLM бенчмарк для GPU-серверов с картами NVIDIA в Ollama
Когда мы собираем GPU-серверы или разбираемся с инцидентами клиентов, нам важно не просто «чтобы завелось», а чтобы сервер стабильно работал под реальной AI-нагрузкой.
Один из популярных сценариев - инференс LLM через Ollama. Мы сами предлагаем готовые панели с моделями на её базе, поэтому решили проверить GPU-серверы именно так, как их используют в проде.
Готового open-source бенчмарка не нашли - написали свой.
Тестируем:
• реальные LLM (DeepSeek, Qwen, GPT-OSS)
• рост контекста до 128K
• скорость генерации, токены/сек
• загрузку и поведение GPU через nvidia-smi
• момент offload’а на CPU
В итоге получили воспроизводимый тест, который:
- работает на одиночных и multi-GPU конфигурациях
- позволяет сравнивать разные серверы и видеокарты
- выявляет ограничения Ollama в реальных условиях
Бенчмарк уже прогнали на RTX 4090, 5090, A4000/A5000 и конфигурациях с 2×GPU - нашли несколько неочевидных закономерностей.
Полный код и таблицы с результатами выложили на GitHub.
Будем рады, если вы прогоните тест у себя и поделитесь цифрами.
Если вам нужен GPU-сервер под LLM - у нас есть почасовая аренда и готовые конфигурации под инференс и прод.
Подробнее: https://hostkey.ru/blog/164-pishem-llm-benchmark-dlya-gpu-serverov-s-kartami-nvidia-v-ollama/
Когда мы собираем GPU-серверы или разбираемся с инцидентами клиентов, нам важно не просто «чтобы завелось», а чтобы сервер стабильно работал под реальной AI-нагрузкой.
Один из популярных сценариев - инференс LLM через Ollama. Мы сами предлагаем готовые панели с моделями на её базе, поэтому решили проверить GPU-серверы именно так, как их используют в проде.
Готового open-source бенчмарка не нашли - написали свой.
Тестируем:
• реальные LLM (DeepSeek, Qwen, GPT-OSS)
• рост контекста до 128K
• скорость генерации, токены/сек
• загрузку и поведение GPU через nvidia-smi
• момент offload’а на CPU
В итоге получили воспроизводимый тест, который:
- работает на одиночных и multi-GPU конфигурациях
- позволяет сравнивать разные серверы и видеокарты
- выявляет ограничения Ollama в реальных условиях
Бенчмарк уже прогнали на RTX 4090, 5090, A4000/A5000 и конфигурациях с 2×GPU - нашли несколько неочевидных закономерностей.
Полный код и таблицы с результатами выложили на GitHub.
Будем рады, если вы прогоните тест у себя и поделитесь цифрами.
Если вам нужен GPU-сервер под LLM - у нас есть почасовая аренда и готовые конфигурации под инференс и прод.
Подробнее: https://hostkey.ru/blog/164-pishem-llm-benchmark-dlya-gpu-serverov-s-kartami-nvidia-v-ollama/
❤5👍4👏1
В России хотят навести порядок с ЦОД - через единую цифровую платформу
Российскому рынку дата-центров становится тесно.
Мощностей не хватает, а значительная часть существующих ЦОД уже не отвечает требованиям ИИ - прежде всего по электроэнергии и плотности размещения оборудования.
На этом фоне правительство объявило о планах создать единую цифровую платформу для строительства и эксплуатации ЦОД. Проработкой инициативы займутся Минцифры и Аналитический центр при Правительстве, первые предложения должны подготовить к марту 2026 года - они буду обсуждаться с представителями бизнес-сообщества.
Цель - перейти от разрозненных проектов к системному развитию сети дата-центров по всей стране с едиными стандартами. Платформа будет сопровождать весь жизненный цикл ЦОД - от выбора участка до эксплуатации.
Планируется, что через неё можно будет:
— подбирать земельные участки и проверять их обременения
— получать данные о доступных электрических мощностях и сетях связи
— узнавать о льготах и мерах поддержки
— в перспективе - заказывать проектирование, оборудование и сервисы.
Также платформа должна агрегировать информацию о действующих ЦОД, свободных мощностях, арендных предложениях и реальном спросе.
Для бизнеса - это упрощение и ускорение строительства
Для государства - инструмент, позволяющий наконец увидеть реальную картину рынка и понимать, где и каких мощностей не хватает.
Почему вопрос стал критичным именно сейчас:
Искусственный интеллект резко изменил требования к дата-центрам. Крупным клиентам нужны не просто стойки, а большие лимиты по электропитанию, высокая плотность размещения и современные инженерные решения.
С этим в России проблемы.
Большинство ЦОД сосредоточены в Москве и Санкт-Петербурге, при этом свободные мощности там уже в дефиците. За последний год стоимость colocation в столичном регионе выросла почти на 32 %, а дата-центры, запущенные в 2023–2024 годах, раскуплены практически полностью.
Современные объекты, способные тянуть AI-нагрузки, начали появляться только с 2025 года - и их пока мало.
Попытка создать единую цифровую платформу - это сигнал, что государство наконец признаёт: ИИ - это не только алгоритмы, но и физическая инфраструктура.
Вопрос теперь в реализации. Если платформа действительно упростит запуск новых ЦОД и поможет бизнесу, это может стать важным шагом к решению дефицита мощностей. Если же всё сведётся к формальной витрине - рынок продолжит жить в режиме нехватки и роста цен.
2026–2030 годы покажут, какой сценарий окажется реальным.
Российскому рынку дата-центров становится тесно.
Мощностей не хватает, а значительная часть существующих ЦОД уже не отвечает требованиям ИИ - прежде всего по электроэнергии и плотности размещения оборудования.
На этом фоне правительство объявило о планах создать единую цифровую платформу для строительства и эксплуатации ЦОД. Проработкой инициативы займутся Минцифры и Аналитический центр при Правительстве, первые предложения должны подготовить к марту 2026 года - они буду обсуждаться с представителями бизнес-сообщества.
Цель - перейти от разрозненных проектов к системному развитию сети дата-центров по всей стране с едиными стандартами. Платформа будет сопровождать весь жизненный цикл ЦОД - от выбора участка до эксплуатации.
Планируется, что через неё можно будет:
— подбирать земельные участки и проверять их обременения
— получать данные о доступных электрических мощностях и сетях связи
— узнавать о льготах и мерах поддержки
— в перспективе - заказывать проектирование, оборудование и сервисы.
Также платформа должна агрегировать информацию о действующих ЦОД, свободных мощностях, арендных предложениях и реальном спросе.
Для бизнеса - это упрощение и ускорение строительства
Для государства - инструмент, позволяющий наконец увидеть реальную картину рынка и понимать, где и каких мощностей не хватает.
Почему вопрос стал критичным именно сейчас:
Искусственный интеллект резко изменил требования к дата-центрам. Крупным клиентам нужны не просто стойки, а большие лимиты по электропитанию, высокая плотность размещения и современные инженерные решения.
С этим в России проблемы.
Большинство ЦОД сосредоточены в Москве и Санкт-Петербурге, при этом свободные мощности там уже в дефиците. За последний год стоимость colocation в столичном регионе выросла почти на 32 %, а дата-центры, запущенные в 2023–2024 годах, раскуплены практически полностью.
Современные объекты, способные тянуть AI-нагрузки, начали появляться только с 2025 года - и их пока мало.
Попытка создать единую цифровую платформу - это сигнал, что государство наконец признаёт: ИИ - это не только алгоритмы, но и физическая инфраструктура.
Вопрос теперь в реализации. Если платформа действительно упростит запуск новых ЦОД и поможет бизнесу, это может стать важным шагом к решению дефицита мощностей. Если же всё сведётся к формальной витрине - рынок продолжит жить в режиме нехватки и роста цен.
2026–2030 годы покажут, какой сценарий окажется реальным.
❤8😱2
Когда ML-проект упирается не в модель, а в инфраструктуру
Вы готовы обучать модель - а вместо этого:
▪️Настраиваете CUDA и драйверы
▪️Ловите конфликты версий TensorFlow и Python
▪️Теряете часы на деплой
▪️Не можете воспроизвести окружение в проде
▪️GPU есть, но работает нестабильно
Для AI-проектов инфраструктура часто становится узким местом..
Решение - TensorFlow
TensorFlow - одна из самых зрелых и широко используемых open-source библиотек для машинного обучения и ИИ. Её используют как для исследований, так и для продакшена: от стартапов до крупных корпораций.
Это не просто библиотека, а полноценная экосистема для:
▪️Обучения моделей
▪️Масштабирования на CPU и GPU
▪️Деплоя и инференса в реальных сервисах
Что умеет TensorFlow
• Поддержка классического ML и deep learning
• Работа на CPU, GPU и распределенных системах
• Keras - простой и быстрый API для обучения
• Готовые pretrained-модели
• TensorFlow Serving - low-latency инференс в продакшене
• TFX - пайплайны для production ML
• TensorFlow Lite - для мобильных и embedded-устройств
• Масштабирование на несколько GPU
• Большое и активное сообщество
И главное - всё уже готово
В HOSTKEY TensorFlow уже предустановлен. Вы можете арендовать VPS или выделенный сервер с готовым окружением и начать работу через 15 минут, без ручной установки и настройки.
Что вы получаете
— Предустановленный и протестированный TensorFlow
— CPU и GPU-конфигурации
— Стабильную производительность
— Root-доступ и кастомизацию
— 24/7 техподдержку
— Инфраструктуру, готовую к продакшену
Сервер с TensorFlow - когда хочется заниматься AI, а не настройкой серверов: https://hostkey.ru/apps/machine-learning/tensorflow/
Вы готовы обучать модель - а вместо этого:
▪️Настраиваете CUDA и драйверы
▪️Ловите конфликты версий TensorFlow и Python
▪️Теряете часы на деплой
▪️Не можете воспроизвести окружение в проде
▪️GPU есть, но работает нестабильно
Для AI-проектов инфраструктура часто становится узким местом..
Решение - TensorFlow
TensorFlow - одна из самых зрелых и широко используемых open-source библиотек для машинного обучения и ИИ. Её используют как для исследований, так и для продакшена: от стартапов до крупных корпораций.
Это не просто библиотека, а полноценная экосистема для:
▪️Обучения моделей
▪️Масштабирования на CPU и GPU
▪️Деплоя и инференса в реальных сервисах
Что умеет TensorFlow
• Поддержка классического ML и deep learning
• Работа на CPU, GPU и распределенных системах
• Keras - простой и быстрый API для обучения
• Готовые pretrained-модели
• TensorFlow Serving - low-latency инференс в продакшене
• TFX - пайплайны для production ML
• TensorFlow Lite - для мобильных и embedded-устройств
• Масштабирование на несколько GPU
• Большое и активное сообщество
И главное - всё уже готово
В HOSTKEY TensorFlow уже предустановлен. Вы можете арендовать VPS или выделенный сервер с готовым окружением и начать работу через 15 минут, без ручной установки и настройки.
Что вы получаете
— Предустановленный и протестированный TensorFlow
— CPU и GPU-конфигурации
— Стабильную производительность
— Root-доступ и кастомизацию
— 24/7 техподдержку
— Инфраструктуру, готовую к продакшену
Сервер с TensorFlow - когда хочется заниматься AI, а не настройкой серверов: https://hostkey.ru/apps/machine-learning/tensorflow/
👍5💯3😁2
В 2026 году платить будут все - кроме тех, кто действует уже сейчас
Спрос на ИИ стремительно меняет рынок железа - и бюджеты это уже чувствуют.
Согласно последним отчётам, DRAM, HBM и другие типы памяти массово уходят в сборки AI-серверов, из-за чего предложение для «обычных» серверов и ПК сокращается.
Результат ожидаемый: крупнейшие OEM-производители - Dell, Lenovo, HP, HPE - готовятся к повышению цен на серверы примерно на 15 %.
Это означает рост входных затрат для дата-центров, colocation-провайдеров и всех, кто строит on-prem или гибридную инфраструктуру.
Если вы планируете апгрейд или расширение в ближайшее время, имеет смысл зафиксировать цены заранее - или как минимум заложить инфляцию в бюджет.
Хорошая новость от HOSTKEY
Вы можете зафиксировать текущий тариф на 3, 6 или 12 месяцев, если оформите предоплату до конца декабря 2025 года. Цена останется неизменной на весь оплаченный период - независимо от рыночных колебаний.
И это ещё не всё: вы сохраняете текущую цену и одновременно получаете дополнительную скидку за долгосрочную аренду.
Двойная выгода - в условиях рынка, где цены будут только расти.
Спрос на ИИ стремительно меняет рынок железа - и бюджеты это уже чувствуют.
Согласно последним отчётам, DRAM, HBM и другие типы памяти массово уходят в сборки AI-серверов, из-за чего предложение для «обычных» серверов и ПК сокращается.
Результат ожидаемый: крупнейшие OEM-производители - Dell, Lenovo, HP, HPE - готовятся к повышению цен на серверы примерно на 15 %.
Это означает рост входных затрат для дата-центров, colocation-провайдеров и всех, кто строит on-prem или гибридную инфраструктуру.
Если вы планируете апгрейд или расширение в ближайшее время, имеет смысл зафиксировать цены заранее - или как минимум заложить инфляцию в бюджет.
Хорошая новость от HOSTKEY
Вы можете зафиксировать текущий тариф на 3, 6 или 12 месяцев, если оформите предоплату до конца декабря 2025 года. Цена останется неизменной на весь оплаченный период - независимо от рыночных колебаний.
И это ещё не всё: вы сохраняете текущую цену и одновременно получаете дополнительную скидку за долгосрочную аренду.
Двойная выгода - в условиях рынка, где цены будут только расти.
❤7🔥3👍2
ИИ быстро перестаёт быть просто чат-ботами.
Мы всё чаще говорим про AI-агентов - системы, которые могут не только отвечать, но и действовать: писать код, работать с данными, вызывать инструменты, выполнять задачи.
И тут возникает проблема. Если каждый вендор будет строить своих агентов «по-своему», мы очень быстро получим рынок из несовместимых и закрытых решений, которые не умеют работать друг с другом.
Чтобы этого не случилось, Linux Foundation запускает новую инициативу - Agentic AI Foundation (AAIF).
Идея простая: создать нейтральную площадку для открытых стандартов и инструментов вокруг AI-агентов - без привязки к вендорам и закрытых экосистем.
На старте в AAIF уже пришли серьёзные игроки.
Anthropic передаёт MCP (Model Context Protocol) - протокол, который помогает агентам и моделям одинаково подключаться к данным и инструментам.
Block (Square, Cash App) открывает свой агентный фреймворк Goose, который у них уже используют тысячи инженеров для разработки, анализа данных и документации.
OpenAI добавляет AGЕNTS.md - простой способ объяснить AI-инструментам, как им вести себя при работе с кодом через файл инструкций в репозитории.
Проще говоря, это попытка заложить базовую инфраструктуру эпохи AI-агентов, как когда-то это сделали открытые стандарты для веба и контейнеров.
К инициативе также присоединились AWS, Google, Cloudflare и другие - явный сигнал, что индустрия понимает: без общих правил и открытых протоколов масштабировать AI-агентов безопасно и предсказуемо не получится.
Чем всё закончится - посмотрим. Но если AAIF действительно взлетит, рынок может уйти от закрытых AI-платформ к открытой, модульной экосистеме, где агенты разных производителей смогут работать вместе.
А это уже совсем другой уровень зрелости ИИ.
Мы всё чаще говорим про AI-агентов - системы, которые могут не только отвечать, но и действовать: писать код, работать с данными, вызывать инструменты, выполнять задачи.
И тут возникает проблема. Если каждый вендор будет строить своих агентов «по-своему», мы очень быстро получим рынок из несовместимых и закрытых решений, которые не умеют работать друг с другом.
Чтобы этого не случилось, Linux Foundation запускает новую инициативу - Agentic AI Foundation (AAIF).
Идея простая: создать нейтральную площадку для открытых стандартов и инструментов вокруг AI-агентов - без привязки к вендорам и закрытых экосистем.
На старте в AAIF уже пришли серьёзные игроки.
Anthropic передаёт MCP (Model Context Protocol) - протокол, который помогает агентам и моделям одинаково подключаться к данным и инструментам.
Block (Square, Cash App) открывает свой агентный фреймворк Goose, который у них уже используют тысячи инженеров для разработки, анализа данных и документации.
OpenAI добавляет AGЕNTS.md - простой способ объяснить AI-инструментам, как им вести себя при работе с кодом через файл инструкций в репозитории.
Проще говоря, это попытка заложить базовую инфраструктуру эпохи AI-агентов, как когда-то это сделали открытые стандарты для веба и контейнеров.
К инициативе также присоединились AWS, Google, Cloudflare и другие - явный сигнал, что индустрия понимает: без общих правил и открытых протоколов масштабировать AI-агентов безопасно и предсказуемо не получится.
Чем всё закончится - посмотрим. Но если AAIF действительно взлетит, рынок может уйти от закрытых AI-платформ к открытой, модульной экосистеме, где агенты разных производителей смогут работать вместе.
А это уже совсем другой уровень зрелости ИИ.
🤔7🤝3❤2💯2
С 1 января 2026 года ставка НДС в РФ вырастет до 22 %.
Для клиентов HOSTKEY — ничего критичного 👌
Мы заранее скорректируем цены так, чтобы итоговая сумма счета осталась прежней: стоимость услуг без НДС станет ниже, а НДС будет рассчитан по новой ставке.
В биллинге всё обновится автоматически, никаких действий с вашей стороны не потребуется.
Единственное, о чём просим: при оплате счетов с 01.01.2026 указывайте в назначении платежа НДС 22 %.
Если появятся вопросы — мы, как всегда, на связи 💙
Для клиентов HOSTKEY — ничего критичного 👌
Мы заранее скорректируем цены так, чтобы итоговая сумма счета осталась прежней: стоимость услуг без НДС станет ниже, а НДС будет рассчитан по новой ставке.
В биллинге всё обновится автоматически, никаких действий с вашей стороны не потребуется.
Единственное, о чём просим: при оплате счетов с 01.01.2026 указывайте в назначении платежа НДС 22 %.
Если появятся вопросы — мы, как всегда, на связи 💙
❤7🔥4👍3