Не двигайтесь: вы в ИИ-кадре
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
🤣6❤3👍1🔥1🌭1
🚀 Towards a Science of Scaling Agent Systems, когда и почему агентные системы работают
Google Research сделали важный шаг к научному пониманию того, как правильно масштабировать AI-агентов, а не просто добавлять их “на глаз”.
Речь о системах, где LLM-агенты не только отвечают, а планируют, рассуждают и выполняют действия во внешней среде.
Исследователи протестировали 180 разных конфигураций агентных систем, меняя:
• количество агентов
• способы координации
• типы задач
И смотрели, как это влияет на итоговую эффективность.
Главные выводы
Больше агентов - не всегда лучше
Добавление агентов помогает, когда задачу можно распараллелить.
Но в задачах с последовательной логикой это может даже ухудшить результат.
Совместная работа агентов полезна для сложных аналитических задач,
но коммуникация между ними создаёт накладные расходы.
Централизованный контроль часто эффективнее
Архитектуры с координатором могут давать лучший баланс между качеством решений и устойчивостью к ошибкам, чем полностью независимые агенты.
Авторы показали, что можно заранее оценивать, какая архитектура агентной системы подойдёт для конкретного типа задач.
До этого multi-agent AI проектировали в основном на интуиции.
Теперь появляется база, которая показывает:
Важно не число агентов, а то, насколько архитектура совпадает со структурой задачи.
Это шаг от “экспериментов на удачу” к настоящей инженерной науке об агентных системах.
https://research.google/blog/towards-a-science-of-scaling-agent-systems-when-and-why-agent-systems-work/
Google Research сделали важный шаг к научному пониманию того, как правильно масштабировать AI-агентов, а не просто добавлять их “на глаз”.
Речь о системах, где LLM-агенты не только отвечают, а планируют, рассуждают и выполняют действия во внешней среде.
Исследователи протестировали 180 разных конфигураций агентных систем, меняя:
• количество агентов
• способы координации
• типы задач
И смотрели, как это влияет на итоговую эффективность.
Главные выводы
Больше агентов - не всегда лучше
Добавление агентов помогает, когда задачу можно распараллелить.
Но в задачах с последовательной логикой это может даже ухудшить результат.
Совместная работа агентов полезна для сложных аналитических задач,
но коммуникация между ними создаёт накладные расходы.
Централизованный контроль часто эффективнее
Архитектуры с координатором могут давать лучший баланс между качеством решений и устойчивостью к ошибкам, чем полностью независимые агенты.
Авторы показали, что можно заранее оценивать, какая архитектура агентной системы подойдёт для конкретного типа задач.
До этого multi-agent AI проектировали в основном на интуиции.
Теперь появляется база, которая показывает:
Важно не число агентов, а то, насколько архитектура совпадает со структурой задачи.
Это шаг от “экспериментов на удачу” к настоящей инженерной науке об агентных системах.
https://research.google/blog/towards-a-science-of-scaling-agent-systems-when-and-why-agent-systems-work/
❤15👍6🔥4
🚀 Вышла новая модель для кодинга - Qwen3-Coder-Next (линейка Qwen).
Это open-weight LM, заточенная под кодинг-агентов и локальную разработку.
Что внутри:
🤖 Около 800K проверяемых задач + окружения, где код можно реально исполнять, а не просто генерировать текст.
📈 Баланс эффективность / качество
Модель с 80B общих параметров и ~3B активных показывает сильные результаты на SWE-Bench Pro при относительно экономичном инференсе.
✨ Экосистема инструментов
Заявлена поддержка сценариев с агентами и дев-инструментами: OpenClaw, Qwen Code, Claude Code, веб-разработка, работа через браузер, Cline и т.д.
В целом это ещё один шаг к моделям, которые проектируются не просто как "LLM для текста", а как движок для реальных кодинг-агентов.
🤗 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-coder-next
🤖 ModelScope: https://modelscope.cn/collections/Qwen/Qwen3-Coder-Next
📝 Blog: https://qwen.ai/blog?id=qwen3-coder-next
📄 Tech report: https://github.com/QwenLM/Qwen3-Coder/blob/main/qwen3_coder_next_tech_report.pdf
@data_analysis_ml
Это open-weight LM, заточенная под кодинг-агентов и локальную разработку.
Что внутри:
🤖 Около 800K проверяемых задач + окружения, где код можно реально исполнять, а не просто генерировать текст.
📈 Баланс эффективность / качество
Модель с 80B общих параметров и ~3B активных показывает сильные результаты на SWE-Bench Pro при относительно экономичном инференсе.
✨ Экосистема инструментов
Заявлена поддержка сценариев с агентами и дев-инструментами: OpenClaw, Qwen Code, Claude Code, веб-разработка, работа через браузер, Cline и т.д.
В целом это ещё один шаг к моделям, которые проектируются не просто как "LLM для текста", а как движок для реальных кодинг-агентов.
🤗 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-coder-next
🤖 ModelScope: https://modelscope.cn/collections/Qwen/Qwen3-Coder-Next
📝 Blog: https://qwen.ai/blog?id=qwen3-coder-next
📄 Tech report: https://github.com/QwenLM/Qwen3-Coder/blob/main/qwen3_coder_next_tech_report.pdf
@data_analysis_ml
👍17❤10🔥4😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Это набор plug-and-play инструментов для voice AI-агентов, которые можно подключать как готовые «навыки».
Что внутри
В пакете есть готовые модули:
- text-to-speech
- speech-to-text с таймкодами
- голосовые агенты
- генерация звуковых эффектов
- музыка, сгенерированная ИИ
То есть это не просто API, а строительные блоки для голосовых систем.
Как это устроено
Skills соответствуют спецификации Agent Skills, поэтому их можно использовать в агентных пайплайнах и подключать к инструментам для кодинга-агентов, например к OpenClaw.
Интеграция
Подключать можно через:
- Python
- TypeScript
- cURL
Всё работает поверх ElevenLabs API.
По сути, это шаг к тому, чтобы голосовые возможности стали таким же стандартным «инструментом агента», как веб-поиск или выполнение кода.
https://github.com/elevenlabs/skills
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥9👍3
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Kling 3.0 официально вышла.
Новая версия делает серьёзный шаг в сторону полноценного “киношного” продакшена на базе ИИ.
Что внутри:
- Генерация видео 3–15 секунд в 1080p
Стабильное качество и сильная консистентность - персонажи, сцены и стиль сохраняются между кадрами без резких искажений.
- Нативный звук с несколькими персонажами
Модель работает с диалогами и разными голосами внутри одной сцены.
- Видео-персонаж как референс
Можно загрузить или записать видео персонажа и использовать его как основу - с сохранением внешности и согласованности голосов.
- Контроль стартового и конечного кадра
Даёт больше режиссёрского контроля над сценой, переходами и логикой движения.
- Новый Custom Multishot
Инструменты для сборки сцен из нескольких шотов с сохранением целостности истории и визуала.
Главное изменение - улучшенная динамика и “физика” движения.
Движения, взаимодействия объектов, темп сцены и переходы стали достаточно согласованными, чтобы создавать ролики уровня “почти кино” - где motion, continuity и pacing ощущаются связно, а не как набор отдельных сгенерированных кусков.
https://app.klingai.com/global/release-notes/whbvu8hsip?type=dialog
Новая версия делает серьёзный шаг в сторону полноценного “киношного” продакшена на базе ИИ.
Что внутри:
- Генерация видео 3–15 секунд в 1080p
Стабильное качество и сильная консистентность - персонажи, сцены и стиль сохраняются между кадрами без резких искажений.
- Нативный звук с несколькими персонажами
Модель работает с диалогами и разными голосами внутри одной сцены.
- Видео-персонаж как референс
Можно загрузить или записать видео персонажа и использовать его как основу - с сохранением внешности и согласованности голосов.
- Контроль стартового и конечного кадра
Даёт больше режиссёрского контроля над сценой, переходами и логикой движения.
- Новый Custom Multishot
Инструменты для сборки сцен из нескольких шотов с сохранением целостности истории и визуала.
Главное изменение - улучшенная динамика и “физика” движения.
Движения, взаимодействия объектов, темп сцены и переходы стали достаточно согласованными, чтобы создавать ролики уровня “почти кино” - где motion, continuity и pacing ощущаются связно, а не как набор отдельных сгенерированных кусков.
https://app.klingai.com/global/release-notes/whbvu8hsip?type=dialog
❤10👍6🥴4🔥2
🧠 Google придумали способ сделать AI-модели быстрее и легче без потери точности
В новом исследовании Google представили подход под названием Sequential Attention.
Идея простая по смыслу, но мощная по эффекту - модель учится фокусироваться только на действительно важных частях вычислений, а всё лишнее постепенно отбрасывает.
Почему это вообще проблема
Современные нейросети огромные. Они:
- считают слишком много
- используют кучу признаков и параметров
- тратят много памяти и энергии
При этом далеко не всё, что модель обрабатывает, реально влияет на итоговый ответ.
Но определить заранее, что важно, а что нет - математически очень сложно.
Что делает Sequential Attention. Метод работает пошагово.
Вместо того чтобы сразу использовать всё, алгоритм:
1. Выбирает один самый полезный компонент
2. Смотрит, что уже выбрано
3. Добавляет следующий, который даёт наибольшую пользу
4. Повторяет процесс последовательно
То есть модель как будто собирает себя заново-— из самых значимых частей, а не из всего подряд.
Что это даёт на практике
- Меньше вычислений - модель работает быстрее
- Меньше нагрузка на память и железо
- Ниже энергопотребление
- И самое главное - точность почти не страдает
Это редкий случай, когда становится и быстрее, и дешевле, без серьёзных компромиссов по качеству.
Размеры моделей растут быстрее, чем инфраструктура. Поэтому ключевой тренд - не просто делать модели больше, а делать их умнее в плане вычислений.
Sequential Attention - это шаг в сторону “бережливого ИИ”, где:
- не каждая операция обязательна
- не каждый параметр нужен всегда
- модель учится экономить ресурсы сама
И чем крупнее системы, тем ценнее такие подходы.
https://research.google/blog/sequential-attention-making-ai-models-leaner-and-faster-without-sacrificing-accuracy/?
@data_analysis_ml
В новом исследовании Google представили подход под названием Sequential Attention.
Идея простая по смыслу, но мощная по эффекту - модель учится фокусироваться только на действительно важных частях вычислений, а всё лишнее постепенно отбрасывает.
Почему это вообще проблема
Современные нейросети огромные. Они:
- считают слишком много
- используют кучу признаков и параметров
- тратят много памяти и энергии
При этом далеко не всё, что модель обрабатывает, реально влияет на итоговый ответ.
Но определить заранее, что важно, а что нет - математически очень сложно.
Что делает Sequential Attention. Метод работает пошагово.
Вместо того чтобы сразу использовать всё, алгоритм:
1. Выбирает один самый полезный компонент
2. Смотрит, что уже выбрано
3. Добавляет следующий, который даёт наибольшую пользу
4. Повторяет процесс последовательно
То есть модель как будто собирает себя заново-— из самых значимых частей, а не из всего подряд.
Что это даёт на практике
- Меньше вычислений - модель работает быстрее
- Меньше нагрузка на память и железо
- Ниже энергопотребление
- И самое главное - точность почти не страдает
Это редкий случай, когда становится и быстрее, и дешевле, без серьёзных компромиссов по качеству.
Размеры моделей растут быстрее, чем инфраструктура. Поэтому ключевой тренд - не просто делать модели больше, а делать их умнее в плане вычислений.
Sequential Attention - это шаг в сторону “бережливого ИИ”, где:
- не каждая операция обязательна
- не каждый параметр нужен всегда
- модель учится экономить ресурсы сама
И чем крупнее системы, тем ценнее такие подходы.
https://research.google/blog/sequential-attention-making-ai-models-leaner-and-faster-without-sacrificing-accuracy/?
@data_analysis_ml
❤20👍17🔥5
Подборка полезных вебинаров по внедрению AI ⌛️
На вебинарах 10 и 19 февраля эксперт Cloud.ru расскажет, как быстро выстроить единую и безопасную инфраструктуру знаний, развернув корпоративную Wiki-систему Outline, и как внедрить AI-чат, чтобы улучшить процессы и повысить эффективность вашей компании.
▫️ Зарегистрироваться на вебинар 10 февраля — База знаний с AI: создаем корпоративную Wiki в облаке
▫️ Зарегистрироваться на вебинар 19 февраля — Собираем корпоративный AI-чат: от выбора модели до работающего прототипа
Когда знания разбросаны по чатам и папкам, сотрудники теряют время, решения принимаются медленно, а ошибки повторяются. А в бизнесе, где все быстро меняется, важно обеспечить быструю коммуникацию, автоматизацию задач и эффективное управление данными.
На вебинарах 10 и 19 февраля эксперт Cloud.ru расскажет, как быстро выстроить единую и безопасную инфраструктуру знаний, развернув корпоративную Wiki-систему Outline, и как внедрить AI-чат, чтобы улучшить процессы и повысить эффективность вашей компании.
😶🌫️ как развернуть и масштабировать корпоративную Wiki на базе виртуальных машин и объектного хранилища для надежного управления данными;😶🌫️ как настроить единую точку входа (SSO) для централизованной аутентификации и безопасного доступа сотрудников;😶🌫️ как интегрировать AI-помощника, создав Telegram-бота с прямым подключением к базе знаний через MCP-сервер для мгновенных ответов на вопросы.
😶🌫️ какие open source решения представлены на рынке, какие выбрал Cloud.ru и почему;😶🌫️ преимущества вашего AI-чата перед SaaS: плюсы и минусы, а также безопасность данных и соответствие законодательству;😶🌫️ протестированные архитектурные решения: от варианта для быстрого старта до отказоустойчивой системы для больших нагрузок.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4🔥3🥴2🤔1
📌 Vercel Agent Browser - интервьюируемые ассистенты для браузерных приложений
Это экспериментальный SDK от команды Vercel, который позволяет создавать интерактивных агентов прямо внутри браузера. Агент может выполнять действия, понимать контекст, управлять состоянием UI и комбинировать LLM-модели с событиями и логикой фронтенда.
🔥 Что делает Agent Browser:
• Позволяет интегрировать большие языковые модели прямо в браузерные интерфейсы.
• Агент может опрашивать страницу, читать DOM, реагировать на события пользователя.
• Обеспечивает контекстный доступ к состоянию приложения.
• Позволяет модели влиять на UI, управлять данными, взаимодействовать с пользователем “по-человечески”.
• Поддерживает плагинную архитектуру — добавляй свои обработчики задач и действий.
💡 Примеры кейсов:
✅ Автогенерация изменений интерфейса на основе текстовых команд
✅ Интеллектуальные помощники, которые понимают текущую страницу
✅ Автоматизация рутины в браузерных приложениях
✅ Комбинация событий пользователя + LLM логики в одном потоке
📌 Почему это важно:
Раньше браузерные ассистенты были ограничены простыми chat UI или webhook-ами. Agent Browser даёт полноценного агента, который может читать/писать в браузерном окружении, опрашивать DOM, слушать события, управлять состоянием и контекстом — это новый уровень взаимодействия.
👉 Если работаешь с frontend + LLM — обязательно глянуть.
🔗 Репозиторий: https://github.com/vercel-labs/agent-browser
Это экспериментальный SDK от команды Vercel, который позволяет создавать интерактивных агентов прямо внутри браузера. Агент может выполнять действия, понимать контекст, управлять состоянием UI и комбинировать LLM-модели с событиями и логикой фронтенда.
🔥 Что делает Agent Browser:
• Позволяет интегрировать большие языковые модели прямо в браузерные интерфейсы.
• Агент может опрашивать страницу, читать DOM, реагировать на события пользователя.
• Обеспечивает контекстный доступ к состоянию приложения.
• Позволяет модели влиять на UI, управлять данными, взаимодействовать с пользователем “по-человечески”.
• Поддерживает плагинную архитектуру — добавляй свои обработчики задач и действий.
💡 Примеры кейсов:
✅ Автогенерация изменений интерфейса на основе текстовых команд
✅ Интеллектуальные помощники, которые понимают текущую страницу
✅ Автоматизация рутины в браузерных приложениях
✅ Комбинация событий пользователя + LLM логики в одном потоке
📌 Почему это важно:
Раньше браузерные ассистенты были ограничены простыми chat UI или webhook-ами. Agent Browser даёт полноценного агента, который может читать/писать в браузерном окружении, опрашивать DOM, слушать события, управлять состоянием и контекстом — это новый уровень взаимодействия.
👉 Если работаешь с frontend + LLM — обязательно глянуть.
🔗 Репозиторий: https://github.com/vercel-labs/agent-browser
❤8👍5🔥3
🚀 Вышел Protenix-v1 - первая open-source модель, заявляющая уровень качества AlphaFold 3
За релизом стоит ByteDance, и это серьёзная заявка на open-source в биоинформатике.
Что делает релиз интересным:
🔹 Качество на уровне AF3
Заявлена производительность уровня DeepMind AlphaFold 3, а это уже не просто академическая игрушка, а лига передовых структурных моделей.
🔹 Подтверждено scaling-поведение на инференсе
Модель показывает ожидаемый рост качества при увеличении вычислений во время вывода — редкая и важная характеристика для научных моделей.
🔹 Поддержка RNA MSA и protein templates
Работает не только с белками, но и с РНК-выравниваниями и шаблонами структур — ближе к реальным исследовательским сценариям.
🔹 Отдельная версия на большем датасете
Вышел Protenix-v1-20250630 - дообученная версия с расширенными данными.
🔹 PXMeter v1.0.0
Свой toolkit для бенчмаркинга:
6k+ комплексов, time-split, domain-specific подмножества — меньше «магии», больше воспроизводимости.
Фактически это шаг к тому, чтобы уровень структурного предсказания, раньше доступный только топ-лабораториям, стал open-source инструментом. Для биотеха, фармы и ML-исследователей - очень громкое событие.
🔗 Code: https://github.com/bytedance/Protenix
🔗 Eval toolkit: https://github.com/bytedance/PXMeter
🔗 Online server: https://protenix-server.com
За релизом стоит ByteDance, и это серьёзная заявка на open-source в биоинформатике.
Что делает релиз интересным:
🔹 Качество на уровне AF3
Заявлена производительность уровня DeepMind AlphaFold 3, а это уже не просто академическая игрушка, а лига передовых структурных моделей.
🔹 Подтверждено scaling-поведение на инференсе
Модель показывает ожидаемый рост качества при увеличении вычислений во время вывода — редкая и важная характеристика для научных моделей.
🔹 Поддержка RNA MSA и protein templates
Работает не только с белками, но и с РНК-выравниваниями и шаблонами структур — ближе к реальным исследовательским сценариям.
🔹 Отдельная версия на большем датасете
Вышел Protenix-v1-20250630 - дообученная версия с расширенными данными.
🔹 PXMeter v1.0.0
Свой toolkit для бенчмаркинга:
6k+ комплексов, time-split, domain-specific подмножества — меньше «магии», больше воспроизводимости.
Фактически это шаг к тому, чтобы уровень структурного предсказания, раньше доступный только топ-лабораториям, стал open-source инструментом. Для биотеха, фармы и ML-исследователей - очень громкое событие.
🔗 Code: https://github.com/bytedance/Protenix
🔗 Eval toolkit: https://github.com/bytedance/PXMeter
🔗 Online server: https://protenix-server.com
❤14🔥2🥰1🤣1
Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤🔥2❤2
🚀 Google Research представила GIST — новый этап в “умной” выборке данных
Google Research опубликовала блог-пост о GIST — алгоритме, который помогает выбирать высококачественную подвыборку данных из огромных датасетов так, чтобы она была и разнообразной, и полезной для обучения моделей.
📌 Зачем это нужно
При обучении современных моделей (LLM, CV) данные становятся слишком большими, и обрабатывать всё сразу дорого по памяти и времени. Часто выбирают подмножество данных, но это непросто: нужно найти баланс между:
- разнообразием (не выбирать похожие примеры), и
- полезностью (высокая информативность выбранных точек).
📌 Как работает GIST
Алгоритм GIST (Greedy Independent Set Thresholding) формулирует задачу как сочетание двух целей — максимизации полезности и минимизации избыточности. Он:
- строит граф, где точки данных слишком близкие по расстоянию считаются “связанными”,
- затем находит независимые подмножества, которые максимизируют полезность, не выбирая очень похожие данные.
📌 Гарантии и результаты
GIST — это не просто эвристика, а алгоритм с теоретическими гарантиями: он обеспечивает решение, близкое к оптимальному по комбинированной цели разнообразие+полезность. На практике он превосходит классические подходы на задачах вроде классификации изображений.
📊 Почему это важно
- Надёжная выборка данных критична для устойчивого обучения моделей.
- GIST помогает эффективно снизить объём данных, сохранив при этом ключевую информацию.
- Такой подход особенно ценен, когда данные дорогие или медленные для обработки.
✨ *GIST - шаг к более умной и гарантированной выборке данных, что может ускорить обучение крупных моделей и снизить затраты на вычисления при сохранении качества обучения.*
https://research.google/blog/introducing-gist-the-next-stage-in-smart-sampling/
Google Research опубликовала блог-пост о GIST — алгоритме, который помогает выбирать высококачественную подвыборку данных из огромных датасетов так, чтобы она была и разнообразной, и полезной для обучения моделей.
📌 Зачем это нужно
При обучении современных моделей (LLM, CV) данные становятся слишком большими, и обрабатывать всё сразу дорого по памяти и времени. Часто выбирают подмножество данных, но это непросто: нужно найти баланс между:
- разнообразием (не выбирать похожие примеры), и
- полезностью (высокая информативность выбранных точек).
📌 Как работает GIST
Алгоритм GIST (Greedy Independent Set Thresholding) формулирует задачу как сочетание двух целей — максимизации полезности и минимизации избыточности. Он:
- строит граф, где точки данных слишком близкие по расстоянию считаются “связанными”,
- затем находит независимые подмножества, которые максимизируют полезность, не выбирая очень похожие данные.
📌 Гарантии и результаты
GIST — это не просто эвристика, а алгоритм с теоретическими гарантиями: он обеспечивает решение, близкое к оптимальному по комбинированной цели разнообразие+полезность. На практике он превосходит классические подходы на задачах вроде классификации изображений.
📊 Почему это важно
- Надёжная выборка данных критична для устойчивого обучения моделей.
- GIST помогает эффективно снизить объём данных, сохранив при этом ключевую информацию.
- Такой подход особенно ценен, когда данные дорогие или медленные для обработки.
✨ *GIST - шаг к более умной и гарантированной выборке данных, что может ускорить обучение крупных моделей и снизить затраты на вычисления при сохранении качества обучения.*
https://research.google/blog/introducing-gist-the-next-stage-in-smart-sampling/
🔥1