Модель ориентирована на небольшие устройства и edge-сценарии:
• конкурентные результаты на reasoning-бенчмарках
• подходит для агентных систем
• умеет оркестрировать инструменты
• извлекает данные
• запускает локальные workflow без облачных вычислений
Это ещё один шаг к тому, чтобы умные агенты жили прямо на устройстве - быстро, автономно и без зависимости от cloud-API.
https://www.liquid.ai/blog/lfm2-5-1-2b-thinking-on-device-reasoning-under-1gb
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8
💼 Бизнес-ужин для тех, кто запускает ИИ-проекты или только планирует это сделать
На встрече команда провайдера ИТ-инфраструктуры Selectel:
• поделится трендами и вызовами в машинном обучении;
• объяснит, как инференс превращает модели в деньги;
• презентует инфраструктурные продукты для запуска ИИ-проектов.
👥Для собственников бизнеса, топ-менеджеров, технических директоров и ML-специалистов
🗓 18 марта, 19:00
📍Екатеринбург, Новосибирск, Казань
Смотрите полную программу и регистрируйтесь: https://slc.tl/2wqj0
Участие бесплатное, но нужно дождаться подтверждения вашей регистрации
Реклама. АО "Селектел". erid:2W5zFJBzqEh
На встрече команда провайдера ИТ-инфраструктуры Selectel:
• поделится трендами и вызовами в машинном обучении;
• объяснит, как инференс превращает модели в деньги;
• презентует инфраструктурные продукты для запуска ИИ-проектов.
👥Для собственников бизнеса, топ-менеджеров, технических директоров и ML-специалистов
🗓 18 марта, 19:00
📍Екатеринбург, Новосибирск, Казань
Смотрите полную программу и регистрируйтесь: https://slc.tl/2wqj0
Участие бесплатное, но нужно дождаться подтверждения вашей регистрации
Реклама. АО "Селектел". erid:2W5zFJBzqEh
❤3
⚡️ Claude Code для Уолл-стрит
Появился проект Dexter - автономный AI-финансовый аналитик, который проводит полноценное исследование компании без участия человека.
Вы задаёте вопрос, например:
*NVIDIA недооценена по DCF?*
Дальше система работает сама:
- строит план исследования
- подтягивает актуальные рыночные данные
- загружает финансовую отчётность за 5 лет
- считает ключевые метрики и мультипликаторы
- проверяет свои же расчёты на ошибки
- формирует итоговый инвестиционный вывод
И всё это — автономно.
Как это устроено:
Dexter разбивает задачу на несколько этапов:
- получает текущие цены
- анализирует исторические P/E
- сравнивает с отраслевыми значениями
- проводит оценку (включая DCF)
- проверяет согласованность данных
- собирает всё в финальный аналитический тезис
Внутри — несколько агентов:
- один планирует исследование
- второй выполняет сбор и расчёты
- третий проверяет корректность цифр
- четвёртый пишет итоговый отчёт
Система умеет:
- читать отчёты SEC (10-K, 10-Q, 8-K)
- работать с реальными финансовыми метриками
- делать полноценную DCF-оценку
По сути, это как команда аналитиков:
один ставит задачи, второй ищет данные, третий проверяет расчёты, четвёртый пишет отчёт.
Только вся команда - это AI, и запускается прямо в терминале.
https://github.com/virattt/dexter
Появился проект Dexter - автономный AI-финансовый аналитик, который проводит полноценное исследование компании без участия человека.
Вы задаёте вопрос, например:
*NVIDIA недооценена по DCF?*
Дальше система работает сама:
- строит план исследования
- подтягивает актуальные рыночные данные
- загружает финансовую отчётность за 5 лет
- считает ключевые метрики и мультипликаторы
- проверяет свои же расчёты на ошибки
- формирует итоговый инвестиционный вывод
И всё это — автономно.
Как это устроено:
Dexter разбивает задачу на несколько этапов:
- получает текущие цены
- анализирует исторические P/E
- сравнивает с отраслевыми значениями
- проводит оценку (включая DCF)
- проверяет согласованность данных
- собирает всё в финальный аналитический тезис
Внутри — несколько агентов:
- один планирует исследование
- второй выполняет сбор и расчёты
- третий проверяет корректность цифр
- четвёртый пишет итоговый отчёт
Система умеет:
- читать отчёты SEC (10-K, 10-Q, 8-K)
- работать с реальными финансовыми метриками
- делать полноценную DCF-оценку
По сути, это как команда аналитиков:
один ставит задачи, второй ищет данные, третий проверяет расчёты, четвёртый пишет отчёт.
Только вся команда - это AI, и запускается прямо в терминале.
https://github.com/virattt/dexter
🔥11❤6👍5
Google Research показали способ научить LLM рассуждать более рационально - как байесовские модели.
Идея проста: вместо того чтобы просто генерировать текст, модель обучают обновлять свои убеждения при появлении новой информации, как это делает теория вероятностей.
Проблема в том, что обычные LLM плохо работают с неопределённостью. Когда появляется новая информация, они не всегда корректно пересматривают свои выводы и часто не улучшают предсказания даже при увеличении количества данных.
Исследователи предложили метод Bayesian Teaching:
модель обучают имитировать решения оптимальной байесовской модели, которая считается математически правильным способом рассуждать о вероятностях.
Что получилось:
- LLM начинают лучше обновлять свои предположения, когда получают новую информацию.
- Навык переносится на другие задачи, даже если модель обучали на одном типе задач.
- Улучшается принятие решений в условиях неопределённости.
Например, после такого обучения модель, обученная на задаче рекомендаций авиаперелётов, смогла применять тот же принцип рассуждений к выбору отелей и даже к онлайн-шопингу, хотя эти задачи сложнее и для них трудно задать точную байесовскую модель.
Главный вывод исследования:
LLM можно учить стратегиям рассуждения, а не только фактам.
И если обучить модель копировать правильную логику (например, байесовскую), она может переносить этот способ мышления на новые задачи.
https://research.google/blog/teaching-llms-to-reason-like-bayesians/
🎯Полезные Мл-ресурсы 🚀 Max
@machinelearning_interview
Идея проста: вместо того чтобы просто генерировать текст, модель обучают обновлять свои убеждения при появлении новой информации, как это делает теория вероятностей.
Проблема в том, что обычные LLM плохо работают с неопределённостью. Когда появляется новая информация, они не всегда корректно пересматривают свои выводы и часто не улучшают предсказания даже при увеличении количества данных.
Исследователи предложили метод Bayesian Teaching:
модель обучают имитировать решения оптимальной байесовской модели, которая считается математически правильным способом рассуждать о вероятностях.
Что получилось:
- LLM начинают лучше обновлять свои предположения, когда получают новую информацию.
- Навык переносится на другие задачи, даже если модель обучали на одном типе задач.
- Улучшается принятие решений в условиях неопределённости.
Например, после такого обучения модель, обученная на задаче рекомендаций авиаперелётов, смогла применять тот же принцип рассуждений к выбору отелей и даже к онлайн-шопингу, хотя эти задачи сложнее и для них трудно задать точную байесовскую модель.
Главный вывод исследования:
LLM можно учить стратегиям рассуждения, а не только фактам.
И если обучить модель копировать правильную логику (например, байесовскую), она может переносить этот способ мышления на новые задачи.
https://research.google/blog/teaching-llms-to-reason-like-bayesians/
🎯Полезные Мл-ресурсы 🚀 Max
@machinelearning_interview
❤18🏆10👍7🔥5
Ты научишься делать те, которые живут в проде.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.
🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🥴2🙈2❤1🥰1😁1
Модель с триллионом параметров буквально «удалила половину своего мозга» и стала умнее.
Yuan3.0 Ultra**-— новая open-source мультимодальная **MoE-модель от Yuan Lab.
Всего 1010 млрд параметров, но при инференсе активны только 68.8 млрд.
На бенчмарках RAG она обошла GPT-5.2, Gemini 3.1 Pro и Claude Opus 4.6 с заметным отрывом.
Например:
- 67.4% на Docmatix против 56.8% у GPT-4o
Что умеет модель:
- Enterprise RAG - 68.2% средней точности на 10 задачах поиска
- Анализ сложных таблиц - 62.3% на бенчмарке MMTab
- Text-to-SQL - 83.9% на Spider 1.0
- Мультимодальный анализ документов с контекстом 64K
Ключевая инновация — Layer-Adaptive Expert Pruning (LAEP).
Во время предобучения у MoE возникает сильный дисбаланс:
некоторые эксперты получают в 500 раз больше токенов, чем другие.
LAEP постепенно удаляет малоиспользуемых экспертов слой за слоем,
что позволяет:
- сократить 33% параметров
- увеличить эффективность обучения на 49%
Также исследователи улучшили метод “fast-thinking” RL.
Теперь система больше награждает ответы, которые:
- правильные
- используют меньше шагов рассуждения
Это позволило:
- уменьшить количество выходных токенов на 14.38%
- повысить точность на 16.33%
Главный сигнал из этого исследования:
MoE-модели начинают сжимать себя прямо во время обучения, а не после.
Если pruning станет частью pretraining, стоимость обучения триллионных моделей может резко снизиться.
https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra
Yuan3.0 Ultra**-— новая open-source мультимодальная **MoE-модель от Yuan Lab.
Всего 1010 млрд параметров, но при инференсе активны только 68.8 млрд.
На бенчмарках RAG она обошла GPT-5.2, Gemini 3.1 Pro и Claude Opus 4.6 с заметным отрывом.
Например:
- 67.4% на Docmatix против 56.8% у GPT-4o
Что умеет модель:
- Enterprise RAG - 68.2% средней точности на 10 задачах поиска
- Анализ сложных таблиц - 62.3% на бенчмарке MMTab
- Text-to-SQL - 83.9% на Spider 1.0
- Мультимодальный анализ документов с контекстом 64K
Ключевая инновация — Layer-Adaptive Expert Pruning (LAEP).
Во время предобучения у MoE возникает сильный дисбаланс:
некоторые эксперты получают в 500 раз больше токенов, чем другие.
LAEP постепенно удаляет малоиспользуемых экспертов слой за слоем,
что позволяет:
- сократить 33% параметров
- увеличить эффективность обучения на 49%
Также исследователи улучшили метод “fast-thinking” RL.
Теперь система больше награждает ответы, которые:
- правильные
- используют меньше шагов рассуждения
Это позволило:
- уменьшить количество выходных токенов на 14.38%
- повысить точность на 16.33%
Главный сигнал из этого исследования:
MoE-модели начинают сжимать себя прямо во время обучения, а не после.
Если pruning станет частью pretraining, стоимость обучения триллионных моделей может резко снизиться.
https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra
❤20🔥10👍8
DeepSeek продолжает постоянно обновлять модель, которая сейчас используется в их веб-версии и приложении.
По словам пользователя на одном из китайских форумов, за последние несколько дней модель заметно улучшилась в задачах по математике и программированию на его собственном бенчмарке.
Некоторые пользователи также отмечают, что модель стала лучше справляться с генерацией воксельных структур.
Похоже, DeepSeek обновляет модель в продакшене почти в реальном времени, постепенно улучшая её качество без громких официальных релизов.
🎯Полезные Мл-ресурсы 🚀 Max
@machinelearning_interview
По словам пользователя на одном из китайских форумов, за последние несколько дней модель заметно улучшилась в задачах по математике и программированию на его собственном бенчмарке.
Некоторые пользователи также отмечают, что модель стала лучше справляться с генерацией воксельных структур.
Похоже, DeepSeek обновляет модель в продакшене почти в реальном времени, постепенно улучшая её качество без громких официальных релизов.
🎯Полезные Мл-ресурсы 🚀 Max
@machinelearning_interview
🔥15👍6❤5
⚡️ Alibaba Tongyi Lab открыла исходники GUI-Owl-1.5 и Mobile-Agent-v3.5 - семейства моделей-агентов, которые умеют напрямую управлять интерфейсами: desktop, мобильными приложениями и браузером.
Все модели построены на базе Qwen3-VL и обучены в одной парадигме для работы с GUI.
Доступно 6 размеров моделей:
• 2B / 4B / 8B / 32B Instruct — быстрые модели с низкой задержкой (без Chain-of-Thought)
• 8B / 32B Thinking — более сильное планирование и reasoning
По бенчмаркам это open-source SOTA на более чем 20 тестах GUI-агентов:
• OSWorld-Verified — 56.5 (32B-Instruct)
• AndroidWorld — 71.6 (8B-Thinking)
• VisualWebArena — 46.6
• WebArena — 48.4 (32B-Thinking)
• ScreenSpot-Pro — 80.3 с двухэтапным crop refine
• OSWorld-MCP — 47.6
• MobileWorld — 46.8
Архитектура обучения строится на трех ключевых идеях:
• Hybrid Data Flywheel — комбинация симуляций и cloud sandbox для генерации GUI-траекторий с проверкой чекпоинтов
• Unified CoT Synthesis — world modeling, knowledge injection и tool/MCP reasoning встроены в каждый шаг
• MRPO — multi-platform reinforcement learning с online rollout buffer и защитой от outcome collapse
Фактически это еще один шаг к полностью автономным AI-агентам, которые могут работать с интерфейсами так же, как человек.
Models: modelscope.cn/models/iic/GUI-Owl-1.5-8B-Instruct
GitHub: github.com/X-PLUG/MobileAgent
🎯Полезные Мл-ресурсы 🚀 Max
@machinelearning_interview
Все модели построены на базе Qwen3-VL и обучены в одной парадигме для работы с GUI.
Доступно 6 размеров моделей:
• 2B / 4B / 8B / 32B Instruct — быстрые модели с низкой задержкой (без Chain-of-Thought)
• 8B / 32B Thinking — более сильное планирование и reasoning
По бенчмаркам это open-source SOTA на более чем 20 тестах GUI-агентов:
• OSWorld-Verified — 56.5 (32B-Instruct)
• AndroidWorld — 71.6 (8B-Thinking)
• VisualWebArena — 46.6
• WebArena — 48.4 (32B-Thinking)
• ScreenSpot-Pro — 80.3 с двухэтапным crop refine
• OSWorld-MCP — 47.6
• MobileWorld — 46.8
Архитектура обучения строится на трех ключевых идеях:
• Hybrid Data Flywheel — комбинация симуляций и cloud sandbox для генерации GUI-траекторий с проверкой чекпоинтов
• Unified CoT Synthesis — world modeling, knowledge injection и tool/MCP reasoning встроены в каждый шаг
• MRPO — multi-platform reinforcement learning с online rollout buffer и защитой от outcome collapse
Фактически это еще один шаг к полностью автономным AI-агентам, которые могут работать с интерфейсами так же, как человек.
Models: modelscope.cn/models/iic/GUI-Owl-1.5-8B-Instruct
GitHub: github.com/X-PLUG/MobileAgent
🎯Полезные Мл-ресурсы 🚀 Max
@machinelearning_interview
🔥6👍5❤4