This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Boston Dynamics показала работа Atlas, работающего на ИИ-мозге класса “Large Behavior Model”.
Робот выполняет полноценные складские задачи - например, укладывает коробки. Один модуль управляет всем: ходьбой, приседанием, подъёмом, балансом. Навыки не программировали вручную- Atlas научился им по демонстрациям человека.
Это шаг от «заранее прописанных движений» к автономному поведению: единая модель, способная учиться и выполнять сложные моторные задачи.
@ai_machinelearning_big_data
#ai #robots #BostonDynamics
Робот выполняет полноценные складские задачи - например, укладывает коробки. Один модуль управляет всем: ходьбой, приседанием, подъёмом, балансом. Навыки не программировали вручную- Atlas научился им по демонстрациям человека.
Это шаг от «заранее прописанных движений» к автономному поведению: единая модель, способная учиться и выполнять сложные моторные задачи.
@ai_machinelearning_big_data
#ai #robots #BostonDynamics
👍74🔥28❤15👏3🦄2🤔1
Tencent в коллаборации с ведущими китайскими университетами выложила в открытый доступ модель GeoVista, которая предлагает интересный подход к решению проблемы "где сделано это фото" - она делает ставку на активный майнинг данных из внешних источников.
Система на архитектуре Qwen2.5-VL-7B-Instruct использует 2 инструмента: функцию зума и поисковый движок, подтягивающий до 10 релевантных ссылок с платформ Tripadvisor, Pinterest и Wikipedia и социальных сетей.
Модель самостоятельно решает, в какой момент задействовать тот или иной инструмент, что, по сути, имитирует ход мыслей человека-расследователя.
GeoVista обучалась сначала (SFT) на 2 тыс. примерах, а потом (RL) уже на 12 тыс. примерах. Для балансировки RL собрали кастомную систему вознаграждений, привязанную к географической точности: правильный ответ на уровне города ценится выше, чем попадание в провинцию или страну.
Готовую модель прогнали на собственном бенчмарке GeoBench. На нем GeoVista показала 92,6% точности при определении страны, 79,6% региона и 72,7% - конкретного города.
Легче всего модели даются панорамы (79,5% точности на уровне города) и стандартные фото (72,2%), а вот спутниковые снимки остаются ахиллесовой пятой, здесь показатель падает до 44,9%.
Если сравнивать с закрытыми моделями, то GeoVista дышит в спину Gemini 2.5 Flash (73,3% на уровне города) и заметно обходит GPT-5, который показал лишь 67,1%. Лидером пока остается Gemini 2.5 Pro с результатом 78,98%, а вот другие открытые модели (Mini-o3-7B), безнадежно отстают с показателем 11,3%.
В метриках физического расстояния разрыв с топами ощутим сильнее. 52,8% предсказаний GeoVista попали в радиус 3 километров от реальной точки, при этом медианное отклонение составило 2,35 километра.
Для сравнения, Gemini 2.5 Pro укладывается в 3-километровую зону в 64,45% случаев с медианным отклонением всего в 800 метров. Даже GPT-5, проигравший в общей точности, показал медиану в 1,86 км.
Помимо модели, команда опубликовала и сам датасет GeoBench: 1142 изображения из 66 стран и 108 городов. В выборку вошли 512 обычных фотографий, 512 панорам и 108 спутниковых снимков.
Главное отличие этого набора от аналогов вроде OpenStreetView-5M - жесткая фильтрация. Разработчики намеренно удалили "нелокализуемые" изображения: крупные планы еды или типичные пейзажи без примет и слишком очевидные достопримечательности, чтобы исключить легкие победы для алгоритмов.
@ai_machinelearning_big_data
#AI #ML #LLM #GeoVista #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤36👍12🥰7🔥3🦄2😭1
Компания представила сразу 2 версии модели для кодинга: флагманскую Devstral 2 (123 млрд. параметров) и облегченную Devstral Small 2 (24 млрд).
Старшая модель выбила 72,2% в бенчмарке SWE-bench Verified, закрепив за собой статус одного из лучших инструментов с открытыми весами.
Благодаря контекстному окну в 256k токенов, алгоритм способен удерживать в памяти структуру больших проектов и корректно управлять зависимостями.
Для локального запуска на GPU или CPU подойдет версия Small 2, опубликованная под лицензией Apache 2.0.
Старшая версия требует серьезного железа (от 4-х H100), но обещает быть до 7 раз экономичнее проприетарных аналогов уровня Claude Sonnet.
Вместе с моделями разработчики анонсировали утилиту Mistral Vibe CLI, которая позволяет внедрять ИИ-агентов непосредственно в терминал для автоматизации рефакторинга и оркестрации изменений сразу в нескольких файлах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍80❤28🔥17🦄4
Media is too big
VIEW IN TELEGRAM
Компания опубликовала отчет «The state of enterprise AI», который указывает на масштабную трансформацию бизнес-процессов под влиянием ИИ. База корпоративных клиентов превысила 1 миллион организаций, а число Enterprise-мест за год выросло в 9 раз.
Главным трендом стало качественное изменение сценариев использования: потребление ризонинг-токенов подскочило на 320%. Это говорит о том, что бизнес перешел от простых чат-ботов к решению многоступенчатых инженерных и аналитических задач.
Статистика выявила четкую корреляцию между глубиной погружения в технологии и продуктивностью. Сотрудники, использующие GPT-5 Thinking и Deep Research, экономят более 10 часов в неделю, при этом потребляя в 8 раз больше ресурсов модели, чем обычные пользователи. Особенно заметен разрыв в разработке: там генерируют код через ИИ в 17 раз активнее.
openai.com
Model Context Protocol передан организации Agentic AI Foundation, действующей в структуре Linux Foundation. Это стратегический шаг: технология универсального стандарта для подключения ИИ-моделей к внешним базам данных и инструментам, теперь гарантированно останется нейтральной и открытой. Соучредителями нового фонда вместе с Anthropic выступили OpenAI и Block, а поддержку инициативе оказывают Google, Microsoft и AWS.
За год существования MCP добился массовости: протокол используют ChatGPT, Gemini, Claude и VS Code, а число загрузок SDK превысило 97 млн. Переход под эгиду Linux Foundation ставит MCP в один ряд с Kubernetes и PyTorch. Теперь развитие стандарта будет определяться сообществом, что важно для создания совместимой экосистемы ИИ-агентов.
anthropic.com
Власти КНР планируют ввести строгие ограничения на доступ и эксплуатацию Nvidia H200. Это решение готовится на фоне одобрения экспорта данных чипов со стороны администрации США. Несмотря на неожиданный «зеленый свет» из Вашингтона, Пекин демонстрирует осторожность в вопросах использования зарубежного железа.
Конкретные детали и механизмы новых барьеров пока не обнародованы. МИД Китая в ответ на запросы ограничился стандартным заявлением о важности взаимовыгодного сотрудничества, не прояснив судьбу поставок.
ft.com
Google официально подтвердила планы по запуску линейки смарт-очков с ИИ в 2026 году. Техногигант намерен потеснить Марка Цукерберга на этом рынке, объединив усилия с Samsung, Warby Parker и корейским фешн-брендом Gentle Monster.
В разработке находятся 2 типа устройств. Первый вариант - оправа с аудиосистемой для голосового взаимодействия с ИИ, второй - модель с встроенными дисплеями для навигации и перевода в реальном времени. Чтобы сохранить вес и габариты на уровне обычных очков, инженеры решили перенести основную вычислительную нагрузку на сопряженный смартфон.
cnbc.com
В EPFL предложили неожиданное решение для робототехники: использование пищевых отходов в качестве готовых экзоскелетов. В рамках концепции, которую авторы назвали «робототехникой мертвой материи», панцири лобстеров перерабатываются в функциональные механические узлы.
Процесс создания био-гибридов состоит из заполнения оболочки мягким эластомером, установку приводов и покрытия конструкции силиконом, а природная структура панциря обеспечивает идеальный баланс прочности и гибкости. Опытные образцы смогли поднимать вес до 500 граммов и выполнять захват помидора без повреждений.
Инновация решает сразу две задачи: снижает стоимость производства и уменьшает углеродный след, превращая отходы в ресурсы.
news.epfl.ch
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍67❤19🥰6🔥2👻1
This media is not supported in your browser
VIEW IN TELEGRAM
Такой дейлик точно не захочется пропускать 👀
ИИ-помощник ГигаЧат общается голосом вообще на любые темы. Его можно перебивать в процессе и что-то уточнять. В чате есть мужской и женский голоса на выбор, а ещё доступна текстовая расшифровка после разговора.
Это удобно, когда нужно быстро обсудить задачу или отрепетировать речь. Работает в веб-версии и приложении на Android.
Переходим и пользуемся! Ниже оставили несколько полезных запросов:
ИИ-помощник ГигаЧат общается голосом вообще на любые темы. Его можно перебивать в процессе и что-то уточнять. В чате есть мужской и женский голоса на выбор, а ещё доступна текстовая расшифровка после разговора.
Это удобно, когда нужно быстро обсудить задачу или отрепетировать речь. Работает в веб-версии и приложении на Android.
Переходим и пользуемся! Ниже оставили несколько полезных запросов:
Хочу создать блог про отечественные стартапы. Помоги с идеями: на какие темы писать, как привлечь аудиторию, с чего начать?
Какие навыки будут востребованы в работе в ближайшие 5-10 лет? Что стоит изучать уже сейчас, чтобы оставаться актуальным специалистом?
😁23🤬10❤9👍9🥱7🤣7🔥5👏4
⚡ Пентагону приказано готовиться к AGI
На этой неделе на голосование выходит оборонный бюджет на $900 млрд, и внутри есть исторический прецедент.
Впервые Конгресс формально обязал Минобороны США создать к апрелю 2026 года “Комитет по будущему ИИ”.
Его задача - изучать и готовиться к AGI: технологиям, которые могут сравняться или превзойти человека в любых задачах.
Это первый раз, когда военное ведомство США получает прямой мандат анализировать не просто ИИ, а потенциал сверхразумных систем.
Задачи комитета:
1) Изучать продвинутые технологии, которые могут привести к AGI: большие модели, агентные системы, нейроморфные вычисления.
2) Анализировать, как к AGI могут идти Китай, Россия, Иран и Северная Корея, где они могут догнать или опередить США.
3) Сформировать стратегию, где человек остаётся главным.
В законопроекте прямо прописано: Пентагон должен обеспечить механизмы, позволяющие человеку отменять решения ИИ - технически, политически и операционно.
Комитет возглавят заместитель министра обороны и зампред Объединённого комитета начальников штабов, совместно с руководителями видов войск и главным AI-офицером Пентагона.
Итоговый доклад в Конгресс - до января 2027 года.
AGI может прийти через пять лет или через пятьдесят, но США официально начали к нему подготовку.
https://www.perplexity.ai/page/pentagon-ordered-to-form-ai-st-3qDBlb0uS0SHVH5mHEjxJw
@ai_machinelearning_big_data
#ml #ai #agi
На этой неделе на голосование выходит оборонный бюджет на $900 млрд, и внутри есть исторический прецедент.
Впервые Конгресс формально обязал Минобороны США создать к апрелю 2026 года “Комитет по будущему ИИ”.
Его задача - изучать и готовиться к AGI: технологиям, которые могут сравняться или превзойти человека в любых задачах.
Это первый раз, когда военное ведомство США получает прямой мандат анализировать не просто ИИ, а потенциал сверхразумных систем.
Задачи комитета:
1) Изучать продвинутые технологии, которые могут привести к AGI: большие модели, агентные системы, нейроморфные вычисления.
2) Анализировать, как к AGI могут идти Китай, Россия, Иран и Северная Корея, где они могут догнать или опередить США.
3) Сформировать стратегию, где человек остаётся главным.
В законопроекте прямо прописано: Пентагон должен обеспечить механизмы, позволяющие человеку отменять решения ИИ - технически, политически и операционно.
Комитет возглавят заместитель министра обороны и зампред Объединённого комитета начальников штабов, совместно с руководителями видов войск и главным AI-офицером Пентагона.
Итоговый доклад в Конгресс - до января 2027 года.
AGI может прийти через пять лет или через пятьдесят, но США официально начали к нему подготовку.
https://www.perplexity.ai/page/pentagon-ordered-to-form-ai-st-3qDBlb0uS0SHVH5mHEjxJw
@ai_machinelearning_big_data
#ml #ai #agi
❤51🤣42👍17🔥13🥱4🗿4😁3🌚3🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 IR-SIM - открытый, легковесный Python-симулятор роботов для навигации, управления и обучения с подкреплением
IR-SIM даёт простой способ моделировать роботов, сенсоры и окружения без сложной инфраструктуры и дорогого железа. Подходит для учебных и исследовательских задач, быстрых экспериментов и прототипирования алгоритмов.
Что умеет:
• Симулировать роботов с разной кинематикой, сенсорами и поведением.
• Настраивать сцены через простые YAML-файлы без долгого программирования.
• Визуализировать результаты через встроенный визуализатор на matplotlib - удобно для отладки и понимания.
• Поддерживать столкновения и кастомные политики поведения объектов.
• Работать в мульти-агентных сценариях и проектах по Reinforcement Learning.
Подойдет, когда нужно быстро испытать алгоритм, обучить модель, протестировать динамику робота или создать учебный проект без тяжёлых фреймворков и симуляторов.
IR-SIM включает примеры использования, показывающие навигацию, взаимодействие объектов, визуализацию и сценарии RL - отличный старт для студентов, исследователей и разработчиков автономных систем.
IR-SIM даёт простой способ моделировать роботов, сенсоры и окружения без сложной инфраструктуры и дорогого железа. Подходит для учебных и исследовательских задач, быстрых экспериментов и прототипирования алгоритмов.
Что умеет:
• Симулировать роботов с разной кинематикой, сенсорами и поведением.
• Настраивать сцены через простые YAML-файлы без долгого программирования.
• Визуализировать результаты через встроенный визуализатор на matplotlib - удобно для отладки и понимания.
• Поддерживать столкновения и кастомные политики поведения объектов.
• Работать в мульти-агентных сценариях и проектах по Reinforcement Learning.
Подойдет, когда нужно быстро испытать алгоритм, обучить модель, протестировать динамику робота или создать учебный проект без тяжёлых фреймворков и симуляторов.
IR-SIM включает примеры использования, показывающие навигацию, взаимодействие объектов, визуализацию и сценарии RL - отличный старт для студентов, исследователей и разработчиков автономных систем.
👍47❤25🔥12🦄1
🚀 Вышло крупное обновление Qwen3-Omni-Flash (версия 2025-12-01)
Что изменилось:
🎙️ Модель намного лучше ведёт разговоры с голосом и видео - общение звучит естественно и непрерывно
✨ Теперь можно задавать характер ИИ через system prompts, например, стиль общения или роль
🗣️ Улучшена поддержка языков: 119 письменных и 19 голосовых
😊 Голоса звучат почти как настоящие люди
Где попробовать:
🎙️ В Qwen Chat - нажмите VoiceChat или VideoChat (правый нижний угол): http://chat.qwen.ai
📝 Подробности в блоге: https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 Онлайн-демо: http://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 Второе демо: http://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
⚡ Realtime API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01
@ai_machinelearning_big_data
#Qwen #llm #ml
Что изменилось:
🎙️ Модель намного лучше ведёт разговоры с голосом и видео - общение звучит естественно и непрерывно
✨ Теперь можно задавать характер ИИ через system prompts, например, стиль общения или роль
🗣️ Улучшена поддержка языков: 119 письменных и 19 голосовых
😊 Голоса звучат почти как настоящие люди
Где попробовать:
🎙️ В Qwen Chat - нажмите VoiceChat или VideoChat (правый нижний угол): http://chat.qwen.ai
📝 Подробности в блоге: https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 Онлайн-демо: http://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 Второе демо: http://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
⚡ Realtime API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01
@ai_machinelearning_big_data
#Qwen #llm #ml
👍32❤12🔥10💘1🦄1
Россия рискует проспать четвертую технологическую революцию, если частному IT-бизнесу не давать работать
Данные подтверждают тревогу: по свежему Global AI Vibrancy Tool 2025 от Stanford HAI, Россия на 28-м месте из 36 стран по силе AI-экосистемы. Мы отстаем от США (1-е), Китая (2-е) и даже Индии (3-е). В рейтинге IMF AI Preparedness Index, который оценивает, насколько страны готовы к массовому внедрению и безопасному использованию AI, ситуация еще жестче: 53-е место из 174.
При этом потенциал гигантский: по репорту Яков и Партнёры + Яндекс, AI может приносить экономике 8-13 трлн руб. в год, из них до 2,7 трлн только от генеративных моделей. Российский рынок AI уже сейчас растёт на, приблизительно, 30% в год, 74% компаний используют его в ключевых процессах. Если не мешать частному бизнесу, к 2030-му AI добавит к экономике около 11 трлн рублей (как ещё один бюджет Москвы).
В своем свежем посте предприниматель Олег Дерипаска экспертно разбирает, почему в гонке AI Китай потенциально может вытеснить и США, а по сути – весь мир. Китай производит вдвое больше энергии с тарифами на 4–8% ниже, давая скидки до своих техгигантов, что делает их дата-центры и заводы дешевле. В чипах США лидируют по качеству технологий, но Китай удваивает производство ежегодно, пока Запад растёт на треть. Дерипаска цитирует главу Nvidia: по frontier-моделям США впереди на полгода, но open-source (основной рынок) – китайская территория. И главное: китайцы внедряют AI без оглядки, а американцы с опаской. Соперничество не в дуэли GPT и DeepSeek, а в реальных факторах.
А что в России? Больше половины спецов по AI уехали, усиливаются регуляторные барьеры, развитие AI переориентировано на внутренние нужды, а не на экспорт. Решение в поддержке: больше грантов, меньше проверок. Частный бизнес – не угроза, а двигатель, который даже в таких условиях показывает результат: от Яндекса с их RATE (метрикой переводов, которая ловит в семь раз больше ошибок) до МТС с AI Agents Platform (платформа для создания, запуска и масштабирования AI-агентов).
Секрет успеха по Дерипаске, прост: долгосрочное планирование, гос.поддержка перспективных индустрий и помощь лидерам в постройке инфраструктуры. А если не дать работать частному бизнесу, не перестать его кошмарить, то "мы проспим уже четвертую технологическую революцию", и застрянем "в пещере изолированного интернета" с чат-ботом, который рассказывает анекдоты про медведей.
Данные подтверждают тревогу: по свежему Global AI Vibrancy Tool 2025 от Stanford HAI, Россия на 28-м месте из 36 стран по силе AI-экосистемы. Мы отстаем от США (1-е), Китая (2-е) и даже Индии (3-е). В рейтинге IMF AI Preparedness Index, который оценивает, насколько страны готовы к массовому внедрению и безопасному использованию AI, ситуация еще жестче: 53-е место из 174.
При этом потенциал гигантский: по репорту Яков и Партнёры + Яндекс, AI может приносить экономике 8-13 трлн руб. в год, из них до 2,7 трлн только от генеративных моделей. Российский рынок AI уже сейчас растёт на, приблизительно, 30% в год, 74% компаний используют его в ключевых процессах. Если не мешать частному бизнесу, к 2030-му AI добавит к экономике около 11 трлн рублей (как ещё один бюджет Москвы).
В своем свежем посте предприниматель Олег Дерипаска экспертно разбирает, почему в гонке AI Китай потенциально может вытеснить и США, а по сути – весь мир. Китай производит вдвое больше энергии с тарифами на 4–8% ниже, давая скидки до своих техгигантов, что делает их дата-центры и заводы дешевле. В чипах США лидируют по качеству технологий, но Китай удваивает производство ежегодно, пока Запад растёт на треть. Дерипаска цитирует главу Nvidia: по frontier-моделям США впереди на полгода, но open-source (основной рынок) – китайская территория. И главное: китайцы внедряют AI без оглядки, а американцы с опаской. Соперничество не в дуэли GPT и DeepSeek, а в реальных факторах.
А что в России? Больше половины спецов по AI уехали, усиливаются регуляторные барьеры, развитие AI переориентировано на внутренние нужды, а не на экспорт. Решение в поддержке: больше грантов, меньше проверок. Частный бизнес – не угроза, а двигатель, который даже в таких условиях показывает результат: от Яндекса с их RATE (метрикой переводов, которая ловит в семь раз больше ошибок) до МТС с AI Agents Platform (платформа для создания, запуска и масштабирования AI-агентов).
Секрет успеха по Дерипаске, прост: долгосрочное планирование, гос.поддержка перспективных индустрий и помощь лидерам в постройке инфраструктуры. А если не дать работать частному бизнесу, не перестать его кошмарить, то "мы проспим уже четвертую технологическую революцию", и застрянем "в пещере изолированного интернета" с чат-ботом, который рассказывает анекдоты про медведей.
💯106🤣73❤26😭15👍10🤷♂6🥱6😁3🦄3🍾2🙊2
⭐️ Nous Research открыла исходный код Nomos 1.
При размере всего 30B параметров модель набрала 87/120 на Putnam - одном из самых престижных математических конкурсов в мире.
Такой результат соответствовал бы 2-му месту среди 3988 участников в 2024 году.
Nomos 1 показала 87/120 и восемь идеальных решений. Для сравнения: Qwen3-30B при тех же условиях получила 24/120. Это подчёркивает, что преимущество Nomos связано прежде всего с качеством обучения и данных, а не с тестовой средой.
Проверка решений проходила вслепую: их оценивал реальный участник Putnam из топ-200, получивший обезличенные ответы.
Задачи решались в тех же временных рамках, что и у участников - по 3 часа на каждую часть.
Система рассуждений устроена так:
— сначала “workers” решают наиболее сложные задачи и сами оценивают свои решения;
— затем этап финализации, ИИ объединяет ответы и выбирает итоговый вариант.
▪HF: https://huggingface.co/NousResearch/nomos-1
▪Github: https://github.com/NousResearch/nomos
@ai_machinelearning_big_data
#llm #ml #ai
При размере всего 30B параметров модель набрала 87/120 на Putnam - одном из самых престижных математических конкурсов в мире.
Такой результат соответствовал бы 2-му месту среди 3988 участников в 2024 году.
Nomos 1 показала 87/120 и восемь идеальных решений. Для сравнения: Qwen3-30B при тех же условиях получила 24/120. Это подчёркивает, что преимущество Nomos связано прежде всего с качеством обучения и данных, а не с тестовой средой.
Проверка решений проходила вслепую: их оценивал реальный участник Putnam из топ-200, получивший обезличенные ответы.
Задачи решались в тех же временных рамках, что и у участников - по 3 часа на каждую часть.
Система рассуждений устроена так:
— сначала “workers” решают наиболее сложные задачи и сами оценивают свои решения;
— затем этап финализации, ИИ объединяет ответы и выбирает итоговый вариант.
▪HF: https://huggingface.co/NousResearch/nomos-1
▪Github: https://github.com/NousResearch/nomos
@ai_machinelearning_big_data
#llm #ml #ai
❤34👍13🥰4👏1😁1🤔1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск:
@ai_machinelearning_big_data
Я бы притормозил развитие ИИ и робототехники, но не могу - они движутся вперёд слишком стремительно, нравится мне это или нет.
«У меня было много кошмаров про ИИ… много дней подряд».
И что я должен с этим делать?
@ai_machinelearning_big_data
😁119😨22❤15🤣7🥰6🔥4👏4🥱3
Media is too big
VIEW IN TELEGRAM
Компания радикально меняет вектор развития ИИ, отказываясь от идеологии открытости в пользу закрытых коммерческих продуктов. По данным источников, уже весной будет выпущена проприетарная модель Avocado, которая будет распространяться по закрытой лицензии для прямой монетизации.
Причиной резкого разворота стала неудача с Llama 4, которая не оправдала ожиданий руководства. Любопытно, что в процессе обучения Avocado использовались ответы моделей конкурентов: Google Gemma, GPT-OSS и Qwen.
bloomberg.com
Компания создала ПО, которое определяет страну, где физически работают её ИИ-ускорители. Технология опирается на анализ сетевых задержек при обмене данными с серверами Nvidia, что позволяет установить геолокацию оборудования с точностью, достаточной для выявления нарушений санкционного режима.
Первыми поддержку новой функции получат системы на Blackwell. Инженеры также изучают варианты внедрения технологии для предыдущих поколений Hopper и Ampere. Nvidia позиционирует этот инструмент как опциональное ПО для инвентаризации и мониторинга состояния GPU-флота в дата-центрах, но фактически он отвечает на требования властей США о противодействию контрабанды железа в Китай.
reuters.com
Debug Mode — это новый агентный сценарий для борьбы с ошибками, которые обычно ставят языковые модели в тупик. Фишка инструмента в том, что он не пытается угадать решение, а действует методично: сначала выдвигает несколько гипотез о причинах сбоя, а затем временно внедряет в код инструкции для сбора runtime-логов.
Процесс отладки полностью интерактивен. После того как агент расставит «ловушки» в коде, разработчик должен воспроизвести ошибку в запущенном приложении. Получив реальные данные, Cursor локализует проблему и предлагает конкретный фикс без переписывания сотен строк кода. Если исправление работает, система автоматически вычищает весь черновой код, оставляя в проекте только финальный патч.
cursor.com
Microsoft открыла общий доступ к режиму Agent Mode в веб-версии Excel. Это обновление меняет взаимодействие с ИИ: Copilot теперь выполняет роль агента, способного самостоятельно выполнять многоступенчатые сценарии внутри книги.
В новом режиме агент может создавать таблицы с нуля, используя данные из веба, проводить сценарное моделирование «что - если», исправлять сложные формулы и строить сводные таблицы. Система показывает цепочку рассуждений и каждый шаг выполнения задачи.
Инструмент доступен подписчикам Microsoft 365 в веб-интерфейсе, а поддержка десктопных версий для Windows и Mac появится в январе.
techcommunity.microsoft.com
Компания запустила специализированные ИИ-агенты для редактирования медиафайлов и документов прямо в чат-боте. Новые инструменты поддерживают конкретные сценарии работы: Photoshop внутри чата умеет ретушировать области снимков и управлять контрастом и экспозицией. Acrobat - конвертировать, сжимать, объединять PDF-файлы и извлекать из них таблицы. Adobe Express используется для генерации и правки макетов.
Если возможностей чат-бота окажется недостаточно, проект можно бесшовно перенести в десктопный софт Adobe. Решение уже доступно в веб-версии, на десктопах и iOS. Функциональность предоставляется бесплатно: для активации достаточно загрузить файл и ввести текстовую команду с упоминанием нужного сервиса, например, «Adobe Photoshop, убери фон на этом изображении».
theverge.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64❤16😁12🔥6😢4🤔2🤗2🌭1
Расскажем, как создать умных AI‑агентов, работая с MCP 🌨
17 декабря на вебинаре покажем, как создать полезных AI-агентов, которые не просто «думают», а реально работают - получают актуальные данные и принимают решения в режиме реального времени.
Ещё недавно разработчики AI‑агентов писали кастомные интеграции с внешними источниками данных и сервисами. Теперь появился способ подружить нейросети со всеми API всего за пару кликов!
Ключевые темы вебинара:
Регистрация доступна по ссылке, ждём вас↗️
17 декабря на вебинаре покажем, как создать полезных AI-агентов, которые не просто «думают», а реально работают - получают актуальные данные и принимают решения в режиме реального времени.
Ещё недавно разработчики AI‑агентов писали кастомные интеграции с внешними источниками данных и сервисами. Теперь появился способ подружить нейросети со всеми API всего за пару кликов!
Ключевые темы вебинара:
♦️ эволюция агентов и роль MCP;♦️ обзор MCP — как разрабатывать умных ИИ-агентов;♦️ особенности MCP в Enterprise;♦️ свой MCP-сервер за пару шагов в Octapi.
Регистрация доступна по ссылке, ждём вас
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤4🔥4
Qwen предложил RL-метод SAPO (Soft Adaptive Policy Optimization), который решает ключевую проблему нестабильного обучения LLM и архитектур MoE и предлагает более разумный и мягкий подход к контролю над процессом обучения.
Reinforcement Learning, RL - это ингредиент, превращающий просто большую языковую модель в рассуждающего помощника. Именно RL учит ИИ решать олимпиадные задачи по математике, писать чистый код и понимать связь между текстом и изображением.
Но у RL есть обратная сторона: катастрофическая нестабильность обучения, особенно для гигантских моделей.
Главная техническая головоломка - это контроль над коэффициентами значимости на уровне каждого токена. В архитектурах MoE, где разные части модели активируются для разных задач, эти коэффициенты могут бесконтрольно «скакать».
Слишком большие колебания коэффициентов превращают четкие обучающие сигналы в помехи, дестабилизирующие всю систему.
До сих пор стандартными инструментами были GRPO и GSPO, которые использовали принцип хард-клиппинга. Если коэффициент выходил за заданные рамки, градиент просто обнулялся.
SAPO предлагает отказаться от хард-клиппинга в пользу интеллектуального сглаживания.
Вместо резкого обнуления SAPO использует плавную, адаптивную функцию (контролируемую температурой), которая мягко снижает влияние проблемных градиентов, но не обнуляет их полностью. Это создает непрерывные области доверия, внутри которых модель может учиться более гибко и безопасно.
Вишенка метода - это асимметричный температурный дизайн. SAPO по-разному обрабатывает «хорошие» и «плохие» обновления. Для токенов с негативным вкладом используется более высокая температура, заставляющая их влияние затухать быстрее и сильнее.
Это простое правило надежно гасит наиболее опасные колебания, что на практике приводит к беспрецедентной стабильности процесса RL-обучения.
При обучении Qwen3-30B-A3B-Base, SAPO не только показал более стабильную кривую обучения , но и достиг более высоких результатов на сложных математических бенчмарках AIME25, HMMT25. Причем он сделал это без трудоемкого маршрутизирующего воспроизведения, которая требовалась конкурентам для работы с MoE.
Успех повторили в масштабном эксперименте с мультимодальной Qwen3-VL-30B-A3B, где SAPO стабильно обошел аналоги в смешанных задачах на кодинг, логику и математику.
@ai_machinelearning_big_data
#AI #ML #LLM #MoE #SAPO #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍35🔥21❤10🥰4
Что изменилось:
⭐️ VLM- и LLM-«Алисы» сближаются все сильнее, поскольку компания делает большую ставку на мультимодальность. Например, VLM-модель уже использует RL-подход текстовой «сестрёнки». Промпт на входе в Alice AI ART обрабатывается в специальном «рефразере», который помогает сделать описание более детальным. Также увеличен контекст и объем данных претрейна в VLM.
⭐️ Много технических подробностей о работе Alice AI LLM Search, которая теперь приносит в ответе не только текст, но и изображения, видео и геоданные.
⭐️ На инфраструктуре видим прирост по скорости за счет мелких аджастов — увеличение эффективного батча на претрейне, внедрение Ulysses attention, снижение объема кэша на инференсе и еще много изменений. В целом сняты ключевые ограничения для тренировки MoE-модели на сотни миллиардов параметров.
@ai_machinelearning_big_data
#vlm #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23🤣20👍13🔥10🤬1