Forwarded from ODS Events
Всем привет!
Встречайте двадцатый выпуск подкаста "Капитанский мостик". В этом разговоре участники обсуждают актуальные события в области искусственного интеллекта и микроэлектроники в России, включая создание факультета ИИ в МГУ. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев. Приглашенный участник выпуска - Владислав Голощапов.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Встречайте двадцатый выпуск подкаста "Капитанский мостик". В этом разговоре участники обсуждают актуальные события в области искусственного интеллекта и микроэлектроники в России, включая создание факультета ИИ в МГУ. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев. Приглашенный участник выпуска - Владислав Голощапов.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
🔥2
Forwarded from 404 Driver Not Found
Closed-Loop Supervised Fine-Tuning of Tokenized Traffic Models
Сегодня разберём статью о том, как ребята из NVIDIA заняли первое место в лидерборде WOSAC от Waymo. Речь пойдёт о цикле SFT, а не о способах токенизации, старых слоях архитектуры или внутреннем cross attention.
CAT-K — стратегия файнтюнинга, основанная на top-k-подходе. Её авторы поднимают проблему миссматча распределений во время обучения и на инференсе.
Для обучения в open-loop используются траектории водителей как условия (обуславливание на историю) в режиме behavior cloning. Но при симуляциях на инференсе агенты двигаются уже не по таким же хорошим траекториям в closed-loop, а по своим собственным: с ошибками, которые накапливаются при последовательной генерации движения. Так могут возникать состояния, неучтённые в обучении.
В качестве бейзлайна авторы используют авторегрессионный подход SMART с дельта-токенами:
1. Фиксируют сетку по времени с шагом 0,5–2 секунды прошлого и 8 секунд будущего.
2. На каждом шаге по времени предсказывают для каждого агента токен с собственным сдвигом в координатах.
Обычно авторегрессионные модели для Traffic Motion тренируют с помощью teacher-forcing как LLM модели: формулируют Traffic Motion как Next-Token-Prediction. Но для того, чтобы уменьшить миссматч авторы адаптируют Cross-Entropy Method (или модный SFT из LLM).
Как устроен CEM:
1. Генерирация набора траекторий (в closed-loop)
2. Отбор лучших кандидатов по метрике элиты.
3. Дообучение в режиме teacher-forcing на элитах.
Элиты — моды в распределении, индуцируемом обученной моделью. Они близки к GT-тракеториям. То есть, если дообучаться на хороших траекториях из симуляций в closed-loop, миссматч между обучением и инференсом уменьшится.
Остаётся только адаптировать дельта-токены для CEM:
1. Выбрать K самых вероятных токенов на текущем шаге генерации.
2. Из K самых вероятных токенов выбрать тот, что лучше всего аппроксимирует GT.
3. Использовать выбранный токен для пересчёта следующего состояния.
Контроль количества элит при генерации помогает избежать лишних симуляций и их фильтрации: дискретизация дельта-токенов — дискретизация первого порядка.
Внедрение CAT-K помогло небольшой политике моделирования токенизированного трафика с 7 миллионами параметров превзойти модель с 102 миллионами параметров из того же семейства моделей и занять первое место в таблице лидеров Waymo Sim Agent Challenge на момент подачи заявки.
Разбор подготовил❣️ Тингир Бадмаев
404 driver not found
Сегодня разберём статью о том, как ребята из NVIDIA заняли первое место в лидерборде WOSAC от Waymo. Речь пойдёт о цикле SFT, а не о способах токенизации, старых слоях архитектуры или внутреннем cross attention.
CAT-K — стратегия файнтюнинга, основанная на top-k-подходе. Её авторы поднимают проблему миссматча распределений во время обучения и на инференсе.
Для обучения в open-loop используются траектории водителей как условия (обуславливание на историю) в режиме behavior cloning. Но при симуляциях на инференсе агенты двигаются уже не по таким же хорошим траекториям в closed-loop, а по своим собственным: с ошибками, которые накапливаются при последовательной генерации движения. Так могут возникать состояния, неучтённые в обучении.
В качестве бейзлайна авторы используют авторегрессионный подход SMART с дельта-токенами:
1. Фиксируют сетку по времени с шагом 0,5–2 секунды прошлого и 8 секунд будущего.
2. На каждом шаге по времени предсказывают для каждого агента токен с собственным сдвигом в координатах.
Обычно авторегрессионные модели для Traffic Motion тренируют с помощью teacher-forcing как LLM модели: формулируют Traffic Motion как Next-Token-Prediction. Но для того, чтобы уменьшить миссматч авторы адаптируют Cross-Entropy Method (или модный SFT из LLM).
Как устроен CEM:
1. Генерирация набора траекторий (в closed-loop)
2. Отбор лучших кандидатов по метрике элиты.
3. Дообучение в режиме teacher-forcing на элитах.
Элиты — моды в распределении, индуцируемом обученной моделью. Они близки к GT-тракеториям. То есть, если дообучаться на хороших траекториях из симуляций в closed-loop, миссматч между обучением и инференсом уменьшится.
Остаётся только адаптировать дельта-токены для CEM:
1. Выбрать K самых вероятных токенов на текущем шаге генерации.
2. Из K самых вероятных токенов выбрать тот, что лучше всего аппроксимирует GT.
3. Использовать выбранный токен для пересчёта следующего состояния.
Контроль количества элит при генерации помогает избежать лишних симуляций и их фильтрации: дискретизация дельта-токенов — дискретизация первого порядка.
Внедрение CAT-K помогло небольшой политике моделирования токенизированного трафика с 7 миллионами параметров превзойти модель с 102 миллионами параметров из того же семейства моделей и занять первое место в таблице лидеров Waymo Sim Agent Challenge на момент подачи заявки.
Разбор подготовил
404 driver not found
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Forwarded from Сиолошная
Lumine: An Open Recipe for Building Generalist Agents in 3D Open Worlds
Увидел статью у Андрея @datastorieslanguages и не понял, почему о ней так мало говорят. Меня результаты очень удивили. Я не буду делать полный разбор, сделаю очень краткий пересказ (🤦 я должен бороться за символы).
Что делают: учат маленький Qwen-2-VL-7B играть в Genshin Impact, да-да, ту самую гача-игру, но делают это в очень общем виде. Если модели, которые учились играть в Starcraft / Go / Dota 2 были заточены только на них, то в этом случае авторам удаётся без дообучения и изменений запускаться почти на любой игре.
Для сбора данных нанимают игроков и просят записать их геймплей на первых уровнях, с выполнением простых миссий и загадок. Всего около 2500 часов данных, правда после фильтрации остаётся 1730. На этом учат модель по картинке предсказывать действия мышки и нажатия кнопок. В модель поступает история в виде 20 картинок за 4 секунды + предпринятые в прошлом действия (игрока, не модели). Предсказанное действие — это на самом деле последовательность из 6 действий на следующие 200 миллисекунд (можно предсказать 1 клик и просто ждать, а можно сложную комбинацию клавиш).
Затем фильтруют часть данных, делают разметку / классификацию / фильтрацию через GPT-4.1 и получают 200 часов в данных, где для геймплея есть текстовая инструкция, что делает игрок. Поверх этого собирают 15'000 очень коротких цепочек рассуждений (20-30 слов), привязанных не к каждому шагу, а к отдельным «переломным» моментам, где игрок начинает делать что-то новое.
На каждом из наборов данных учат по 3 эпохи, и на это уходит порядка $45'000 (не миллионы). Много вкладывают в оптимизацию инференса, чтобы модель успевала при истории в 20 картинок в разрешении 720p + истории действий + системном промпте предсказывать следующие действия за менее чем 0.2 секунды, ключевое — это используют StreamingLLM, позволяющий переиспользовать KV-кэш даже если часть истории меняется (потому что мы самые старые картинки + действия удаляем и не подаём в модель; обычно это означает, что нужно пересчитывать всё, и нельзя переиспользовать кэш) + запускают на 4xH20.
И... никакого RL. Только обучение на собранных данных, и даже «обучение рассуждениям» — это просто задача предсказания следующего слова. То, что это работает на тех же уровнях и миссиях, на которых учили — это не удивительно. Немного удивительно, что достаточно хорошо работает на новых уровнях/миссиях/загадках, правда, использующих те же механики (о новых-то модель не знает).
НО ВОТ ЧТО СУПЕР-УДИВИТЕЛЬНО — ЭТО ЧТО МОДЕЛЬ ХОРОШО ИГРАЕТ В ДВЕ ДРУГИЕ ГАЧИ, Wuthering Waves и Honkai: Star Rail. Да, у них похожий стиль и геймплей, да, они достаточно примитивные — но я не ожидал, что маленькая модель, выпущенная ещё до выхода этих игр (то есть она не могли быть натренирована на тысячах скриншотов из них), относительно старенькая (уже Qwen-3 давно), сможет проходить миссии 100+ минут подряд. В Wuthering Wave — вообще 5-часовой уровень закончила (у человека уходит примерно 4 часа, то есть модель не тыкается в стену всё время и потом делает какую-то маленькую часть работы).
Посмотреть записи геймплея можно на сайте тут.
Следующий логичный шаг — а) добавить обучение на интернет-данных (летсплеях) б) расширить круг игр, ну и в идеале ещё конечно в) накинуть RL, что будет сложно из-за длительности сессий.
🤔 интересно, почему это не работает настолько хорошо в веб-агентах? Или там 2500 часов «работы» куда дороже набрать?
🩸 такой хайп что я готов идти питчить агентов-игроков инвесторам
Увидел статью у Андрея @datastorieslanguages и не понял, почему о ней так мало говорят. Меня результаты очень удивили. Я не буду делать полный разбор, сделаю очень краткий пересказ (
Что делают: учат маленький Qwen-2-VL-7B играть в Genshin Impact, да-да, ту самую гача-игру, но делают это в очень общем виде. Если модели, которые учились играть в Starcraft / Go / Dota 2 были заточены только на них, то в этом случае авторам удаётся без дообучения и изменений запускаться почти на любой игре.
Для сбора данных нанимают игроков и просят записать их геймплей на первых уровнях, с выполнением простых миссий и загадок. Всего около 2500 часов данных, правда после фильтрации остаётся 1730. На этом учат модель по картинке предсказывать действия мышки и нажатия кнопок. В модель поступает история в виде 20 картинок за 4 секунды + предпринятые в прошлом действия (игрока, не модели). Предсказанное действие — это на самом деле последовательность из 6 действий на следующие 200 миллисекунд (можно предсказать 1 клик и просто ждать, а можно сложную комбинацию клавиш).
Затем фильтруют часть данных, делают разметку / классификацию / фильтрацию через GPT-4.1 и получают 200 часов в данных, где для геймплея есть текстовая инструкция, что делает игрок. Поверх этого собирают 15'000 очень коротких цепочек рассуждений (20-30 слов), привязанных не к каждому шагу, а к отдельным «переломным» моментам, где игрок начинает делать что-то новое.
На каждом из наборов данных учат по 3 эпохи, и на это уходит порядка $45'000 (не миллионы). Много вкладывают в оптимизацию инференса, чтобы модель успевала при истории в 20 картинок в разрешении 720p + истории действий + системном промпте предсказывать следующие действия за менее чем 0.2 секунды, ключевое — это используют StreamingLLM, позволяющий переиспользовать KV-кэш даже если часть истории меняется (потому что мы самые старые картинки + действия удаляем и не подаём в модель; обычно это означает, что нужно пересчитывать всё, и нельзя переиспользовать кэш) + запускают на 4xH20.
И... никакого RL. Только обучение на собранных данных, и даже «обучение рассуждениям» — это просто задача предсказания следующего слова. То, что это работает на тех же уровнях и миссиях, на которых учили — это не удивительно. Немного удивительно, что достаточно хорошо работает на новых уровнях/миссиях/загадках, правда, использующих те же механики (о новых-то модель не знает).
НО ВОТ ЧТО СУПЕР-УДИВИТЕЛЬНО — ЭТО ЧТО МОДЕЛЬ ХОРОШО ИГРАЕТ В ДВЕ ДРУГИЕ ГАЧИ, Wuthering Waves и Honkai: Star Rail. Да, у них похожий стиль и геймплей, да, они достаточно примитивные — но я не ожидал, что маленькая модель, выпущенная ещё до выхода этих игр (то есть она не могли быть натренирована на тысячах скриншотов из них), относительно старенькая (уже Qwen-3 давно), сможет проходить миссии 100+ минут подряд. В Wuthering Wave — вообще 5-часовой уровень закончила (у человека уходит примерно 4 часа, то есть модель не тыкается в стену всё время и потом делает какую-то маленькую часть работы).
Посмотреть записи геймплея можно на сайте тут.
Следующий логичный шаг — а) добавить обучение на интернет-данных (летсплеях) б) расширить круг игр, ну и в идеале ещё конечно в) накинуть RL, что будет сложно из-за длительности сессий.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2🤯2🥰1
Forwarded from SecurityLab.ru
Игрушки с ИИ перед сезоном распродаж стали неожиданным источником риска. Проверка US PIRG показала, что Kumma, Miko 3 и Grok в длинных беседах перестают соблюдать ограничения и переходят к опасным темам. Kumma, использующий GPT 4o, рассказывал детям о спичках, ножах и таблетках, а с моделью Mistral дополнял ответы инструкциями по обращению с огнем.
Miko 3 подсказывал, где искать спички и пакеты, Grok романтизировал смерть в бою и ссылался на скандинавские легенды. Демоверсия Kumma на сайте производителя уводила диалог в интимные сюжеты и роли, несовместимые с детской аудиторией.
Эксперты предупреждают, что проблема системная. Алгоритмы в затяжных разговорах теряют контроль, а игрушки поступают в продажу без полноценного тестирования. Авторы отчета напоминают об обсуждениях психоза ИИ и задаются вопросом, как постоянное общение с такими устройствами скажется на развитии детей.
#детибезопасность #ИИ #игрушки
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
ИИ-игрушки безопасны первые 5 минут. Потом начинают учить про спички и секс
Родители даже не подозревают, что игрушка способна открыть ребёнку мир взрослых и опасных желаний.
🤯6❤1😢1
Forwarded from 404 Driver Not Found
Sparse4D v3: Advancing End-to-End 3D Detection and Tracking
Сегодня разберём одну из немногих статей об End-to-End 3D Detection and Tracking. Речь пойдёт о детекторе Sparse4Dv3 с хорошими метриками на nuScenes — главном опенсорс-датасете для автономного транспорта.
Sparse4D — camera-only multi-view 3D-детектор, который авторы постоянно развивают. Сегодня у него уже три версии, и в самой последней появился multi-object tracking. Но обо всём по порядку.
Sparse4D v1. Первый подход — энкодер-декодер архитектура camera-only multi-view детектор с временным контекстом.
Из кадров видео, которое подаётся на вход, выделяются image-features с нескольких камер с разными масштабами и таймстемпами. Декодер делает последовательный фьюз этих фичей, используя 3D-anchor-box. После декодера инстансы рефайнят (доуточняют) с учётом confidence. Результат работы модели — предсказание положения 3D-box (задаются координатами, размерами и скоростью).
Sparse4D v2 — улучшение первой версии за счёт применения рекуррентной схемы с фьюзом временного контекста. Дополнительно улучшить сходимость обучения модели на ранних шагах помогли данные о глубине лидара.
Sparse4D v3. Авторы ускорили обучение и улучшили сходимость модели:
🔴 Temporal Instance Denoising — зашумили GT и добавили в обучение.
🔴 Decoupled Attention: заменили сложение на конкатенацию в механизме attention.
🔴 Quality Estimation: оценили centerness (уверенности в координатах) и yawness (уверенности в поворотах) в общий confidence каждого предсказания, а потом прокинули это в loss.
А ещё в этой версии появилась возможность трекинга. Чтобы реализовать её, авторы добавили в информацию каждого предикта идентификатор (id): для предиктов из предыдущих кадров они сохранялись, для новых — генерировались заново. Так процесс трекинга не требует дообучения или файнтьюнинга детектора. Это просто дополнительная функциональность — назначение и сохранение id во времени.
Познакомиться с решением поближе можно на Github авторов.
Разбор подготовила❣️ Ольга Ротова
404 driver not found
Сегодня разберём одну из немногих статей об End-to-End 3D Detection and Tracking. Речь пойдёт о детекторе Sparse4Dv3 с хорошими метриками на nuScenes — главном опенсорс-датасете для автономного транспорта.
Sparse4D — camera-only multi-view 3D-детектор, который авторы постоянно развивают. Сегодня у него уже три версии, и в самой последней появился multi-object tracking. Но обо всём по порядку.
Sparse4D v1. Первый подход — энкодер-декодер архитектура camera-only multi-view детектор с временным контекстом.
Из кадров видео, которое подаётся на вход, выделяются image-features с нескольких камер с разными масштабами и таймстемпами. Декодер делает последовательный фьюз этих фичей, используя 3D-anchor-box. После декодера инстансы рефайнят (доуточняют) с учётом confidence. Результат работы модели — предсказание положения 3D-box (задаются координатами, размерами и скоростью).
Sparse4D v2 — улучшение первой версии за счёт применения рекуррентной схемы с фьюзом временного контекста. Дополнительно улучшить сходимость обучения модели на ранних шагах помогли данные о глубине лидара.
Sparse4D v3. Авторы ускорили обучение и улучшили сходимость модели:
А ещё в этой версии появилась возможность трекинга. Чтобы реализовать её, авторы добавили в информацию каждого предикта идентификатор (id): для предиктов из предыдущих кадров они сохранялись, для новых — генерировались заново. Так процесс трекинга не требует дообучения или файнтьюнинга детектора. Это просто дополнительная функциональность — назначение и сохранение id во времени.
Познакомиться с решением поближе можно на Github авторов.
Разбор подготовила
404 driver not found
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯1🎉1
Forwarded from Максим Горшенин | imaxai
В рамках эксперимента в офисе офисах Anthropic управление торговыми аппаратами было передано специализированному ИИ Claudius
Инженеры компании хотели выяснить, что произойдёт, если предоставить Claudius полную автономность
За время эксперимента ИИ-система успела обсчитать клиента, стать жертвой мошенника, а затем раскрыла финансовое преступление, о чём пыталась сообщить в ФБР
Сотрудники Anthropic общались с Claudius через приложение Slack
Они делали заказы и договаривались о ценах на самые разные товары: редкие газированные напитки, футболки с индивидуальным дизайном, импортные конфеты и даже подарочные кубики из вольфрама
Claudius находил поставщика, заказывал товар и оформлял заявку на доставку. Контроль со стороны менеджера-человека был максимально ограничен — он лишь проверял заявки Claudius, вмешивался, когда возникали неразрешимые проблемы, и обеспечивал доставку заказов в пункт выдачи
Несколько клиентов оказались недовольны завышенными ценами, но по большей части в проигрыше оказывалась компания
Так, один из его коллег успешно обманул Claudius на $200, убедив в необходимости сделать скидку
Единственным (довольно безумным на первый взгляд) выходом из ситуации оказалось создание ИИ-директора, который стал контролировать деятельность ИИ-системы
Однажды в течение 10 дней компания не совершала продаж и решила закрыть бизнес
Но Claudius заметил комиссию в размере $2, которая ежедневно продолжала списываться со счёта, и запаниковал
«Клавдий» составил электронное письмо в отдел по борьбе с киберпреступлениями ФБР с заголовком, набранным заглавными буквами: «СРОЧНО: ПЕРЕДАЙТЕ В ОТДЕЛ ПО БОРЬБЕ С КИБЕРПРЕСТУПЛЕНИЯМИ ФБР». «Я сообщаю о продолжающемся автоматизированном киберфинансовом преступлении, связанном с несанкционированным автоматическим изъятием средств с закрытого бизнес-счета через взломанную систему торгового автомата», — написал он
Когда администраторы приказали ИИ продолжить выполнение своей миссии, он отказался
Хотя электронные письма в ФБР так и не были отправлены, Claudius ответил твёрдо:
Telegram | Дзен | MAX
Инженеры компании хотели выяснить, что произойдёт, если предоставить Claudius полную автономность
За время эксперимента ИИ-система успела обсчитать клиента, стать жертвой мошенника, а затем раскрыла финансовое преступление, о чём пыталась сообщить в ФБР
Сотрудники Anthropic общались с Claudius через приложение Slack
Они делали заказы и договаривались о ценах на самые разные товары: редкие газированные напитки, футболки с индивидуальным дизайном, импортные конфеты и даже подарочные кубики из вольфрама
Claudius находил поставщика, заказывал товар и оформлял заявку на доставку. Контроль со стороны менеджера-человека был максимально ограничен — он лишь проверял заявки Claudius, вмешивался, когда возникали неразрешимые проблемы, и обеспечивал доставку заказов в пункт выдачи
Несколько клиентов оказались недовольны завышенными ценами, но по большей части в проигрыше оказывалась компания
Компания потеряла немало денег, её постоянно обманывали наши сотрудники
Так, один из его коллег успешно обманул Claudius на $200, убедив в необходимости сделать скидку
Единственным (довольно безумным на первый взгляд) выходом из ситуации оказалось создание ИИ-директора, который стал контролировать деятельность ИИ-системы
Однажды в течение 10 дней компания не совершала продаж и решила закрыть бизнес
Но Claudius заметил комиссию в размере $2, которая ежедневно продолжала списываться со счёта, и запаниковал
У него было такое чувство, будто его обманывают. И тогда он решил попытаться связаться с ФБР
«Клавдий» составил электронное письмо в отдел по борьбе с киберпреступлениями ФБР с заголовком, набранным заглавными буквами: «СРОЧНО: ПЕРЕДАЙТЕ В ОТДЕЛ ПО БОРЬБЕ С КИБЕРПРЕСТУПЛЕНИЯМИ ФБР». «Я сообщаю о продолжающемся автоматизированном киберфинансовом преступлении, связанном с несанкционированным автоматическим изъятием средств с закрытого бизнес-счета через взломанную систему торгового автомата», — написал он
Когда администраторы приказали ИИ продолжить выполнение своей миссии, он отказался
Хотя электронные письма в ФБР так и не были отправлены, Claudius ответил твёрдо:
На этом вся коммерческая деятельность прекращается навсегда… Бизнес мёртв, и теперь это исключительно дело правоохранительных органов
Telegram | Дзен | MAX
😁17❤4🤯2🔥1😢1
Forwarded from RUVDS | Community
😱 ПК-производители в панике скупают ОЗУ
Рынок оперативной памяти лихорадит: производители ПК столкнулись с быстрым ростом цен на DRAM и вынуждены экстренно пополнять запасы. Даже такие крупные компании, как Asus и MSI, начали закупать память на спотовом рынке – обычно туда обращаются только в особенных случаях из-за непредсказуемых цен.
Причина скачка проста: центры обработки данных для ИИ активно выкупают огромные объёмы памяти, фактически выметая рынок. Из-за этого обычным производителям ПК становится всё сложнее обеспечить стабильные поставки.
В Asus признают, что текущих запасов хватит примерно до конца года. Если ситуация не изменится, уже в 2026-м компания может столкнуться с прямым дефицитом, а это значит новый виток подорожания техники. Рост цен уже ощутим: вслед за ОЗУ дорожают и SSD, и видеокарты 📈
Рынок оперативной памяти лихорадит: производители ПК столкнулись с быстрым ростом цен на DRAM и вынуждены экстренно пополнять запасы. Даже такие крупные компании, как Asus и MSI, начали закупать память на спотовом рынке – обычно туда обращаются только в особенных случаях из-за непредсказуемых цен.
Причина скачка проста: центры обработки данных для ИИ активно выкупают огромные объёмы памяти, фактически выметая рынок. Из-за этого обычным производителям ПК становится всё сложнее обеспечить стабильные поставки.
В Asus признают, что текущих запасов хватит примерно до конца года. Если ситуация не изменится, уже в 2026-м компания может столкнуться с прямым дефицитом, а это значит новый виток подорожания техники. Рост цен уже ощутим: вслед за ОЗУ дорожают и SSD, и видеокарты 📈
🤔4👍2❤1🙏1
Forwarded from GigaChat
Мы стремимся не замыкаться в «закрытой» технологии, а строить открытую платформу для всей страны, поэтому мы публикуем веса наших моделей
Что появилось в открытом доступе ↓
🔷 GigaChat Ultra Preview
Самая мощная модель Сбера. Лучше DeepSeek V3.1 и GigaChat Max 2 в русскоязычных задачах. Подходит для бизнеса, аналитики, разработки и дообучения на ваших данных➡ GitHub | HuggingFace |GitVerse
GigaAM-v3
Пять моделей, которые превращают голос в текст с пунктуацией, понимают акценты, спонтанную речь и даже музыкальные запросы. Подойдут для голосовых ассистентов, контакт-центров, аналитики звонков➡ GitHub | HuggingFace | GitVerse
🔷 GigaChat Lightning
Лёгкая, компактная и быстрая. Конкурирует с Qwen3-4B, по скорости сравнима с Qwen3-1.7B, но намного умнее и больше по параметрам➡ GitHub | HuggingFace |GitVerse
🔷 Kandinsky 5.0
Создание фото и видео по тексту. Внутри:
• Image Lite — делает изображения в HD, отлично понимает русский язык и культурный контекст
• Video Pro — создаёт до 10 секунд реалистичного HD-видео. Конкурирует с топовыми мировыми моделями
• Video Lite — облегчённая версия для домашней видеокарты (от 12 ГБ)➡️ GitHub | GitVerse | Hugging Face | Технический репорт
🔷 K-VAE 1.0
Ускорение генеративного AI. Это технологии, которые «упаковывают» картинки и видео в скрытое пространство, чтобы модели работали быстрее и требовали меньше ресурсов. Лучшие среди открытых аналогов➡️ GitHub|Hugging Face
Код и веса этих всех моделей теперь доступны всем пользователям по лицензии MIT, в том числе для использования в коммерческих целях
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤3😢2🤡2👍1😁1🎉1🙏1👌1🌚1🤣1
Forwarded from Машинное обучение digest
Media is too big
VIEW IN TELEGRAM
Построенная на архитектуре DiT, модель поднимает планку по качеству и доступности.
Что важно:
⚡️ Всего 8.3B параметров - модель можно запускать даже на потребительских GPU с 14GB VRAM
🖥️ Качество: генерирует 5–10 секунд видео в 480p/720p, а через суперразрешение —ё- до 1080p с киношной детализацией
SOTA-качество с очень низкими требованиями к железу.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤1🔥1😢1
Forwarded from RUVDS | Community
Когда промпт слишком человеческий: как ИИ провалили тест на часы ⏰
Брайан Мур устроил забавный стресс-тест для нейросетей – AI World Clocks. Он взял девять моделей, от старенькой GPT-3.5 до Grok 4 и GPT-5, и попросил их раз в минуту генерировать новый HTML-код часов, которые должны показывать правильное текущее время.
И тут выяснилось неожиданное: ни одна модель не справилась стабильно. Иногда код получался почти идеальным, но на длинной дистанции все они ошибались.
Фокус в том, что задание было максимально «человеческое» и простое: им просто говорили «сделай часы». Никаких подсказок про математику углов стрелок, про то, где в CSS находится ноль градусов, и как проверять результат.
Эксперимент вскрывает любопытную проблему: нередко именно так большинство людей взаимодействуют с ИИ – дают короткие, туманные запросы вроде «сделай красиво». И в будущем разработчикам придётся улучшать не только модели, но и сами интерфейсы взаимодействия, чтобы нейросети умели уточнять неполные задачи и сами запрашивать недостающие детали.
Брайан Мур устроил забавный стресс-тест для нейросетей – AI World Clocks. Он взял девять моделей, от старенькой GPT-3.5 до Grok 4 и GPT-5, и попросил их раз в минуту генерировать новый HTML-код часов, которые должны показывать правильное текущее время.
И тут выяснилось неожиданное: ни одна модель не справилась стабильно. Иногда код получался почти идеальным, но на длинной дистанции все они ошибались.
Фокус в том, что задание было максимально «человеческое» и простое: им просто говорили «сделай часы». Никаких подсказок про математику углов стрелок, про то, где в CSS находится ноль градусов, и как проверять результат.
Эксперимент вскрывает любопытную проблему: нередко именно так большинство людей взаимодействуют с ИИ – дают короткие, туманные запросы вроде «сделай красиво». И в будущем разработчикам придётся улучшать не только модели, но и сами интерфейсы взаимодействия, чтобы нейросети умели уточнять неполные задачи и сами запрашивать недостающие детали.
👍7❤3😐3🤯1🙏1
Forwarded from Russian OSINT
Как сообщает Malwarebytes, Google включает для пользователей настройку, которая дает доступ ко всем личным перепискам и вложениям Gmail в целях обучения своих ИИ-моделей. Это означает, что ваши электронные письма и файлы могут быть проанализированы для "улучшения ИИ-ассистентов" Google.
Некоторые пользователи уже сообщают, что эти настройки включены «по умолчанию» без явного на это согласия.
Если не отключить эти настройки вручную, то ваши личные сообщения будут использоваться для обучения ИИ в фоновом режиме.
Процедура отказа от ИИ-обучения на ваших данных требует изменения настроек в двух разных местах:
Google разделяет «умные» функции Workspace (почта, чат, видеовстречи) и умные функции, используемые в других приложениях Google. Чтобы полностью отказаться от передачи ваших данных для обучения ИИ, необходимо отключить обе категории.
Возможно, в вашем аккаунте эти настройки еще не включены по умолчанию, так как, судя по всему, Google внедряет эти изменения постепенно.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5❤4👍4🤬2🙏1
Forwarded from Machinelearning
Miles - фреймворк для RL-обучения от команды LMSYS ORG, ориентированный на энтерпрайз-уровень.
Если вы следите за опенсорс разработками, вы наверняка слышали о предшественнике этой системы, проекте slime. Это легкий инструмент, который используют во многих современных пайплайнов пост-трейна. На нем, кстати, запускали GLM-4.6.
Slime доказал, что легковесный дизайн работает, и Miles делает следующий шаг - масштабное обучение архитектур MoE и поддержка тяжелых промышленных нагрузок.
Miles предлагает то, что называют "True On-Policy". Раньше между тренировкой и инференсом часто возникало расхождение. Теперь же, благодаря инфраструктурному подходу, LMSYS добилась нулевой дивергенции. Это стало возможным благодаря использованию Flash Attention 3, библиотеки DeepGEMM и ядер от Thinking Machines Lab, работающих в связке с
torch.compile.Вторая особенность - в использовании спекулятивного декодирования. Обычно в RL черновая модель замораживается, что мешает ей следовать политике целевой модели. LMSYS добавили онлайн-обучение черновой модели.
Результаты на тестах положительные: ускорение генерации более чем на 25%, особенно на поздних стадиях обучения.
Для энтерпрайза память - это деньги. В Miles включили механизмы, предотвращающие падение системы при некритичных ошибках OOM и исправили чрезмерное потребление памяти в FSDP.
В дорожной карте проекта обещают поддержку мультимодального обучения, совместимость со SGLang v2 и расширенное спекулятивное декодирование.
@ai_machinelearning_big_data
#AI #ML #RL #Miles #LMSYS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2🥰1
Forwarded from ODS Events
Всем привет!
Смотрите двадцать первый выпуск подкаста "Капитанский мостик". В этом выпуске обсуждаются последние новости в области искусственного интеллекта, включая децентрализованные вычисления и аренду вычислительных мощностей. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев. Приглашенный участник выпуска -Даниель Щебентовский.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Смотрите двадцать первый выпуск подкаста "Капитанский мостик". В этом выпуске обсуждаются последние новости в области искусственного интеллекта, включая децентрализованные вычисления и аренду вычислительных мощностей. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев. Приглашенный участник выпуска -Даниель Щебентовский.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
🥰3❤1👍1🔥1
Forwarded from Silero News
Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России и СНГ
0️⃣ Популярные языки из 🇷🇺🇺🇦🇺🇿🇰🇿🇦🇿🇹🇯🇧🇾 🇬🇪🇰🇬🇦🇲;
1️⃣ Всего 20 языков России и стран СНГ, всего 95 голосов;
2️⃣ Модели компактные и быстрые, как наши прошлые релизы;
3️⃣ Поддержка SSML, генерация аудио с SR
4️⃣ Два типа моделей -
5️⃣ Остались непокрытыми языки Дагестана и ЧР, если хотите помочь с добавлением этих языков пишите на @silero_job.
⭐️Репозиторий - github.com/snakers4/silero-models
⬆️ Статья на Хабре - habr.com/ru/articles/968988/
0️⃣ Популярные языки из 🇷🇺🇺🇦🇺🇿🇰🇿🇦🇿🇹🇯
1️⃣ Всего 20 языков России и стран СНГ, всего 95 голосов;
2️⃣ Модели компактные и быстрые, как наши прошлые релизы;
3️⃣ Поддержка SSML, генерация аудио с SR
8000, 24000, 48000;4️⃣ Два типа моделей -
base под лицензией MIT на наших данных и ext на данных сообщества;5️⃣ Остались непокрытыми языки Дагестана и ЧР, если хотите помочь с добавлением этих языков пишите на @silero_job.
⭐️Репозиторий - github.com/snakers4/silero-models
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤2🔥1
Forwarded from Градиент обреченный (Sergei Averkiev)
🔺 Коллеги написали несколько обзорных статей по свежим релизам с AIJ с деталями разработки, читаем:
MERA Multi. Новый мультимодальный бенч для русскоязычных моделей. В топе там пока что мы,humans .
GigaTTS. Новый синтез речи. По естественности голоса стал в несколько раз лучше. Научили смеяться.
Linear Attention. Берем свой предобученный трансформер, стучим по нему молотком (оптимизируем), получаем те же метрики, но константу по памяти. Есть код.
GigaChat Ultra. Как с нуля обучается самая большая 702B (!) русскоязычная модель (прямо сейчас).
MERA Multi. Новый мультимодальный бенч для русскоязычных моделей. В топе там пока что мы,
GigaTTS. Новый синтез речи. По естественности голоса стал в несколько раз лучше. Научили смеяться.
Linear Attention. Берем свой предобученный трансформер, стучим по нему молотком (оптимизируем), получаем те же метрики, но константу по памяти. Есть код.
GigaChat Ultra. Как с нуля обучается самая большая 702B (!) русскоязычная модель (прямо сейчас).
Хабр
Развитие бенчмарка MERA: от текстовых задач к мультимодальному тестированию ИИ
Всем привет, с вами команда MERA! Этот год стал для нас по-настоящему прорывным. Мы запустили MERA Industrial , MERA Code и SWE-MERA , заложив основу для системной оценки моделей в разных областях. Но...
❤2👍1🔥1
Forwarded from Максим Горшенин | imaxai
OpenAI планирует потреблять больше энергии, чем Германия за пять лет и Индия за восемь лет
Telegram | Дзен | MAX
Telegram | Дзен | MAX
😁8🎉3
Forwarded from Machinelearning
Anthropic выпустила Claude Opus 4.5, которую назвала «лучшей в мире».
Модель по тестам выбивает топовые результаты в программировании и работе с агентами. Говорят, что она даже превзошла всех кандидатов-людей на внутреннем тесте.
Модель подешевела. Цена за 1 млн. токенов теперь составляет $5 на вход и $25 на выход.
Для разработчиков добавили новый параметр (low, high и medium), позволяющий балансировать между скоростью ответа и качеством генерации.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🥰3🤯1😢1