Love. Death. Transformers.
22.5K subscribers
4.23K photos
498 videos
76 files
2.77K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
🔥30🎉7🎄6😁1🗿1
Выложили пэйпер про T-pro 2.0

До-тренировка опенсорса на другой язык дает лучше результат на этом языке и значительно эффективней в инференсе за счет локального токенизатора и оптимизированного спекулятивного декодера.

Все расписали в репорте: архитектура, датамикс, подход к обучению, токенизации и прочее.

Если вы захотите повторить наш опыт, можете пользоваться рецептом.

Поставьте нам лайкосов на Hugging Face 🤗

HF | arXiv
👍31🥴13🔥7💩1😍11
нужны ли права на трактор чтобы гонять b300
447🔥3😁1
я второй час наблюдаю как клод код борется вот с этим, мы в безопасности пока бенчи пишутся так, даже если AGI выйдет хуй он это докажет
🥴614🔥2
Forwarded from ML Underhood
Alice AI VLM dev на MWS Vision Bench: что конкретно изменилось в модели (и вокруг неё)

Сегодня наша базовая визуально-языковая модель Alice AI VLM dev появились на втором месте в MWS Vision Bench с результатами Overall private test: 0,646 (img→text: 0,885, img→markdown: 0,776, Grounding: 0,060, KIE (JSON): 0,729, VQA: 0,781). Alice AI VLM dev — часть большой Alice AI VLM. Расскажем, как всё обучалось.

Инженеры Яндекса сумели добиться хороших результатов благодаря обучению модели не только под пользовательские сценарии, но и под бизнесовые. Внутри компании используют VLM для автоматизации документооборота, разметок и многого другого. На этих доменах модель обучается как на стадии претрейна, так и на стадии алайнмента.

В сценарии «картинка + вопрос» качество упирается не только в генерацию ответа, но и в то, как модель видит изображение, читает текст на нём и следует инструкции. В продакшене Alice AI VLM работает в связке: «называтель» извлекает объекты и строит их иерархию с учётом текстового запроса, а VLM‑рефразер маршрутизирует запрос либо в основной VLM‑генератор, либо в специализированные ветки (например, «решатель»), либо в Alice AI LLM. Alice AI VLM dev (она же базовая VLM) — это та же модель, которая работает в продакшене как «генератор» и «решатель», но обрабатывающая запросы пользователя напрямую, без предыдущих этапов.

Обучение VLM двухэтапное: на претрейне мультимодальное next‑token-обучение на большом корпусе, а на алайнменте — SFT + RL, где модель доводят до «ассистентского» поведения.

Претрейн

Увеличили Image‑encoder и размер картинки на входе без деградации — с 896×896 до 1024×1024. Благодаря этому выросло качество работы с деталями, вроде формул, таблиц, этикеток и дорожных знаков.

Также переформатировали OCR‑данные. Раньше в датасете часто встречались пары «картинка + весь распознанный текст», что хорошо помогало учить модель непосредственно на чтение, но этого было недостаточно для некоторых других сценариев. Например для задач на понимание логической и пространственной связи между блоками текста.

Теперь обучают VLM отвечать в разных форматах на OCR-данных: выписывая весь текст самостоятельно, выписывая координаты текста вместе с ним, используя текст внешнего OCR или напрямую отвечая на вопрос пользователя. Такой grounded‑OCR улучшает извлечение таблиц и списков, а также выполнение задач на поиск контента.

Объём претрейна увеличился с 400 миллиардов до 600 миллиардов токенов, а максимальную длину контекста целенаправленно проучили до 32 тысяч. Это позволяет обрабатыватьдлинные документы и несколько изображений в одном запросе.

Алайнмент

Раньше фотоинпут получался через дообучение поверх базовой VLM Яндекса: это давало продуктовые фичи, но обновления базовой модели требовали пересборки датасетов, а по пути могли проседать базовые навыки (OCR, следование некоторым инструкциям).

В последнем релизе сделали «Алису из коробки»: та же базовая VLM стала Alice AI VLM — моделью, отвечающей пользователю. А датасеты и метрики алайнмента объединили так, чтобы одновременно контролировать показатели как «технической» мультимодальности, так и продуктовой.

Отдельно перенесли сетап RL из текстовой Alice AI LLM. Теперь оптимизируют не только правильность, но и полноту, полезность и проактивность ответа. На потоковой корзине SbS новая версия выигрывает у предыдущей в 63% случаев.

Подробнее об обучении нашей VLM — читайте в соответствующем разделе технического отчёта. Там же можно узнать и об изменениях в других моделях семейства.
🔥28💩177❤‍🔥6🥴6🆒53💊2👍1🤔1💋1
хочется быть как этот ex руководитель из deepmind, спускать по 30к на кокс, показывать картинки со своего онлифанс коллегам и больше Н И К О Г Д А не быть неправым. Pure cinema
😁49🎄11❤‍🔥8🤔3
😇112😁66🥴2👍1🔥1😨1🤗1
Forwarded from commit history
🎄 Релизим 67 074 траектории Qwen3-Coder с OpenHands + 2 RFT чекпоинта.

> Мы выкладываем: 67 000+ траекторий по 3 800 решенным задачам в 1 800+ Python репозиториях.

> Примерно в 3 раза больше успешных траекторий и в 1.5 раза больше репозиториев, чем в нашем прошлом датасете.

> Траектории длинные: в среднем 64 шага, до 100 шагов и контекст до 131k токенов.

> RFT на этих данных, SWE-bench Verified:
Qwen3-30B-Instruct: 25.7% → 50.3% Pass@1.
Qwen3-235B-Instruct: 46.2% → 61.7% Pass@1.
Также сильный рост на SWE-rebench September (цифры в блог посте)

> Мы сделали много эвалов.
прогнали OpenHands с лимитом 100 и 500 шагов.
Запускаем на SWE-bench Verified и сентябрьском SWE-rebench.

> Мы отдельно проверяем тесты, которые пишет модель.
Считаем, как часто тесты корректны.
Проверяем, как часто финальный патч модели проходит ее собственные тесты.
В итоге получаем пул данных в том числе для обучения верифаеров.

Полностью Permissive License
Датасет и модели: https://huggingface.co/collections/nebius/openhands-trajectories

Подробный блогпост: https://nebius.com/blog/posts/openhands-trajectories-with-qwen3-coder-480b

Пост в x: https://x.com/ibragim_bad/status/2003423706861936856

P.S. Прошу поддержать пост в x, если у вас есть аккаунт!
🔥22🤔21👍4😍3😭1🗿1🙉1
Обновление LLM T-Pro и T-Lite

Ребята из T-Банка релизнули в опенсорс T-Pro 2.1 и T-Lite 2.1, закрыв два самых болезненных слабых места для продакшен-агентов: неточное следование сложным инструкциям (IF) и неточный tool calling. Вместо общих улучшений они точечно доучили модели на синтетике, сгенерированной их собственным пайплайном, и применили RL (GRPO) с хитрой reward-функцией, которая проверяет и формат, и смысл, чтобы избежать reward hacking. В итоге T-Pro 2.1 (32B) показывает на русском IFEval 0.8065, а на BFCL v3 (RU) по тул-коллингу — 65.96, что ставит его в топ открытых моделей для русскоязычных агентских сценариев. В обновленной версии T-Lite 2.1 (8B) стала сильнее в прикладных задачах и при этом сохранила скорость и практичность для продакшена и локального запуска.
1🔥75💊3114🥴6👍5💩5🗿5🍓2🤔1😢1🌚1
Пока вы фармили голду в WoW как нормальные люди, Дима прокачивал персонажей за деньги какому-то хоккеисту. Мы все делали одно и то же, но один из нас оказался умнее.

Сейчас у чувака:
- Overgear (маркетплейс для геймеров)
- Секретный проект на скинах CS с 5м юзеров в месяц (секретный потому что если расскажет - придут с вопросами)
- Exit с LF.Group в Xsolla

Потратил 15 лямов баксов на блогеров. 40к интеграций в год. Это как если бы вы mass-dm делали, но легально и с бюджетом.

Щас пилит Spiry - AI для коротких видосов в тикток/инсту/ютуб. На канале пишет как это всё происходит в реальном времени, без "мы сделали 10x за месяц, ушли из найма и теперь точно хаслим"

Норм посты оттуда:
- Чек-лист управления командой (https://xn--r1a.website/dimabeseda/108) - не от жпт
- Почему финмодель онлифанса (https://xn--r1a.website/dimabeseda/88) - не ваш ориентир (хотя казалось бы)
- Когда запускать продукт (https://xn--r1a.website/dimabeseda/95) - спойлер: раньше чем вы думаете

@dimabeseda
💩11725💊123👍2🔥2❤‍🔥1💅1😎1
41👍12❤‍🔥5🔥1
Департамент безопасности Бер Банка прошу обратить внимание, сотрудники "да не болото у нас".ии сливают NDA по секретным агентам
😁63😨3❤‍🔥1👍1
1🤪188🔥21😁19👍109💩7🫡2🗿2🙉2🤔1😭1
Авторы arc agi опять расскажут всем что "мы не это имели ввиду" и "ваш аги не настоящий"
1😁63🍓7💊4🤔3🔥2💩1
Love. Death. Transformers.
Photo
ищем русскоговорящих ребят из компаний: openai, deepmind, anthropic, sakana, nvidia, meta, bytedance, deepseek, qwen либо работающие сейчас либо ушедшие не более 5 лет назад с опытом работы 2+ года. ижненеры, рисерчеры, саентисты. Нужно быть готовым работать в Шоколаднице на Чертаново
😁31571🔥16💊3💩2👍1🌚1
Forwarded from whargarbl
Фури-дискорд каналы - есть острие ресёча диффузионных моделей // В.И. Ленин
91😐24😁14👏3🔥2👍1
Мне очень нравится эта картинка
🔥65🤔26😁103🥴21
Forwarded from КПД
Character.ai 🧍‍♂ (стартап небезывестного Ноама Шазира) выпустили небольшой блогпост про оптимизацию обучения LLM.

В блоге рассказывается про следующие трюки:
1️⃣ Сжатие градиентов в 6 бит при помощи техники Squinch. (квантизуют элементы группами по 8 элементов в 5 бит, 4 бита на значения, 1 знаковый, и 8-битный скейл)
2⃣️️ Z-регуляризация на логиты, применямая к логитам внимания и роутера, предтовращающая их рост.
3️⃣ Динамическая обрезка значений в ffn в QAT, предтовращающая схлопывание акитваций в ноль.
4️⃣ Эффективный аттеншен в случае древесных зависимостей. Не считаем внимание там, где его нет.
5️⃣ Для knolwedge дистилляции предпосчитывают и сохраняют логиты, но не все, а только topk, которые сэмплируют через Gumbel-Softmax.
23🔥95
55🥴12❤‍🔥52