Dealer.AI
14.8K subscribers
688 photos
46 videos
17 files
724 links
Жоский ИИ Дядя
Твой личный поставщик AI 🦾🤖
Канал о мире интересного AI: GenAI, RecSys, поиск, classic ML, бизнес приклад и ai-meme👾

Для связи @dealer_ai (реклама и консультации)

Head of ML, AI.
Kaggle: https://www.kaggle.com/andrilko

РКН: 6348592885
Download Telegram
⚡️ Вышла GPT-5.2!

после релиза Gemini 3 я очень ждала что же ответит OpenAI 😺

У Сэма Альтмана есть забавный паттерн - они часто ждут пока кто-то из конкурентов выкатит крупный релиз, и только потом выпускают свое, а вот смотрите у нас ЛУЧШЕ 😁

И вот - OpenAI начали раскатывать GPT-5.2 (у меня уже доступно)

В релизе нет генерации изображений (которую я кстати очень жду!), это максимально прагматичный апгрейд для реальной работы, GPT-5.2 сильно прокачали именно под professional knowledge work - таблицы, презентации, документы, код, длинный контекст, многошаговые задачи end-to-end. Интересно попробовать, потому что 5.1 из моих черновиков фин модель собрать увы не смогла 😡

По бенчмаркам выглядит сильно: на GDPval (бенчмарк Google для работы с документами) показывает 94.2% против 89.7% у Gemini 3, на CodeForces рейтинг вырос на 15%, на multi-step reasoning прирост около 20% 🧠

кто уже попробовал, делитесь впечатлениями в комментах ⌨️

@neural_prosecco
Please open Telegram to view this post
VIEW IN TELEGRAM
17🔥9
Много≠хорошо, как размеры MAS не скейлят качество конечных задач линейно.

Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача.

Авторы показали, что линейности нет🚬, и все зависит от ресурса, условий задачи и размера популяции. 💪

Прям нелинейная динамика scaling мультиагентных систем, получается. А значит системы агентов, можно рассматривать по аналогии с моделью нелинейной динамики популяций, т.е. оно может "жить" по закону популяции и приходить к коллапсу через размеры системы и прочие параметры 🧠

Кстати, авторы вывели закон масштабирования МАС и провели хорошую абляцию с разными моделями от лидеров рынка под капотом. Уважаемо. 🦾
Please open Telegram to view this post
VIEW IN TELEGRAM
16👍9🔥5🤔1
Dealer.AI pinned Deleted message
This media is not supported in your browser
VIEW IN TELEGRAM
А Дядя напоминает. 📦

Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании.

А чтобы это было интересно, насыщенно и интерактивно, мы решили сделать специальное мероприятие 23 декабря. Там я буду рассказывать про то, что нового подарил нам год в AI science: DeepSeek moment, Reasoning и RL, context learning, память и агенты.

Помимо меня, ещё будет 8 крутых спикеров, многих из которых вы можете узнать на видеовставке по фото: Head of AI, руководители AI R&D, фаундеры AI-продуктов с $25m funding - короче будет 4,5 часа хорошей такой выжимки для вас - опыт, цифры и инструменты. Организаторы постарались.

Когда?
Дата и время: 23 декабря, 14:00.
Есть платная и бесплатная опции участия. Запись будет для тех кто зарегистрируется.
Где? Детали и регистрация
Please open Telegram to view this post
VIEW IN TELEGRAM
👍164
Dealer.AI pinned «Много≠хорошо, как размеры MAS не скейлят качество конечных задач линейно. Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача. Авторы показали, что линейности нет🚬, и все зависит от ресурса, условий…»
Тут у ребят: @neural_prosecco, @snimshchikov, @neuraldeep
вышел прикольный враппер для итогов года, решил тоже собрать статку и получить весёлую карточку.

Получилось жОско 📦, пробуйте и Вы. 💅

Не, ну, а че? Не tgstat ж грустный юзать.
Please open Telegram to view this post
VIEW IN TELEGRAM
💅1412🔥9😐5🙉2🏆1
Конец года и #новости #однойстрокой в стиле Google. 🔍

В конце года вышли для меня две интересные работы. Сегодня расскажу про одну, а далее выйдет второй обзор.

Начнём с T5Gemma 2, хотя должно быть gemma3 🧠

Почему? Да ибо ребята элайнят энкодер к Gemma3 декодеру, как преинициализация T5 декодер части. А я напомню, что Т5 это полный трансформер с энкодер-декодер архитектурой.
Помимо этого, ещё интересное, что убрали механизм cross-attention – это когда у вас вложения декодерв после self-attention идут ещё раз в кросс-внимание с контекстом энкодера. Теперь все это зовётся merged attention и, по факту, просто энкодер эмбы закинули в общий блок внимания, НО сохранили у энкодера self-attention с двусторонним механизмом, а у декодер с казуальным. Т.е. после кодирования контекста в энкодере, его эмбы идут напрямую в декодер внимание с казуальной маской, как контекст. Чтобы это все дружно работало ещё сделали tied embedding, т.е. обобщенные / связанные матрицы эмбеддингов для энкодера и декодера, что облегчает вес и увеличивает скорость, а ещё делает нативный обмен информацией между блоками.

Ввиду таких артефактов, легко ложится туда мультимодальная часть в fromage стиле, поэтому моделька ещё и жуёт картинки на равне с текстом. В качестве энкодера для image embs юзают Siglip. До кучи long context 128k и конечно мультияз.

Вижу, что Google продолжает диверсификацию исследований и не кладёт яйца в одну корзину. 🧠 Разрабатывает и декодеры, и полные трансформеры, и диффузии. Про энкодеры вообще молчу. 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍2012👾3🤔1
Тренды и вызовы GenAI на следующий год. Вангование на НГ.🎄❄️

Всем привет, кто уже режет новогодние салатики и достаёт любимые напитки из погреба. Сегодня Дядя сделает вангование на развитие ИИ в следующем году.

Итак, поехали:

1. Агенты и правило "девяток" . Если 2024 был годом RAG. То в 2025 sexy были агентные системы. Думаю за 2025 уже успели наиграться и сформировать некоторый пулл достоинств и проблем. Думаю в 2026 году, МАС будут решать сугубо прикладные задачи и исправлять свою непредсказуемость и слабую измеримость результата на промежуточных шагах. А именно, будет больше атомарных бенчмарков, а не е2е. Будут решать проблемы "девяток", т.е. работать над предсказуемостью, безопасностью, надёжностью и точностью системы, чтобы стремиться к 99.999(9). К сожалению, сейчас, агенты живут не в "девятках" , а в "семёрках" даже "шестёрках". С учётом требований к безопасности и наследуемостью ошибок – этого недостаточно.

2. RAG и память. В in context learning в лице поиска и LLM намечается путь в авторешения, на подобии autoML. Такие системы становятся уже полноценными  агентами, с возможностью динамически решать задачи, принимать решения по источникам знаний и уровню достоверности как источников, так и генерации. Таким образом, будет AgenticRag, Self-taught RAG и AutoRAG.
В части памяти, прод решения будут все ещё крутится вокруг работы с файловой системой и RAG механиками, вызовом функций и/или саб-агентами. Все новшества уйдут на уровень архитектуры моделей в лице: большего размера эффективного контекста и модулей long/short term памяти внутри сеток. На это указывает и MIRAS Titans, Atlas.

3. Модели и альтернативные архитектуры. Начнём с простого, в открытом комьюнити будет продолжаться тренд на small, base модели по размеру. При этом, они будут все более специализированные: агенты, CoT, доменные (финансы, юр., беза, медицина и т.п.).
Большие игроки все также будут делать микст: размер, хаки для обучения (CoT, RL и тп), данные. Причём в последнем случае, доля синтетики будет расти. Параллельно, будут строиться более сильные пайпы рафинирования и чистки данных, чтобы нарастить качество живых данных. Это позволит учить более эффективные малые модели.
Рядышком будут бежать энтузиасты альтернативных архитектур: SSM, RWKV, Text Diffusion LM и т.п.
Китайцы продолжат удивлять, и думаю следующий DeepSeek, Kimi и Qwen сделают пару релизов, в одном из которых жду MoE схему отсюда. Да и SSM из статьи тоже туда же.

4. Оптимизация эффективности инференса и обучения. Уже сейчас топы мира по ИИ говорят о том, что мы упираемся не в число вычислительных мощностей, а в эффективность и энергопотребление. Таким образом, или мы с единицы шага обучения вытаскиваем больше информации и тратим меньше шагов, или оптимизируем нагрузку на инференсе и скорости обучения, тем самым экономия gpu-часы и, как следствие, число затраченной энергии. Сюда же помогают все эти MoE, линеаризации внимания, спекулятивный декодинг и прочие фишки. Этот тренд останется ИМО и на следующий год.

И да ещё думаю помимо волны спроса на RAM, мы увидим повышенный спрос на источники энергии: нефть, газ, АЭС.

Upd.
5. Продолжение усиления персонализации и тренд на человекоцентричность. Крупные игроки уже заявили о формировании новой фин.модели монетизации: агентные системы, память. Нас ждёт, все больше трансформации рынка рекламы и покупок. А клиенты уже сейчас своим мнением давят на оунеров моделей и голосуют за любимые версии в апи.

Вот такие мысли автостопом по трендам на следующий 2026 год. Вы знаете, что с этим делать - седлать волну. Stay tuned. 🦾
Please open Telegram to view this post
VIEW IN TELEGRAM
33🔥33👍1911🙈4🤔1👌1
Dealer.AI pinned «Конец года и #новости #однойстрокой в стиле Google. 🔍 В конце года вышли для меня две интересные работы. Сегодня расскажу про одну, а далее выйдет второй обзор. Начнём с T5Gemma 2, хотя должно быть gemma3 🧠 Почему? Да ибо ребята элайнят энкодер к Gemma3…»
This media is not supported in your browser
VIEW IN TELEGRAM
Дорогие друзья, подписчики, поздравляю Вас с наступающим Новым 2026ым годом! Будьте здоровы, как лошадь, свободны, как лошадь, но не загнанной лошадью. Будьте полны идей и сил! Ваш 📦
Please open Telegram to view this post
VIEW IN TELEGRAM
49🔥20💅7❤‍🔥3🤗1
Dealer.AI pinned a video
Сама, Дядя, память и будущее. 🌌

Что может быть общего между Дядей и Самой в ушедшем 2025ом – Память в GenAI, как одна из важных фичей персонализации.

В том году, кажется, Дядя был единственным энтузиастом и адептом памяти для LLM в ру-комьюнити. 💅
До кучи, одна из моих команд работали над этим больше года и на AIJ 2025 можно было даже увидеть: соревнование и стенд, на котором была эта фича. В дополнении, разумеется, куча постов про system design memory в моем канале, как ни в каком ином. Значит, и этот год стоит начать с этого.

Из последнего -18.12.2025 вышло ещё одно интервью Альтмана, где он также как и я, говорит, что "Memory Makes AI Sticky", жирные намёки на развитие фичи в 2026ом. Конкретно там указывается, что в GPT-6, а я надеюсь появится она в 2026-ом, все будет максимально персонализрованно. Модели не просто будут помнить факты, они будут запоминать все полезное о Вас. Далее цитата: «Будущий ChatGPT будет обладать «идеальной, бесконечной памятью», в отличие от людских помощников. Он будет помнить каждое ваше слово, написанный вами документ и скрытые предпочтения, которые вы никогда явно не формулировали. Текущая память хранит базовые факты; версии 2026 года будут персонализировать, используя всю историю вашей жизни».

Мнение от Дяди. 📦
Мне например очень близка эта позиция, и на мой интерес и взгляд создание такой системы лежит не только в архитектуре в лице модулей и long context, но и в инженерии вокруг:  tool call, работа с файлами, vector index, sub agents. Да и продуктоый вопрос должен тут идти вместе с RnD.

Персонализация, память и "липкость" продукта:

Ключевой элемент удержания: Альтман называет персонализацию (личную и для бизнеса) критически важной для "липкости" . Когда модель "узнаёт" пользователя или компанию, это создаёт сильную привязку, сравнимую с выбором "зубной пасты на всю жизнь".

Память как "game-changer": Журналист отмечает, что функция памяти, сохраняющая контекст между сессиями, стала настоящей game-changing фичей. Он привёл пример планирования поездки, которое продолжается неделями.
--------------
Алекс Кантровиц: Интерфейс работает, но, думаю, внутренности изменились. Память действительно стала тем, что меняет правила игры. Уже несколько недель я обсуждаю с ChatGPT предстоящую поездку, требующую много планирования, и теперь я могу просто зайти в новом окне и сказать: "Так, давай продолжим обсуждать эту поездку". И у него есть контекст. Насколько хорошей может стать память?

Сэм Альтман: Я думаю, мы не можем этого представить, потому что человеческий предел... (с)
--------------
Думаю, дальнейшие комментарии излишни...

Помимо памяти, были затронуты вопросы интерфейсов взаимодействовия и агентов. Окно взаимодействовия с пользователем должно уйти от чата, к динамически собираемым под ситуацию и задачу интерфейсам. А агенты будут теми самыми лучшими, чем человек, помощниками. Реальными ИИ-дворецкими или консьержами. Идеальное будущее – автономный агент. Он описывает желаемый сценарий: утром вы даёте агенту список задач и приоритетов, а он работает в фоновом режиме, взаимодействует с другими агентами, принимает решения и беспокоит вас только при необходимости что-то уточнить или верифицировать.

На этом все. Это всего-лишь вырезка из интервью, остальные аспекты: инвестиций, работы с железом и планы на рынке можно почитать в интервью самостоятельно.
Читайте, образовывайтесь, и, главное, stay tuned 🦾
Please open Telegram to view this post
VIEW IN TELEGRAM
17👍14🕊3💅3🔥1👾1
Forwarded from commit history
This media is not supported in your browser
VIEW IN TELEGRAM
Серега @southfreebird параллельно с работой в Nebius с друзьями сделал крутой open-source проект!

Авторы: @southfreebird, @Olegbalakhnov и @zaringleb.

Ребята обучили и выложили в open-source VLA-модель на базе VLA-0 от Nvidia, только с backbone в 6 раз меньше (0.5B vs 3B в оригинальной работе), которая показывает success rate 94.1% на Libero benchmark (против 94.7% у оригинальной модели).

VLA (Vision-Language-Action) это модель, которая смотрит на картинку, понимает текстовую команду и сразу выдаёт действие для робота, типа «возьми кубик и положи справа».

Вообще порог входа в robotics ML всё ещё достаточно высокий, поэтому у ребят крутая цель: сделать в open-source воспроизводимые рецепты для файнтюна небольших моделей на небольшом количестве демонстраций.

Ссылка на блогпост и модель:
https://robot-learning-collective.github.io/vla-0-smol

Если интересно следить, ребята завели Discord:
https://discord.gg/XcZVY2kxj9

Ну и пишите, если будут вопросы!
25👍10👾3🔥2
commit history
Серега @southfreebird параллельно с работой в Nebius с друзьями сделал крутой open-source проект! Авторы: @southfreebird, @Olegbalakhnov и @zaringleb. Ребята обучили и выложили в open-source VLA-модель на базе VLA-0 от Nvidia, только с backbone в 6 раз…
Ах, да, в своём обзоре трендов забыл про VLA сказать 👍, ещё с того года все на них помешались 🤤, но и конечно на Omnimodal models 🧠.
Please open Telegram to view this post
VIEW IN TELEGRAM
Dealer.AI pinned «Сама, Дядя, память и будущее. 🌌 Что может быть общего между Дядей и Самой в ушедшем 2025ом – Память в GenAI, как одна из важных фичей персонализации. В том году, кажется, Дядя был единственным энтузиастом и адептом памяти для LLM в ру-комьюнити. 💅 До кучи…»
#meme #agents

Ты: твой агент работает, в целом, не так как планировал, но функции свои выполняет.

Твой лид: Работает, не трогай!
🔥57😁22🫡16🤯1
Когда награда важнее архитектуры - вырезки из интервью с ген.директором Convergent Research и ex. сотрудником DeepMind.

Ниже представлено резюме, ещё одного интересного интервью с Адамом Марблстоуном: "Чего фундаментального не хватает ИИ в понимании мозга?"

Адам Марблстоун, генеральный директор Convergent Research и бывший научный сотрудник Google DeepMind в области нейробиологии, в интервью обсуждает ключевые различия между человеческим мозгом и современными системами ИИ. Основной вопрос, на который пытаются ответить: почему мозг обучается невероятно эффективно на небольшом количестве данных, в то время как даже самые крупные модели ИИ требуют гигантских объемов информации и все равно не обладают человеческими возможностями?

Далее указаны основные идеи, затронутые в интервью:

1. Главная позиция. RL и "Секретный соус" мозга – это не архитектура, а сложные функции вознаграждения.

Марблстоун выдвигает центральный тезис: современное машинное обучение фокусируется на архитектуре сетей (например, трансформеры) и алгоритмах обучения (обратное распространение ошибки), но упускает из виду самый важный компонент – сложные, эволюционно выработанные аналоги "функции потерь" или "функции вознаграждения".

Сейчас мы имеем "простые цели для обучения ИИ" - современные LM учатся на математически простых задачах, таких как "предсказать следующее слово". Это универсально, как-то масштабируемо, но неэффективно.

На деле, мы имеем более сложные цели для мозга. Эволюция, методом проб и ошибок за миллионы лет, встроила в мозг (точнее, в геном) свои "код-скрипты", этакий сложный набор конкретных правил и учебных программ. Эти правила говорят разным частям мозга, чему и когда учиться в процессе развития. Например, врожденные механизмы, которые заставляют младенца обращать внимание на человеческие лица или испытывать эмоции стыда/гордости в социальных ситуациях, являются частью этой "встроенной учебной программы". А тут мы уже обращаемся к тому, что хранит наш геном.

2. Амортизированный вывод и то, что на самом деле хранит геном?

Тут мы пришли к глубокому вопросу, который задавал Илья Суцкевер: как геном, который физически не может содержать информацию обо всем богатстве человеческого опыта, кодирует абстрактные цели и желания (например, "добиваться статуса в племени")?

Проблема: Эволюция не знала конкретно о социальных сетях, науке или бологах, но наш мозг учится стремиться к успеху, быть лучшим в выбранных областях.
Решение через "обучение с моделью": Марблстоун ссылается на теорию Стива Бёрнса. Мозг можно условно разделить на две взаимосвязанные подсистемы:
1. "Рулевая" система: Более древние, инстинктивные части мозга лимбическая система, мозжечок, ствол мозга. Они содержат врожденные эвристики и базовые функции вознаграждения, например, распознавание угроз, базовые эмоции.
2. "Обучающаяся" система: В основном неокортекс - кора головного мозга, который строит сложную модель мира.
А также существует механизм связи. Кора головного мозга и связанные с ней области, например, миндалина, учатся предсказывать реакции "рулевой" системы. Так, нейроны, которые активируются при мысли о возможном неодобрении со стороны авторитетной фигуры, связываются с врожденными цепями, вызывающими стыд или тревогу. Таким образом, эволюция запрограммировала не конкретные цели, а процесс – механизм, который связывает обучающиеся представления о мире с врожденными базовыми ценностями.

3. Модельное и немодельное обучение как Model-based vs. Model-free RL в мозге.

Марблстоун объясняет, почему мозг, вероятно, не использует чистый "немодельный" подход, как в некоторых системах ИИ, а полагается на внутреннюю модель.

Немодельное обучение: Система запоминает, какие действия в каких состояниях приводят к вознаграждению, без понимания внутренних механизмов мира. Это похоже на выработку рефлекса.
Модельное обучение: Система строит внутреннюю симуляцию мира, чтобы планировать и оценивать последствия действий. Этакий поиск в глубину и ширину, мы не только получаем сию минутное удовольствие, но и смотрим к чему это приведёт в будущем.
20🔥6👍2👏1
Продолжение...

Вывод для мозга. Поскольку эволюции важно было обучать сложному поведению в постоянно меняющейся среде, а "переобучение" на ограниченном опыте могло быть смертельно опасным, мозг, скорее всего, полагается на модельное обучение и обобщение. Это делает его более гибким, чем системы, которые просто оптимизируют сию минутное вознаграждение.

4. Аппаратное обеспечение мозга: ограничение или преимущество?

Обсуждается, являются ли биологические ограничения мозга (медленные нейроны, шумные сигналы) его слабостью.

Контраст с ИИ. Современные компьютеры работают с высокой точностью и скоростью, что идеально для обратного распространения ошибки и градиентного спуска.

Метафора Марблстоуна: Биологический мозг – это не "аналоговый компьютер" , а скорее "молекулярная фабрика". Его "вычисления" – это физико-химические процессы, причём энергоэффективные, тесно переплетенные с телом, метаболизмом и развитием. Эта интеграция может быть не ограничением, а ключевым элементом, обеспечивающим эффективное, контекстно-зависимое обучение, которое трудно воспроизвести в цифровых системах.

Текущие системы обучения же заточены под математический аппарат в лице метода обратного распространения ошибки и т.п.

К чему все это было?

В интервью красной нитью прослеживается необходимость развития нейробиологии, как средства прогресса в создании более разумного ИИ. Без понимания того, как работает мозг, ИИ может упереться в потолок, преодолеваемый лишь масштабированием и инженерией вокруг, но не качественным скачком технологии.
25😈2
Dealer.AI pinned Deleted message
Заодно, потестим новую функцию тлдр от ТГ :) 🧠

Обновите клиент.
Please open Telegram to view this post
VIEW IN TELEGRAM
👌11🤗2