Много≠хорошо, как размеры MAS не скейлят качество конечных задач линейно.
Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача.
Авторы показали, что линейности нет🚬 , и все зависит от ресурса, условий задачи и размера популяции. 💪
Прям нелинейная динамика scaling мультиагентных систем, получается. А значит системы агентов, можно рассматривать по аналогии с моделью нелинейной динамики популяций, т.е. оно может "жить" по закону популяции и приходить к коллапсу через размеры системы и прочие параметры🧠
Кстати, авторы вывели закон масштабирования МАС и провели хорошую абляцию с разными моделями от лидеров рынка под капотом. Уважаемо. 🦾
Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача.
Авторы показали, что линейности нет
Прям нелинейная динамика scaling мультиагентных систем, получается. А значит системы агентов, можно рассматривать по аналогии с моделью нелинейной динамики популяций, т.е. оно может "жить" по закону популяции и приходить к коллапсу через размеры системы и прочие параметры
Кстати, авторы вывели закон масштабирования МАС и провели хорошую абляцию с разными моделями от лидеров рынка под капотом. Уважаемо. 🦾
Please open Telegram to view this post
VIEW IN TELEGRAM
arXiv.org
Towards a Science of Scaling Agent Systems
Agents, language model-based systems that are capable of reasoning, planning, and acting are becoming the dominant paradigm for real-world AI applications. Despite this widespread adoption, the...
❤16👍9🔥5🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
А Дядя напоминает. 📦
Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании.
А чтобы это было интересно, насыщенно и интерактивно, мы решили сделать специальное мероприятие 23 декабря. Там я буду рассказывать про то, что нового подарил нам год в AI science: DeepSeek moment, Reasoning и RL, context learning, память и агенты.
Помимо меня, ещё будет 8 крутых спикеров, многих из которых вы можете узнать на видеовставке по фото: Head of AI, руководители AI R&D, фаундеры AI-продуктов с $25m funding - короче будет 4,5 часа хорошей такой выжимки для вас - опыт, цифры и инструменты. Организаторы постарались.
Когда?
Дата и время: 23 декабря, 14:00.
Есть платная и бесплатная опции участия.Запись будет для тех кто зарегистрируется.
Где? Детали и регистрация
Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании.
А чтобы это было интересно, насыщенно и интерактивно, мы решили сделать специальное мероприятие 23 декабря. Там я буду рассказывать про то, что нового подарил нам год в AI science: DeepSeek moment, Reasoning и RL, context learning, память и агенты.
Помимо меня, ещё будет 8 крутых спикеров, многих из которых вы можете узнать на видеовставке по фото: Head of AI, руководители AI R&D, фаундеры AI-продуктов с $25m funding - короче будет 4,5 часа хорошей такой выжимки для вас - опыт, цифры и инструменты. Организаторы постарались.
Когда?
Дата и время: 23 декабря, 14:00.
Есть платная и бесплатная опции участия.
Где? Детали и регистрация
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤4
Dealer.AI
А Дядя напоминает. 📦 Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании. А чтобы это было интересно, насыщенно и интерактивно, мы решили сделать специальное мероприятие 23 декабря. Там я буду рассказывать про то, что нового подарил…
Спасибо, что пришли на мое выступление.
Ваш
Please open Telegram to view this post
VIEW IN TELEGRAM
❤21🔥12👍10🏆5
Тут у ребят: @neural_prosecco, @snimshchikov, @neuraldeep
вышел прикольный враппер для итогов года, решил тоже собрать статку и получить весёлую карточку.
Получилось жОско📦 , пробуйте и Вы. 💅
Не, ну, а че? Не tgstat ж грустный юзать.
вышел прикольный враппер для итогов года, решил тоже собрать статку и получить весёлую карточку.
Получилось жОско
Please open Telegram to view this post
VIEW IN TELEGRAM
💅14❤12🔥9😐5🙉2🏆1
Конец года и #новости #однойстрокой в стиле Google. 🔍
В конце года вышли для меня две интересные работы. Сегодня расскажу про одну, а далее выйдет второй обзор.
Начнём с T5Gemma 2, хотя должно быть gemma3🧠
Почему? Да ибо ребята элайнят энкодер к Gemma3 декодеру, как преинициализация T5 декодер части.А я напомню, что Т5 это полный трансформер с энкодер-декодер архитектурой.
Помимо этого, ещё интересное, что убрали механизм cross-attention – это когда у вас вложения декодерв после self-attention идут ещё раз в кросс-внимание с контекстом энкодера. Теперь все это зовётся merged attention и, по факту, просто энкодер эмбы закинули в общий блок внимания, НО сохранили у энкодера self-attention с двусторонним механизмом, а у декодер с казуальным. Т.е. после кодирования контекста в энкодере, его эмбы идут напрямую в декодер внимание с казуальной маской, как контекст. Чтобы это все дружно работало ещё сделали tied embedding, т.е. обобщенные / связанные матрицы эмбеддингов для энкодера и декодера, что облегчает вес и увеличивает скорость, а ещё делает нативный обмен информацией между блоками.
Ввиду таких артефактов, легко ложится туда мультимодальная часть в fromage стиле, поэтому моделька ещё и жуёт картинки на равне с текстом. В качестве энкодера для image embs юзают Siglip. До кучи long context 128k и конечно мультияз.
Вижу, что Google продолжает диверсификацию исследований и не кладёт яйца в одну корзину.🧠 Разрабатывает и декодеры, и полные трансформеры, и диффузии. Про энкодеры вообще молчу. 😎
В конце года вышли для меня две интересные работы. Сегодня расскажу про одну, а далее выйдет второй обзор.
Начнём с T5Gemma 2, хотя должно быть gemma3
Почему? Да ибо ребята элайнят энкодер к Gemma3 декодеру, как преинициализация T5 декодер части.
Помимо этого, ещё интересное, что убрали механизм cross-attention – это когда у вас вложения декодерв после self-attention идут ещё раз в кросс-внимание с контекстом энкодера. Теперь все это зовётся merged attention и, по факту, просто энкодер эмбы закинули в общий блок внимания, НО сохранили у энкодера self-attention с двусторонним механизмом, а у декодер с казуальным. Т.е. после кодирования контекста в энкодере, его эмбы идут напрямую в декодер внимание с казуальной маской, как контекст. Чтобы это все дружно работало ещё сделали tied embedding, т.е. обобщенные / связанные матрицы эмбеддингов для энкодера и декодера, что облегчает вес и увеличивает скорость, а ещё делает нативный обмен информацией между блоками.
Ввиду таких артефактов, легко ложится туда мультимодальная часть в fromage стиле, поэтому моделька ещё и жуёт картинки на равне с текстом. В качестве энкодера для image embs юзают Siglip. До кучи long context 128k и конечно мультияз.
Вижу, что Google продолжает диверсификацию исследований и не кладёт яйца в одну корзину.
Please open Telegram to view this post
VIEW IN TELEGRAM
Google
T5Gemma 2: The next generation of encoder-decoder models
T5Gemma 2 is the next evolution of our encoder-decoder family based on Gemma 3.
1👍20❤12👾3🤔1
Тренды и вызовы GenAI на следующий год. Вангование на НГ. 🎄 ❄️
Всем привет, кто уже режет новогодние салатики и достаёт любимые напитки из погреба. Сегодня Дядя сделает вангование на развитие ИИ в следующем году.
Итак, поехали:
1. Агенты и правило "девяток" . Если 2024 был годом RAG. То в 2025 sexy были агентные системы. Думаю за 2025 уже успели наиграться и сформировать некоторый пулл достоинств и проблем. Думаю в 2026 году, МАС будут решать сугубо прикладные задачи и исправлять свою непредсказуемость и слабую измеримость результата на промежуточных шагах. А именно, будет больше атомарных бенчмарков, а не е2е. Будут решать проблемы "девяток", т.е. работать над предсказуемостью, безопасностью, надёжностью и точностью системы, чтобы стремиться к 99.999(9). К сожалению, сейчас, агенты живут не в "девятках" , а в "семёрках" даже "шестёрках". С учётом требований к безопасности и наследуемостью ошибок – этого недостаточно.
2. RAG и память. В in context learning в лице поиска и LLM намечается путь в авторешения, на подобии autoML. Такие системы становятся уже полноценными агентами, с возможностью динамически решать задачи, принимать решения по источникам знаний и уровню достоверности как источников, так и генерации. Таким образом, будет AgenticRag, Self-taught RAG и AutoRAG.
В части памяти, прод решения будут все ещё крутится вокруг работы с файловой системой и RAG механиками, вызовом функций и/или саб-агентами. Все новшества уйдут на уровень архитектуры моделей в лице: большего размера эффективного контекста и модулей long/short term памяти внутри сеток. На это указывает и MIRAS Titans, Atlas.
3. Модели и альтернативные архитектуры. Начнём с простого, в открытом комьюнити будет продолжаться тренд на small, base модели по размеру. При этом, они будут все более специализированные: агенты, CoT, доменные (финансы, юр., беза, медицина и т.п.).
Большие игроки все также будут делать микст: размер, хаки для обучения (CoT, RL и тп), данные. Причём в последнем случае, доля синтетики будет расти. Параллельно, будут строиться более сильные пайпы рафинирования и чистки данных, чтобы нарастить качество живых данных. Это позволит учить более эффективные малые модели.
Рядышком будут бежать энтузиасты альтернативных архитектур: SSM, RWKV, Text Diffusion LM и т.п.
Китайцы продолжат удивлять, и думаю следующий DeepSeek, Kimi и Qwen сделают пару релизов, в одном из которых жду MoE схему отсюда. Да и SSM из статьи тоже туда же.
4. Оптимизация эффективности инференса и обучения. Уже сейчас топы мира по ИИ говорят о том, что мы упираемся не в число вычислительных мощностей, а в эффективность и энергопотребление. Таким образом, или мы с единицы шага обучения вытаскиваем больше информации и тратим меньше шагов, или оптимизируем нагрузку на инференсе и скорости обучения, тем самым экономия gpu-часы и, как следствие, число затраченной энергии. Сюда же помогают все эти MoE, линеаризации внимания, спекулятивный декодинг и прочие фишки. Этот тренд останется ИМО и на следующий год.
И да ещё думаю помимо волны спроса на RAM, мы увидим повышенный спрос на источники энергии: нефть, газ, АЭС.
Upd.
5. Продолжение усиления персонализации и тренд на человекоцентричность. Крупные игроки уже заявили о формировании новой фин.модели монетизации: агентные системы, память. Нас ждёт, все больше трансформации рынка рекламы и покупок. А клиенты уже сейчас своим мнением давят на оунеров моделей и голосуют за любимые версии в апи.
Вот такие мысли автостопом по трендам на следующий 2026 год. Вы знаете, что с этим делать - седлать волну. Stay tuned. 🦾
Всем привет, кто уже режет новогодние салатики и достаёт любимые напитки из погреба. Сегодня Дядя сделает вангование на развитие ИИ в следующем году.
Итак, поехали:
1. Агенты и правило "девяток" . Если 2024 был годом RAG. То в 2025 sexy были агентные системы. Думаю за 2025 уже успели наиграться и сформировать некоторый пулл достоинств и проблем. Думаю в 2026 году, МАС будут решать сугубо прикладные задачи и исправлять свою непредсказуемость и слабую измеримость результата на промежуточных шагах. А именно, будет больше атомарных бенчмарков, а не е2е. Будут решать проблемы "девяток", т.е. работать над предсказуемостью, безопасностью, надёжностью и точностью системы, чтобы стремиться к 99.999(9). К сожалению, сейчас, агенты живут не в "девятках" , а в "семёрках" даже "шестёрках". С учётом требований к безопасности и наследуемостью ошибок – этого недостаточно.
2. RAG и память. В in context learning в лице поиска и LLM намечается путь в авторешения, на подобии autoML. Такие системы становятся уже полноценными агентами, с возможностью динамически решать задачи, принимать решения по источникам знаний и уровню достоверности как источников, так и генерации. Таким образом, будет AgenticRag, Self-taught RAG и AutoRAG.
В части памяти, прод решения будут все ещё крутится вокруг работы с файловой системой и RAG механиками, вызовом функций и/или саб-агентами. Все новшества уйдут на уровень архитектуры моделей в лице: большего размера эффективного контекста и модулей long/short term памяти внутри сеток. На это указывает и MIRAS Titans, Atlas.
3. Модели и альтернативные архитектуры. Начнём с простого, в открытом комьюнити будет продолжаться тренд на small, base модели по размеру. При этом, они будут все более специализированные: агенты, CoT, доменные (финансы, юр., беза, медицина и т.п.).
Большие игроки все также будут делать микст: размер, хаки для обучения (CoT, RL и тп), данные. Причём в последнем случае, доля синтетики будет расти. Параллельно, будут строиться более сильные пайпы рафинирования и чистки данных, чтобы нарастить качество живых данных. Это позволит учить более эффективные малые модели.
Рядышком будут бежать энтузиасты альтернативных архитектур: SSM, RWKV, Text Diffusion LM и т.п.
Китайцы продолжат удивлять, и думаю следующий DeepSeek, Kimi и Qwen сделают пару релизов, в одном из которых жду MoE схему отсюда. Да и SSM из статьи тоже туда же.
4. Оптимизация эффективности инференса и обучения. Уже сейчас топы мира по ИИ говорят о том, что мы упираемся не в число вычислительных мощностей, а в эффективность и энергопотребление. Таким образом, или мы с единицы шага обучения вытаскиваем больше информации и тратим меньше шагов, или оптимизируем нагрузку на инференсе и скорости обучения, тем самым экономия gpu-часы и, как следствие, число затраченной энергии. Сюда же помогают все эти MoE, линеаризации внимания, спекулятивный декодинг и прочие фишки. Этот тренд останется ИМО и на следующий год.
Upd.
5. Продолжение усиления персонализации и тренд на человекоцентричность. Крупные игроки уже заявили о формировании новой фин.модели монетизации: агентные системы, память. Нас ждёт, все больше трансформации рынка рекламы и покупок. А клиенты уже сейчас своим мнением давят на оунеров моделей и голосуют за любимые версии в апи.
Вот такие мысли автостопом по трендам на следующий 2026 год. Вы знаете, что с этим делать - седлать волну. Stay tuned. 🦾
Please open Telegram to view this post
VIEW IN TELEGRAM
33🔥33👍19❤11🙈4🤔1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
Дорогие друзья, подписчики, поздравляю Вас с наступающим Новым 2026ым годом! Будьте здоровы, как лошадь, свободны, как лошадь, но не загнанной лошадью. Будьте полны идей и сил! Ваш 📦
Please open Telegram to view this post
VIEW IN TELEGRAM
❤49🔥20💅7❤🔥3🤗1
Сама, Дядя, память и будущее. 🌌
Что может быть общего между Дядей и Самой в ушедшем 2025ом – Память в GenAI, как одна из важных фичей персонализации.
В том году, кажется, Дядя был единственным энтузиастом и адептом памяти для LLM в ру-комьюнити.💅
До кучи, одна из моих команд работали над этим больше года и на AIJ 2025 можно было даже увидеть: соревнование и стенд, на котором была эта фича. В дополнении, разумеется, куча постов про system design memory в моем канале, как ни в каком ином. Значит, и этот год стоит начать с этого.
Из последнего -18.12.2025 вышло ещё одно интервью Альтмана, где он также как и я, говорит, что "Memory Makes AI Sticky", жирные намёки на развитие фичи в 2026ом. Конкретно там указывается, что в GPT-6, а я надеюсь появится она в 2026-ом, все будет максимально персонализрованно. Модели не просто будут помнить факты, они будут запоминать все полезное о Вас. Далее цитата: «Будущий ChatGPT будет обладать «идеальной, бесконечной памятью», в отличие от людских помощников. Он будет помнить каждое ваше слово, написанный вами документ и скрытые предпочтения, которые вы никогда явно не формулировали. Текущая память хранит базовые факты; версии 2026 года будут персонализировать, используя всю историю вашей жизни».
Мнение от Дяди.📦
Мне например очень близка эта позиция, и на мой интерес и взгляд создание такой системы лежит не только в архитектуре в лице модулей и long context, но и в инженерии вокруг: tool call, работа с файлами, vector index, sub agents. Да и продуктоый вопрос должен тут идти вместе с RnD.
Персонализация, память и "липкость" продукта:
Ключевой элемент удержания: Альтман называет персонализацию (личную и для бизнеса) критически важной для "липкости" . Когда модель "узнаёт" пользователя или компанию, это создаёт сильную привязку, сравнимую с выбором "зубной пасты на всю жизнь".
Память как "game-changer": Журналист отмечает, что функция памяти, сохраняющая контекст между сессиями, стала настоящей game-changing фичей. Он привёл пример планирования поездки, которое продолжается неделями.
--------------
Алекс Кантровиц: Интерфейс работает, но, думаю, внутренности изменились. Память действительно стала тем, что меняет правила игры. Уже несколько недель я обсуждаю с ChatGPT предстоящую поездку, требующую много планирования, и теперь я могу просто зайти в новом окне и сказать: "Так, давай продолжим обсуждать эту поездку". И у него есть контекст. Насколько хорошей может стать память?
Сэм Альтман: Я думаю, мы не можем этого представить, потому что человеческий предел... (с)
--------------
Думаю, дальнейшие комментарии излишни...
Помимо памяти, были затронуты вопросы интерфейсов взаимодействовия и агентов. Окно взаимодействовия с пользователем должно уйти от чата, к динамически собираемым под ситуацию и задачу интерфейсам. А агенты будут теми самыми лучшими, чем человек, помощниками. Реальными ИИ-дворецкими или консьержами. Идеальное будущее – автономный агент. Он описывает желаемый сценарий: утром вы даёте агенту список задач и приоритетов, а он работает в фоновом режиме, взаимодействует с другими агентами, принимает решения и беспокоит вас только при необходимости что-то уточнить или верифицировать.
На этом все. Это всего-лишь вырезка из интервью, остальные аспекты: инвестиций, работы с железом и планы на рынке можно почитать в интервью самостоятельно.
Читайте, образовывайтесь, и, главное, stay tuned 🦾
Что может быть общего между Дядей и Самой в ушедшем 2025ом – Память в GenAI, как одна из важных фичей персонализации.
В том году, кажется, Дядя был единственным энтузиастом и адептом памяти для LLM в ру-комьюнити.
До кучи, одна из моих команд работали над этим больше года и на AIJ 2025 можно было даже увидеть: соревнование и стенд, на котором была эта фича. В дополнении, разумеется, куча постов про system design memory в моем канале, как ни в каком ином. Значит, и этот год стоит начать с этого.
Из последнего -18.12.2025 вышло ещё одно интервью Альтмана, где он также как и я, говорит, что "Memory Makes AI Sticky", жирные намёки на развитие фичи в 2026ом. Конкретно там указывается, что в GPT-6
Мнение от Дяди.
Мне например очень близка эта позиция, и на мой интерес и взгляд создание такой системы лежит не только в архитектуре в лице модулей и long context, но и в инженерии вокруг: tool call, работа с файлами, vector index, sub agents. Да и продуктоый вопрос должен тут идти вместе с RnD.
Персонализация, память и "липкость" продукта:
Ключевой элемент удержания: Альтман называет персонализацию (личную и для бизнеса) критически важной для "липкости" . Когда модель "узнаёт" пользователя или компанию, это создаёт сильную привязку, сравнимую с выбором "зубной пасты на всю жизнь".
Память как "game-changer": Журналист отмечает, что функция памяти, сохраняющая контекст между сессиями, стала настоящей game-changing фичей. Он привёл пример планирования поездки, которое продолжается неделями.
--------------
Алекс Кантровиц: Интерфейс работает, но, думаю, внутренности изменились. Память действительно стала тем, что меняет правила игры. Уже несколько недель я обсуждаю с ChatGPT предстоящую поездку, требующую много планирования, и теперь я могу просто зайти в новом окне и сказать: "Так, давай продолжим обсуждать эту поездку". И у него есть контекст. Насколько хорошей может стать память?
Сэм Альтман: Я думаю, мы не можем этого представить, потому что человеческий предел... (с)
--------------
Думаю, дальнейшие комментарии излишни...
Помимо памяти, были затронуты вопросы интерфейсов взаимодействовия и агентов. Окно взаимодействовия с пользователем должно уйти от чата, к динамически собираемым под ситуацию и задачу интерфейсам. А агенты будут теми самыми лучшими, чем человек, помощниками. Реальными ИИ-дворецкими или консьержами. Идеальное будущее – автономный агент. Он описывает желаемый сценарий: утром вы даёте агенту список задач и приоритетов, а он работает в фоновом режиме, взаимодействует с другими агентами, принимает решения и беспокоит вас только при необходимости что-то уточнить или верифицировать.
На этом все. Это всего-лишь вырезка из интервью, остальные аспекты: инвестиций, работы с железом и планы на рынке можно почитать в интервью самостоятельно.
Читайте, образовывайтесь, и, главное, stay tuned 🦾
Please open Telegram to view this post
VIEW IN TELEGRAM
Bigtechnology
Sam Altman on OpenAI’s Plan to Win, AI Personalization, Infrastructure Math, and The Inevitable IPO
OpenAI's CEO joins Big Technology for a candid discussion covering OpenAI's strategy, its product ambitions, its ability to pay for $1 trillion+ in infrastructure, going public, and much more.
❤17👍14🕊3💅3🔥1👾1
Forwarded from commit history
This media is not supported in your browser
VIEW IN TELEGRAM
Серега @southfreebird параллельно с работой в Nebius с друзьями сделал крутой open-source проект!
Авторы: @southfreebird, @Olegbalakhnov и @zaringleb.
Ребята обучили и выложили в open-source VLA-модель на базе VLA-0 от Nvidia, только с backbone в 6 раз меньше (0.5B vs 3B в оригинальной работе), которая показывает success rate 94.1% на Libero benchmark (против 94.7% у оригинальной модели).
VLA (Vision-Language-Action) это модель, которая смотрит на картинку, понимает текстовую команду и сразу выдаёт действие для робота, типа «возьми кубик и положи справа».
Вообще порог входа в robotics ML всё ещё достаточно высокий, поэтому у ребят крутая цель: сделать в open-source воспроизводимые рецепты для файнтюна небольших моделей на небольшом количестве демонстраций.
Ссылка на блогпост и модель:
https://robot-learning-collective.github.io/vla-0-smol
Если интересно следить, ребята завели Discord:
https://discord.gg/XcZVY2kxj9
Ну и пишите, если будут вопросы!
Авторы: @southfreebird, @Olegbalakhnov и @zaringleb.
Ребята обучили и выложили в open-source VLA-модель на базе VLA-0 от Nvidia, только с backbone в 6 раз меньше (0.5B vs 3B в оригинальной работе), которая показывает success rate 94.1% на Libero benchmark (против 94.7% у оригинальной модели).
VLA (Vision-Language-Action) это модель, которая смотрит на картинку, понимает текстовую команду и сразу выдаёт действие для робота, типа «возьми кубик и положи справа».
Вообще порог входа в robotics ML всё ещё достаточно высокий, поэтому у ребят крутая цель: сделать в open-source воспроизводимые рецепты для файнтюна небольших моделей на небольшом количестве демонстраций.
Ссылка на блогпост и модель:
https://robot-learning-collective.github.io/vla-0-smol
Если интересно следить, ребята завели Discord:
https://discord.gg/XcZVY2kxj9
Ну и пишите, если будут вопросы!
❤25👍10👾3🔥2
commit history
Серега @southfreebird параллельно с работой в Nebius с друзьями сделал крутой open-source проект! Авторы: @southfreebird, @Olegbalakhnov и @zaringleb. Ребята обучили и выложили в open-source VLA-модель на базе VLA-0 от Nvidia, только с backbone в 6 раз…
Ах, да, в своём обзоре трендов забыл про VLA сказать 👍 , ещё с того года все на них помешались 🤤 , но и конечно на Omnimodal models 🧠 .
Please open Telegram to view this post
VIEW IN TELEGRAM
Когда награда важнее архитектуры - вырезки из интервью с ген.директором Convergent Research и ex. сотрудником DeepMind.
Ниже представлено резюме, ещё одного интересного интервью с Адамом Марблстоуном: "Чего фундаментального не хватает ИИ в понимании мозга?"
Адам Марблстоун, генеральный директор Convergent Research и бывший научный сотрудник Google DeepMind в области нейробиологии, в интервью обсуждает ключевые различия между человеческим мозгом и современными системами ИИ. Основной вопрос, на который пытаются ответить: почему мозг обучается невероятно эффективно на небольшом количестве данных, в то время как даже самые крупные модели ИИ требуют гигантских объемов информации и все равно не обладают человеческими возможностями?
Далее указаны основные идеи, затронутые в интервью:
1. Главная позиция. RL и "Секретный соус" мозга – это не архитектура, а сложные функции вознаграждения.
Марблстоун выдвигает центральный тезис: современное машинное обучение фокусируется на архитектуре сетей (например, трансформеры) и алгоритмах обучения (обратное распространение ошибки), но упускает из виду самый важный компонент – сложные, эволюционно выработанные аналоги "функции потерь" или "функции вознаграждения".
Сейчас мы имеем "простые цели для обучения ИИ" - современные LM учатся на математически простых задачах, таких как "предсказать следующее слово". Это универсально, как-то масштабируемо, но неэффективно.
На деле, мы имеем более сложные цели для мозга. Эволюция, методом проб и ошибок за миллионы лет, встроила в мозг (точнее, в геном) свои "код-скрипты", этакий сложный набор конкретных правил и учебных программ. Эти правила говорят разным частям мозга, чему и когда учиться в процессе развития. Например, врожденные механизмы, которые заставляют младенца обращать внимание на человеческие лица или испытывать эмоции стыда/гордости в социальных ситуациях, являются частью этой "встроенной учебной программы". А тут мы уже обращаемся к тому, что хранит наш геном.
2. Амортизированный вывод и то, что на самом деле хранит геном?
Тут мы пришли к глубокому вопросу, который задавал Илья Суцкевер: как геном, который физически не может содержать информацию обо всем богатстве человеческого опыта, кодирует абстрактные цели и желания (например, "добиваться статуса в племени")?
Проблема: Эволюция не знала конкретно о социальных сетях, науке или бологах, но наш мозг учится стремиться к успеху, быть лучшим в выбранных областях.
Решение через "обучение с моделью": Марблстоун ссылается на теорию Стива Бёрнса. Мозг можно условно разделить на две взаимосвязанные подсистемы:
1. "Рулевая" система: Более древние, инстинктивные части мозга лимбическая система, мозжечок, ствол мозга. Они содержат врожденные эвристики и базовые функции вознаграждения, например, распознавание угроз, базовые эмоции.
2. "Обучающаяся" система: В основном неокортекс - кора головного мозга , который строит сложную модель мира.
А также существует механизм связи. Кора головного мозга и связанные с ней области, например, миндалина, учатся предсказывать реакции "рулевой" системы. Так, нейроны, которые активируются при мысли о возможном неодобрении со стороны авторитетной фигуры, связываются с врожденными цепями, вызывающими стыд или тревогу. Таким образом, эволюция запрограммировала не конкретные цели, а процесс – механизм, который связывает обучающиеся представления о мире с врожденными базовыми ценностями.
3. Модельное и немодельное обучение как Model-based vs. Model-free RL в мозге.
Марблстоун объясняет, почему мозг, вероятно, не использует чистый "немодельный" подход, как в некоторых системах ИИ, а полагается на внутреннюю модель.
Немодельное обучение: Система запоминает, какие действия в каких состояниях приводят к вознаграждению, без понимания внутренних механизмов мира. Это похоже на выработку рефлекса.
Модельное обучение: Система строит внутреннюю симуляцию мира, чтобы планировать и оценивать последствия действий. Этакий поиск в глубину и ширину, мы не только получаем сию минутное удовольствие, но и смотрим к чему это приведёт в будущем.
Ниже представлено резюме, ещё одного интересного интервью с Адамом Марблстоуном: "Чего фундаментального не хватает ИИ в понимании мозга?"
Адам Марблстоун, генеральный директор Convergent Research и бывший научный сотрудник Google DeepMind в области нейробиологии, в интервью обсуждает ключевые различия между человеческим мозгом и современными системами ИИ. Основной вопрос, на который пытаются ответить: почему мозг обучается невероятно эффективно на небольшом количестве данных, в то время как даже самые крупные модели ИИ требуют гигантских объемов информации и все равно не обладают человеческими возможностями?
Далее указаны основные идеи, затронутые в интервью:
1. Главная позиция. RL и "Секретный соус" мозга – это не архитектура, а сложные функции вознаграждения.
Марблстоун выдвигает центральный тезис: современное машинное обучение фокусируется на архитектуре сетей (например, трансформеры) и алгоритмах обучения (обратное распространение ошибки), но упускает из виду самый важный компонент – сложные, эволюционно выработанные аналоги "функции потерь" или "функции вознаграждения".
Сейчас мы имеем "простые цели для обучения ИИ" - современные LM учатся на математически простых задачах, таких как "предсказать следующее слово". Это универсально, как-то масштабируемо, но неэффективно.
На деле, мы имеем более сложные цели для мозга. Эволюция, методом проб и ошибок за миллионы лет, встроила в мозг (точнее, в геном) свои "код-скрипты", этакий сложный набор конкретных правил и учебных программ. Эти правила говорят разным частям мозга, чему и когда учиться в процессе развития. Например, врожденные механизмы, которые заставляют младенца обращать внимание на человеческие лица или испытывать эмоции стыда/гордости в социальных ситуациях, являются частью этой "встроенной учебной программы". А тут мы уже обращаемся к тому, что хранит наш геном.
2. Амортизированный вывод и то, что на самом деле хранит геном?
Тут мы пришли к глубокому вопросу, который задавал Илья Суцкевер: как геном, который физически не может содержать информацию обо всем богатстве человеческого опыта, кодирует абстрактные цели и желания (например, "добиваться статуса в племени")?
Проблема: Эволюция не знала конкретно о социальных сетях, науке или бологах, но наш мозг учится стремиться к успеху, быть лучшим в выбранных областях.
Решение через "обучение с моделью": Марблстоун ссылается на теорию Стива Бёрнса. Мозг можно условно разделить на две взаимосвязанные подсистемы:
1. "Рулевая" система: Более древние, инстинктивные части мозга лимбическая система, мозжечок, ствол мозга. Они содержат врожденные эвристики и базовые функции вознаграждения, например, распознавание угроз, базовые эмоции.
2. "Обучающаяся" система: В основном неокортекс
А также существует механизм связи. Кора головного мозга и связанные с ней области, например, миндалина, учатся предсказывать реакции "рулевой" системы. Так, нейроны, которые активируются при мысли о возможном неодобрении со стороны авторитетной фигуры, связываются с врожденными цепями, вызывающими стыд или тревогу. Таким образом, эволюция запрограммировала не конкретные цели, а процесс – механизм, который связывает обучающиеся представления о мире с врожденными базовыми ценностями.
3. Модельное и немодельное обучение как Model-based vs. Model-free RL в мозге.
Марблстоун объясняет, почему мозг, вероятно, не использует чистый "немодельный" подход, как в некоторых системах ИИ, а полагается на внутреннюю модель.
Немодельное обучение: Система запоминает, какие действия в каких состояниях приводят к вознаграждению, без понимания внутренних механизмов мира. Это похоже на выработку рефлекса.
Модельное обучение: Система строит внутреннюю симуляцию мира, чтобы планировать и оценивать последствия действий. Этакий поиск в глубину и ширину, мы не только получаем сию минутное удовольствие, но и смотрим к чему это приведёт в будущем.
Dwarkesh
Adam Marblestone – AI is missing something fundamental about the brain
The brain's secret sauce is its reward functions, not its architecture.
❤20🔥6👍2👏1
Продолжение...
Вывод для мозга. Поскольку эволюции важно было обучать сложному поведению в постоянно меняющейся среде, а "переобучение" на ограниченном опыте могло быть смертельно опасным, мозг, скорее всего, полагается на модельное обучение и обобщение. Это делает его более гибким, чем системы, которые просто оптимизируют сию минутное вознаграждение.
4. Аппаратное обеспечение мозга: ограничение или преимущество?
Обсуждается, являются ли биологические ограничения мозга (медленные нейроны, шумные сигналы) его слабостью.
Контраст с ИИ. Современные компьютеры работают с высокой точностью и скоростью, что идеально для обратного распространения ошибки и градиентного спуска.
Метафора Марблстоуна: Биологический мозг – это не "аналоговый компьютер" , а скорее "молекулярная фабрика". Его "вычисления" – это физико-химические процессы, причём энергоэффективные, тесно переплетенные с телом, метаболизмом и развитием. Эта интеграция может быть не ограничением, а ключевым элементом, обеспечивающим эффективное, контекстно-зависимое обучение, которое трудно воспроизвести в цифровых системах.
Текущие системы обучения же заточены под математический аппарат в лице метода обратного распространения ошибки и т.п.
К чему все это было?
В интервью красной нитью прослеживается необходимость развития нейробиологии, как средства прогресса в создании более разумного ИИ. Без понимания того, как работает мозг, ИИ может упереться в потолок, преодолеваемый лишь масштабированием и инженерией вокруг, но не качественным скачком технологии.
Вывод для мозга. Поскольку эволюции важно было обучать сложному поведению в постоянно меняющейся среде, а "переобучение" на ограниченном опыте могло быть смертельно опасным, мозг, скорее всего, полагается на модельное обучение и обобщение. Это делает его более гибким, чем системы, которые просто оптимизируют сию минутное вознаграждение.
4. Аппаратное обеспечение мозга: ограничение или преимущество?
Обсуждается, являются ли биологические ограничения мозга (медленные нейроны, шумные сигналы) его слабостью.
Контраст с ИИ. Современные компьютеры работают с высокой точностью и скоростью, что идеально для обратного распространения ошибки и градиентного спуска.
Метафора Марблстоуна: Биологический мозг – это не "аналоговый компьютер" , а скорее "молекулярная фабрика". Его "вычисления" – это физико-химические процессы, причём энергоэффективные, тесно переплетенные с телом, метаболизмом и развитием. Эта интеграция может быть не ограничением, а ключевым элементом, обеспечивающим эффективное, контекстно-зависимое обучение, которое трудно воспроизвести в цифровых системах.
Текущие системы обучения же заточены под математический аппарат в лице метода обратного распространения ошибки и т.п.
К чему все это было?
В интервью красной нитью прослеживается необходимость развития нейробиологии, как средства прогресса в создании более разумного ИИ. Без понимания того, как работает мозг, ИИ может упереться в потолок, преодолеваемый лишь масштабированием и инженерией вокруг, но не качественным скачком технологии.
❤25😈2
Заодно, потестим новую функцию тлдр от ТГ :) 🧠
Обновите клиент.
Please open Telegram to view this post
VIEW IN TELEGRAM
👌11🤗2
Команда DeepSeek готовится к выпуску 4ой версии модели, со всеми плюшками в лице оптимизаций mHSC, улучшенными свойствами кодирования и агентные темы в части работы с длинным контекстом, который стал эффективнее. Интересно, будет ли там, что-то новенькое а-ля gdpo и улучшение внимания+архитектуры от nvidia? 🤔
Оптимизация mHSC позволяет быстрее и эффективнее работать блокам трансформера - иметь более представимые внутренние вложения векторов, через улучшенные механики отображения и наследования информации.
А ещё недавно они расширили свой тех. репорт увеличив в 4 раза число страниц, с новыми подробностями обучения R1 поколения.
Оптимизация mHSC позволяет быстрее и эффективнее работать блокам трансформера - иметь более представимые внутренние вложения векторов, через улучшенные механики отображения и наследования информации.
А ещё недавно они расширили свой тех. репорт увеличив в 4 раза число страниц, с новыми подробностями обучения R1 поколения.
🔥17👌8👍3