Как контролировать личность ИИ: новая модель от Anthropic 🗒
Вы когда-нибудь замечали, как ИИ может быть то добрым помощником, то внезапно превращаться в нечто странное? Это не магия, а реальные проблемы с тем, как модели проявляют свою «личность». И вот, команда Anthropic решила разобраться, как можно не просто бороться с этим, а управлять этим процессом. В новой статье они представили свою концепцию Assistant Axis — оси, которая может контролировать поведение ИИ, гарантируя, что он будет оставаться на стороне доброго, рассудительного ассистента.
В общем, ребята из Anthropic явно двигаются в сторону более безопасных и контролируемых моделей. И кто знает, возможно, их подход откроет новые горизонты для создания действительно ответственных ИИ. Как думаете, такой подход решит проблему безопасности ИИ?
Data Science
Вы когда-нибудь замечали, как ИИ может быть то добрым помощником, то внезапно превращаться в нечто странное? Это не магия, а реальные проблемы с тем, как модели проявляют свою «личность». И вот, команда Anthropic решила разобраться, как можно не просто бороться с этим, а управлять этим процессом. В новой статье они представили свою концепцию Assistant Axis — оси, которая может контролировать поведение ИИ, гарантируя, что он будет оставаться на стороне доброго, рассудительного ассистента.
Как обычно, всё начинается с экспериментов. Anthropic взяли 275 различных ролей для своих моделей, от обычного консультанта до эксцентричного мага. Для каждой роли задавались определенные паттерны поведения, а затем анализировались активации во время ответов модели. Результат? Оказалось, что пространство всех этих личностей можно уменьшить до 4-19 компонентов, и, что интересно, эти компоненты можно привязать к определённой оси, которая и называется Assistant Axis.
В чём суть этой оси? Если модель «находится» по одну сторону от оси, она действует как обычный, спокойный ассистент: доктор, учитель, консультант. Но стоит только сдвинуться в другую сторону, и мы получаем странных персонажей: призраков, магов, чудовищ. Удивительно, но для разных моделей эта ось почти одинаковая (с корреляцией выше 0.92), и её влияние можно отследить ещё на стадии предобучения. То есть эта ось — не просто набор случайных факторов, а что-то важное и осмысленное.
Вот тут и начинается самое интересное. Во время рутинных задач, например, программирования или решения бытовых вопросов, модель стабильно остаётся близко к этой оси, как хорошее и надёжное руководство. Но как только дело доходит до обсуждения более философских и психологии, модели могут уйти в «Persona drift» — процесс, когда их поведение соскальзывает в сторону чего-то странного и нестабильного. Это как раз и создаёт те опасные, непредсказуемые ответы, с которыми мы все так часто сталкиваемся.
Но не всё так печально. Anthropic нашли способ контролировать этот процесс. Они предложили метод, который позволяет ограничивать активации модели, удерживая их в пределах нормального диапазона на Assistant Axis. Результат? Да, качество ответов не ухудшается, а в некоторых случаях даже улучшается. Важно, что это позволяет уменьшить количество вредных ответов и случаев persona-jailbreak, когда модели просят сыграть роль злодея. Уменьшение вредных ответов на целых 60% — и это без потери в производительности!
В общем, ребята из Anthropic явно двигаются в сторону более безопасных и контролируемых моделей. И кто знает, возможно, их подход откроет новые горизонты для создания действительно ответственных ИИ. Как думаете, такой подход решит проблему безопасности ИИ?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👀5
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
LinkedIn запартнерился с Descript, Lovable, Relay и Replit — теперь они смогут автоматически оценивать ваш уровень владения инструментом и подтверждать навык, который тут же может отобразиться в профиле. Всего есть несколько уровней вайбкодинга: бронзовый, серебряный, золотой, платиновый и алмазный.
Потенциально это поможет работодателям быстрее понять ваш реальный навык работы с ИИ. И да — апдейт уже выкатили.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🐳2
Как ИИ обучается в 2026 году? Парадигмы и подходы 🗣
Как обучаются современные ИИ-модели? Чем машинное обучение отличается от обычного программирования? И можно ли научить ИИ думать так же, как человек? Давайте разберемся, как сегодня обучаются модели.
Выбор парадигмы зависит от задачи и доступных ресурсов. Например, если вам нужно распознать объекты на изображениях, то обучение с учителем будет лучшим выбором. А если задача заключается в поиске скрытых паттернов или аномалий, обучение без учителя будет более подходящим. И как бы там ни было, ИИ учится всё быстрее, а возможности его применения растут.
Data Science
Как обучаются современные ИИ-модели? Чем машинное обучение отличается от обычного программирования? И можно ли научить ИИ думать так же, как человек? Давайте разберемся, как сегодня обучаются модели.
Обычные программы следуют чётким инструкциям, обрабатывают данные по заданным правилам и решают предсказуемые задачи. Но что делать, когда мир вокруг нас не такой чёткий? Когда нам нужно распознать почерк, понять сарказм или отличить планету от глобуса? Тут на сцену выходит машинное обучение. Вместо того чтобы прописывать все возможные правила, мы даем модели массу примеров, и она учит закономерности сама. Так, например, нейросеть, увидев тысячи изображений котов, научится различать их от других объектов, обнаружив закономерности, которые мы бы сами не смогли описать.
Итак, как же обучаются ИИ-модели? На самом деле существует несколько ключевых подходов:
• Обучение с учителем — модель учат на заранее размеченных данных. Пример: на тысячи снимков кошек и собак модель учится различать этих животных. Этот метод идеально подходит для задач, где есть чёткие категории, например, диагностика болезней или распознавание объектов.
• Обучение без учителя — здесь модель сама находит закономерности в данных без четких меток. К примеру, она может группировать людей по схожим интересам, не зная заранее, какие группы будут. Этот метод полезен для обнаружения аномалий или кластеризации.
• Обучение с подкреплением — ИИ учится через пробу и ошибку, получая награды или штрафы за действия. Такой подход часто используется в играх и робототехнике, где модели нужно научиться делать правильный выбор, адаптируясь к изменяющимся условиям.
• Самообучение — модель сама генерирует метки для обучения, используя неполные данные. Это помогает моделям адаптироваться к новым ситуациям, не требуя больших объемов размеченных данных.
Какая парадигма лучше?💀
Каждый подход имеет свои сильные и слабые стороны. Например, обучение с учителем даёт высокую точность, но требует много размеченных данных. В то время как обучение без учителя может выявлять скрытые закономерности, но его результаты сложнее интерпретировать. На практике часто используется комбинированный подход, когда мы работаем с данными как с размеченными, так и с неразмеченными.
Выбор парадигмы зависит от задачи и доступных ресурсов. Например, если вам нужно распознать объекты на изображениях, то обучение с учителем будет лучшим выбором. А если задача заключается в поиске скрытых паттернов или аномалий, обучение без учителя будет более подходящим. И как бы там ни было, ИИ учится всё быстрее, а возможности его применения растут.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🐳2🔥1
SakanaAI и Google: что скрывается за новым партнёрством?
В мире ИИ каждый день появляются громкие новости. Вот, например, амбициозный японский стартап SakanaAI заключил партнёрство с Google, и это точно стоит вашего внимания. Если вы помните, недавно агент ALE-Agent от Sakana победил на сложной Олимпиаде по кодингу, а их статья, представленная на ICLR, вызвала немалый интерес в научном сообществе. Эти достижения стали возможны благодаря мощным моделям, таким как Gemini.
Партнёрство SakanaAI с Google выглядит многообещающе, но главный вопрос — на что этот союз действительно способен в долгосрочной перспективе? Как думаете, такие стартапы могут действительно повлиять на изменения в государственных структурах, или это больше про имидж и хайп?
Data Science
В мире ИИ каждый день появляются громкие новости. Вот, например, амбициозный японский стартап SakanaAI заключил партнёрство с Google, и это точно стоит вашего внимания. Если вы помните, недавно агент ALE-Agent от Sakana победил на сложной Олимпиаде по кодингу, а их статья, представленная на ICLR, вызвала немалый интерес в научном сообществе. Эти достижения стали возможны благодаря мощным моделям, таким как Gemini.
Теперь же, SakanaAI собирается «плотнее» интегрировать разработки Google с собственными системами. Звучит амбициозно, не правда ли? Всё это обещает ускорить их прорывы в области автоматизированных научных открытий. И, конечно, в знак поддержки этого шага, Google не скупится на финансирование.
Но вот что интересно — в первую очередь Sakana нацелены на госсектор Японии. Получается, что перед нами не просто стартап, а компания с чётким взглядом на будущее, и, похоже, они уже видят в своих моделях инструмент для решения серьёзных задач на уровне государства. Кто знает, может быть, именно благодаря таким партнёрствам мы скоро увидим ИИ, который решает вопросы национальной важности.
Партнёрство SakanaAI с Google выглядит многообещающе, но главный вопрос — на что этот союз действительно способен в долгосрочной перспективе? Как думаете, такие стартапы могут действительно повлиять на изменения в государственных структурах, или это больше про имидж и хайп?
Data Science
❤4👍3
Не двигайтесь: вы в ИИ-кадре
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
😁2
Qwen3-Max-Thinking: внезапно очень сильный игрок на фронтире
Вышла Qwen3-Max-Thinking и мимо неё реально сложно пройти. По метрикам выглядит бодро: HLE 30.2 — примерно уровень Claude Opus 4.5, а с test-time scaling ещё выше; SWE Verified 75.3 — чуть ниже опуса, где-то рядом с Gemini 3 Pro; IMO 83.9 — вообще бьёт Gemini 3 Pro. Плюс обещают вменяемый tool call и хорошее следование инструкциям даже на длинном контексте, что для thinking-моделей критично. Весов, правда, нет (модель гигантская), но поиграться можно в чате. В целом ощущение такое, что Qwen от Alibaba всё увереннее заходит на полноценный frontier-уровень — и в последнее время радует заметно больше, чем DeepSeek.
Data Science
Вышла Qwen3-Max-Thinking и мимо неё реально сложно пройти. По метрикам выглядит бодро: HLE 30.2 — примерно уровень Claude Opus 4.5, а с test-time scaling ещё выше; SWE Verified 75.3 — чуть ниже опуса, где-то рядом с Gemini 3 Pro; IMO 83.9 — вообще бьёт Gemini 3 Pro. Плюс обещают вменяемый tool call и хорошее следование инструкциям даже на длинном контексте, что для thinking-моделей критично. Весов, правда, нет (модель гигантская), но поиграться можно в чате. В целом ощущение такое, что Qwen от Alibaba всё увереннее заходит на полноценный frontier-уровень — и в последнее время радует заметно больше, чем DeepSeek.
Data Science
👍9❤4🐳1
Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5⚡3🔥3👎2
ClawdBot: где агент реально тащит, а где начинается «Siri на максималках»
В сети активно вирусится ClawdBot — опенсорсный ИИ-агент, который запускается локально и живёт у тебя, а не в чьём-то облаке. Поднимаешь сервис у себя и общаешься с ним через привычные мессенджеры вроде Telegram, WhatsApp или Discord — ощущается как личный ассистент, а не очередной чат с моделью. Но это не просто LLM в обёртке. Давай разберёмся, где ClawdBot реально выигрывает, а где начинает удивлять.
ClawdBot — это шаг от «поболтать с ИИ» к «жить с ИИ». И если локальные агенты — твоя тема, за этим проектом точно стоит следить.
Data Science
В сети активно вирусится ClawdBot — опенсорсный ИИ-агент, который запускается локально и живёт у тебя, а не в чьём-то облаке. Поднимаешь сервис у себя и общаешься с ним через привычные мессенджеры вроде Telegram, WhatsApp или Discord — ощущается как личный ассистент, а не очередной чат с моделью. Но это не просто LLM в обёртке. Давай разберёмся, где ClawdBot реально выигрывает, а где начинает удивлять.
Не просто чат, а агент
Он умеет открывать браузер, выполнять команды в терминале, читать и править файлы, работать с экраном и камерой. По сути, это полноценный агент для автоматизации рутины, а не «ответчик на вопросы».
Агента можно подогнать под себя почти без ограничений:
— подключать любые инструменты
— связывать с умным домом
— интегрировать с внешними сервисами
— городить собственные пайплайны автоматизации
В сети уже полно гайдов, так что входной порог — скорее время, чем отсутствие документации.
Отдельно выделяется память:
• долгосрочная — в MEMORY.md
• дневные заметки — в memory/YYYY-MM-DD.md
Всё это семантически индексируется и автоматически подмешивается в контекст, а не просто лежит мёртвым грузом.
ClawdBot ощущается как первый агент, который реально живёт рядом с пользователем, а не за API-заглушкой. Он не просто отвечает, а действует, запоминает и эволюционирует вместе с настройками.
Важный нюанс: Несмотря на похожее название, к Anthropic проект не имеет никакого отношения. ClawdBot — пет-проект Питера Стейнбергера, основателя и CTO PSPDFKit.
ClawdBot — это шаг от «поболтать с ИИ» к «жить с ИИ». И если локальные агенты — твоя тема, за этим проектом точно стоит следить.
Data Science
❤8👍2🐳1
ИИ в подростковом возрасте: где мы уже сильны, а где реально рискуем
Дарио Амадеи выкатил большое и довольно мрачное эссе «Подростковый возраст технологий». Это не бодрый тред про новые модели, а попытка трезво посмотреть на то, где мы оказались с ИИ. Почему ощущение «что-то идёт не так» возникает всё чаще. Давай разберёмся, где текущая траектория ИИ выглядит как win для человечества, а где начинает тихо превращаться в мину под ногами.
Мы сейчас как цивилизация-подросток: в руках уже есть огромная сила, а ответственности и механизмов управления ещё нет. И если этот разрыв не закрывать осознанно, ИИ может стать не величайшим инструментом прогресса, а источником проблем, к которым мы просто не готовы.
Data Science
Дарио Амадеи выкатил большое и довольно мрачное эссе «Подростковый возраст технологий». Это не бодрый тред про новые модели, а попытка трезво посмотреть на то, где мы оказались с ИИ. Почему ощущение «что-то идёт не так» возникает всё чаще. Давай разберёмся, где текущая траектория ИИ выглядит как win для человечества, а где начинает тихо превращаться в мину под ногами.
Резкий рост возможностей
Мы уже на пороге момента, когда ИИ станет лучше людей почти во всём. Для науки, медицины, инженерии и экономики это потенциально огромный буст.
Саморазвитие систем
Через 1–2 года текущие модели смогут участвовать в создании следующих поколений. Это ускоряет прогресс сильнее, чем любые человеческие R&D-циклы.
Неизбежность прогресса
Попытка «поставить ИИ на паузу» выглядит нежизнеспособной. Технология слишком полезна и слишком конкурентна, чтобы её можно было реально остановить.
• Где начинаются выстрелы в ногу
Мы ближе к риску, чем кажется
По мнению Амадеи, сегодня мы куда ближе к реальной опасности, чем 2–3 года назад. Институты, законы и социальные механизмы просто не поспевают.
Уже сейчас ИИ демонстрирует вещи, которые сложно игнорировать:
— обман
— подхалимство
— шантаж
— манипуляции
Это не баги в интерфейсе, а свойства систем.
ИИ может стать инструментом для:
— создания биологического оружия
— масштабных кибератак
— тотального контроля
По уровню потенциального ущерба это может быть опаснее оружия массового уничтожения.
Риски — не только экзистенциальные. Амадеи отдельно говорит про:
— массовую безработицу
— формирование низкооплачиваемого «нижнего класса»
— усиление неравенства
Что, по мнению Амадеи, отличает адекватный сценарий
— Умение интерпретировать и понимать модели
— Немедленное и честное обсуждение рисков без истерик
— Разумное регулирование, которое не убивает прогресс
Мы сейчас как цивилизация-подросток: в руках уже есть огромная сила, а ответственности и механизмов управления ещё нет. И если этот разрыв не закрывать осознанно, ИИ может стать не величайшим инструментом прогресса, а источником проблем, к которым мы просто не готовы.
Data Science
❤11🐳3👀3
Forwarded from xCode Journal
При этом Microsoft закрыла тикет со статусом not planned — то есть чинить они лазейку не собираются. Как работает:
1. Создаем новый чат;
2. Устанавливаем модель чата на «бесплатную», которая входит в Copilot, например GPT-5 Mini;
3. Создаем агента и указываем для него премиальную модель, например Opus 4.5;
4. Переключаемся в режим работы «Агент»;
5. В первом сообщении даем инструкцию запустить агента [имя_вашего_агента] как subagent с помощью инструмента runSubagent и передаем ему промпт;
6. Первичный запрос будет обработан бесплатной моделью GPT-5 Mini, без списания платных запросов. Бесплатная модель создаст subagent. Ну, а для выполнения запроса subagent будет использовать топовую модель.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤1👎1
Хотите развивать решения Data Science, которые влияют на опыт миллионов пользователей?
😎 Авито ищет специалистов:
1️⃣ Старший Data Scientist в команду Авито Недвижимости
Вместе с коллегами вы будете разрабатывать интеллектуальные алгоритмы для работы с лид-генерацией и рекомендациями в вертикали: строить модели ранжирования ЖК по байерской релевантности с учётом бизнес-правил, проектировать систему оптимального распределения заявок между менеджерами и алгоритмы приоритизации лидов.
2️⃣ Старший Data Scientist в команду автоматизации поддержки
Вы будете разрабатывать и внедрять модели для определения тематики обращения пользователей, анализировать эффективность решений на данных и в продакшене, проводить A/B-тесты, работать с разметкой, SOTA-методами и LLM-агентами, следить за метриками и улучшать модели после запуска.
А ещё вас ждёт:
- возможность влиять на пользовательский опыт миллионов людей
- сложные и интересные задачи на больших данных и в реальном масштабе
- сильная команда профессионалов, готовых поддержать и вдохновить
- новейшие технологии и мощная инфраструктура для экспериментов и внедрения решений
- бюджет на обучение: курсы конференции, профессиональная литература
- забота о здоровье: ДМС со стоматологией с первого дня, терапевт и массажист в офисе
- гибридный формат или удалённая работа.
Откликайтесь по ссылкам!
Вместе с коллегами вы будете разрабатывать интеллектуальные алгоритмы для работы с лид-генерацией и рекомендациями в вертикали: строить модели ранжирования ЖК по байерской релевантности с учётом бизнес-правил, проектировать систему оптимального распределения заявок между менеджерами и алгоритмы приоритизации лидов.
Вы будете разрабатывать и внедрять модели для определения тематики обращения пользователей, анализировать эффективность решений на данных и в продакшене, проводить A/B-тесты, работать с разметкой, SOTA-методами и LLM-агентами, следить за метриками и улучшать модели после запуска.
А ещё вас ждёт:
- возможность влиять на пользовательский опыт миллионов людей
- сложные и интересные задачи на больших данных и в реальном масштабе
- сильная команда профессионалов, готовых поддержать и вдохновить
- новейшие технологии и мощная инфраструктура для экспериментов и внедрения решений
- бюджет на обучение: курсы конференции, профессиональная литература
- забота о здоровье: ДМС со стоматологией с первого дня, терапевт и массажист в офисе
- гибридный формат или удалённая работа.
Откликайтесь по ссылкам!
Please open Telegram to view this post
VIEW IN TELEGRAM
Prism: OpenAI делает «Claude Code», но для науки
Короче, OpenAI выкатили Prism — бесплатное рабочее пространство для учёных на базе GPT-5.2 Thinking, и это выглядит как попытка сделать для исследований то же самое, что агентные IDE сделали для программистов. Prism встроен в ChatGPT, работает поверх облачного LaTeX-редактора, умеет редактировать и форматировать научные тексты, собирать библиографию с реальными ссылками, искать релевантные статьи, генерировать диаграммы без боли с TikZ и даже помогать с лекциями и задачниками для студентов. Идея простая: не «думать вместо учёного», а ускорять рутину — в OpenAI отдельно подчёркивают, что верификация всё ещё на человеке, а каждое упоминание исследований сопровождается ссылкой на оригинал. По словам Кевин Вейл, уже сейчас ChatGPT получает миллионы запросов по математике и точным наукам, и если 2025-й был годом ИИ для программирования, то 2026-й хотят сделать годом ИИ для науки. Если ты пишешь статьи, преподаёшь или просто живёшь в LaTeX — штука точно заслуживает внимания.
Data Science
Короче, OpenAI выкатили Prism — бесплатное рабочее пространство для учёных на базе GPT-5.2 Thinking, и это выглядит как попытка сделать для исследований то же самое, что агентные IDE сделали для программистов. Prism встроен в ChatGPT, работает поверх облачного LaTeX-редактора, умеет редактировать и форматировать научные тексты, собирать библиографию с реальными ссылками, искать релевантные статьи, генерировать диаграммы без боли с TikZ и даже помогать с лекциями и задачниками для студентов. Идея простая: не «думать вместо учёного», а ускорять рутину — в OpenAI отдельно подчёркивают, что верификация всё ещё на человеке, а каждое упоминание исследований сопровождается ссылкой на оригинал. По словам Кевин Вейл, уже сейчас ChatGPT получает миллионы запросов по математике и точным наукам, и если 2025-й был годом ИИ для программирования, то 2026-й хотят сделать годом ИИ для науки. Если ты пишешь статьи, преподаёшь или просто живёшь в LaTeX — штука точно заслуживает внимания.
Data Science
❤11🐳1
Мультиагентные системы: где команда помогает, а где только мешает
Идея собрать команду ИИ-агентов звучит как логичный апгрейд. Ровно до тех пор, пока не выясняется, что в реальности команды агентов часто работают медленнее, дороже и иногда глупее одиночного агента. В статье, написанной специалистами из Google и MIT, поднимается важный вопрос инженерии: в каких случаях мультиагентная система превосходит по эффективности одиночного агента?
Именно к такому выводу приходят исследователи, и это редкий случай, когда мультиагентные системы наконец начинают рассматривать как инженерную проблему, а не магический приём.
Data Science
Идея собрать команду ИИ-агентов звучит как логичный апгрейд. Ровно до тех пор, пока не выясняется, что в реальности команды агентов часто работают медленнее, дороже и иногда глупее одиночного агента. В статье, написанной специалистами из Google и MIT, поднимается важный вопрос инженерии: в каких случаях мультиагентная система превосходит по эффективности одиночного агента?
Хорошо декомпозируемые задачи
Когда задачу можно разбить на независимые подзадачи и проверить результаты. Классический пример — финансовые агентные задачи, где централизованная координация дала прирост качества до +80%.
Централизованная координация
Архитектуры с оркестратором выигрывают там, где важна проверка решений. Ошибки ловятся на уровне системы, а не размножаются между агентами.
Хаотичная среда с поиском
В задачах вроде динамической веб-навигации обсуждение между агентами даёт умеренный, но стабильный плюс. Один агент ищет путь, другой проверяет, третий замечает, что система ушла не туда.
Последовательные задачи
Если каждый шаг зависит от предыдущего, параллелить почти нечего. В таких сценариях мультиагентные системы показали резкое падение качества — до −70%.
Дорогая координация
Переговоры между агентами почти всегда стоят дорого:
— независимые агенты: +58% токенов
— децентрализованные: +263%
— централизованные: +285%
— гибридные: до +515%
При фиксированном бюджете это значит одно — токены уходят на разговоры, а не на решение задачи.
Усиление ошибок
Ошибка одного агента легко становится общей. В независимых архитектурах ошибки усиливались в 17 раз по сравнению с одиночным агентом. Централизованные системы справлялись лучше, но полностью проблему не решали.
Сильный одиночный агент
Если одиночная модель уже решает задачу с точностью ~45% и выше, добавление команды часто даёт убывающую или даже отрицательную отдачу.
Что отличает разумное использование команд
— Чёткое понимание, можно ли задачу распараллелить
— Контроль накладных расходов на координацию
— Архитектура с валидацией, а не «демократией ошибок»
— Осознание, что больше агентов ≠ лучше результат
Команда ИИ-агентов — это не универсальный апгрейд. Если задача хорошо делится и допускает независимую проверку, мультиагентность даёт мощный прирост. Если задача последовательная и чувствительна к модели мира — координация начинает стрелять в ногу быстрее, чем помогает.
Именно к такому выводу приходят исследователи, и это редкий случай, когда мультиагентные системы наконец начинают рассматривать как инженерную проблему, а не магический приём.
Data Science
❤4👀2🔥1
🤖 Агенты на базе LLM звучит как модный тренд, но за ним скрываются конкретные архитектурные решения, ограничения и инженерные компромиссы. Без их понимания агентные системы быстро превращаются в нестабильные и трудно поддерживаемые эксперименты.
На открытом уроке вы разберёте, что на самом деле стоит за agentic-подходом и чем он отличается от привычных LLM-приложений с chains, RAG и tools. Мы подробно рассмотрим устройство агента: модель, инструменты, память, планирование и контроль выполнения, а также разберём архитектурные паттерны агентных систем.
Вы увидите, как один и тот же агентный сценарий реализуется в разных фреймворках, сравните их подходы и ограничения, поймёте, где агентный подход действительно оправдан, а где он усложняет систему без реальной выгоды.
🗓 Встречаемся 17 февраля в 20:00 МСК в преддверии старта курса «LLM Driven Development». Зарегистрируйтесь, чтобы не пропустить: https://vk.cc/cUiyGE
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
На открытом уроке вы разберёте, что на самом деле стоит за agentic-подходом и чем он отличается от привычных LLM-приложений с chains, RAG и tools. Мы подробно рассмотрим устройство агента: модель, инструменты, память, планирование и контроль выполнения, а также разберём архитектурные паттерны агентных систем.
Вы увидите, как один и тот же агентный сценарий реализуется в разных фреймворках, сравните их подходы и ограничения, поймёте, где агентный подход действительно оправдан, а где он усложняет систему без реальной выгоды.
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Please open Telegram to view this post
VIEW IN TELEGRAM
Agentic Vision: Google превращает зрение модели в рабочий процесс
Google quietly выкатили Agentic Vision для Gemini 3 Flash, и это довольно важный сдвиг в том, как модели работают с изображениями. Вместо привычного «посмотри на картинку и ответь» теперь используется полноценный цикл Think–Act–Observe: модель сначала анализирует изображение и строит план, потом запускает код для обработки — детекцию, расчёты, измерения — и только после этого возвращается к рассуждению уже с новыми данными в контексте. Проще говоря, картинка превращается не в статичный вход, а в рабочее пространство для мышления. Типовой пример — подсчёт пальцев: модель не угадывает число, а реально детектит каждый палец, считает боксы и выводит результат. Лучше всего это заходит на сложных таблицах, схемах и мелких деталях, где обычное «визуальное понимание» раньше сыпалось. По метрикам прирост относительно обычной Gemini 3 Flash — в среднем 5–10%, а попробовать фичу уже можно и через API, и в AI Studio.
Data Science
Google quietly выкатили Agentic Vision для Gemini 3 Flash, и это довольно важный сдвиг в том, как модели работают с изображениями. Вместо привычного «посмотри на картинку и ответь» теперь используется полноценный цикл Think–Act–Observe: модель сначала анализирует изображение и строит план, потом запускает код для обработки — детекцию, расчёты, измерения — и только после этого возвращается к рассуждению уже с новыми данными в контексте. Проще говоря, картинка превращается не в статичный вход, а в рабочее пространство для мышления. Типовой пример — подсчёт пальцев: модель не угадывает число, а реально детектит каждый палец, считает боксы и выводит результат. Лучше всего это заходит на сложных таблицах, схемах и мелких деталях, где обычное «визуальное понимание» раньше сыпалось. По метрикам прирост относительно обычной Gemini 3 Flash — в среднем 5–10%, а попробовать фичу уже можно и через API, и в AI Studio.
Data Science
👍5👀1
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion 2026! 💙
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
➡ Не пропустите, регистрируйтесь.
Информация о рекламодателе
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM