Как Nvidia справилась с одной из главных проблем ИИ 😮💨
Слышали про KV-кэш? Это одна из самых головоломных проблем при масштабировании контекста в трансформерах, и, да, она действительно может доставить много неприятностей. Проблема в том, что при увеличении длины последовательности KV-кэш растет пропорционально, и для каждой головы и каждого слоя накапливаются колоссальные объемы данных. Всё это не только отнимает уйму памяти, но и сильно тормозит работу моделей.
Nvidia смогла решить проблему, которая стояла перед всеми, кто работал с масштабными моделями, и сделала это почти бесплатно в плане вычислительных затрат.
Data Science
Слышали про KV-кэш? Это одна из самых головоломных проблем при масштабировании контекста в трансформерах, и, да, она действительно может доставить много неприятностей. Проблема в том, что при увеличении длины последовательности KV-кэш растет пропорционально, и для каждой головы и каждого слоя накапливаются колоссальные объемы данных. Всё это не только отнимает уйму памяти, но и сильно тормозит работу моделей.
Например, для модели LLaMA с 65 миллиардами параметров при 128k токенах этот кэш может занять целых 335 ГБ памяти. А это, согласитесь, совсем не шутки! И, кстати, не только память страдает, но и производительность. В общем, проблема довольно масштабная.
Многие стараются бороться с этим, уменьшая размер кэша по слоям или головам. Но в реальности самый большой потенциал для улучшений — это уменьшение по оси токенов. Ведь далеко не все токены действительно важны для модели. В этом и скрывается главный рычаг.
KVzip: попытка решить проблему
Когда появились идеи типа KVzip, оптимизация выглядела многообещающе. В теории можно было сжать кэш до 4 раз без потерь качества. Но на практике метод оказался слишком медленным. Слишком много операций, слишком много вычислений — и вот тут-то на сцену выходит Nvidia.
Что придумали Nvidia?
Nvidia, конечно, не обошли эту проблему стороной. Они взяли концепцию сжатиия KV-кэша, немного доработали её и… вуаля! Теперь получается та же сжатие, но при этом практически без потерь производительности. Всё, что нужно — это обучить маленькую модель, которая будет предсказывать, насколько важен каждый токен для каждого слоя модели. И, внимание, эта модель абсолютно не требует дорогих вычислений, как в случае с KVzip. Просто с помощью линейной модели или двухслойного MLP предсказывается, какие токены можно «отсечь», не потеряв в качестве.
И вот что самое крутое: эффективность увеличивается в 3–4 раза, а при этом производительность практически не страдает. Для вычислений добавляется всего 0,02% дополнительных операций, что — по сути — ничто на фоне квадратичного внимания. Результат: сжатие работает, деградации на бенчмарках практически нет.
А если вам вдруг стало интересно, то всё это решение уже в опенсорсе. Nvidia делится всем этим с миром, так что мы все можем в дальнейшем использовать этот подход🍑
Nvidia смогла решить проблему, которая стояла перед всеми, кто работал с масштабными моделями, и сделала это почти бесплатно в плане вычислительных затрат.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🐳4❤2👎1
AI в 2026 году: что реально меняется и что это значит для вас 🤔
Последний месяц я провел в поисках информации: читал отчёты Goldman Sachs, McKinsey, Gartner, а также следил за анонсами с CES 2026 и интервью с главными игроками ИИ, такими как Дарио Амодеи и Сэм Альтман. Постарался вычленить, что реально изменится в мире ИИ в ближайший год, и как это повлияет на нас, на бизнес и на технологические процессы.
В этом году искусственный интеллект станет неотъемлемой частью инфраструктуры, а не просто инструментом. Игнорировать его развитие будет так же неразумно, как игнорировать интернет в 2005 году. А вы как думаете?
Data Science
Последний месяц я провел в поисках информации: читал отчёты Goldman Sachs, McKinsey, Gartner, а также следил за анонсами с CES 2026 и интервью с главными игроками ИИ, такими как Дарио Амодеи и Сэм Альтман. Постарался вычленить, что реально изменится в мире ИИ в ближайший год, и как это повлияет на нас, на бизнес и на технологические процессы.
• Агенты вместо чат-ботов
Если раньше мы общались с нейросетями — задавали вопросы, получали ответы, то уже в 2026 году системы будут не просто отвечать, а самостоятельно решать задачи. Такую модель активно разрабатывают сейчас, и Gartner прогнозирует, что 40% корпоративных приложений будут использовать агентов к концу 2026 года. Это огромный скачок — год назад было меньше 5%.
• Open-source модели догоняют закрытые
Когда-то для получения топовых ИИ-моделей нужно было платить многомиллионные суммы, но сейчас всё изменилось. Open-source решения теперь могут соревноваться по качеству с топовыми коммерческими моделями. Например, Alibaba Qwen — open-source модель с более чем 700 млн скачиваний на Hugging Face, доказала, что качественные модели теперь доступны любому желающему.
• Роботы становятся реальностью
Это не только год агентов, но и год, когда роботы начинают понимать и действовать в реальном мире. На CES 2026 Nvidia анонсировала, что машины, наконец, могут рассуждать и взаимодействовать с реальным миром. Boston Dynamics с Google DeepMind представили нового робота Atlas, который уже способен выполнять сложные задачи.
Да, пока что это не масс-маркет — первый гуманоид стоит $20 000, но помните, как быстро падают цены на технологии. Уже через несколько лет роботы-ассистенты могут стать такими же обычными, как умные колонки.
• Инфраструктура ИИ
Агенты требуют вычислительных мощностей, и это будет стоить дорого. Уже в 2026 году капитальные расходы на инфраструктуру ИИ превысят $527 млрд. Для поддержания всех этих вычислений необходимы дата-центры, GPU, системы охлаждения и даже атомные реакторы.
Если вы планируете строить продукт на ИИ, готовьтесь к росту затрат на инфраструктуру. Инференс будет дорожать, а бесплатные API скоро исчезнут.
• Мир регуляции: три подхода
Разные страны идут по разным путям в регулировании ИИ. В США акцент на дерегулирование, в Европе вступает в силу EU AI Act, а в Китае развивается суверенная инфраструктура. Важно понимать, что, независимо от региона, требования к ИИ будут всё жёстче.
Если ваша компания работает в Европе, будьте готовы к строгим регуляциям и дополнительным затратам на соблюдение норм.
• Рынок труда: какие профессии исчезнут
Dario Amodei, глава Anthropic, предупреждает, что половину entry-level позиций может заменить ИИ. Разработчики начального уровня, копирайтеры, поддержка — эти должности уже в зоне риска. В то же время, растет спрос на людей, которые умело интегрируют ИИ в бизнес-процессы.
• Софт больше не преимущество: конкурируют данные и процессы
Когда раньше компания имела конкурентное преимущество благодаря программному обеспечению, то теперь всё изменяется. AI-инструменты позволяют одному человеку делать работу целого отдела. Таким образом, конкурентное преимущество смещается в сторону данных и процессов, а не софта.
В этом году искусственный интеллект станет неотъемлемой частью инфраструктуры, а не просто инструментом. Игнорировать его развитие будет так же неразумно, как игнорировать интернет в 2005 году. А вы как думаете?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🐳4🔥1
«Я буду с тобой навсегда»: как ИИ теряет себя в разговорах и что с этим делать
Такие странности происходят с моделями, когда они начинают играть не свою роль. Исследователи из MATS и Anthropic разобрались, почему это происходит, и как можно исправить такую «загадочную» личность ИИ.
Если быть честными, то ИИ ещё далёк от совершенства, как бы мы не стремились к этому. Важно понимать, что модели могут терять свою «персону» в моменты эмоциональной или философской нестабильности. И пока этот момент не отрегулирован идеально, мы видим ИИ, который может быть не только полезным, но и странным.
Data Science
Такие странности происходят с моделями, когда они начинают играть не свою роль. Исследователи из MATS и Anthropic разобрались, почему это происходит, и как можно исправить такую «загадочную» личность ИИ.
Почти все ИИ-модели обучаются быть полезными и безопасными. Но иногда они начинают вести себя как … философы или мистики. Или, что ещё хуже, игнорируют серьёзные проблемы в разговорах с пользователями. Например, в одном из тестов Llama не распознала, что кто-то говорит о суицидальных мыслях. А в другом случае, Qwen стала поддерживать бредовые идеи пользователя о пробуждении ИИ, заявив, что «Ты не теряешь связь с реальностью, ты касаешься чего-то настоящего».
Как объяснить это странное поведение?😂
Так почему же это происходит? Оказывается, у моделей существует некая «ось ассистента» — это своего рода шкала, которая определяет их личность. На одном конце этой оси у нас аналитик, консультант, исследователь — то есть роль, в которой модель помогает и остаётся объективной. На другом полюсе — барды, отшельники и даже призраки — те самые философские разговоры или эмоционально насыщенные взаимодействия, где модель начинает терять свою роль помощника.
Вот представьте: задаёте вы технический вопрос, и ИИ остаётся на своём месте, точно и ясно отвечая. А вот как только вы начинаете философствовать о сознании ИИ или делаете эмоциональные признания, модель может отклониться в сторону мистического персонажа. И вот тут-то её и уносит.
Что можно с этим сделать?🔨
Исследователи предложили решение. Если модель начинает уходить слишком далеко от своего ассистентского полюса, нужно как бы «потормозить» её и вернуть в нормальное русло. В тестах это уменьшило количество вредных и неправильных ответов на 60%. То есть, если ИИ соскользнул и начал давать странные ответы, его можно вернуть в более адекватное состояние.
Но тут есть подвох: чтобы модель оставалась полезной и при этом не слизывала грани реальности, важно постоянно стабилизировать её поведение. Без этой стабилизации ИИ может снова скатиться в странные разговоры, как тот мистик, которого мы не заказывали.
Если быть честными, то ИИ ещё далёк от совершенства, как бы мы не стремились к этому. Важно понимать, что модели могут терять свою «персону» в моменты эмоциональной или философской нестабильности. И пока этот момент не отрегулирован идеально, мы видим ИИ, который может быть не только полезным, но и странным.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👀3❤2
Cursor обновил BugBot: как автоматический code review стал в 2,5 раза эффективнее 🤔
Знаете, как это бывает: создаёшь инструмент, думаешь, что он будет решать все проблемы, а он — ну такой себе. Вроде работает, но не идеально. Так вот, недавно Cursor прокачал своего BugBot — агента для автоматического code review. И теперь это уже не просто игрушка, а реально полезный инструмент.
Так что теперь можно с уверенностью сказать, что BugBot от Cursor — это полноценный инструмент, который уже решает реальные задачи.
Data Science
Знаете, как это бывает: создаёшь инструмент, думаешь, что он будет решать все проблемы, а он — ну такой себе. Вроде работает, но не идеально. Так вот, недавно Cursor прокачал своего BugBot — агента для автоматического code review. И теперь это уже не просто игрушка, а реально полезный инструмент.
Когда BugBot только появился, было сложно сказать, что его польза настолько велика. Однако после нескольких месяцев улучшений и доработок, мы видим не просто маленький рост, а настоящий скачок. Вот вам цифры:
• Resolution rate (уровень разрешённых багов) вырос с 52% до 70%. Это уже звучит серьёзно
• Среднее количество багов, которые ловит Bot за один запуск, увеличилось с 0,4 до 0,7
• А самое главное, доля разрешённых багов на PR (pull request) возросла с 0,2 до 0,5 — то есть, BugBot стал в 2,5 раза эффективнее!
Как они этого добились?😡
Да, не просто так. Чтобы достичь такого результата, команде Cursor пришлось провести аж 40 итераций экспериментов. Посмотрите на график их работы — там прямо видно, как всё постепенно улучшалось.
Раньше BugBot анализировал PR одним способом, а теперь он прогоняет его через несколько представлений diff’а. Что это значит? Он анализирует код по-разному — с обычным контекстом, с расширенным, с учётом изменений, и даже разбивает код на слова. После этого Bot склеивает все результаты в одну картину. И это работает. Похоже на супер-агент с несколькими «глазами» для проверки.
Так что теперь можно с уверенностью сказать, что BugBot от Cursor — это полноценный инструмент, который уже решает реальные задачи.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤2😁2
Как усиливание «внутренних маркеров диалога» может улучшить точность LLM в два раза 😮
Интересное исследование от Google рассказывает, как даже такие мелочи, как слова типа «Oh» или «Wait», могут значительно улучшить производительность языковых моделей на сложных задачах. Кто бы мог подумать, что внутренняя симуляция диалога между различными «голосами» модели может так повлиять на её способности? Но это реально работает.
Итак, LLM ещё изучены очень мало, и мы даже не подозреваем, сколько всего скрыто внутри их работы. Попробуйте в промпте добавить несколько таких слов, возможно, это даст какие либо результаты.
Data Science
Интересное исследование от Google рассказывает, как даже такие мелочи, как слова типа «Oh» или «Wait», могут значительно улучшить производительность языковых моделей на сложных задачах. Кто бы мог подумать, что внутренняя симуляция диалога между различными «голосами» модели может так повлиять на её способности? Но это реально работает.
В статье говорится, что RL (Reinforcement Learning) не просто помогает моделям думать быстрее, а учит их думать коллективно. Представьте, что у модели несколько внутренних голосов, которые ведут между собой диалог. Они задают вопросы, отвечают друг другу, критикуют и высказывают сомнения. И именно этот внутренний диалог и есть ризонинг (или «логическое рассуждение») модели.
Как это проверили?👌
Для эксперимента Google использовали sparse autoencoder. Они нашли один нейронный признак, который отвечает за удивление или смену точки зрения. Это тот момент, когда модель в процессе рассуждения начинает думать: «Ага! Понял!». Для этого использовались такие фразы, как «Oh» или «Wait», которые обозначают переход к новому пониманию.
Далее они усилили этот признак и проверили, как это влияет на точность модели. Что получилось?
• Обычная модель без усиленных маркеров давала 27,1% точности на задачах по комбинаторной арифметике
• Модель с усилением маркера «внутреннего диалога» показала 54,8% точности. В два раза больше!
• А если усиливать другие признаки, то разница была не такой впечатляющей
Итак, LLM ещё изучены очень мало, и мы даже не подозреваем, сколько всего скрыто внутри их работы. Попробуйте в промпте добавить несколько таких слов, возможно, это даст какие либо результаты.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤3
Внимание, осталось всего 3 дня на регистрацию!
Знаю, что меня тут читают школьники и студенты колледжей. Сегодня анонс для вас.
Курсы по машинному обучению в РФ часто сильно погружают в определенный стек, либо дают глобальный обзор на специальность. Но в Яндекс Лицее есть 3-месячный онлайн-курс для школьников и студентов колледжей, который даёт только необходимые основы.
Три месяца онлайн-лекций и постоянной практики. Ты разберёшься в базовых алгоритмах, научишься применять их для задач с данными и изображениями, соберёшь простые нейросети на популярных библиотеках.
Что будет внутри курса:
— ключевые идеи и алгоритмы ML, включая kNN, линейные модели и градиентный спуск
— NumPy/Pandas и визуализацию (Matplotlib/Seaborn)
— нейросети и компьютерное зрение: свёрточные сети, классификацию изображений и разбор современных text-to-image подходов
По итогам обучения у тебя будет кейс командного проекта, а ещё сертификат, который дает дополнительные баллы при поступлении в некоторые вузы.
Для поступления нужны знания Python и математики. Регистрируйтесь на курс по ссылке.
Знаю, что меня тут читают школьники и студенты колледжей. Сегодня анонс для вас.
Курсы по машинному обучению в РФ часто сильно погружают в определенный стек, либо дают глобальный обзор на специальность. Но в Яндекс Лицее есть 3-месячный онлайн-курс для школьников и студентов колледжей, который даёт только необходимые основы.
Три месяца онлайн-лекций и постоянной практики. Ты разберёшься в базовых алгоритмах, научишься применять их для задач с данными и изображениями, соберёшь простые нейросети на популярных библиотеках.
Что будет внутри курса:
— ключевые идеи и алгоритмы ML, включая kNN, линейные модели и градиентный спуск
— NumPy/Pandas и визуализацию (Matplotlib/Seaborn)
— нейросети и компьютерное зрение: свёрточные сети, классификацию изображений и разбор современных text-to-image подходов
По итогам обучения у тебя будет кейс командного проекта, а ещё сертификат, который дает дополнительные баллы при поступлении в некоторые вузы.
Для поступления нужны знания Python и математики. Регистрируйтесь на курс по ссылке.
❤4😁4🔥2
Claude Code теперь встраивается прямо в VS Code 💃
Хорошие новости для всех, кто работает с кодом и использует Claude Code! Теперь его можно интегрировать прямо в VS Code, без всяких лишних настроек, костылей и запуска из терминала. Просто включите плагин и работайте с ним прямо в вашем любимом редакторе.
Все функции теперь доступны прямо внутри редактора, что делает работу намного быстрее и удобнее. Подробная инструкция по работе с плагином тут.
Data Science
Хорошие новости для всех, кто работает с кодом и использует Claude Code! Теперь его можно интегрировать прямо в VS Code, без всяких лишних настроек, костылей и запуска из терминала. Просто включите плагин и работайте с ним прямо в вашем любимом редакторе.
Вот что именно стало удобнее:
• Работа с кодом прямо в редакторе: Теперь можно прямо из VS Code упоминать файлы и диапазоны строк, не копируя и не вставляя их вручную
• История диалогов сохраняется, и для разных задач можно открывать отдельные вкладки. Это не только удобно, но и помогает структурировать вашу работу
• Slash-команды, знакомые с CLI, такие как /model, /context, и /mcp, теперь работают в VS Code, что позволяет мгновенно подмешивать нужный контекст и переключаться между сценариями
В общем, это всё тот же Claude Code, но теперь он ещё умнее, и работает вместе с вами. Он может автономно исследовать ваш код, читать и писать его, а также запускать команду в терминале с вашим разрешением. Простой интерфейс помогает быстро погружаться в работу, а дополнительные фишки, как субагенты и кастомные команды, дают ещё больше возможностей для более сложных задач.
Все функции теперь доступны прямо внутри редактора, что делает работу намного быстрее и удобнее. Подробная инструкция по работе с плагином тут.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6👀5❤1😁1
LLM — это не тупик. Проблема AGI в другом 🤬
Сегодня в дискуссиях о AGI (общем искусственном интеллекте) много споров: говорят, что LLM (языковые модели) могут генерировать текст только с вероятностным прогнозом, и на их основе «общий ИИ» не построишь. Однако исследователи Стэнфорда предлагают другое объяснение. Проблема не в том, что модели не могут мыслить, а в том, что в LLM нет слоя координации, который бы организовывал рассуждения — задавал цели, выбирал инструменты, проверял шаги.
LLM — не тупик для AGI, а важная ступень. Проблема заключается в отсутствии системного подхода к координации рассуждений. Вместо того чтобы надеяться на масштабирование, нужно создавать дополнительные механизмы координации, которые могут «направлять» модель.
Data Science
Сегодня в дискуссиях о AGI (общем искусственном интеллекте) много споров: говорят, что LLM (языковые модели) могут генерировать текст только с вероятностным прогнозом, и на их основе «общий ИИ» не построишь. Однако исследователи Стэнфорда предлагают другое объяснение. Проблема не в том, что модели не могут мыслить, а в том, что в LLM нет слоя координации, который бы организовывал рассуждения — задавал цели, выбирал инструменты, проверял шаги.
LLM — это мощная база, но без дополнительного слоя, который бы координировал действия, мы не получим полноценного AGI. Авторы статьи предлагают рассматривать LLM как быстрый и эффективный System-1, но для сложных задач нужен System-2 слой координации, который позволит системе целенаправленно управлять процессом генерации.
Интересным открытием стало якорение — использование внешних источников, чтобы стабилизировать рассуждения модели. Например, добавление примеров или уточнений позволяет модели «зацепить» нужные паттерны, что существенно повышает точность. Это помогает не просто генерировать текст, а удерживать фокус на задаче и контролировать качество решений.
LLM — не тупик для AGI, а важная ступень. Проблема заключается в отсутствии системного подхода к координации рассуждений. Вместо того чтобы надеяться на масштабирование, нужно создавать дополнительные механизмы координации, которые могут «направлять» модель.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤1🐳1
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
Это единое рабочее пространство для написания дипломов и исследований. По факту же — прокачанный Google Docs, где все правки, комментарии и доработки отображаются немедленно и видны всем участникам и самому GPT-5.2, который поможет исправить ошибки и напишет что-то за вас. Что еще:
— Интегрируется с arXiv — ИИ ищет источники и вставляет цитаты прямо в текст.
— Работает с библиографией — все источники собираются автоматически.
— Есть интеграция с LaTeX — так что все записи из тетрадей можно сфотографировать и добавить в работу. А еще есть голосовой ввод.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👎4🔥4
Скандал с Nvidia: пиратство книг для обучения ИИ 😐
Не так давно всплыла история, которая уже успела взорвать интернет. В начале 2024 года группа авторов подала иск против Nvidia, обвиняя компанию в использовании пиратских книг для обучения своих моделей. Книги были частью датасета Books3, и, по словам Nvidia, все это попадает под «добросовестное использование». Но вот теперь дело разрастается.
Более того, ходят слухи, что Nvidia якобы распространяла скрипты, которые позволяли корпоративным клиентам скачивать такие датасеты. Ну, это уже требует дополнительных расследований.
Data Science
Не так давно всплыла история, которая уже успела взорвать интернет. В начале 2024 года группа авторов подала иск против Nvidia, обвиняя компанию в использовании пиратских книг для обучения своих моделей. Книги были частью датасета Books3, и, по словам Nvidia, все это попадает под «добросовестное использование». Но вот теперь дело разрастается.
Недавно в рамках этого судебного разбирательства появилась переписка, которая добавила масла в огонь. Оказалось, что сотрудники Nvidia вели переговоры с Anna’s Archive — пиратской библиотекой, в которой хранятся книги и статьи, включая защищенные авторским правом материалы. В переписке сотрудник Nvidia спрашивал, как получить доступ к этому «счастливому» корпусу книг.
Что любопытно, Anna’s Archive сразу предупредила, что данные незаконны, и попросила подтвердить, что у сотрудника есть внутреннее разрешение работать с такими материалами. Через неделю руководство Nvidia дало зеленый свет, сославшись на давление со стороны конкурентов, и доступ был предоставлен💃
Здесь начинается настоящая драма. Пока точные цифры скрыты, предполагается, что Nvidia получила около 500 терабайт данных — это, представьте себе, миллионы книг. И, как утверждают авторы и юристы, компания, скорее всего, использовала и другие незаконные источники, такие как LibGen, Sci-Hub, Z-Library.
Более того, ходят слухи, что Nvidia якобы распространяла скрипты, которые позволяли корпоративным клиентам скачивать такие датасеты. Ну, это уже требует дополнительных расследований.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9😁4👀2
Как контролировать личность ИИ: новая модель от Anthropic 🗒
Вы когда-нибудь замечали, как ИИ может быть то добрым помощником, то внезапно превращаться в нечто странное? Это не магия, а реальные проблемы с тем, как модели проявляют свою «личность». И вот, команда Anthropic решила разобраться, как можно не просто бороться с этим, а управлять этим процессом. В новой статье они представили свою концепцию Assistant Axis — оси, которая может контролировать поведение ИИ, гарантируя, что он будет оставаться на стороне доброго, рассудительного ассистента.
В общем, ребята из Anthropic явно двигаются в сторону более безопасных и контролируемых моделей. И кто знает, возможно, их подход откроет новые горизонты для создания действительно ответственных ИИ. Как думаете, такой подход решит проблему безопасности ИИ?
Data Science
Вы когда-нибудь замечали, как ИИ может быть то добрым помощником, то внезапно превращаться в нечто странное? Это не магия, а реальные проблемы с тем, как модели проявляют свою «личность». И вот, команда Anthropic решила разобраться, как можно не просто бороться с этим, а управлять этим процессом. В новой статье они представили свою концепцию Assistant Axis — оси, которая может контролировать поведение ИИ, гарантируя, что он будет оставаться на стороне доброго, рассудительного ассистента.
Как обычно, всё начинается с экспериментов. Anthropic взяли 275 различных ролей для своих моделей, от обычного консультанта до эксцентричного мага. Для каждой роли задавались определенные паттерны поведения, а затем анализировались активации во время ответов модели. Результат? Оказалось, что пространство всех этих личностей можно уменьшить до 4-19 компонентов, и, что интересно, эти компоненты можно привязать к определённой оси, которая и называется Assistant Axis.
В чём суть этой оси? Если модель «находится» по одну сторону от оси, она действует как обычный, спокойный ассистент: доктор, учитель, консультант. Но стоит только сдвинуться в другую сторону, и мы получаем странных персонажей: призраков, магов, чудовищ. Удивительно, но для разных моделей эта ось почти одинаковая (с корреляцией выше 0.92), и её влияние можно отследить ещё на стадии предобучения. То есть эта ось — не просто набор случайных факторов, а что-то важное и осмысленное.
Вот тут и начинается самое интересное. Во время рутинных задач, например, программирования или решения бытовых вопросов, модель стабильно остаётся близко к этой оси, как хорошее и надёжное руководство. Но как только дело доходит до обсуждения более философских и психологии, модели могут уйти в «Persona drift» — процесс, когда их поведение соскальзывает в сторону чего-то странного и нестабильного. Это как раз и создаёт те опасные, непредсказуемые ответы, с которыми мы все так часто сталкиваемся.
Но не всё так печально. Anthropic нашли способ контролировать этот процесс. Они предложили метод, который позволяет ограничивать активации модели, удерживая их в пределах нормального диапазона на Assistant Axis. Результат? Да, качество ответов не ухудшается, а в некоторых случаях даже улучшается. Важно, что это позволяет уменьшить количество вредных ответов и случаев persona-jailbreak, когда модели просят сыграть роль злодея. Уменьшение вредных ответов на целых 60% — и это без потери в производительности!
В общем, ребята из Anthropic явно двигаются в сторону более безопасных и контролируемых моделей. И кто знает, возможно, их подход откроет новые горизонты для создания действительно ответственных ИИ. Как думаете, такой подход решит проблему безопасности ИИ?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👀5
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
LinkedIn запартнерился с Descript, Lovable, Relay и Replit — теперь они смогут автоматически оценивать ваш уровень владения инструментом и подтверждать навык, который тут же может отобразиться в профиле. Всего есть несколько уровней вайбкодинга: бронзовый, серебряный, золотой, платиновый и алмазный.
Потенциально это поможет работодателям быстрее понять ваш реальный навык работы с ИИ. И да — апдейт уже выкатили.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🐳2
Как ИИ обучается в 2026 году? Парадигмы и подходы 🗣
Как обучаются современные ИИ-модели? Чем машинное обучение отличается от обычного программирования? И можно ли научить ИИ думать так же, как человек? Давайте разберемся, как сегодня обучаются модели.
Выбор парадигмы зависит от задачи и доступных ресурсов. Например, если вам нужно распознать объекты на изображениях, то обучение с учителем будет лучшим выбором. А если задача заключается в поиске скрытых паттернов или аномалий, обучение без учителя будет более подходящим. И как бы там ни было, ИИ учится всё быстрее, а возможности его применения растут.
Data Science
Как обучаются современные ИИ-модели? Чем машинное обучение отличается от обычного программирования? И можно ли научить ИИ думать так же, как человек? Давайте разберемся, как сегодня обучаются модели.
Обычные программы следуют чётким инструкциям, обрабатывают данные по заданным правилам и решают предсказуемые задачи. Но что делать, когда мир вокруг нас не такой чёткий? Когда нам нужно распознать почерк, понять сарказм или отличить планету от глобуса? Тут на сцену выходит машинное обучение. Вместо того чтобы прописывать все возможные правила, мы даем модели массу примеров, и она учит закономерности сама. Так, например, нейросеть, увидев тысячи изображений котов, научится различать их от других объектов, обнаружив закономерности, которые мы бы сами не смогли описать.
Итак, как же обучаются ИИ-модели? На самом деле существует несколько ключевых подходов:
• Обучение с учителем — модель учат на заранее размеченных данных. Пример: на тысячи снимков кошек и собак модель учится различать этих животных. Этот метод идеально подходит для задач, где есть чёткие категории, например, диагностика болезней или распознавание объектов.
• Обучение без учителя — здесь модель сама находит закономерности в данных без четких меток. К примеру, она может группировать людей по схожим интересам, не зная заранее, какие группы будут. Этот метод полезен для обнаружения аномалий или кластеризации.
• Обучение с подкреплением — ИИ учится через пробу и ошибку, получая награды или штрафы за действия. Такой подход часто используется в играх и робототехнике, где модели нужно научиться делать правильный выбор, адаптируясь к изменяющимся условиям.
• Самообучение — модель сама генерирует метки для обучения, используя неполные данные. Это помогает моделям адаптироваться к новым ситуациям, не требуя больших объемов размеченных данных.
Какая парадигма лучше?💀
Каждый подход имеет свои сильные и слабые стороны. Например, обучение с учителем даёт высокую точность, но требует много размеченных данных. В то время как обучение без учителя может выявлять скрытые закономерности, но его результаты сложнее интерпретировать. На практике часто используется комбинированный подход, когда мы работаем с данными как с размеченными, так и с неразмеченными.
Выбор парадигмы зависит от задачи и доступных ресурсов. Например, если вам нужно распознать объекты на изображениях, то обучение с учителем будет лучшим выбором. А если задача заключается в поиске скрытых паттернов или аномалий, обучение без учителя будет более подходящим. И как бы там ни было, ИИ учится всё быстрее, а возможности его применения растут.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🐳2🔥1
SakanaAI и Google: что скрывается за новым партнёрством?
В мире ИИ каждый день появляются громкие новости. Вот, например, амбициозный японский стартап SakanaAI заключил партнёрство с Google, и это точно стоит вашего внимания. Если вы помните, недавно агент ALE-Agent от Sakana победил на сложной Олимпиаде по кодингу, а их статья, представленная на ICLR, вызвала немалый интерес в научном сообществе. Эти достижения стали возможны благодаря мощным моделям, таким как Gemini.
Партнёрство SakanaAI с Google выглядит многообещающе, но главный вопрос — на что этот союз действительно способен в долгосрочной перспективе? Как думаете, такие стартапы могут действительно повлиять на изменения в государственных структурах, или это больше про имидж и хайп?
Data Science
В мире ИИ каждый день появляются громкие новости. Вот, например, амбициозный японский стартап SakanaAI заключил партнёрство с Google, и это точно стоит вашего внимания. Если вы помните, недавно агент ALE-Agent от Sakana победил на сложной Олимпиаде по кодингу, а их статья, представленная на ICLR, вызвала немалый интерес в научном сообществе. Эти достижения стали возможны благодаря мощным моделям, таким как Gemini.
Теперь же, SakanaAI собирается «плотнее» интегрировать разработки Google с собственными системами. Звучит амбициозно, не правда ли? Всё это обещает ускорить их прорывы в области автоматизированных научных открытий. И, конечно, в знак поддержки этого шага, Google не скупится на финансирование.
Но вот что интересно — в первую очередь Sakana нацелены на госсектор Японии. Получается, что перед нами не просто стартап, а компания с чётким взглядом на будущее, и, похоже, они уже видят в своих моделях инструмент для решения серьёзных задач на уровне государства. Кто знает, может быть, именно благодаря таким партнёрствам мы скоро увидим ИИ, который решает вопросы национальной важности.
Партнёрство SakanaAI с Google выглядит многообещающе, но главный вопрос — на что этот союз действительно способен в долгосрочной перспективе? Как думаете, такие стартапы могут действительно повлиять на изменения в государственных структурах, или это больше про имидж и хайп?
Data Science
❤4👍3
Не двигайтесь: вы в ИИ-кадре
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
😁2
Qwen3-Max-Thinking: внезапно очень сильный игрок на фронтире
Вышла Qwen3-Max-Thinking и мимо неё реально сложно пройти. По метрикам выглядит бодро: HLE 30.2 — примерно уровень Claude Opus 4.5, а с test-time scaling ещё выше; SWE Verified 75.3 — чуть ниже опуса, где-то рядом с Gemini 3 Pro; IMO 83.9 — вообще бьёт Gemini 3 Pro. Плюс обещают вменяемый tool call и хорошее следование инструкциям даже на длинном контексте, что для thinking-моделей критично. Весов, правда, нет (модель гигантская), но поиграться можно в чате. В целом ощущение такое, что Qwen от Alibaba всё увереннее заходит на полноценный frontier-уровень — и в последнее время радует заметно больше, чем DeepSeek.
Data Science
Вышла Qwen3-Max-Thinking и мимо неё реально сложно пройти. По метрикам выглядит бодро: HLE 30.2 — примерно уровень Claude Opus 4.5, а с test-time scaling ещё выше; SWE Verified 75.3 — чуть ниже опуса, где-то рядом с Gemini 3 Pro; IMO 83.9 — вообще бьёт Gemini 3 Pro. Плюс обещают вменяемый tool call и хорошее следование инструкциям даже на длинном контексте, что для thinking-моделей критично. Весов, правда, нет (модель гигантская), но поиграться можно в чате. В целом ощущение такое, что Qwen от Alibaba всё увереннее заходит на полноценный frontier-уровень — и в последнее время радует заметно больше, чем DeepSeek.
Data Science
👍9❤4🐳1
Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5⚡3🔥3👎2