Вышла интересная статья, в которой показали эффективный способ расширения контекстного окна
Продолжается борьба между сторонниками RAG и модельного подхода, в котором контекстное окно пытаются расширить только за счет архитектурных хаков, а не за счет пост-оберток. На эту тему выходит все больше статей. Самая яркая из последних – Infinite Retrieval из Китая.
В этой работе впервые показали способ расширения контекста, который выбивает 100% на бенчмарке «Иголка в стоге сена». Это когда мы вставляем целевое предложение («иглу») в корпус случайных документов («стог сена») и задаем вопрос, на который можно ответить, только используя информацию в «игле».
Раньше некоторые подходы тоже выбивали 100%, НО только на исходном размере контекстного окна модели. А тут взяли малюсенький Qwen2.5-0.5B-Instruct с контекстом 32К, расширили контекст до 1 миллиона (!) и получили результат 100%. Очень круто. Разбираемся, что под капотом 👇
В целом, все построено на привычном подходе кэширования ключей и значений для критически важной информации. Но есть два ключевых отличия:
Чем-то похоже на недавнюю статью DeepSeek (наш разбор). Очень ждем, пока что-то такое наконец будет в опенсорс продакшене.
arxiv.org/abs/2502.12962
Продолжается борьба между сторонниками RAG и модельного подхода, в котором контекстное окно пытаются расширить только за счет архитектурных хаков, а не за счет пост-оберток. На эту тему выходит все больше статей. Самая яркая из последних – Infinite Retrieval из Китая.
В этой работе впервые показали способ расширения контекста, который выбивает 100% на бенчмарке «Иголка в стоге сена». Это когда мы вставляем целевое предложение («иглу») в корпус случайных документов («стог сена») и задаем вопрос, на который можно ответить, только используя информацию в «игле».
Раньше некоторые подходы тоже выбивали 100%, НО только на исходном размере контекстного окна модели. А тут взяли малюсенький Qwen2.5-0.5B-Instruct с контекстом 32К, расширили контекст до 1 миллиона (!) и получили результат 100%. Очень круто. Разбираемся, что под капотом 👇
В целом, все построено на привычном подходе кэширования ключей и значений для критически важной информации. Но есть два ключевых отличия:
1. Текст предварительно разбивается на логически завершённые сегменты. Так, чтобы в кэше оставались не отдельные токены, а самые важные законченные мысли
2. Определение значимости сегментов встраивается не поверх, а прямо последним слоем в модель. То есть релевантная информация извлекается прямо во время инференса
Чем-то похоже на недавнюю статью DeepSeek (наш разбор). Очень ждем, пока что-то такое наконец будет в опенсорс продакшене.
arxiv.org/abs/2502.12962
🔥93👍42❤16🤯5💘1
GPT-4.5 нужна в основном для следующей thinking модели
По итогу нескольких дней тестирования можно сказать, что новая GPT-4.5, пожалуй, самая неоднозначная модель OpenAI на сегодняшний день. Она много чего знает, но плоха в точных задачах по сравнению с ризонерами, а еще чрезвычайно дорого стоит. Если в чате с ней поговорить прикольно, то в API сценариев, при которых ее стоило бы использовать, почти нет.
Единственная надежда: GPT-4.5 пригодится OpenAI для следующего поколения ризонеров. Также, как V3 послужила базой для R1 и, предположительно, 4o — для o1, GPT-4.5 может стать отправной точкой для o3/o4/GPT-5. И если скачок будет такой же, как у o1 относительно 4o, то эта модель насытит очень многие сложные бенчмарки.
Но есть нюанс: цена. Цены на o1 больше цен на 4o в 6 раз. А GPT-4.5 уже сама по себе конски дорогая, куда уж еще больше? Даже если получится немного снизить цены, как это вышло с o3-mini (она в два раза дешевле 4o), все равно в сухом остатке мы получаем довольно недоступный ИИ.
Будем надеяться, у OpenAI есть туз в рукаве
По итогу нескольких дней тестирования можно сказать, что новая GPT-4.5, пожалуй, самая неоднозначная модель OpenAI на сегодняшний день. Она много чего знает, но плоха в точных задачах по сравнению с ризонерами, а еще чрезвычайно дорого стоит. Если в чате с ней поговорить прикольно, то в API сценариев, при которых ее стоило бы использовать, почти нет.
Единственная надежда: GPT-4.5 пригодится OpenAI для следующего поколения ризонеров. Также, как V3 послужила базой для R1 и, предположительно, 4o — для o1, GPT-4.5 может стать отправной точкой для o3/o4/GPT-5. И если скачок будет такой же, как у o1 относительно 4o, то эта модель насытит очень многие сложные бенчмарки.
Но есть нюанс: цена. Цены на o1 больше цен на 4o в 6 раз. А GPT-4.5 уже сама по себе конски дорогая, куда уж еще больше? Даже если получится немного снизить цены, как это вышло с o3-mini (она в два раза дешевле 4o), все равно в сухом остатке мы получаем довольно недоступный ИИ.
Будем надеяться, у OpenAI есть туз в рукаве
🔥79👍29😁13❤10👨💻3⚡1🤔1
Что почитать и посмотреть про обучение LLM и ризонинг? Подборка топ-7 ресурсов от нашей редакции, после которых вы точно лучше поймете, как работают и учатся современные модели 🤓
1. Несомненно, трехчасовое видео Андрея Карпаты "Погружение в LLM". Вся теория по основным этапам обучения, архитектуре, файнтюнингу, ризонингу и обучению с подкреплением верхнеуровнего и доступно. Идеально для первого знакомства с теорией по LLM.
2. Видео про трансформеры от 3Blue1Brown. Немного подробнее про внутреннее устройство LLM. Необходимо хотя бы идейно понять архитектуру, чтобы потом разбираться с новейшими техниками, и этот максимально наглядный гайд подойдет идеально. В видео есть русский дубляж.
3. Для тех, кому хочется практики, отличный бесплатный курс от Hugging Face. Классные иллюстрации, понятные примеры, все необходимое для того, чтобы вы могли сами запускать модели.
4. Статья про модель DeepSeekMath от DeepSeek. Да, здесь все еще не про ризонинг, зато очень подробно и понятно описан этап сбора данных, претрен, эксперименты и обучение с подкреплением. Этот текст даст вам крепкую базу для понимания того, как обучают модели в индустрии. Вот, кстати, наш большой разбор этой статьи.
5. У истоков ризонинга: статья про CoT от Google Research. Одна из первых и самых влиятельных работ, в которой обстоятельно обсуждается, что такое цепочки мыслей CoT и как они влияют на качество результатов. Много примеров. Историческая и необходимая база.
6. Cтатья про DeepSeek-R1. Да, эти ребята умеют хорошо писать. Подробно, лаконично, с практической точки зрения. Прочитайте это, и будете понимать ризонинг лучше, чем 99.9% пользователей ChatGPT. Наш разбор.
7. Очень содержательное выступление "Learning to Reason with LLMs" от Ноама Брауна – известного ученого из OpenAI, который работает как раз над ризонингом и агентами. Про игры, масштабирование компьюта и то, как индустрия пришла к моделям, основанным на рассуждениях.
Сохраняйте!
1. Несомненно, трехчасовое видео Андрея Карпаты "Погружение в LLM". Вся теория по основным этапам обучения, архитектуре, файнтюнингу, ризонингу и обучению с подкреплением верхнеуровнего и доступно. Идеально для первого знакомства с теорией по LLM.
2. Видео про трансформеры от 3Blue1Brown. Немного подробнее про внутреннее устройство LLM. Необходимо хотя бы идейно понять архитектуру, чтобы потом разбираться с новейшими техниками, и этот максимально наглядный гайд подойдет идеально. В видео есть русский дубляж.
3. Для тех, кому хочется практики, отличный бесплатный курс от Hugging Face. Классные иллюстрации, понятные примеры, все необходимое для того, чтобы вы могли сами запускать модели.
4. Статья про модель DeepSeekMath от DeepSeek. Да, здесь все еще не про ризонинг, зато очень подробно и понятно описан этап сбора данных, претрен, эксперименты и обучение с подкреплением. Этот текст даст вам крепкую базу для понимания того, как обучают модели в индустрии. Вот, кстати, наш большой разбор этой статьи.
5. У истоков ризонинга: статья про CoT от Google Research. Одна из первых и самых влиятельных работ, в которой обстоятельно обсуждается, что такое цепочки мыслей CoT и как они влияют на качество результатов. Много примеров. Историческая и необходимая база.
6. Cтатья про DeepSeek-R1. Да, эти ребята умеют хорошо писать. Подробно, лаконично, с практической точки зрения. Прочитайте это, и будете понимать ризонинг лучше, чем 99.9% пользователей ChatGPT. Наш разбор.
7. Очень содержательное выступление "Learning to Reason with LLMs" от Ноама Брауна – известного ученого из OpenAI, который работает как раз над ризонингом и агентами. Про игры, масштабирование компьюта и то, как индустрия пришла к моделям, основанным на рассуждениях.
Сохраняйте!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤90👍47🔥34🤯3⚡2
Data Secrets
Что почитать и посмотреть про обучение LLM и ризонинг? Подборка топ-7 ресурсов от нашей редакции, после которых вы точно лучше поймете, как работают и учатся современные модели 🤓 1. Несомненно, трехчасовое видео Андрея Карпаты "Погружение в LLM". Вся теория…
+1 к сегодняшней подборке ресурсов: HuggingFace только что обновили свой курс по NLP и LLM и добавили туда целую главу про ризонинг. Внутри:
🟦 База по обучению с подкреплением и его роль в LLM
🟦 Подробный разбор самых важных моментов статьи про R1
🟦 Практика: пишем собственный GRPO и сами элайним модель
В конце каждой главы – квиз👍
Гитхаб | Курс на HF
В конце каждой главы – квиз
Гитхаб | Курс на HF
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥98🤯18👍15❤7
Исследователь Юрген Шмидхубер заявил крестному отцу ИИ Джеффри Хинтону, что его надо лишить всех наград за плагиат
Шмидхубер уже стал мемом в ML-сообществе за свои бесконечные выпады о том, что у него украли какую-то выдающуюся идею, но все не останавливается. Из последних заявлений этой легенды:
– Хопфилд и Хинтон получили Нобелевскую премию незаслуженно, потому что украли идею из статьи шестидесятых годов
– Все, что сделали DeepSeek с R1, взято из статей Шмидхубера
– GAN – тоже его идея, а авторы основополагающей статьи про эту архитектуру наглые копирайтеры
– Ну и добивочка: трансформеры, естественно, придумал он, а не ребята из Google
Хинтон, кстати, заявление даже никак не прокомментировал.
Бесконечно можно смотреть на три вещи: как горит огонь, как течет вода, и как все воруют у Шмидхубера
Шмидхубер уже стал мемом в ML-сообществе за свои бесконечные выпады о том, что у него украли какую-то выдающуюся идею, но все не останавливается. Из последних заявлений этой легенды:
– Хопфилд и Хинтон получили Нобелевскую премию незаслуженно, потому что украли идею из статьи шестидесятых годов
– Все, что сделали DeepSeek с R1, взято из статей Шмидхубера
– GAN – тоже его идея, а авторы основополагающей статьи про эту архитектуру наглые копирайтеры
– Ну и добивочка: трансформеры, естественно, придумал он, а не ребята из Google
Хинтон, кстати, заявление даже никак не прокомментировал.
Бесконечно можно смотреть на три вещи: как горит огонь, как течет вода, и как все воруют у Шмидхубера
😎91😁72🗿12☃7👍6🤔5🦄5❤4
Media is too big
VIEW IN TELEGRAM
Он создан специально для работы с DS/ML и может создавать не просто фрагменты кода, а целые ноутбуки. Все просто:
1. Нужно подгрузить свои данные
2. Описать цели (например, «визуализируй», «проведи EDA», «напиши и оптимизируй модель предсказания таргета»)
3. Сидеть и наслаждаться тем, как агент сам пишет и запускает ячейки, импортирует нужные библиотеки и совершенствует свой код
Кстати, на бенчмарке DABStep (он как раз оценивает способности анализировать дату) агент занял четвертое место, сразу после o1, o3-mini и Claude, а это довольно мощный уровень.
Доступно для всех юзеров
Please open Telegram to view this post
VIEW IN TELEGRAM
👍154🔥58❤27😎7
Стали известны некоторые имена сотрудников компании Ильи Суцкевера
SSI была основала еще летом, но до сих пор дистанцируется от СМИ и остается скрытой. Это значит, что ее сотрудники не указывают в соцсетях место работы, и составы команд не афишируются.
Тем не менее, некоторые сведения иногда проскальзывают. Вот некоторые имена:
🔷 Доктор Яир Кармон, старший преподаватель факультета компьютерных наук Тель-Авивского университета с 2020 года. У него три ученых степени по физике, включая докторскую Стэнфорда. Он занимается алгоритмами и оптимизацией.
🔷 Ницан Тор, выпускник Technion и золотой призер трех международных математических олимпиад.
🔷 Шахар Папини, еще один выпускник Technion, олимпиадник и сооснователь блокчейн-компании.
А еще известный Ярон Бродский и около 10 других инженеров и ученых из Google Research (которых Ярон видимо привел). Интересный состав.
Занятно, что SSI вообще не публикуют вакансии, а об эйчарах и речи не идет. Всех нанимают только по личным рекомендациям и сарафанному радио. Кроме того, говорят, в компании нет иерархической структуры, тимлидов и деления на команды: все равны и работают над одним проектом.
К слову, сейчас SSI оценивается уже в 30 миллиардов. Это всего в 5 раз меньше OpenAI и в 2.5 раза меньше xAI.
SSI была основала еще летом, но до сих пор дистанцируется от СМИ и остается скрытой. Это значит, что ее сотрудники не указывают в соцсетях место работы, и составы команд не афишируются.
Тем не менее, некоторые сведения иногда проскальзывают. Вот некоторые имена:
А еще известный Ярон Бродский и около 10 других инженеров и ученых из Google Research (которых Ярон видимо привел). Интересный состав.
Занятно, что SSI вообще не публикуют вакансии, а об эйчарах и речи не идет. Всех нанимают только по личным рекомендациям и сарафанному радио. Кроме того, говорят, в компании нет иерархической структуры, тимлидов и деления на команды: все равны и работают над одним проектом.
К слову, сейчас SSI оценивается уже в 30 миллиардов. Это всего в 5 раз меньше OpenAI и в 2.5 раза меньше xAI.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍92🔥30🤔26❤15😁11🤯4
MIT перезапустили свой легендарный курс 6.S191: Introduction to Deep Learning
NLP, CV, LLM, приложения в медицине: тут все end-to-end, включая теорию и практику с актуальными версиями библиотек.
Подходит курс даже для тех, кто вкатывается с нуля: достаточно уметь брать производные и умножать матрицы, остальное обещают объяснить на ходу.
Лекции будут выходить в свободный доступ на YouTube по понедельникам, первая вышла вчера. Слайды, код и доп.материалы лежат здесь.
Такое не пропускаем
NLP, CV, LLM, приложения в медицине: тут все end-to-end, включая теорию и практику с актуальными версиями библиотек.
Подходит курс даже для тех, кто вкатывается с нуля: достаточно уметь брать производные и умножать матрицы, остальное обещают объяснить на ходу.
Лекции будут выходить в свободный доступ на YouTube по понедельникам, первая вышла вчера. Слайды, код и доп.материалы лежат здесь.
Такое не пропускаем
🔥191👍40❤24😍7😁1
Data Secrets
Калифорнийский университет раскатывает ChatGPT на пол миллиона своих студентов и преподавателей На практике студенты и преподаватели получат полный бесплатный доступ к ChatGPT Edu. Это версия бота, адаптированная специально под образование. Внутри будут…
OpenAI подписали мощный контракт с 15 ведущими университетами и выделят им 50 миллионов долларов
Проект называется NextGenAI. Гарвард, Оксфорд, MIT, Калтех, Мичиганский университетов – вот неполный список партнеров. Все они получат от OpenAI гранты на исследования и API.
У многих университетов также будут выделенные группы студентов, которые будут заниматься специальными проектами OpenAI.
Вероятно, конечная цель – плотно подсадить крупное образование на экосистему ChatGPT, как это пытаются делать с Калифорнийским университетом.
openai.com/index/introducing-nextgenai/
Проект называется NextGenAI. Гарвард, Оксфорд, MIT, Калтех, Мичиганский университетов – вот неполный список партнеров. Все они получат от OpenAI гранты на исследования и API.
У многих университетов также будут выделенные группы студентов, которые будут заниматься специальными проектами OpenAI.
Вероятно, конечная цель – плотно подсадить крупное образование на экосистему ChatGPT, как это пытаются делать с Калифорнийским университетом.
openai.com/index/introducing-nextgenai/
🔥96👍32❤20👾15🍌2
Помните бенчмарк ARC AGI? Сегодня вышла статья, в которой его решили на 20% без претрейна
20% – высокий результат. GPT-4o выбивает 5%, o1-mini – 13%, а o1 – около 30. Но самое интересное в этой работе – это заявление «без претрейна».
То есть да, модель вообще не предобучали на задачах из трейна ARC-AGI. Для каждого примера берется новая нетронутая сетка, которая инициализируется случайно и обучается с помощью градиентного спуска исключительно на конкретном тестовом примере во время инференса😮
Весь подход основан на… компрессии информации. Идея в том, чтобы находить максимально компактное (то есть низкобитное) представление задачи, которое затем при декомпрессии в точности воспроизводит исходный пазл вместе с ответом. Подход назвали CompressARC.
Архитектура похожа на VAE: мы оптимизируем параметры модели и входное распределение с применением относительного энтропийного кодирования (REC) и арифметического кодирования для эффективного сжатия информации. Модель как бы учится находить оптимальное структурное представление задачи, что в итоге и равняется тому, чтобы найти общее правило для решения головоломки.
Гениально и свежо. Интересно, заведется ли что-то подобное на других задачах.
Блогпост | Код
20% – высокий результат. GPT-4o выбивает 5%, o1-mini – 13%, а o1 – около 30. Но самое интересное в этой работе – это заявление «без претрейна».
То есть да, модель вообще не предобучали на задачах из трейна ARC-AGI. Для каждого примера берется новая нетронутая сетка, которая инициализируется случайно и обучается с помощью градиентного спуска исключительно на конкретном тестовом примере во время инференса
Весь подход основан на… компрессии информации. Идея в том, чтобы находить максимально компактное (то есть низкобитное) представление задачи, которое затем при декомпрессии в точности воспроизводит исходный пазл вместе с ответом. Подход назвали CompressARC.
Архитектура похожа на VAE: мы оптимизируем параметры модели и входное распределение с применением относительного энтропийного кодирования (REC) и арифметического кодирования для эффективного сжатия информации. Модель как бы учится находить оптимальное структурное представление задачи, что в итоге и равняется тому, чтобы найти общее правило для решения головоломки.
Гениально и свежо. Интересно, заведется ли что-то подобное на других задачах.
Блогпост | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥97👍27❤22🤯7🍓3
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥84👍20❤12🤔6🍌5
Премия Тьюринга этого года только что досталась ML-рисерчерам за вклад в обучение с подкреплением
Это самая престижная награда в мире в области информатики, ее часто называют Нобелевской премией Computer Science. В этом году ею наградили легендарных Эндрю Барто и Ричарда Саттона – отцов обучения с подкреплением.
Именно они разработали основы RL в восьмидесятых. Правда, всю мощь подхода оценили только несколько лет назад, когда Google показали AlphaGo. Сегодня RL – неотъемлемая часть ML, и, особенно, наших любимых LLM.
Респект!🎉
Это самая престижная награда в мире в области информатики, ее часто называют Нобелевской премией Computer Science. В этом году ею наградили легендарных Эндрю Барто и Ричарда Саттона – отцов обучения с подкреплением.
Именно они разработали основы RL в восьмидесятых. Правда, всю мощь подхода оценили только несколько лет назад, когда Google показали AlphaGo. Сегодня RL – неотъемлемая часть ML, и, особенно, наших любимых LLM.
Респект!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤224🍾61👍33🔥13🎉7🤯2❤🔥1
В честь того, что Эндрю Барто и Ричард Саттон получили премию Тьюринга — самую престижную награду в мире компьютерных наук — мы решили подарить нашим подписчикам 5 экземпляров их легендарной книги «Обучение с подкреплением».
Это главная и самая понятная книга по RL, написанная буквально отцами области. На её 600 страницах — всё, что нужно знать о reinforcement learning: от самых основ до разборов новейших подходов и знаменитых алгоритмов AlphaGo и AlphaZero, которые обыграли чемпионов мира по шахматам и Go.
Чтобы получить одну из пяти книг, просто убедитесь, что вы подписаны на оба наших канала: Data Secrets и Data Secrets Карьера. Результаты мы объявим в субботу.
Жми "Участвовать" и совсем скоро книга может оказаться именно у тебя
Please open Telegram to view this post
VIEW IN TELEGRAM
❤85👍30🔥11😁5❤🔥3🌚2🤔1🤯1🙈1
Вышла QwQ-32B – новая ризонинг модель от Qwen
По качеству она соответствует DeepSeek-R1, а на некоторых тестах даже обходит его. И это при том, что в R1 в 20 раз больше параметров.
И снова: все благодаря мощному скейлингу RL. Согласно блогпосту, обучали в два этапа:
1. RL только для задач математики и кодинга, причем без разметки и традиционной ревард модели. Вместо этого использовали интерпретатора кода и верификатор ответов для математических задач.
2. RL для общих способностей, уже с привычным ревардом и некоторыми rule-based верификаторами. На этом этапе модель училась «нравиться» пользователю и следовать инструкциям.
Исследователи написали, что видят еще много потенциала в RL и продолжат над этим работать. «Возможно, в следующий раз сочетание более сильных предобученных моделей с RL приведет нас к AGI».
Блогпост | Веса
Пообщаться с моделью абсолютно бесплатно уже можно в чате
По качеству она соответствует DeepSeek-R1, а на некоторых тестах даже обходит его. И это при том, что в R1 в 20 раз больше параметров.
И снова: все благодаря мощному скейлингу RL. Согласно блогпосту, обучали в два этапа:
1. RL только для задач математики и кодинга, причем без разметки и традиционной ревард модели. Вместо этого использовали интерпретатора кода и верификатор ответов для математических задач.
2. RL для общих способностей, уже с привычным ревардом и некоторыми rule-based верификаторами. На этом этапе модель училась «нравиться» пользователю и следовать инструкциям.
Исследователи написали, что видят еще много потенциала в RL и продолжат над этим работать. «Возможно, в следующий раз сочетание более сильных предобученных моделей с RL приведет нас к AGI».
Блогпост | Веса
Пообщаться с моделью абсолютно бесплатно уже можно в чате
👍78🔥29❤🔥15❤3
Тем временем OpenAI закончили раскатывать GPT-4.5 на юзеров Plus подписки (20$)
Теперь можно сэкономить 180 долларов🤑
Теперь можно сэкономить 180 долларов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥71❤21🤯13👍8😐5
И кстати, если вы думали, что 200 долларов за ChatGPT – это предел, то присаживайтесь поудобнее: сейчас будет больше нулей! 🤑
В OpenAI обсуждают добавление новых подписок, которые будут стоить от 2 000$ до 20 000$ в месяц. В них будут включены несколько агентов уровня PhD, которые «способны генерировать научные гипотезы и разрабатывать ПО». Целевая аудитория – «работники научной сферы и высокими доходами» и, конечно, лаборатории и компании.
Интересно, какой уровень возможностей будет предлагать стартап за такие деньги. Ведь это аналогично тому, чтобы нанять себе неплохого живого ассистента (2к) или даже очень крутого PhD исследователя (20к).
В OpenAI обсуждают добавление новых подписок, которые будут стоить от 2 000$ до 20 000$ в месяц. В них будут включены несколько агентов уровня PhD, которые «способны генерировать научные гипотезы и разрабатывать ПО». Целевая аудитория – «работники научной сферы и высокими доходами» и, конечно, лаборатории и компании.
Интересно, какой уровень возможностей будет предлагать стартап за такие деньги. Ведь это аналогично тому, чтобы нанять себе неплохого живого ассистента (2к) или даже очень крутого PhD исследователя (20к).
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯134🗿38👍19😁19🔥12❤8