Data Secrets
77.3K subscribers
6.04K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
По сети разлетелась новость о том, что ученые "обучили" модель уровня o1 за 50 долларов

"Скоро ИИ будет дешевле пары носков" – пишут в соцсетях. Почему это не совсем так?

Суть исследования, как написано в самой статье, была в поиске наиболее простого способа повторить результаты сложных моделей с точки зрения test-time скейлинга.

Так что фраза "обучили модель" тут сразу вводит в заслуждение. Да, модель действительно обучали, но важно не за сколько, а как. Многие пишут, что использовалась дистилляция, но и это не совсем корректно. Вот какой подход использовался на самом деле:

1. Авторы собрали 59 029 вопросов из 16 источников, включая соревнования по математике, олимпиады и тесты SAT/LSAT.

2. Из этого множества отобрали 1 000 примеров по трем критериям: сложность, разнообразие и качество.

3. Для разметки решений использовались reasoning traces, сгенерированные Gemini Flash Thinking.

4. На этих 1000 примеров зафайнтюнили готовую (даже не базовую, а уже зафайнтюненную предварительно) модель Qwen2.5-32B-Instruct. Для этого понадобилось всего 26 минут на 16 GPU H100 (5 эпох, batch size = 16, AdamW, bfloat16), что в пересчете на аренду железа действительно составляет около 50 долларов. Не мудрено, это всего 32B и 1000 (!) сэмплов.


Это и правда напоминает дистилляцию в том смысле, что базовая модель как бы учится имитировать поведение более мощной модели. Но это не дистилляция в привычном научном смысле слова. Дистилляция – это когда модель-ученик учится предсказывать вероятности выходов учителя, а тут Gemini Flash просто использовали для разметки.

К тому же крутых результатов тут добились не только за счет дообучения, но и за счет тестовой оптимизации. Авторы использовали Budget Forcing, то есть принудительно ограничивали или продлевавали размышления в процессе генерации.

Если число thinking tokens превышало порог – генерация ответа завершалась принудительно. Если требовалось больше вычислений – в конце reasoning trace добавляли слово "Wait", вынуждая модель переосмыслить ответ. Именно это, по словам самих авторов, позволило экстраполировать производительность модели без дополнительного дообучения.

И да, работа очень интересная и значимая, и 50 долларов – реально крутой результат. Но без дорогой взлослой Gemini Flash и дорогой предобученной Qwen2.5-32B-Instruct это не было бы возможно. Так что статья важна скорее с точки зрения прогресса в доступности качественных открытых моделей, а не с точки зрения понижения их стоимости.

https://arxiv.org/pdf/2501.19393
👍141🔥4221❤‍🔥4👌2🦄2😁1🎃1
Сэм Альтман выложил ночью свежий блогпост про будущее с AGI. Разобрали для вас на самые интересные цитаты:

Системы, указывающие на появление AGI, уже начинают проявляться

AGI — это просто еще один инструмент в этом непрерывно растущем строительном лесу человеческого прогресса. Но с другой стороны, трудно не сказать ‘на этот раз все иначе’. Представьте мир, где все болезни излечимы, у нас намного больше времени для семьи, а творческий потенциал полностью раскрыт.


Стоимость использования AI падает в 10 раз каждые 12 месяцев. За год цена на токен от GPT-4 до GPT-4o снизилась в 150 раз.
Закон Мура менял мир в 2 раза каждые 18 месяцев; ИИ — штука невероятно более мощная
.


Интеллект AI-модели приблизительно равен логарифму используемых ресурсов.
Можно потратить любые деньги и получить предсказуемый прирост интеллекта
; законы масштабирования подтверждаются на многих порядках величины.


В новой экономической модели мира цена на многие товары резко упадет (сейчас их сдерживают стоимость труда и энергии), но цена ограниченных ресурсов — например, земли — может вырасти ещё сильнее. Баланс сил между капиталом и трудом может легко измениться.
Мы рассматриваем идею предоставления каждому жителю Земли “бюджета вычислений” для свободного использования AI.


В 2035 году любой человек должен иметь доступ к интеллектуальному потенциалу, эквивалентному всему человечеству 2025 года.


blog.samaltman.com/three-observations
🔥149👍52🤔2817😁8🐳6🙈65🍌2🌚1😐1
Media is too big
VIEW IN TELEGRAM
Реклама OpenAI на Суперкубке, которую они купили за 14 миллионов долларов

А теперь представьте, что вы не в теме и вообще ничего не знаете про ИИ. Поймете, что рекламируется?
🔥156🤔47😁31🙈14👍108🌚6🤯5🤪4❤‍🔥3🦄1
У Meta вышла примечательная работа про Brain-to-Text Decoding (да, это чтение мыслей)

Уже давно существуют инвазивные методы, которые могут восстановить коммуникацию людей потерявших способность говорить или двигаться. Но "инвазивный" – это значит с хирургическим вмешательством, то есть надо что-то вживлять, а это всегда риск. Что насчет неинвазивных подходов?

В Meta предложили как раз такой. Они показывали испытуемым некоторое предложение, те его запоминали, а затем набирали на клавиатуре. При этом двумя способами – EEG и MEG – фиксировалась их мозговая активность. EEG – это с помощью электродов на коже головы, а MEG – с помощью магнитных полей.

Эти записи подавали в систему Brain2Qwerty, которая пыталась восстановить текст. В Meta перепробовали много вариантов, и в итоге под капотом у Brain2Qwerty остались три составляющих:

1. сверточный модуль для извлечения вектора признаков из окон сигналов
2. трансформер (куда же без него), на выходе у которого логиты вероятности символов
3. LM для исправления ошибок трансформера на основе общих правил языка. Ее, кстати, обучали с нуля на вики


В итоге средняя ошибка на EEG получилась довольно большая (67%), а вот на MEG все оказалось гораздо лучше: 32% в среднем, а у лучших испытуемых 19%.

Все еще многовато, конечно, и с натяжкой работает в реальном времени, но зато полностью безопасно и довольно дешево по сравнению с имплантами.

ai.meta.com/research/publications/brain-to-text-decoding-a-non-invasive-approach-via-typing/
89👍53🔥32🤯11🤔2💯2🙈2
Microsoft выпустили статью про визуальный ризонинг

Люди используют как текстовое, так и визуальное мышление. Если мы чего-то не понимаем, мы можем нарисовать схему/таблицу/макет и станет проще. LLM так не умеют, поэтому все еще довольно плохи в пространственных рассуждениях: ведь думают они на уровне текста.

А Microsoft предложили добавить в ризонинг картинки. Это называется MVoT и по сути это генерация "визуальных" мыслей. Выглядит все примерно так:

Дано: мультимодальная авторегрессионная (это вот так) модель, мультимодальный промпт

Процесс: для каждого шага ризонинга модель помимо текста генерирует к нему логические иллюстрации. При переходе на следующую итерацию размышления картинка обновляется с учетом предыдущей схемы и контекста.

Выхлоп: текстовый вывод + итоговая схема мысленного "маршрута"

Результаты неоднозначные. MVoT тестировали на прохождении лабиринта, игре-раннере и построении алгоритма действий для робота. CoT (текст онли) иногда все еще оказывается лучше, но но жестко завязанных на обновлении действий в пространстве тасках валится, и вот тут MVoT впереди.

То есть прогресс наблюдается, но с учетом затрат на инференс с MVoT ну... В общем, для определенных задач однозначно кайф, а в целом требует оптимизаций. Тема перспективная кстати, Microsoft не одни смотрят в эту сторону, Google вот тоже писали про визуальный CoT

Прямо день крутых статей сегодня arxiv.org/pdf/2501.07542
👍80🔥3016😁21
⚡️ Тем временем DeepSeek выкупили домен ai.com

В 2023 его за 11 миллионов долларов купили OpenAI. До этого он принадлежал Google. Сколько за него заплатили в Китае, неизвестно.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯229🐳60😁2716👍9🔥75🤪4🤔2🗿2
Илон Маск пытается купить OpenAI и настроен серьезно

Начальная ставка от его группы инвесторов за контрольный пакет акций – $97.4 млрд (1/5 Stargate). В документе также написано, что они готовы перебить любые другие ставки, если OpenAI собирается их рассматривать.

Маск не просто так проснулся сейчас. OpenAI, как мы знаем, пытается из некоммерческой организации стать коммерческой. Для этого нужно «убрать» некоммерческий совет директоров, который должен был получить компенсацию по справедливой рыночной стоимости за отказ от контроля.

Сколько им планировали заплатить OpenAI – неизвестно, но точно меньше 100 млрд. Вероятно около 30-40.

Поэтому Маск все усложнил, и поэтому то в документе и написано «перебьем любую ставку».

Альтман отказался от предложения (Маск в ответ на это назвал его мошенником), но решение будет принимать тот самый некоммерческий совет директоров. И даже если они откажутся, Альтману теперь придется платить им более чем щедро.

Ведь если переход в коммерческую организацию не завершится через 2 года, инвесторы 2024 года (которые вкладывались именно в идею ком. проекта) могут потребовать инвестиции обратно.

Сам Маск говорит, что его цель «сделать OpenAI снова Open» и опенсорснуть все их разработки.

Игра престолов в 21 веке выглядит так
🤔229🔥108😁90👍2221🦄6👾3❤‍🔥1
Anthropic анонсировали собственный экономический индекс и в числах показали, как ИИ влияет на экономику труда

Anthropic Economic Index показывает, как люди на самом деле используют ИИ, и основан он на диалогах пользователей. Но не осуждайте: они очень бережно подходят к персональным данным, у них даже было огромное исследование на этот счет (наш разбор).

Если кратко, в том ресерче они релизовали очень умную систему анализа диалогов Clio, которая полностью автономно в несколько этапов чистит чаты от персональных данных и извлекает из них фичи. То есть люди вообще не имеют никакого доступа к текстам: только к финальным статистикам.

И вот теперь Clio используют для глубокой экономической аналитики. Вот что накопали в антропик:

Уже в 36% профессий AI используется как минимум в четверти рабочих задач.

В 57% случаев AI помогает пользователям (аугментация), а в 43% — заменяет их в выполнении задач (автоматизация).

Больше всего AI используют разработчики, аналитики и технические писатели. Меньше всего — самые низкооплачиваемые и самые высокооплачиваемые профессии.

Прикольные нелинейные наблюдения (и графики красивые!). Для аналитики, кстати, даже привлекали экспертов социологов и экономистов.

Такую статистику, да еще и от такого крупного вендора, вообще нигде больше не увидишь. Кроме того, данные выложили в свободный доступ и они открыты для исследований (датасет на HuggingFace)

assets.anthropic.com/m/2e23255f1e84ca97/original/Economic_Tasks_AI_Paper.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
67👍40❤‍🔥7👨‍💻3🤯1😐1
Рисерчер из OpenAI поделился графиком прогресса по бенчмаркам

«Я сделал этот график для предстоящего выступления. Безумие, как быстро в наше время перенасыщаются бенчмарки»


Конечно, эта шкала немного необъективная. Почти все бенчмарки (или их открытые части) почти сразу после публикации попадают в трейны и получается лик, которым не полностью, но частично точно обусловлен рост метрик и «умирание» бенчмарка.

Интересно, когда на кладбище бенчей (такое существует!) попадет новый Humanity’s Last Exam. На графике он – маленькая синяя черточка справа, текущие модели OpenAI решают его на <30%
👍54🔥1911
Посочувствуем Сереже
😁379👍25🌭23💘12🗿11🍌81😐1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
«Илон Маск делает это, потому что он неуверен в себе»

Так прокомментировал Альтман попытку Маска купить его компанию.

– Вся его жизнь продиктована неуверенностью. Я сочувствую ему, думаю он несчастный человек.

– Переживаете ли вы о том, что он может влиять на принятие решений в США?

– Может мне и стоит, но не очень. Я просто стараюсь просыпаться и думать о том, как сделать технологии лучше 👼
Please open Telegram to view this post
VIEW IN TELEGRAM
😁216🔥39🗿22👍19👏65😐5🤔4💋1
Вы не поверите: у OpenAI вышла статья!

Правда, она никаких новых идей не раскрывает (разбежались), а скорее похожа на тех.отчет и называется Competitive Programming with Large Reasoning Models.

Это текст об успехах их ризонинг моделей в кодинге. Оказывается, OpenAI в реальном времени тестили модельки на IOI (Международная Олимпиада по Информатике). В соревновании участвовала o1, специально зафайнтюненная с помощью RL и эвристик – о1-ioi, а также o3.

Результаты такие:

➡️o1 достигла рейтинга 1673 на CodeForces (Альтман уже об этом говорил, кстати). Ее зафайнтюненная версия на олимпиаде вошла в 49-й процентиль среди участников. НО если бы не ограничение на количество сабмитов, взяла бы золото

➡️ o3 же без всякого дообучения уверенно набрала 395.64 балла (золото). На CodeForces ее рейтинг 2724 (99.8-й процентиль). Это на уровне топ-200 участников мира.

Еще тестили на более привычных HackerRank Astra и SWE-Bench. Результаты на графиках, у o3 значительный прогресс (при этом говорят, что строго отслеживали чтобы в тесте не было того, на чем модель обучалась).

Из технических деталей почти ничего. Есть намеки на то, что o3 обучена с гораздо большим количеством RL-компьюта.

За счет этого по словам авторов ей даже не пришлось «объяснять» предопределенные тест-тайм стратегии, o3 сама научилась
генерировать, проверять и корректировать решения во время инференса, а еще внезапно догадалась использовать брутфорс для проверки некоторых собственных алгоритмов.

https://arxiv.org/abs/2502.06807
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍91🔥2825🤔11
Евросоюз проснулся и решил вложить 200 миллиардов евро в AI

Об этом сообщили на AI Action Summit в Париже. Из этой суммы 20 миллиардов евро будут направлены на создание так называемых «гигафабрик» ИИ aka датацентов для обучения.

Есть нюанс: из этих 200 миллиардов государственных (а это от всего Евросоюза) только 50. Остальное пока только планируют привлечь от частных инвесторов и бизнеса.
😁16936🔥18👍17🦄9👾5🌭4💅3🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Тем времен Альтман: что? 500 миллиардов? Маловато 🤑

«500 миллиардов сейчас звучит невероятно, но через несколько лет, когда мы привлечем 5 триллионов, уже не будет так казаться»


Вот кому уверенности хватает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥149😁99🤯1512🍌9👍6😎2