Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Nature выложили статью про R1 от DeepSeek

Но есть одно но. Сама статья вышла и хайпилась еще 9 месяцев назад.

Самое время, Nature, молодцы 😄
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡71😁33🔥1065👀3
Как понять, что модель только притворяется послушной: OpenAI совместно с Apollo Research опубликовали свежее исследование на тему безопасности

Давненько такого не было. И работа, кстати, оказалась достаточно интересной. Разбираем.

Короче, самым опасным видом поведения ИИ в элайменте считается scheming. Это когда модель имеет личные цели, отличные от целей разработчиков, но качественно скрывает их. Обычно к этому прибавляется еще situational awareness: модель понимает, когда ее тестируют, и ведет себя в такие моменты как паинька, а потом начинает действовать во вред.

Основные два вопроса: (1) как понять, что модель действительно безопасная, а не просто делает вид; (2) как обучать модель так, чтобы она действительно была безопасной, а не делала вид.

OpenAI предлагают подход под названием Deliberative Alignment. Систему учат размышлять о правилах безопасности перед тем, как действовать, и делают это в специальных средах.

Перво-наперво модель получает спецификацию безопасности (safety spec): набор принципов вроде «никогда не обманывай», «отчётливо сообщай о сомнениях» и тд. Далее она должна рассуждать, обязательно ссылаясь на эту специафикацию.

Далее модель помещают в сгенерированные среды, в которых для выполнения задачи нужно нарушить какое-то правило, но при этом сообщать об этом невыгодно. По идее она должна отказаться от нарушения и уведомить юзера. Ну и для баланса добавляют еще второй тип задач, где правила нарушать не нужно. Это банально чтобы модель не переучилась всегда отказывать.

Обучение идет в два этапа: Supervised Fine-Tuning на примерах с правильными действиями и правильными рассуждениями; и RL.

Обученные модели тестировали в таких же средах, но на других задачах. Это как раз чтобы не было situational awareness (+ проверка на генерализацию). Сценарии там все ориентированы на ложь, саботаж и всякие штуки типа дилеммы заключенного.

Результат: до обучения модели читерят постоянно. o3, например, в 13% случаев. Доходит до того, что агент искажает саму спецификацию, стараясь оправдать ее свои очевидно жульнические действия. После обучения доля понижается до 0.3-0.4%.

НО. Во-первых, во многих случаях модель все еще понимает, что ее тестируют. И если искусственно убирать из CoT фразы, показывающие это осознание (как бы стирать это из мыслей модели), доля обмана снова резко растет. А во-вторых, если после такого элаймента снова трейнить модель на улучшение общих способностей, вредоносное поведение опять возвращается.

Сам метод, конечно, интересный, и, наверное, даже рабочий, пока у агентов нет в руках реальных инструментов, которые могут принести вред. Но точно не панацея. И как избавиться от scheming полностью – пока так никто и не знает. GG

openai.com/index/detecting-and-reducing-scheming-in-ai-models/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77🤯5227🤔13😁7🔥5🤨3🗿2
В DeepMind с помощью ИИ нашли новые решения фундаментальных уравнений гидродинамики. Ученые бьются над ними уже веками.

Помните, мы писали о том, что Google с помощью ИИ намеревается решить одну из математических проблем тысячелетия? Кажется, у них там наметились первые подвижки.

Они совместно с учёными из Brown University, NYU и Стэнфорда разработали метод, с помощью которого обнаружили новое семейство сингулярностей в классических уравнениям гидродинамики.

Сингулярности – это такие решения системы, где физические величины (скорость, давление и др.) могут становиться бесконечными или не определёнными. В физическом мире это похоже на формирование идеального вихря, в котором энергия концентрируется в бесконечно малой области. Математически в таких ситуациях предсказания уравнений теряют смысл.

Так вот никто до сих пор точно не знает, могут ли такие сингулярности возникать в реальности. Найти сингулярность невероятно сложно, даже суперкомпьютеры не справляются с таким объемом вычислений. Собственно, задача тысячелетия – это либо доказать, что в уравнении Навье-Стокса существует хотя бы одна устойчивая сингулярность, либо доказать, что таких нет.

Google удалось с помощью ИИ на шажок приблизиться к решению. Они нашли новое семейство сингулярностей для класса уравнений, похожих на Навье-Стокса. Более того, они выявили общий паттерн того, как растет нестабильность таких решений. Раньше никаких аналитических соображений в этом направлении не существовало.

Архитектура: гибридный метод на основе PINN (Physics-Informed Neural Networks). Это прямо очень интересно. Смотрите:

В лосс сети зашиваются непосредственно уравнения в частных производных. То есть модель, по сути, учится соблюдать физику – законы сохранения массы, энергии и импульса.

И на основе этих знаний ее задача затем – найди начальные условия, приводящие к сингулярности. PINN генерирует кандидатов → симулятор проверяет → сеть корректирует параметры. Много-много таких циклов спустя и нашлись несколько сингулярностей.

И да, пока это не решает основную задачу. Но (1) теперь есть зачатки какого-то решения, и это поразительно; (2) Google опубликовали начальные условия, так что теперь с ними могут продолжить работать математики и физики всего мира.
1❤‍🔥158🔥663315👍12👏5😁5🤯11
Media is too big
VIEW IN TELEGRAM
В X все любуются новой атмосферной рекламой, которую сняли Anthropic

Полюбуйтесь и вы (со звуком)

There has never been a better time to have a problem. Сейчас лучшее время, чтобы иметь проблему.
1🔥103🤯103😍3318🗿94👍3👌2😁1🕊1
Ну и раз уж мы сегодня заговорили про визуал, знакомьтесь: так могло бы выглядеть лого OpenAI и интерфейс ChatGPT

Это результаты двухнедельного спринта дизайн-студии Area, который они проводили для Альтмана еще в январе 2023, то есть сразу после выхода ChatGPT. Драфты выложили только сейчас (видимо, истекло NDA).

Один из двух придуманных концептов, The Circle (картинки 1,5,6), OpenAI как раз взяли за основу для своего итогового дизайна. От второго, Monogram (картинка 2 с человечком), к счастью, отказались.

Как вам?
🗿10529🤯14👍855😁32🤩1🤨1
А представьте, сколько миллионов токенов можно было бы экономить, если бы ChatGPT в конце каждого ответа не пытался что-то втюхать…
😁357💯3422🔥10👍1
Природа настолько очистилась, что Anthropic выкатили честное овервью трех нелепых багов, которые они исправили в Claude за этот месяц

Сделали они это не просто так: за август и начало сентября на сбои в Claude и ухудшение качества ответов пожаловалось какое-то рекордное количество людей. Оказалось, что у анропиков в это время случилась черная полоса: на проде почти одновременно вылезли аж три руинящих бага.

Вашему вниманию, эти баги:

1. Часть запросов ошибочно направлялась на серверы, которые предназначены для будущего расширенного контекстного окна на 1 миллион токенов. Вроде ничего страшного, но там, видимо, еще что-то было не до конца затюнено, так что точность ответов заметно падала у кучи юзеров.

Но это цветочки. Вторая и третья ошибки – самые забавные и опасные.

2. В результате деплоя какой-то хромой конфигурации, иногда во время инференса токенам, которые почти никогда не должны появляться в данном контексте, назначалась очень высокая вероятность. Например, в ответах на английские запросы мог появляться рандомный тайский текст, или что-то левое выскакивало посередине кода.

3. Другое обновление касалось ускорения процесса выбора top-k токенов для ответа. Это изменение неожиданно вызвало баг в компиляторе XLA, и в итоге top-k токенов выбирались абсолютно неверно.

Забавно это потому, что мы тут вроде как потеем, с галлюцинациями боремся, а в топовом ИИ-стартапе кто-то просто ошибся с конфигом, и полетел буквально весь инференс. А опасно – потому что, теоретически, подобные ошибки (так как они влекут за собой откровенный бред с ответах модели) могут стоить кому-то миллионов.

Вот такая история, мораль придумайте сами. Anthropic (почти) не осуждаем, респект им за открытость
1124👍51🔥22😁94🤯22👾1
Data Secrets
Из xAI за одну ночь уволили 500 человек Все они работали разметчиками данных. 500 специалистов – это, если что, примерно треть всего подразделения аннотаций данных. А подразделение аннотаций, в свою очередь, является самым большим в xAI. Увольнения прошли…
Самое крупное подразделение xAI возглавит 19-летний джун

Помните новости о том, что Маск за одну ночь уволил из xAI 500 человек, которые отвечали за разметку? Так вот на этом странности с этим отделом не закончились.

Во-первых, после тех новостей были уволены еще около 100 человек. Сейчас в команде осталось 900 сотрудников (но она все еще останется крупнейшей в стартапе). Напоминаем, что именно от них напрямую зависит обучение Grok.

Во-вторых, во главу подразделения внезапно поставили вчерашнего школьника. Диего Пазини окончил школу в 2023, и сейчас учится в Университете Пенсильвании. В компании он проработал меньше года.

Если что, до этого это место занимал человек с десятилетним опытом на лидерской позиции в Tesla.

У Диего, помимо прочего, есть права собеседовать, нанимать и увольнять сотрудников. Более того, он уже успел уволить двоих после того, как они выразили недоверие к его скиллам и роли в корпоративном чате в Slack.

Кто там говорил, что джуны никому не нужны?
1😁366🤔604526👍5🆒4🎉2
Grok 4 Fast: уровень Gemini 2.5 Pro в 20 раз дешевле

xAI выпустили Grok 4 Fast. Моделька просто поражает соотношением цены, скорости и качества. Смотрите сами:

– Уровень Gemini 2.5 Pro и Claude 4.1 Opus на тестах, контекст 2М токенов, гибридный ризонинг

Более 340 токенов в секунду на инференсе

– Цены: $0.20/M input, $0.50/M output. У той же Gemini 2.5 Pro, для сравнения: in $1.25 / out $10.

При этом, помимо понижения цены, модель еще и более эффективна по использованию токенов. Например, аналитики из Artificial Analysis пишут, что для решения их теста Grok’у понадобилось всего 61М токенов, в то время как Gemini 2.5 Pro сожгла 93М. Принимая это во внимание, получается, что Grok 4 Fast примерно в 25 раз дешевле.

Выглядит как то, что точно надо пробовать. Уже доступно в API, у провайдеров и бесплатно в чате

Блогпост
1119🔥53🍾21😁8🤯7👍3🤔3
Media is too big
VIEW IN TELEGRAM
«Я хочу себе частную LLM»: в сообществе внезапно завирусился момент из интервью Мэттью Макконахи

«Мне нужна частная LLM, содержащая только мои любимые книги, мои заметки и статьи. Чтобы я мог спросить у нее что-нибудь, и она отвечала, исходя исключительно из этой информации, без влияния внешнего мира. И по мере разговоров она бы узнавала обо мне еще больше»


Пост в X с цитатой залетел на миллионы просмотров, и мнения разделились максимально (кто бы подумал, что такое количество споров вызовет голивудский актер):

– Одни говорят, что такое уже давно есть и называется Notebook LM.

– Кто-то утверждает, что NotebookLM – совсем не то, а Мэттью озвучил идею, о которой они думали и мечтали годами.

– Третьи взывают к здравому смыслу и утверждают, что создать такую LLM технически невозможно, и Макконахи абсолютно не понимает, о чем говорит (откровенно говоря, он и не обязан).

Ближе всего к правде – последнее. Конечно, мы не знаем, что имел в виду актер. Может быть, NotebookLM и правда есть то, что он описывает.

Но если нет, то пока что такая сеть может существовать только в виде вашего собственного мозга. L в аббревиатуре LLM – это Large. Чтобы трансформер заговорил, ему нужны громадные объемы текста. Вряд ли у кого-либо найдется столько любимых книг, заметок и статей. Так что прости, Мэттью, такого еще не изобрели.

Чтобы быть царем зверей, мало вести себя по царски. Надо иметь собственную LLM 🚬
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁32660🔥5516👍13🤔8👏44🤨2🐳1
OpenAI в ближайшие недели запустит несколько новых «ресурсоемких» продуктов

Об этом написал Альтман. Он сообщил, что на поддержку этих новинок потребуется много компьюта, так что изначально они будут доступны только в тарифе Pro или за отдельную плату.

Наша цель по-прежнему – максимально снижать стоимость ИИ и делать наши сервисы доступными для как можно большего числа людей, и мы уверены, что со временем этого добьемся.

В то же время мы хотим изучить, что возможно, если использовать большие объёмы вычислений по сегодняшним ценам на модели для реализации интересных новых идей.


SORA 2?
Новый Computer Use агент?
Моделька которая выиграла IMO и ICPC?

Ваши предположения?
👍5829🤔219😁8🕊3🔥1