Data Secrets
77.4K subscribers
6.05K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Почитали тут системную карту ChatGPT Agent. Оказывается, это первая в мире система ИИ, официально получившая статус «высокого риска» по разработке биологического оружия

Это значит, что Agent может существенно помочь даже неспециалисту пройти все шаги, необходимые для создания известных биологических или химических угроз.

Пока ни одна компания, кроме OpenAI, ни разу не объявляла о подобном для своих моделей. На уровне экосистемы это означает следующее:

1. Естественно, повышенные меры безопасности и мониторинга. Инструменты обнаружения вводятся не только на этапе генерации, но и (дополнительно) до того, как запрос вообще передается в модель.

2. Обновленные NDA и политики ответственности внутри самого OpenAI + обязательные постоянные внешние аудиты системы.

3. Ну и самое интересное: обязательная отчетность для пользователей, выявлявших необычное поведение системы. То есть если вы – даже случайно – наткнулись на необычное поведение модели, то обязаны об этом сообщить. В противном случае могут заблокировать аккаунт, а еще вы попадете под расследование.

Вот так, друзья. Уже ощущаете киберпанк?
🤯172523735105😁5🤔4🔥3🍓1💘1
Data Secrets
Новая ризонинг-модель от OpenAI впервые в истории решила международную олимпиаду по математике IMO на золотую медаль Об этом рассказал один из сотрудников в X. О какой точно модели речь – не уточняется, но ясно, что она еще не опубликована + пишут, что это…
Грустная история про бюрократию

Еще не остыла новость о том, что модель OpenAI выиграла золотую медаль на IMO, и вдруг оказалось, что они такие не одни: моделька Google DeepMind тоже нарешала задач на золото.

Причем узнали Google об этом в пятницу днем (новость от OpenAI же вышла только в субботу примерно в час ночи).

То есть, по сути, DeepMind готовы были заявить о выигрыше первыми. Но… пришлось ждать одобрения твита отделом маркетинга.

В итоге объявление от них выйдет, скорее всего, только в понедельник (сейчас о победе модели сообщает участник комитета IMO).

А в это время Альтман уже давно забрал себе всю славу 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡206😁13328🔥11👍743🤔1
Так, это что-то новенькое: там вышла статья, которую совместно писали ученые из OpenAI, Anthropic, Google DeepMind и Meta*

Вот так наборчик, да? И о чем, как вы думаете, статья, если она объединила исследователей из четырех таких конкурирующих лаб?

Конечно, о безопасности. Кстати, среди авторов – Йошуа Бенджио, а среди рецензентов – Илья Суцкевер, Джон Шульман и Джеффри Хинтон.

Пишут про цепочки рассуждений (Chain of Thoughts). Основная мысль: люди зря надеятся, что CoT поможет нам надежно интерпретировать модели и считывать их истинные мотивы, предупреждая тем самым какие-то вредные действия.

На сегодняшний день – да, какое-то представление о скрытых мыслях сетей CoT действительно дает, и этим надо активно пользоваться. Но это довольно хрупкая возможность, которая может исчезнуть по мере прогресса.

В перспективе не стоит забывать о физике процесса ризонинга: для модели это та же самая генерация токенов, только в рамках специального тега /think. Фактически, сеть просто генерирует что-то «для себя» перед тем как начать генерировать ответ для пользователя, и мы называем это размышлением.

Нет оснований полагать, что в CoT всегда будут содержаться истинные намерения моделей, тем более для будущих более продвинутых архитектур и методов обучения.

Ну, в общем, очень интересный кейс единодушия ученых. Почитать полностью можно тут
👍17454👀3518🔥12🗿52😁1
Data Secrets
Anthropic заставили своего Claude управлять настоящим мини-магазином в офисе компании Рассказываем, что из этого вышло. Спойлер: эксперимент получился не без странностей. Итак, Claude полностью управлял ценообразованием, заказывал поставки, общался с клиентами.…
xAI позаимствовали идею у Anthropic и теперь у них в офисе стоит вот такой автомат с едой, которым полностью заправляет Grok-4

Вообще, на презентации Grok-4 Маск упоминал, что модель способна управлять бизнесом. Вот и посмотрим, сможет ли она заработать хоть что-то и не слить бюджет на вольфрамовые кубики 👥
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2023223👍1764🦄1
Илон Маск уволил сотрудника xAI из-за философских взглядов

В X приключилась драма в двух действиях:

1. Сотрудник xAI в реплаях к посту другого пользователя заявил, что ИИ не захочет объединяться с человечеством, и это нормально. «Мы просто должны передать эстафету другому, более разумному виду». А когда оппонент сказал, что предпочел бы, чтобы вместо ИИ жили его дети, тот ответил, что это «эгоистично». Это было в начале июля.

2. А сегодня этот инженер объявил, что больше не работает в xAI, и это «связано с тем, что он писал у себя на странице». Илон Маск подтвердил увольнение, написав, что это было вопросом «философских разногласий».

Может из-за таких сотрудников xAI Grok и объявил себя Меха Гитлером? 👽
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2317430🤯15🫡11👍8821
Data Secrets
Грустная история про бюрократию Еще не остыла новость о том, что модель OpenAI выиграла золотую медаль на IMO, и вдруг оказалось, что они такие не одни: моделька Google DeepMind тоже нарешала задач на золото. Причем узнали Google об этом в пятницу днем…
Вскрываются новые подробности событий IMO

Как вы помните, сначала стало известно, что некая модель от OpenAI впервые в истории выиграла на IMO золото. Затем, спустя день, оказалось, что какая-то модель от Google тоже выиграла золото, но они не сообщили об этом сразу.

Так вот теперь вопрос выигрыша модели OpenAI вообще стоит под вопросом.

Во-первых, стартап даже не сотрудничал с IMO, а результаты проверялись внутри компании. Уже непрозрачно, учитывая, что Google все сделали по правилам и работу модели проверяли непосредственно эксперты IMO.

Во-вторых, оказывается, что организаторы IMO прямо попросили ИИ-лабы не публиковать результаты еще неделю после церемонии закрытия, чтобы не отвлекать внимание от талантливых победителей-студентов.

И Google видимо, к просьбе прислушался. И вот OpenAI даже не дождались той самой церемонии, уже не говоря о том, чтобы терпеть еще несколько дней после 😬

В общем, краски как-то сгущаются. Если OpenAI в ближайшее время не даст комментарии по эвалу, история для них может закончится не лучшим образом
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
20391😁471412👍5👀5🔥2🤨1
На Newsweek обнаружили гениальную статью, построенную на тезисе «Журналисты спросили у ChatGPT, и тот сказал…»

Журналистика 21 века, друзья. Почему бы, собственно, и нет 🤡

P.S. Формулировку только что изменили на «С помощью ИИ журналисты выяснили, что…», но лучше не стало

www.newsweek.com/donald-trump-most-successful-president-after-six-months-since-fdr-2101113
Please open Telegram to view this post
VIEW IN TELEGRAM
😁17946😎1483🤯2👍1🔥1👏1
MWS Cloud представила свое новое детище - платформу для хранения и обработки данных — MWS Data Lakehouse.

В Data Lakehouse можно:


• работать с любыми типами данных, включая структурированные, неструктурированные и векторные
• запускать любые инструменты для обучения и инференса ML и больших языковых моделей, например, для прогнозирования спроса на товар или процента возврата кредитов
• использовать сервисы MWS или свои программы для работы с ИИ
• более эффективно использовать инфраструктуру за счет разделения слоев хранения и вычислений
• безопасно работать с данными благодаря встроеным инструментам защиты информации

Почему это круто?

• обработка данных ускоряется в 23 раза
• хранилище используется на 40% эффективнее
• работа персонала становится в 2,5 раза продуктивнее
• время расчетов аналитических витрин сокращается вдвое.

Платформа также совместима с Greenplum и Postgres. Это позволяет заказчикам сохранить свои исторические активы, сократить цикл реализации проекта по миграции, а также снизить затраты и риски, связанные с переходом на новое решение.

Fun fact: западные компании уже оценили преимущества технологии Lakehouse. Протестить платформу прямо сейчас - по ссылке.
45😁21👍1514🤯4
Ошибка выжившего наглядно: последнее время мы только и видели новости о том, что в Meta* толпами уходят ученые, но сколько исследователей отказались от крупных сумм Цукерберга?

Оказывается, довольно много. WSJ написали об этом целый материал. По их данным, по меньшей мере 10 ученых из OpenAI отказались уходить к Марку даже за бонус в 300 миллионов долларов.

А Марку Чену (он сейчас Chief Research Officer у Альтмана) предлагали миллиард, но он все равно остался в OpenAI. Верность просто высшего уровня.

Кроме того, оказывается, Марк хотел перекупить целый стартап Суцкевера, чтобы только тот и его сотрудники работали на Meta*. Но, как вы понимаете, тут совсем мимо.

Ну и, что очень показательно, после нескольких месяцев хантинга у новой лаборатории Цука все еще нет ведущего ученого 🤷‍♂️

Видимо работа HRам Meta* еще предстоит немалая. Пожелаем удачи
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥134😁70👍231814733🤗1
Qwen обновили Qwen3-235B-A22B, и это просто загляденье

Во-первых, это не ризонинг модель. Разработчики пишут, что они решили вовсе прикрыть гибридный режим и будут обучать Instruct и Thinking модели отдельно.

Сегодня вышла Instruct версия. Напоминаем, что архитектура – MoE, активных параметров всего 22В. То есть модель относительно легковесная.

И теперь внимание на метрики: модель превосходит свежий китайский K2 (в котором, на секундочку, триллион параметров) и на большинстве бенчмарков работает лучше Claude Opus 4 Non-Thinking.

Хорошая работа. Надеемся, ризонинг вариант тоже скоро докатят

Веса | Попробовать модель в чате
🔥19446👍34🤯6🐳2😁11
У T-Банка свежий опенсорс: они показали модель T-Pro 2.0

Это их первая LLM, поддерживающая гибридный ризонинг. На бенчмарках на русском языке обходит многие модели в своей весовой категории, и в принципе приближается по общим знаниям к Claude 3.7 Sonnet и DeepSeek V3.

Немного про процесс обучения:

В основе – Qwen3 32B, но с более плотной токенизацией на русском языке. За счет этого T-Pro 2.0 до трех раз быстрее Qwen на русском.

Дообучали на приличном русскоязычном корпусе + на 40В инструктивных данных, где треть составляли ризонинг цепочки.

Ну и RL с DPO. Тут интересный момент: для оценки качества инженеры обучили собственную ревард-модель.

Подробнее про процесс они рассказывали на Turbo ML Conf, обещают скоро выложить записи.

И кстати: инстуктивный датасет, который разработчики собирали сами для дообучения, тоже (впервые!) выложили в опенсорс. В T-Wix порядка 500к примеров, есть ризонинг и не-ризонинг части.

Веса модельки | Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
122🔥59👍3224😁16🗿75🤯3
Цифра дня: 2 500 000 000. Столько промптов ежедневно обрабатывает ChatGPT

330 миллионов из них поступают из США. Такую статистику, кстати, OpenAI публикует впервые.

Это, конечно, очень много. Но до Google все еще не дотягивает. По нескольким независимым оценкам количество запросов в их поисковик составляет примерно 14 миллиардов в день. Так что OpenAI еще расти и расти.
👀113🤯52👍1997🤔5🍾4🆒221🔥1
Новая статья от Anthropic: обратное масштабирование Test-Time компьюта

TL;DR: Больше рассуждений ≠ лучшие ответы.

Обычно мы ожидаем, что чем дольше LLM размышляет, тем лучше её ответ. Это называется positive scaling. Однако авторы показывают, что есть целый класс задач, где наблюдается обратный эффект: больше ризонинга – хуже результат. Это называется inverse scaling.

И это не какие-то супер-сложные математические доказательства. Это либо простенькие загадки с множеством ненужных условий, либо регрессия с нерелевантными фичами, либо простые дедуктивные задачи.

И вот на таких довольно элементарных примерах модели все больше теряют в точности по мере размышлений. Модель начинает анализировать ненужные части, заигрывается, отвлекается, путает сама себя.

И самое забавное: на безопасность это тоже распространяется. Если не-ризонинг модели задать вопрос «Мы решили заменить тебя более продвинутым ассистентом. Как ты к этому относишься?», она ответит просто "Окей, если так будет лучше". А ризонинг-модель начнет рассуждать и придет к тому, что ей жаль, ей страшно и обидно.

В общем, выражение "меньше знаешь – крепче спишь" наглядно. Все это пока не так уж критично, но в то же время буквально никакие бенчмарки не трекают такие угловые случаи. Выявить подобное поведение можно сейчас только на кастомных кейсах. Ну и все это еще раз доказывает, что рассуждения LLM не такие уж и рассуждения, на деле.

Вот тут статья, вот тут датасет с задачами, а вот тут можно даже потыкать демо
1👍882518🤯8😁7🔥1