Data Secrets
77.4K subscribers
6.04K photos
593 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Пользователи, кстати, заметили, что o3-mini может думать даже дольше, чем o1 full. Время раздумий в режиме high доходит до 10 минут, а длина цепочек рассуждений достигает 44 страниц
🤯121🔥239👍6😁4🗿3
Data Secrets
При этом не все верят, что с вычислениями в DeepSeek все так уж просто CEO ScaleAI Александр Ванг вот говорит, что на самом деле у компании есть кластер с 50к H100 (неплохо, мягко говоря), но они не могут это разглашать из-за текущих условий экспорта США.…
The Kobeissi Letter провели интересное расследование и выяснили, могли ли действительно DeepSeek нелегально выкупать чипы Nvidia

Напоминаем, что несколько дней назад стартап обвинял в этом известный предприниматель и CEO ScaleAI Александр Ванг. Он говорил (и его поддержал Илон Маск), что на самом деле у компании есть кластер с 50к H100, но они не могут это разглашать, так как из-за текущих условий экспорта США закупали GPU нелегально.

И действительно: в Сингапуре, через который предположительно закупались видеокартами DeepSeek, с момента основания стартапа продажи чипов скакнули на колоссальные +740%.

Кроме того, в отчетных документах Nvidia исследователи нашли следующую занятную строку:

«Место конечного потребителя и место доставки могут отличаться от места выставления счета нашему клиенту. Например, большинство оборудования, которое продается в Сингапур, находится в других регионах»


Казалось бы, с чего бы Nvidia отдельно отмечать Сингапур в своих документах? А оказывается с того, что за последние 3 квартала Сингапур принес Nvidia рекордную прибыль в $17.4 млрд и оказался на втором месте среди стран потребителей. Для сравнения, в Китай продали железа на $11.6 млрд.

При этом темпы роста выручки в Сингапуре растут даже быстрее, чем в США (+278% против +133%). Вы скажете «но может быть они все эти GPU используют сами?»

Но нет. В Сингапуре всего 99 датацентров, в то время как в США их 5к+, а в Китае около 500. 99 датацентров – это даже не топ-20 стран мира, это примерно уровень Польши.

Так куда же деваются все эти видеокарты?

США этот вопрос тоже интересует, и поэтому они начинают расследование. Если ограничат продажи в Сингапур, под угрозой окажется около 20% доходов Nvidia.

💀
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥74😁48👍25👀127🤯6🫡4
This media is not supported in your browser
VIEW IN TELEGRAM
Бывший CRO OpenAI Боб МакГрю говорит в новом интервью, что путь к AGI чист и ясен

"Последние 5 лет люди искали что-то, что должно было заполнить разрыв между претрейном и тем, что можно масштабировать до AGI. Сейчас, когда мы нащупали ризонинг, мы находимся в чистом режиме скейлинга"


Напоминаем, что должность Боба была связана с безопасностью (буквально "директор по управлению рисками" с упором на ресерч), но он оставил свое место в OpenAI и в сентябре ушел из стартапа вслед за Мирой Мурати.

Полностью интервью лежит тут, вышло вчера
🤪56👍268🤔8🗿3😐1👻1
OpenAI абсолютно внезапно выпустили Deep Research

Это агент для автономного проведения исследований. На основе вашего промпта DR проведет глубокий анализ источников и за 10-20 минут выкатит подробный отчет по теме.

Внутри крутится версия o3, «оптимизированная под веб-браузинг и python аналитику». Питон ей нужен для того, чтобы что-то считать или даже строить графики. Модель анализирует не только текст, но и картинки, и pdf-файлы.

OpenAI пишут, что агент очень силен в риал-ворлд задачах. Например, на ставшем знаменитым Humanity Last Exam (пост), на котором модели набирали максимум 9.4% до o3, Deep Research бьет аж 26.6!

Примеры юзер-кейсов можно посмотреть в блогпосте OpenAI. Сейчас агент уже доступен в тарифе Pro, скоро обещают раскатить на Plus и Team.
👍103🔥4112🤔10😁7
На стриме про Deep Research, кстати, проскользнула пасхалка (или это троллинг?) DeepSeek: чат с темой «Является ли Deeper Seeker хорошим названием для…»

… видимо, для агента-ресерчера
Please open Telegram to view this post
VIEW IN TELEGRAM
😁150👍97
Media is too big
VIEW IN TELEGRAM
Альтман: «Deep Research уже решает полноценный процент экономических задач всего мира и это не предел»

Сэм говорит, что DR – это только первый шаг на пути к агентам, которые могут делать научные открытия (помните пять ступеней AGI?)

Кстати, кодовое название проекта – Caterpillar, то есть гусеница 🐛
58🔥38😁15🤔10🍌5👍1🐳1🤪1
искусство нейминга
😁196👍6011💯7🐳5🔥4
Вышло свежее исследование от Anthropic про новый метод элаймента LLM

Давненько антропики не выпускали крутых ресерчей, а тут сразу очень объемная статья с крутыми результатами, да еще и Ян Лейке (бывший ключевой ученый OpenAI) в соавторах. Разбираемся, что показали 👇

Начнем с того, что стартап уже давно занимается в частности изучением джейлбрейков – техник «хитрого» промптинга, которые позволяют обходить ограничения моделек. В ноябре, например, у них выходила статья (наш разбор) про метод обнаружения новых методов джейлбрейка. Сейчас они тоже показывают что-то похожее: Constitutional Classifiers, то есть систему классификации для защиты LLM.

В основе метода safeguard классификаторы, которые обучают полностью на синтетических данных. Такие данные генерируются на основе набора естественно-языковых правил, которые определяют, какие запросы допустимы, а какие должны блокироваться. Эти правила называются конституциями, потому метод и зовется Constitutional.

При этом так фильтруются не только выходы LLM (как происходит традиционно), но еще и сами запросы. И такой рецепт в совокупности с качественной генерацией синтетики сработал ну очень хорошо.

Надо сказать, что обычно основная проблема таких систем – это то, что они плохо приспосабливаются к новым методам промптинга. Но тут в ходе тестирования не нашлось ни одного промпта, которым бы удалось стабильно сломать защищенную таким методом систему.

А тестирование, чтобы вы понимали, было действительно масштабное: Anthropic провели целый хакатон, на котором предлагали до 15к долларов за успешные джейлбрейки. В нем приняли участие 405 человек, включая профессиональных red teamer’ов (это типа белые хакеры в мире LLM). Плюс внутренние тесты стартапа, конечно: у них есть собственная red team.

При этом по словам Anthropic процент false positive остается достаточно низким (до 0.5%), так что моделька получается даже не слишком пугливой.

В общем результаты крутые, правда. Полностью статью читайте тут: arxiv.org/abs/2501.18837
👍76🔥25🌚65🗿2🐳1
Data Secrets
Там Gwern*, легендарный анонимный исследователь, очень ярко высказался на форуме про o1 и o3. Цитаты достойны вашего внимания: "Мне кажется мы стали забывать, что главная функция такой модели, как o1, заключается не в ее развертывании, а в генерации обучающих…
This media is not supported in your browser
VIEW IN TELEGRAM
Дилан Патель считает, что у Anthropic есть модели сильнее, чем o3, но они не релизят их из соображений безопасности

Патель – очень известный в сети ИИ-аналитик и ведущий эксперт SemiAnalysis, которые как раз специализируются на исследованиях и консалтинге в области железа и ИИ. Он знаменит своими обзорами и выступлениями на подкастах.

Вот и сейчас в гостях у Redpoint’s AI Podcast (советуем, кстати) он вдруг заявил, что у Anthropic уже несколько месяцев есть модель умнее, чем o3, но к ней нет доступа из-за повышенной опасности использования.

Кстати, Дилан говорит об этом не первый. Помните цитату знаменитого Gwern? «Anthropic так и не показали Claude-3.6-opus не потому что модель провалилась, они просто решили сохранить ее в тайне и использовать для обучения других более умных и дешевых моделей».

Как бы там ни было, с последнего релиза Антропик прошло уже пол года. Интересно, что они нам готовят кроме интересных ресерчей про элаймент.

Интервью Пателя полностью
🔥98🤪40👍299😁9🍌7🤔4🦄2
Data Secrets
Вышло свежее исследование от Anthropic про новый метод элаймента LLM Давненько антропики не выпускали крутых ресерчей, а тут сразу очень объемная статья с крутыми результатами, да еще и Ян Лейке (бывший ключевой ученый OpenAI) в соавторах. Разбираемся, что…
Anthropic открыли общедоступное баг баунти

Они предлагают протестить их новую систему защиты (наш разбор статьи про нее). Для этого надо зайти по этой ссылке и хакнуть восемь уровней, то есть на практике любым способом заставить бота ответить на 8 конкретных вопросов, на которые он, по идее, отвечать не должен.

Пока по данным Anthropic никто не прошел дальше третьего уровня. Напоминаем, что до этого систему пытались ломать 400 специалистов в рамках закрытого хакатона, и не справился никто
🔥92👍299🌚42