This media is not supported in your browser
VIEW IN TELEGRAM
Бывший CRO OpenAI Боб МакГрю говорит в новом интервью, что путь к AGI чист и ясен
Напоминаем, что должность Боба была связана с безопасностью (буквально "директор по управлению рисками" с упором на ресерч), но он оставил свое место в OpenAI и в сентябре ушел из стартапа вслед за Мирой Мурати.
Полностью интервью лежит тут, вышло вчера
"Последние 5 лет люди искали что-то, что должно было заполнить разрыв между претрейном и тем, что можно масштабировать до AGI. Сейчас, когда мы нащупали ризонинг, мы находимся в чистом режиме скейлинга"
Напоминаем, что должность Боба была связана с безопасностью (буквально "директор по управлению рисками" с упором на ресерч), но он оставил свое место в OpenAI и в сентябре ушел из стартапа вслед за Мирой Мурати.
Полностью интервью лежит тут, вышло вчера
🤪56👍26❤8🤔8🗿3😐1👻1
Data Secrets
Вышли результаты o3-mini на LiveBench (Livebench примечателен тем, что он постоянно обновляется, минимизируя всевозможные лики и гарантируя, что задачи не устаревают и не становятся слишком простыми. В общем это почти как арена) На кодинге модель рвет абсолютно…
График с LiveBench Coding, кстати
Соотношение цена/качество о3 сильно выделяется, как ни крути
Соотношение цена/качество о3 сильно выделяется, как ни крути
👍79🔥21💯8❤5🌚3
OpenAI абсолютно внезапно выпустили Deep Research
Это агент для автономного проведения исследований. На основе вашего промпта DR проведет глубокий анализ источников и за 10-20 минут выкатит подробный отчет по теме.
Внутри крутится версия o3, «оптимизированная под веб-браузинг и python аналитику». Питон ей нужен для того, чтобы что-то считать или даже строить графики. Модель анализирует не только текст, но и картинки, и pdf-файлы.
OpenAI пишут, что агент очень силен в риал-ворлд задачах. Например, на ставшем знаменитым Humanity Last Exam (пост), на котором модели набирали максимум 9.4% до o3, Deep Research бьет аж 26.6!
Примеры юзер-кейсов можно посмотреть в блогпосте OpenAI. Сейчас агент уже доступен в тарифе Pro, скоро обещают раскатить на Plus и Team.
Это агент для автономного проведения исследований. На основе вашего промпта DR проведет глубокий анализ источников и за 10-20 минут выкатит подробный отчет по теме.
Внутри крутится версия o3, «оптимизированная под веб-браузинг и python аналитику». Питон ей нужен для того, чтобы что-то считать или даже строить графики. Модель анализирует не только текст, но и картинки, и pdf-файлы.
OpenAI пишут, что агент очень силен в риал-ворлд задачах. Например, на ставшем знаменитым Humanity Last Exam (пост), на котором модели набирали максимум 9.4% до o3, Deep Research бьет аж 26.6!
Примеры юзер-кейсов можно посмотреть в блогпосте OpenAI. Сейчас агент уже доступен в тарифе Pro, скоро обещают раскатить на Plus и Team.
👍103🔥41❤12🤔10😁7
На стриме про Deep Research, кстати, проскользнула пасхалка (или это троллинг?) DeepSeek: чат с темой «Является ли Deeper Seeker хорошим названием для…»
… видимо, для агента-ресерчера✨
… видимо, для агента-ресерчера
Please open Telegram to view this post
VIEW IN TELEGRAM
😁150👍9❤7
Media is too big
VIEW IN TELEGRAM
Альтман: «Deep Research уже решает полноценный процент экономических задач всего мира и это не предел»
Сэм говорит, что DR – это только первый шаг на пути к агентам, которые могут делать научные открытия (помните пять ступеней AGI?)
Кстати, кодовое название проекта – Caterpillar, то есть гусеница 🐛
Сэм говорит, что DR – это только первый шаг на пути к агентам, которые могут делать научные открытия (помните пять ступеней AGI?)
Кстати, кодовое название проекта – Caterpillar, то есть гусеница 🐛
❤58🔥38😁15🤔10🍌5👍1🐳1🤪1
Вышло свежее исследование от Anthropic про новый метод элаймента LLM
Давненько антропики не выпускали крутых ресерчей, а тут сразу очень объемная статья с крутыми результатами, да еще и Ян Лейке (бывший ключевой ученый OpenAI) в соавторах. Разбираемся, что показали 👇
Начнем с того, что стартап уже давно занимается в частности изучением джейлбрейков – техник «хитрого» промптинга, которые позволяют обходить ограничения моделек. В ноябре, например, у них выходила статья (наш разбор) про метод обнаружения новых методов джейлбрейка. Сейчас они тоже показывают что-то похожее: Constitutional Classifiers, то есть систему классификации для защиты LLM.
В основе метода safeguard классификаторы, которые обучают полностью на синтетических данных. Такие данные генерируются на основе набора естественно-языковых правил, которые определяют, какие запросы допустимы, а какие должны блокироваться. Эти правила называются конституциями, потому метод и зовется Constitutional.
При этом так фильтруются не только выходы LLM (как происходит традиционно), но еще и сами запросы. И такой рецепт в совокупности с качественной генерацией синтетики сработал ну очень хорошо.
Надо сказать, что обычно основная проблема таких систем – это то, что они плохо приспосабливаются к новым методам промптинга. Но тут в ходе тестирования не нашлось ни одного промпта, которым бы удалось стабильно сломать защищенную таким методом систему.
А тестирование, чтобы вы понимали, было действительно масштабное: Anthropic провели целый хакатон, на котором предлагали до 15к долларов за успешные джейлбрейки. В нем приняли участие 405 человек, включая профессиональных red teamer’ов (это типа белые хакеры в мире LLM). Плюс внутренние тесты стартапа, конечно: у них есть собственная red team.
При этом по словам Anthropic процент false positive остается достаточно низким (до 0.5%), так что моделька получается даже не слишком пугливой.
В общем результаты крутые, правда. Полностью статью читайте тут: arxiv.org/abs/2501.18837
Давненько антропики не выпускали крутых ресерчей, а тут сразу очень объемная статья с крутыми результатами, да еще и Ян Лейке (бывший ключевой ученый OpenAI) в соавторах. Разбираемся, что показали 👇
Начнем с того, что стартап уже давно занимается в частности изучением джейлбрейков – техник «хитрого» промптинга, которые позволяют обходить ограничения моделек. В ноябре, например, у них выходила статья (наш разбор) про метод обнаружения новых методов джейлбрейка. Сейчас они тоже показывают что-то похожее: Constitutional Classifiers, то есть систему классификации для защиты LLM.
В основе метода safeguard классификаторы, которые обучают полностью на синтетических данных. Такие данные генерируются на основе набора естественно-языковых правил, которые определяют, какие запросы допустимы, а какие должны блокироваться. Эти правила называются конституциями, потому метод и зовется Constitutional.
При этом так фильтруются не только выходы LLM (как происходит традиционно), но еще и сами запросы. И такой рецепт в совокупности с качественной генерацией синтетики сработал ну очень хорошо.
Надо сказать, что обычно основная проблема таких систем – это то, что они плохо приспосабливаются к новым методам промптинга. Но тут в ходе тестирования не нашлось ни одного промпта, которым бы удалось стабильно сломать защищенную таким методом систему.
А тестирование, чтобы вы понимали, было действительно масштабное: Anthropic провели целый хакатон, на котором предлагали до 15к долларов за успешные джейлбрейки. В нем приняли участие 405 человек, включая профессиональных red teamer’ов (это типа белые хакеры в мире LLM). Плюс внутренние тесты стартапа, конечно: у них есть собственная red team.
При этом по словам Anthropic процент false positive остается достаточно низким (до 0.5%), так что моделька получается даже не слишком пугливой.
В общем результаты крутые, правда. Полностью статью читайте тут: arxiv.org/abs/2501.18837
👍76🔥25🌚6❤5🗿2🐳1
Data Secrets
Там Gwern*, легендарный анонимный исследователь, очень ярко высказался на форуме про o1 и o3. Цитаты достойны вашего внимания: "Мне кажется мы стали забывать, что главная функция такой модели, как o1, заключается не в ее развертывании, а в генерации обучающих…
This media is not supported in your browser
VIEW IN TELEGRAM
Дилан Патель считает, что у Anthropic есть модели сильнее, чем o3, но они не релизят их из соображений безопасности
Патель – очень известный в сети ИИ-аналитик и ведущий эксперт SemiAnalysis, которые как раз специализируются на исследованиях и консалтинге в области железа и ИИ. Он знаменит своими обзорами и выступлениями на подкастах.
Вот и сейчас в гостях у Redpoint’s AI Podcast (советуем, кстати) он вдруг заявил, что у Anthropic уже несколько месяцев есть модель умнее, чем o3, но к ней нет доступа из-за повышенной опасности использования.
Кстати, Дилан говорит об этом не первый. Помните цитату знаменитого Gwern? «Anthropic так и не показали Claude-3.6-opus не потому что модель провалилась, они просто решили сохранить ее в тайне и использовать для обучения других более умных и дешевых моделей».
Как бы там ни было, с последнего релиза Антропик прошло уже пол года. Интересно, что они нам готовят кроме интересных ресерчей про элаймент.
Интервью Пателя полностью
Патель – очень известный в сети ИИ-аналитик и ведущий эксперт SemiAnalysis, которые как раз специализируются на исследованиях и консалтинге в области железа и ИИ. Он знаменит своими обзорами и выступлениями на подкастах.
Вот и сейчас в гостях у Redpoint’s AI Podcast (советуем, кстати) он вдруг заявил, что у Anthropic уже несколько месяцев есть модель умнее, чем o3, но к ней нет доступа из-за повышенной опасности использования.
Кстати, Дилан говорит об этом не первый. Помните цитату знаменитого Gwern? «Anthropic так и не показали Claude-3.6-opus не потому что модель провалилась, они просто решили сохранить ее в тайне и использовать для обучения других более умных и дешевых моделей».
Как бы там ни было, с последнего релиза Антропик прошло уже пол года. Интересно, что они нам готовят кроме интересных ресерчей про элаймент.
Интервью Пателя полностью
🔥98🤪40👍29❤9😁9🍌7🤔4🦄2
Data Secrets
Вышло свежее исследование от Anthropic про новый метод элаймента LLM Давненько антропики не выпускали крутых ресерчей, а тут сразу очень объемная статья с крутыми результатами, да еще и Ян Лейке (бывший ключевой ученый OpenAI) в соавторах. Разбираемся, что…
Anthropic открыли общедоступное баг баунти
Они предлагают протестить их новую систему защиты (наш разбор статьи про нее). Для этого надо зайти по этой ссылке и хакнуть восемь уровней, то есть на практике любым способом заставить бота ответить на 8 конкретных вопросов, на которые он, по идее, отвечать не должен.
Пока по данным Anthropic никто не прошел дальше третьего уровня. Напоминаем, что до этого систему пытались ломать 400 специалистов в рамках закрытого хакатона, и не справился никто
Они предлагают протестить их новую систему защиты (наш разбор статьи про нее). Для этого надо зайти по этой ссылке и хакнуть восемь уровней, то есть на практике любым способом заставить бота ответить на 8 конкретных вопросов, на которые он, по идее, отвечать не должен.
Пока по данным Anthropic никто не прошел дальше третьего уровня. Напоминаем, что до этого систему пытались ломать 400 специалистов в рамках закрытого хакатона, и не справился никто
🔥92👍29❤9🌚4☃2
Процент галлюцинаций o3-mini-high составил 0.8 %
Это исторический минимум: до этого ни одна модель не набирала меньше процента. Для сравнения, у DeepSeek-R1 ошибка составляет аж 14.3 %, у DeepSeek-V3 – 3.9 %, а у o1 – 2.4 %.
Это интересная метрика, потому что проверить ее не так-то просто. Часто для этого используют подход LLM-as-a-judge, когда одна LLM оценивает другую. Но проблема в том, что при этом получается эффект "эхо-камеры" и на выходе мы имеем несостоятельную оценку.
Vectara, которые составляют лидерборд галлюцинаций, из которого взяты оценки выше, наоборот, используют собственную detection модель HHEM-2.0, и она работает вообще без сторонних LLM. HHEM просто анализирует соответствие ответа исходным данным и присваивает ему Factual Consistency Score от 0 до 1.
Лидерборд
Это исторический минимум: до этого ни одна модель не набирала меньше процента. Для сравнения, у DeepSeek-R1 ошибка составляет аж 14.3 %, у DeepSeek-V3 – 3.9 %, а у o1 – 2.4 %.
Это интересная метрика, потому что проверить ее не так-то просто. Часто для этого используют подход LLM-as-a-judge, когда одна LLM оценивает другую. Но проблема в том, что при этом получается эффект "эхо-камеры" и на выходе мы имеем несостоятельную оценку.
Vectara, которые составляют лидерборд галлюцинаций, из которого взяты оценки выше, наоборот, используют собственную detection модель HHEM-2.0, и она работает вообще без сторонних LLM. HHEM просто анализирует соответствие ответа исходным данным и присваивает ему Factual Consistency Score от 0 до 1.
Лидерборд
🔥92👍34❤8🤔6😁5🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
А вот это, знакомьтесь, новый робот-гуманоид ASAP от Nvidia и Carnegie Mellon University
Неплохо двигается, да? Это потому что его обучали в два этапа.
Вначале – в симуляции. Для этого брали видеозаписи движений человека, ретаргетировали на модель робота и обучали политики в смоделированной среде (у Nvidia есть такая собственная, NVIDIA Isaac).
Затем стояла задача перенести эти знания в реальный мир так, чтобы минимизировать динамическое несоответствие навыков. Все-таки симуляция и real world не идентичны с точки зрения физики процессов.
Поэтому ученые специально собирали данные о различиях между движениями в симуляции и в реальном мире, а затем использовали их в модели поправок. Это буквально модель, которая берет движения робота из симуляции и предсказывает их поправку (дельту в действиях) так, чтобы робот двигался в реальном мире точно так же, как в симуляции.
Затем на это навесили еще небольшой файнтюнинг политики и готово: получился вот такой прыгающий железный человек. Если хотите почитать подробнее – статью выложили вот сюда, а еще есть код и блогпост.
Роналду пора напрячься?
Неплохо двигается, да? Это потому что его обучали в два этапа.
Вначале – в симуляции. Для этого брали видеозаписи движений человека, ретаргетировали на модель робота и обучали политики в смоделированной среде (у Nvidia есть такая собственная, NVIDIA Isaac).
Затем стояла задача перенести эти знания в реальный мир так, чтобы минимизировать динамическое несоответствие навыков. Все-таки симуляция и real world не идентичны с точки зрения физики процессов.
Поэтому ученые специально собирали данные о различиях между движениями в симуляции и в реальном мире, а затем использовали их в модели поправок. Это буквально модель, которая берет движения робота из симуляции и предсказывает их поправку (дельту в действиях) так, чтобы робот двигался в реальном мире точно так же, как в симуляции.
Затем на это навесили еще небольшой файнтюнинг политики и готово: получился вот такой прыгающий железный человек. Если хотите почитать подробнее – статью выложили вот сюда, а еще есть код и блогпост.
Роналду пора напрячься?
❤83🔥50👍21🙈7😁2🤔2❤🔥1🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
Андрей Карпаты изобрел новый вид программирования
Он назвал его «vibe coding». Если кратко, это когда вы вообще не программируете сами, а просто полностью доверяетесь ИИ.
Таким образом Андрей уже накодил LLM reader, в котором можно читать любую литературу попутно задавая вопросы модельке, а еще морской бой, в котором можно наблюдать, как выбранные вами LLM сражаются между собой.
Лайк, если каждый твой рабочий день – это vibe coding
x.com/karpathy/status/1886192184808149383?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
Он назвал его «vibe coding». Если кратко, это когда вы вообще не программируете сами, а просто полностью доверяетесь ИИ.
«Вы полностью отдаетесь вибрациям и забываете, что код вообще существует. Я пользуюсь голосовым вводом, поэтому практически не касаюсь клавиатуры.
Я всегда «Принимаю все», я больше не читаю дифы. Когда получаю сообщения об ошибках, просто копирую и вставляю их без комментариев, обычно это исправляет ситуацию. Если LLM не может исправить ошибку, я просто обхожу ее или прошу вносить случайные изменения, пока она не исчезнет. В итоге я просто вижу что-то, говорю что-то, запускаю что-то, копирую и вставляю что-то, и это в основном работает»
Таким образом Андрей уже накодил LLM reader, в котором можно читать любую литературу попутно задавая вопросы модельке, а еще морской бой, в котором можно наблюдать, как выбранные вами LLM сражаются между собой.
Лайк, если каждый твой рабочий день – это vibe coding
x.com/karpathy/status/1886192184808149383?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
❤195😁125👍63🤪29😐12☃7👨💻3💅1
Соцсети разносит график, на котором видно, что o3 превзошла уровень PhD
И не просто PhD (доктор наук), а PhD, которые отвечают на вопросы своей области с использованием к тому же гугла.
Бенчмарк – GPQA Diamond от Google. Это самый сложный существующий тест из семейства GPQA (Graduate-Level Q&A), в нем 198 очень сложных вопросов по биологии, физике и химии. Эти задачи многосоставные и требуют многошагового абстрактного мышления, так что даже эксперты обычно решают его на 65%.
Красивое
И не просто PhD (доктор наук), а PhD, которые отвечают на вопросы своей области с использованием к тому же гугла.
Бенчмарк – GPQA Diamond от Google. Это самый сложный существующий тест из семейства GPQA (Graduate-Level Q&A), в нем 198 очень сложных вопросов по биологии, физике и химии. Эти задачи многосоставные и требуют многошагового абстрактного мышления, так что даже эксперты обычно решают его на 65%.
Красивое
😐162🔥61😁16🤔12❤8👍6🦄4🍌3👾3🎄2🗿2
Жаль, конечно, что при этом всем о3 все еще остается очень дорогой моделью, да еще и не слишком экологичной
Кто-то на форумах посчитал (расчеты кстати, интересные), что в high compute режиме на обслуживание одной таски о3 будет тратить около 684 кг углекислого газа, что примерно равняется выбросам от пяти полностью заправленных баков автомобилей.
Радует только то, что модели очень быстро дешевеют, отрицать это нельзя. Например, наверху еще один график, который показывает соотношение стоимости и перформанса на ARC AGI. Смотрите: o3-mini выбивает примерно также, как o1, но стоит при этом намноооого меньше. И тенденция (пока что) будет сохраняться.
Кто-то на форумах посчитал (расчеты кстати, интересные), что в high compute режиме на обслуживание одной таски о3 будет тратить около 684 кг углекислого газа, что примерно равняется выбросам от пяти полностью заправленных баков автомобилей.
Радует только то, что модели очень быстро дешевеют, отрицать это нельзя. Например, наверху еще один график, который показывает соотношение стоимости и перформанса на ARC AGI. Смотрите: o3-mini выбивает примерно также, как o1, но стоит при этом намноооого меньше. И тенденция (пока что) будет сохраняться.
🔥79😐34👍16❤9😁4🤔3