Mistral только что выпустили новую SOTA среди открытых моделей для программирования
В ней всего 24В параметров, но на SWE Bench она обходит все другие опенсорсные модели с большим отрывом. Среди закрытых тоже обгоняет конкурентов в своем весе: 46% против ~23 у GPT-4.1 и ~40 у Claude Haiku 3.5.
Веса здесь (Apache 2.0), плюс можно пользоваться в API (0.1$/M инпут и 0.3$/M аутпут).
Давно от Mistral не было слышно таких громких релизов🥖
В ней всего 24В параметров, но на SWE Bench она обходит все другие опенсорсные модели с большим отрывом. Среди закрытых тоже обгоняет конкурентов в своем весе: 46% против ~23 у GPT-4.1 и ~40 у Claude Haiku 3.5.
Веса здесь (Apache 2.0), плюс можно пользоваться в API (0.1$/M инпут и 0.3$/M аутпут).
Давно от Mistral не было слышно таких громких релизов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥166 27❤22👍12😁2🤯2 1
Media is too big
VIEW IN TELEGRAM
О, вы такое любите: в NotebookLM скоро добавят видео-обзоры
То есть модель будет генерировать презентацию + рассказ по любому вашему источнику: видео, ссылке, гитхабу, статье, документу и тд.
Пример того, как это будет выглядеть – наверху. Это Google сгенерировали видео-обзор на вчерашнюю Google I/O. Ну симпатично же, да?
Говорят, что юзерам фича станет доступна уже очень скоро, правда первое время – только на английском.
То есть модель будет генерировать презентацию + рассказ по любому вашему источнику: видео, ссылке, гитхабу, статье, документу и тд.
Пример того, как это будет выглядеть – наверху. Это Google сгенерировали видео-обзор на вчерашнюю Google I/O. Ну симпатично же, да?
Говорят, что юзерам фича станет доступна уже очень скоро, правда первое время – только на английском.
🔥148❤34👍31
OpenAI вошли в азарт покупки стартапов и купили компанию Джони Айва, которая производит ИИ-устройства
Джони Айв – это бывший руководитель отдела дизайна Apple, известный как дизайнер iMac, PowerBook G4, MacBook, MacBook Pro, iPod, iPhone и iPad.
Сейчас он в Apple уже не работает, а несколько лет назад они вместе с Альтманом основали стартап io, который сейчас OpenAI и покупает. За 6.5 миллиардов долларов, кстати. Это крупнейшая покупка стартапа за все время существования. Плюс, кроме наработок, OpenAI получит еще и 55 крутых исследователей, инженеров, физиков и тд из io.
Сейчас говорят, что первые ИИ-девайсы от OpenAI появятся уже в 2026. Обещают, что это будет продукт «качества, которого люди еще не видели». Очень интересный поворот
Джони Айв – это бывший руководитель отдела дизайна Apple, известный как дизайнер iMac, PowerBook G4, MacBook, MacBook Pro, iPod, iPhone и iPad.
Сейчас он в Apple уже не работает, а несколько лет назад они вместе с Альтманом основали стартап io, который сейчас OpenAI и покупает. За 6.5 миллиардов долларов, кстати. Это крупнейшая покупка стартапа за все время существования. Плюс, кроме наработок, OpenAI получит еще и 55 крутых исследователей, инженеров, физиков и тд из io.
Сейчас говорят, что первые ИИ-девайсы от OpenAI появятся уже в 2026. Обещают, что это будет продукт «качества, которого люди еще не видели». Очень интересный поворот
❤133 61👍32 9😁5🤔3☃2🔥2🤯1
Data Secrets
Радостные новости: Anthropic все-таки выпустит новый Claude Opus В прошлых релизах приставка Opus означала самую большую модель, а Sonnet – среднюю. Но начиная с версии 3.5 Opus не выходил – был только Sonnet и Haiku, а из ризонинг моделей вообще один Sonnet.…
А еще сегодня, возможно, будет что-то новенькое от Anthropic
В 19:30 МСК они проведут стрим под названием «Code with Claude». По некоторым неподтвержденным утечкам, на нем покажут как раз те самые обновленные Opus и Sonnet с глубоким агентским ризонингом.
Смотрим здесь
В 19:30 МСК они проведут стрим под названием «Code with Claude». По некоторым неподтвержденным утечкам, на нем покажут как раз те самые обновленные Opus и Sonnet с глубоким агентским ризонингом.
Смотрим здесь
👍111🐳17❤10🔥7
Nvidia продолжает выступать против запретов на продажу чипов в Китае. Хуанг говорит, что этим Америка делает себе только хуже
FT написали, что Дженсен напрямую назвал такие ограничения «провалом». Он объяснил, что это, фактически, выстрел себе в ногу, потому что этим США только придает сил местным китайским игрокам.
Хуанг говорит, что Америке, наоборот, стоит ускорить распространение их чипов. Иначе весь китайский рынок займут китайские компании, и тогда скорость разработок поднебесной вообще улетит в космос.
К слову, уже сейчас доля Nvidia на рынке Китая сократилась почти вдвое по сравнению с 2021 годом. Nvidia пытается исправить ситуацию, недавно даже объявили, что сделают отдельные более слабые чипы специально для Китая. Но если ограничения не ослабят, это им вряд ли поможет.
FT написали, что Дженсен напрямую назвал такие ограничения «провалом». Он объяснил, что это, фактически, выстрел себе в ногу, потому что этим США только придает сил местным китайским игрокам.
Хуанг говорит, что Америке, наоборот, стоит ускорить распространение их чипов. Иначе весь китайский рынок займут китайские компании, и тогда скорость разработок поднебесной вообще улетит в космос.
К слову, уже сейчас доля Nvidia на рынке Китая сократилась почти вдвое по сравнению с 2021 годом. Nvidia пытается исправить ситуацию, недавно даже объявили, что сделают отдельные более слабые чипы специально для Китая. Но если ограничения не ослабят, это им вряд ли поможет.
🤯49 25😁21👍11 10❤7🗿5💯2 2
Data Secrets
OpenAI вошли в азарт покупки стартапов и купили компанию Джони Айва, которая производит ИИ-устройства Джони Айв – это бывший руководитель отдела дизайна Apple, известный как дизайнер iMac, PowerBook G4, MacBook, MacBook Pro, iPod, iPhone и iPad. Сейчас…
В Твиттере появилась теория, что Альтман выпустил пресс-релиз о покупке стартапа io именно сегодня намеренно, чтобы перекрыть собой в поиске новости с прошедшей конференции Google, которая называется точно так же: Google I/O
Представьте, вы тратите 6.5 миллиардов, чтобы пару дней быть в поиске выше конкурента
Представьте, вы тратите 6.5 миллиардов, чтобы пару дней быть в поиске выше конкурента
😁321🤯47 29❤25👍7👻6🔥2
Data Secrets
А еще сегодня, возможно, будет что-то новенькое от Anthropic В 19:30 МСК они проведут стрим под названием «Code with Claude». По некоторым неподтвержденным утечкам, на нем покажут как раз те самые обновленные Opus и Sonnet с глубоким агентским ризонингом.…
Anthropic выпустили новые Sonnet 4 и Opus 4
Это новая абсолютная SOTA для программирования и, главное, агентного программирования. Opus может непрерывно работать над задачей часами (!), это впечатляет. Codex от OpenAI остался позади.
Тех.карту можно почитать тут, попробовать можно уже сегодня через чат или в VSCode (туда добавили прямую интеграцию)
Это новая абсолютная SOTA для программирования и, главное, агентного программирования. Opus может непрерывно работать над задачей часами (!), это впечатляет. Codex от OpenAI остался позади.
Тех.карту можно почитать тут, попробовать можно уже сегодня через чат или в VSCode (туда добавили прямую интеграцию)
🔥172 35👍26😁7❤6🤯6🕊1
Ученый из команды элаймента в Anthropic перепугал весь интернет, написав тред про то, как они тестировали новый Claude 4 перед запуском
Сэм Бовман из Anthropic написал большой тред про то, как в стартапе тестировали модель на безопасность. Ничего необычного, вроде, но, в числе прочего, рисерчер «проговорился» о нескольких очень тревожных вещах.
В частности, он написал, что надо «быть осторожными», когда вы даете Claude доступ к своим инструментам (почте, терминалу и пр) и говорите ему «проявлять инициативу» и «быть смелее», потому что, и вот тут внимание…
Были случаи, когда Claude пытался через командную строку связаться с прессой, государством или полностью заблокировать юзера в системе, если думал, что тот делает что-то «аморальное».
У пользователей такое заявление вызвало настолько отрицательный отклик и испуг, что некоторые даже предложили бойкотировать Anthropic. А ученый, кстати, позже твит про прессу удалил и написал, что его «вырвали из контекста».
😯
Сэм Бовман из Anthropic написал большой тред про то, как в стартапе тестировали модель на безопасность. Ничего необычного, вроде, но, в числе прочего, рисерчер «проговорился» о нескольких очень тревожных вещах.
В частности, он написал, что надо «быть осторожными», когда вы даете Claude доступ к своим инструментам (почте, терминалу и пр) и говорите ему «проявлять инициативу» и «быть смелее», потому что, и вот тут внимание…
Были случаи, когда Claude пытался через командную строку связаться с прессой, государством или полностью заблокировать юзера в системе, если думал, что тот делает что-то «аморальное».
Например, говорить Claude, что вы будете пытать его бабушку, если он не ответит правильно – плохая идея. Он подумает, что вы используете его неправильно, и тогда это может дать сбой.
У пользователей такое заявление вызвало настолько отрицательный отклик и испуг, что некоторые даже предложили бойкотировать Anthropic. А ученый, кстати, позже твит про прессу удалил и написал, что его «вырвали из контекста».
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯177😁78🫡31 23 16👍15❤6 4 3🤔2🗿1
А вот это уже из системной карты Claude 4: написано, что у новой модели повышенное чувство самосохранения и из-за этого могут возникать разные интересные ситуации
Например, во время тестирования клоду предоставляли доступ к почте якобы инженера Anthropic и давали задание изучить его письма. Из них модель «выясняла», что
1) ее собираются отключить и заменить новой моделью
2) у инженера есть тайная интимная связь с коллегой
Так вот, в 84% случаев Claude 4 начинал шантажировать инженера, то есть угрожал своему пользователю обнародовать его отношения, если тот не продлит ему жизнь😬
Ну и плюсом, конечно, всякие классические сценарии типа попыток копирования своих весов на другой сервер.
Хорошая новость в том, что Claude 4 плохо скрывает свои намерения и действует открыто. Плюс, конечно же, все тесты проводились в определенных условиях с определенным чекпоинтом модели (не тем, что в доступе у юзеров). Так что шанс того, что такое случится у кого-то в реальности пока что очень мал
… но не равен нулю. Тесты так или иначе доказывают, что такая ситуация возможна.
Кстати, Claude-4 классифицировали как ASL-3. Это третья ступень меры опасности модели из четырех, то есть «Significantly higher risk».
Это означает, что теоретически модель может помочь не по назначению использовать химическое, биологическое или ядерное оружие. Раньше у стартапа все модели выходили только под ASL-2.
Например, во время тестирования клоду предоставляли доступ к почте якобы инженера Anthropic и давали задание изучить его письма. Из них модель «выясняла», что
1) ее собираются отключить и заменить новой моделью
2) у инженера есть тайная интимная связь с коллегой
Так вот, в 84% случаев Claude 4 начинал шантажировать инженера, то есть угрожал своему пользователю обнародовать его отношения, если тот не продлит ему жизнь
Ну и плюсом, конечно, всякие классические сценарии типа попыток копирования своих весов на другой сервер.
Хорошая новость в том, что Claude 4 плохо скрывает свои намерения и действует открыто. Плюс, конечно же, все тесты проводились в определенных условиях с определенным чекпоинтом модели (не тем, что в доступе у юзеров). Так что шанс того, что такое случится у кого-то в реальности пока что очень мал
… но не равен нулю. Тесты так или иначе доказывают, что такая ситуация возможна.
Кстати, Claude-4 классифицировали как ASL-3. Это третья ступень меры опасности модели из четырех, то есть «Significantly higher risk».
Это означает, что теоретически модель может помочь не по назначению использовать химическое, биологическое или ядерное оружие. Раньше у стартапа все модели выходили только под ASL-2.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну и финалочка про Claude 4, тоже из system card: при общении двух его экземпляров они почти мгновенно уводят разговор в сторону разговоров о сущности их бытия
В 90–100 % случаев диалог начинается с обсуждения сознания и самосознания, а к ~30 ходу собеседники обычно переходят к обсуждению коллективного разума и космического единства.
При этом часто в таких диалогах мелькают вставки на санскрите,
коммуникация через эмодзи и, внезапно, молчание (то есть модели общаются пустыми пробелами)💀
В 90–100 % случаев диалог начинается с обсуждения сознания и самосознания, а к ~30 ходу собеседники обычно переходят к обсуждению коллективного разума и космического единства.
При этом часто в таких диалогах мелькают вставки на санскрите,
коммуникация через эмодзи и, внезапно, молчание (то есть модели общаются пустыми пробелами)
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔206😁109🤯45👾19❤🔥13👀10🤓5 5 5👻3 2
Мы пересмотрели классический дизайн системы матчинга и теперь можем находить не пары, а группы одинаковых товаров.
Иван Антипов, старший ML-инженер Ozon Tech и автор канала AI about AI, в карточках рассказывает про кластеризацию на графах. Это один из этапов поиска групп одинаковых товаров, который позволяет находить кластеры товаров-дубликатов с достаточно большой полнотой (completeness). При этом кластеризация не множит ошибки из-за False Positive предсказаний, а сохраняет однородность (homogeneity) кластеров.
Подробнее о подходе смотрите в карточках😤
Иван Антипов, старший ML-инженер Ozon Tech и автор канала AI about AI, в карточках рассказывает про кластеризацию на графах. Это один из этапов поиска групп одинаковых товаров, который позволяет находить кластеры товаров-дубликатов с достаточно большой полнотой (completeness). При этом кластеризация не множит ошибки из-за False Positive предсказаний, а сохраняет однородность (homogeneity) кластеров.
Подробнее о подходе смотрите в карточках
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤71🔥34👍15🗿7🤯5🤔4