Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Стрим OpenAI без пасхалок – не стрим OpenAI 🪺
🔥82😁7212👍7🤨2🤯1
У Meta черная полоса

Ранее компания потерпела провал с релизом Llama-4, а сейчас стало известно, что откладывается выпуск модели Behemoth. Ее обещали как самую крупную из серии Llama 4 и должны были выпустить в этом месяце, но теперь неясно, увидим ли мы ее вообще.

Во-первых, руководство Meta осталось очень недовольно работой команды Llama, и теперь планирует «изменения в составе». К слову, уже на данных момент по собственному желанию из команды ушли 11 из 14 ключевых ученых, которые работали над ранними версиями Llama.

Во-вторых, Behemoth не соответствует заявленным метрикам. Цукерберг обещал, что когда модель выйдет, то на нескольких тестах побьет передовые LM от OpenAI, Google и Anthropic. Но теперь что-то пошло не так и из-за проблем с обучением Behemoth уже показывает себя не так обнадеживающе.

И это все после того, как Meta фактически обманули пользователей, выпустив на LMSYS не юзер-версию модели, а внутреннюю, затюненную специально под арену (подробнее об этой истории мы писали тут).

Ну в общем, F 😬
Please open Telegram to view this post
VIEW IN TELEGRAM
😁143🫡77🕊248🤯5👌5👀5🔥2🏆2🤓2👨‍💻2
Розыгрыш Machine Learning футболок

В честь выпуска нашего большого конспекта по LLM мы решили запустить розыгрыш 10 футболок для истинных любителей глубокого обучения.

Это лимитированная авторская линейка от Data Secrets. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена. Итак, что делать:

Отдать бусты нашему каналу (чем больше голосов, тем выше шанс победить)
Нажать на кнопку "Участвовать"
Ждать итогов 28 мая

P.S. Для всех, у кого нет Telegram Premium, мы скоро обязательно проведем еще один розыгрыш футболок.

🎉 UPD: Розыгрыш завершен!

🏆 Победители:
1. @artyomjk
2. @ddmtrx
3. @toiletsandpaper
4. @KovalSD
5. @yadvichuk
6. @samorukov
7. @Okulov
8. @ILonelyLockleyI
9. @ViacheslavDobrynin
10. Manger

🔍 Проверить результаты
Please open Telegram to view this post
VIEW IN TELEGRAM
74🗿49🔥24👍21🤨12🤓11🤯3🫡3🦄3😁2🤝1
Понедельник! Сейчас в ИИ-гонке затишье, но неделя обещает быть насыщенной. Чего ждем:

1. Gemini Ultra и проект Astra с ИИ-очками от Google. На этой неделе у них крупнейшая анонс-конференция в году, Google I/O. В прошлом году именно на этом мероприятии показали Gemini 1.5 Pro с контекстом в 1млн токенов и Gemini 1.5 Flash.

2. o3-pro или GPT-5. Почти наверняка OpenAI что-то припасли чтобы перетянуть на себя внимание от Google. Вчера некоторые пользователи даже заметили, что Альтман твитнул строку «4+1», но сейчас твит удален.

3. Grok-3.5, который Илон Маск обещает уже вторую неделю.
123👍442610🔥75😁321🆒1
Ученые из Google и Кэмбриджа предложили вид модели, которая мыслит образами, а не текстом

Человек часто мыслит образами / картинками / схемами. Особенно, когда речь идет о каких-нибудь математических задачах или алгоритмах. Модельки пока так не умеют, у них весь ризонинг в тексте.

Но попытки научить LM чему-то похожему есть: вот сегодня как раз вышла статья под названием "Visual Planning: Let’s Think Only with Images". В ней исследователи научили модель проходить лабиринты, рассуждая при этом только картинками. Вот как это было:

1. Сначала модели показывали много-много картинок лабиринтов и учили ее предсказывать какой-нибудь любой возможный следующий шаг. Ну, например, подаем картинку агента, который стоит в клетке B. По этой картинке модель должна сгенерировать следующую, где агент стоит на любой из доступных соседних клеток.

2. Затем учили предсказывать уже не рандомный, а правильный следующий шаг. Здесь у нас уже RL (на предыдущем шаге был обычный файнтюнинг). За правильное действие выдаем награду +1, за неправильное 0, за недопустимое -5.

Модель проходит по нескольку картинок за эпизод, собирает награды и многократко обновляет свою политику. В итоге получаем ризонер, который умеет проходить лабиринты, рассуждая без текста.

Самое интересное: на всех тестах VP обходит даже продвинутый Gemini 2.5 Pro think, и не на пару процентов, а в полтора-два раза.

Вот бы с какой-нибудь сложной геометрией такое потестили

huggingface.co/papers/2505.11409
191👍85🔥449🏆7765🤯42🤔1
Воу: Microsoft сделали своего ИИ-ассистента Copilot VS Code опенсорсным

Код будет открыт под лицензией MIT. Разработчики говорят, что исторически VS Code имеет большую ценность именно как опенсорс проект, и они не хотят это терять.

https://code.visualstudio.com/blogs/2025/05/19/openSourceAIEditor
🔥237👍53❤‍🔥221310🤯531
This media is not supported in your browser
VIEW IN TELEGRAM
В приложении NotebookLM теперь можно самому подключаться к сгенерированным подкастам

Приложение начинают раскатывать уже сегодня, скоро можно будет скачать. Туда добавили несколько новых фичей:

Сгенерированные по источникам ИИ-подкасты теперь можно будет скачивать и слушать оффлайн

Источники можно будет шерить напрямую из любых других приложений. Например: Смотрим видео в приложении YouTube -> Нажимаем "Поделиться" -> Выбираем NotebookLM -> Все, видео уже попало в источники

Ну и самое интересное: если вы слушаете подскаст онлайн, вы в любой момент можете тыкнуть "Join" и присоединиться к ИИ-ведущим как гость, чтобы задать вопрос, высказать мнение или что-то уточнить

🤌
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥240👍49151410🤯64
Media is too big
VIEW IN TELEGRAM
Стартап flowith выпустили ИИ-агента, который может работать без ограничения по времени и контексту

Более того: можно запускать неограниченное количество задач (в том числе отложенных) одновременно.

А еще внутри каждой задачи агент сам параллелится: например, может создать 39 суб-агентов и отправить их искать разную информацию в разные уголки интернета, а потом собрать все в один отчет.

Работать все может довольно долго и основательно: контекст каждой задачи – больше 10 миллионов токенов, а количество шагов ризонинга может достигать нескольких сотен или даже тысяч.

Попробовать можно тут (но сервер периодически лежит от нагрузки)

Manus moment 2.0
108👍3333😍17🤯9🔥76🕊32
Через несколько часов начинается Google I/O. Пересказываем слухи о том, что покажут:

1. Несколько новых версий видео и фото генераторов (Veo, Imagen). Будут и быстрые+дешевые, и дорогие+медленные

2. Возможно, генератор видео со звуком

3. Новая версия Gemini с улучшенным ризонингом

Ждем 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
👍745916🔥72🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
Google показали на I/O много интересного. Собрали все в один пост:

Новая Veo-3. SOTA-моделька для генерации, которая может генерировать видео со звуками и голосами

Gemini 2.5 Flash с улучшенным ризонингом. Модель уже скакнула с пятой строчки арены на вторую и выбивает очень хорошие метрики на кодинге и математике. Учитывая цены это просто отличные результаты

Перевод речи в Google Meet в реальном времени с сохранением интонаций и голоса собеседника. Пока доступно только с английского на испанский, но обещают раскатать на больше языков

Gemini Ultra тоже вышла, но есть нюанс. Это не модель, а подписка. Стоит 250 долларов в месяц, в нее входит расширенный доступ ко всем моделям гугла, Veo-3, NotebookLM и другие плюшки типа хранилища и премиум ютуба. В общем, все подписки Google в одной

В Gemini 2.5 Pro добавили более глубокий режим рассуждений

Анонсировали облачного агента Jules для программирования. Подключается к GitHub, делает ПР, ревьюит, отвечает на вопросы и тд. Аналог Codex, но дешевле.

Вот как-то так. Неплохая получилась конференция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥170👍5332🤔5
Media is too big
VIEW IN TELEGRAM
На Google I/O еще понравилось выступление Сергея Брина

Напоминаем, что после почти пяти лет разлуки он недавно вернулся в Google работать над AI. Сейчас он прикладывает руку почти ко всему мультимодальному в компании + к проекту Veo.

В интервью он сказал, что в Google намерены сделать Gemini первым AGI, и непрерывно над этим работают.

«Я вернулся в Google не из-за гонки, а чтобы стать частью самого значимого прорыва нашего времени. Сейчас никто, кто работает в сфере вычислительной техники, не должен выходить на пенсию»


Ну а еще рассказывал, что все мы возможно живем в симуляции 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
146👍67😁20🗿14💯52🔥1
Еще один очень занятный релиз от Google – диффузионная языковая модель Gemini Diffusion

Кратко, в чем суть: вместо генерации токенов один за одним здесь они генерируются в произвольном порядке. То есть берется исходная последовательность текста, затем токены в ней маскируются с определенной веростностью, а модель пытается их угадать (расшумляет, как в диффузии).

Это, во-первых, помогает существенно ускорять процесс. Такая Gemini может генерировать до 2000 токенов в секунду. Это раз в 10-15 быстрее, чем в среднем генерируют хорошо оптимизированные модели.

Во-вторых, в задачах типа математики такой подход к генерации может помочь модели быстро перебирать несколько вариантов решений и двигаться не обязательно последовательно, а в «удобном» порядке. Так что метрики сравнимы с предыдущим поколением моделей Google.

Попробовать пока можно только по запросу, но сам факт таких релизов от Google впечатляет
🔥167👍5319164🤔2
Mistral только что выпустили новую SOTA среди открытых моделей для программирования

В ней всего 24В параметров, но на SWE Bench она обходит все другие опенсорсные модели с большим отрывом. Среди закрытых тоже обгоняет конкурентов в своем весе: 46% против ~23 у GPT-4.1 и ~40 у Claude Haiku 3.5.

Веса здесь (Apache 2.0), плюс можно пользоваться в API (0.1$/M инпут и 0.3$/M аутпут).

Давно от Mistral не было слышно таких громких релизов 🥖
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1662722👍12😁2🤯21
Media is too big
VIEW IN TELEGRAM
О, вы такое любите: в NotebookLM скоро добавят видео-обзоры

То есть модель будет генерировать презентацию + рассказ по любому вашему источнику: видео, ссылке, гитхабу, статье, документу и тд.

Пример того, как это будет выглядеть – наверху. Это Google сгенерировали видео-обзор на вчерашнюю Google I/O. Ну симпатично же, да?

Говорят, что юзерам фича станет доступна уже очень скоро, правда первое время – только на английском.
🔥14834👍31
OpenAI вошли в азарт покупки стартапов и купили компанию Джони Айва, которая производит ИИ-устройства

Джони Айв – это бывший руководитель отдела дизайна Apple, известный как дизайнер iMac, PowerBook G4, MacBook, MacBook Pro, iPod, iPhone и iPad.

Сейчас он в Apple уже не работает, а несколько лет назад они вместе с Альтманом основали стартап io, который сейчас OpenAI и покупает. За 6.5 миллиардов долларов, кстати. Это крупнейшая покупка стартапа за все время существования. Плюс, кроме наработок, OpenAI получит еще и 55 крутых исследователей, инженеров, физиков и тд из io.

Сейчас говорят, что первые ИИ-девайсы от OpenAI появятся уже в 2026. Обещают, что это будет продукт «качества, которого люди еще не видели». Очень интересный поворот
13361👍329😁5🤔32🔥2🤯1
Data Secrets
Радостные новости: Anthropic все-таки выпустит новый Claude Opus В прошлых релизах приставка Opus означала самую большую модель, а Sonnet – среднюю. Но начиная с версии 3.5 Opus не выходил – был только Sonnet и Haiku, а из ризонинг моделей вообще один Sonnet.…
А еще сегодня, возможно, будет что-то новенькое от Anthropic

В 19:30 МСК они проведут стрим под названием «Code with Claude». По некоторым неподтвержденным утечкам, на нем покажут как раз те самые обновленные Opus и Sonnet с глубоким агентским ризонингом.

Смотрим здесь
👍111🐳1710🔥7