Data Secrets
77.3K subscribers
6.04K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Вашему вниманию: идеальная клавиатура для разработчика

P.S. Не мем. Cursor, судя по всему, реально такую сделали
1😁238🔥30👍1210🗿8🐳2🦄22🕊1
Нейросети помогут врачам анализировать МРТ и выявлять риски развития ДЦП у младенцев за минуты вместо дней

Яндекс в сотрудничестве со специалистами СПбГПМУ и студентами ШАДа разработал решение на базе ИИ, которое анализирует МРТ мозга младенцев, радикально ускоряя постановку таких диагнозов, как риск ДЦП. Нейросеть автоматически сегментирует серое и белое вещество, вычисляет их объемы и помогает врачам принимать более точные решения.

Обычно такой анализ — это ювелирная работа, занимающая до 72 часов. Новая модель выполняет инференс за ~3 секунды на CPU. Для понимания, предыдущие существующие решения вытягивали максимум ~2.5 минуты. Это ускорение в 50 раз. В будущем, после тестирования, код разработки появится в опенсорсе, чтобы его могли использовать ученые и клиники со всего мира и для других задач в сфере медицины.

Кратко про само решение:

— Работает как веб-сервис и не требует от клиник GPU. Сырые МРТ-снимки в формате DICOM загружаются в PACS-систему, развернутую на Yandex Cloud.

— Естественно, в процессе разработчики столкнулись с проблемой нехватки размеченных данных. Использовали BIBSNet для предразметки всего архива. Процесс был распараллелен в Docker-контейнерах на 20 ВМ, что позволило быстро получить основу, которую врачи уже дорабатывали, а не создавали с нуля.

— Под капотом U-Net с бэкбоном ResNeXt-50 и функцией потерь DiceLoss. Эта архитектура показала себя лучшей после серии R&D-экспериментов.

Итог: быстрый инференс и высокая точность. Метрика IoU (Intersection over Union) достигла 0.703, что позволяет врачам использовать сегментацию как надежный вспомогательный инструмент.

Подробности — на Хабре.
1🔥144👍352613😁3🤨33😍1
This media is not supported in your browser
VIEW IN TELEGRAM
Исследователи изучили нейросеть Evo-2 и нашли в ее активациях целое дерево жизни

Сейчас расскажем подробнее. Сама модель Evo-2 вышла еще осенью. Она может генерировать новые генетические последовательности и выявлять мутации в генах.

Обучена она была на 9 триллионах нуклеотидов из более чем 128 000 геномов. При этом датасет собирали такой, чтобы он охватывал все формы жизни, от простейших до растений и животных.

То есть эта модель знает очень-очень много о мире с точки зрения генетики. И вот сейчас, спустя почти год после выхода Evo-2, ученые из лабы Goodfire решили залезть внутрь нее и проверить, как это все выглядит изнутри.

И внезапно там обнаружилась очень интересная структура.

Оказалось, что модель кодирует эволюционную схожесть (филогению) как геометрические расстояния на специальном изогнутом многообразии в признаковом пространстве. То есть кратчайший путь по этому многообразию между двумя видами соответствует их эволюционной дистанции: чем ближе виды по филогенетическому дереву, тем ближе их представления внутри модели.

Что это значит:

1. Хотя в модель напрямую не закладывали эволюционные отношения и таксономию, она научилась улавливать статистические закономерности, отражающие эволюционные связи между видами.

2. И она не просто их понимает, а построила внутри себя целое математическое дерево видов, представив его, так скажем, по своему: в виде сложных геометрически интерпретируемых многообразий.

Это похоже на языковые модели: по факту Evo училась предсказывать последовательности геномов, а оказалось, что она может действовать как универсальный биологический переводчик.

То есть нам, возможно, не обязательно обучать под разные медицинские и био- задачки разные модели. Может быть одна, универсальная, которая сможет работать с любыми приложениями, обучаясь просто на молекулах.

Кажется, что это значимый результат.

www.goodfire.ai/papers/phylogeny-manifold
9🤯184❤‍🔥6638🔥31👍24🗿7🤔6😁2🕊21
Мы как-то пропустили, но оказывается у Google недавно вышла очень интересная модель Perch 2.0 для биоакустики

Она предназначена для классификации и энкодинга всевозможных звуков природы. Работает так:

1. На вход модельке приходит аудио, которое она преобразует в спектрограмму. Это нужно для того, чтобы дальше данные в виде изображения могла съесть сверточная нейросеть.

2. Эта нейросеть выдает эмбеддинги – векторы размерности 1536, описывающие звуки.

3. Дальше эмбеддинги подаются на вход трем головам, каждая из которых отвечает за свою задачу: линейную классификацию, прототипную классификацию (это логиты для интерпретируемости) и определение источника.

Только представьте: с помощью такой модели можно отслеживать популяции и количество особей, искать новые виды и многое другое.

Кстати, все работает без GPU + в модели всего 12 миллионов параметров. Метрики при этом отличные: система точно распознает звуки 15 тысяч видов. Работает даже под водой.

Короче: Google дали каждому биологу в мире универсальный супер-слух. И это уже дало свои результаты.

Например, в Австралии Perch помог обнаружить новые популяции птиц там, где, как раньше считалось, их почти нет. А на Гавайях система в 50 раз ускорила обнаружение редких медоедов: благодаря этому ученые теперь смогут оперативно защищать их от угроз.

Всегда очень радуют такие разработки. А тут, плюсом ко всему, модель и датасеты даже выложили в опенсорс.

arxiv.org/abs/2508.04665
1160🔥5713👍115😁2🕊2🤯1👾1
⚡️ OpenAI релизнули новую speech2speech модель gpt-realtime и наконец сделали Realtime API общедоступным

Так, по порядку:

1. gpt-realtime – это модель специально для реализации всевозможных голосовых помощников и ботов. Ей прокачали следование инструкциям разработчиков, задержку, естественность речи и даже вызов инструментов. Получается ультимативный голосовой бот, который говорит как живой консультант, при необходимости ходит в базу знаний и не отступает от намеченных правил.

2. Модель + два дополнительных голоса (послушать) будут с этого дня доступны в Realtime API, которое наконец-то вышло из беты. Туда добавили MCP, возможность инпута картинками и несколько других интересных плюшек. Подробности.

Цены, кстати, снизили на 20% по сравнению с превью версией, а метрики при этом подросли. Подробный прайсинг.

Потестить можно тут в песочнице
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥782321👍6😁2
Полгода назад нам обещали, что к сегодняшнему дню ИИ будет писать 90% кода

Не знаем как у вас, у нас пока только 90% багов
3😁42433🗿1810💯7🔥6😎6👏5👍421
12 сентября Т-Банк, Яндекс, Сбер, Lamoda и X5, устроят в своих офисах настоящую ночь технологий — Big tech night. В штаб-квартире Т-Банка, например, гостям покажут внутренние разработки и разные фичи.

В программе — квартирники, на которых можно обсудить командную жизнь айтишников, разбор личных кейсов с тимлидами и СТО и
доклады про путь ИИ от проектирования до использования. Гости также получат доступ к внутренним платформам Т-Банка и смогут пообщаться с разрабами.

Чтобы попасть на ивент, нужно заранее зарегистрироваться и выбрать программу.
158🗿218🔥6😁4👍1
Prime Intellect анонсировали Environments Hub – открытую платформу для создания и использования RL-сред

Сейчас расскажем, почему это большая новость, и зачем это нужно.

RL-среда – это окружение, в котором обучаются агенты. Грубо говоря, отдельный мир, в котором определены свои правила и система вознаграждений.

Создавать такие «миры» довольно дорого. Например, хотите вы обучить агента-программиста. Для этого вам нужны: целая виртуальная IDE с компилятором, отладкой, тестами и кучей edge-кейсов; ревард-функция; инструменты трекинга; пайплайн обучения; данные.

Большие лабы, в общем, тратят на качественные RL-среды миллионы. А в опенсорсе сопоставимых решений просто нет. Prime Intellect предлагают изменить положение и дают нам для этого готовую инфраструктуру.

Короче, Environments Hub – это первый и единственный в своем роде стор готовых RL-сред под всевозможные задачи. Сейчас там уже достаточно много решений под агентов-программистов / математиков / разные игры и прочее прочее.

Большое дело ребята делают. Очень емко, кстати, релиз и его полезность прокомментировал Андрей Карпаты, можно почитать его мысли.

Ссылка на сам Хаб: app.primeintellect.ai/dashboard/environments
284👍37🔥171😁1
Новость дня: Илья Суцкевер сменил аватарку в X

Жалко, конечно, селфи в панамке и очках (2 скрин), которое стояло со времен мамонтов, было лучше.

Вопрос: значит ли это, что SafeSuperintelligence начали переговоры с серьезными инвесторами? 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🤯108😁932816🗿4🔥3👍1
Такс-такс, Anthropic начнет обучать свои модели на пользовательских данных

Сюда относятся транскрипты чатов и кодинг-сессии (видимо, из Claude Code). Все пользователи должны до 28 сентября принять решение, делиться данными или нет.

По умолчанию, вроде бы, ваши данные использовать не будут: нужно обязательно тыкнуть "Accept", и только после этого новые или возобновленные чаты начнут попадать в датасет. То есть старых чатов и сессий разрешение касаться не будет.

Пока, правда, не очень понятно, можно ли будет изменить решение. Но есть еще одна важная деталь: если вы нажмете "Accept", ваши данные теперь будут так или иначе храниться 5 лет.

Новая политика касается всех, кроме коммера (то есть полностью API + Claude Gov, Claude for Work, Claude for Education).

В целом, друзья, это было вопросом времени. Надо отдать должное: Anthropic хотя бы заявили о своих намерениях открыто и дали юзерам выбор.

Ссылка на оригинальную новость | Текст без пэйвола
19345👍1612😁3🔥2🤔2🦄2❤‍🔥1🤨1
Коллаб года: OpenAI и Anthropic протестировали модели друг друга на безопасность

В начале лета (ещё до выхода GPT-5) два крупнейших игрока устроили перекрёстное тестирование на элаймент. Каждая компания прогнала публичные модели конкурента через собственные внутренние методики оценки.

Результаты довольно показательные:
– Reasoning-модели (OpenAI o3 и o4-mini, а также Claude 4) показали заметно более устойчивое поведение. Их сложнее «сломать» джейлбрейками, они лучше справлялись с тестами на элаймент и реже поддавались на провокации.
– Классические чат-модели (GPT-4o, GPT-4.1) в ряде сценариев повели себя тревожно: помогали пользователям в потенциально опасных запросах вроде инструкций по наркотикам или оружию.
– Почти у всех, кроме o3, проявилось sycophancy — склонность поддакивать даже тогда, когда пользователь явно уводит модель в сомнительные сценарии.
– В Anthropic отметили, что их модели чаще отказываются отвечать в случае неопределённости, тогда как у OpenAI отказы редки — но риск галлюцинаций выше.


Отдельный момент: тесты проводились в ослабленных условиях, без внешних фильтров и защитных слоёв. Целью было проверить «чистое» поведение моделей и выявить слабые места, которые в обычных настройках могут быть замаскированы.

Ждем, когда кросс-тесты станут обязательным стандартом 👓

Блог-пост OpenAI | Блог-пост Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
🤗10253👍261054😁3🔥2🤔21
Искали кино на выходные, а нашли золото: на YouTube вышла полуторачасовая документалка про Python

Фильм снят студией CultRepo и это большая история развития языка. В нем снялся сам создатель – Гвидо ван Россум. История, кстати, действительно достойна фильма:

– Проект начинался как стороннее хобби где-то в Амстердаме в 1990-х годах
– Сначала язык никто не понял, и в какой-то момент от чуть не изчез
– ... а сейчас на нем написана четверть всего публичного кода: это рекордная доля для любого языка за всё время существования программирования

А еще сейчас питон на первом месте по популярности в мире. Он несколько лет тусовался где-то на 3-5 местах, но в 2025 популярность ИИ и ML наконец вывела его в лидеры. Так что – смотрим

P.S. Русской озвучки, конечно, нет, но не забываем, что в Яндекс Браузере есть отличный нейросетевой перевод. Открываем видео, наводим на него курсор – там сразу появится кнопка с предложением озвучить на русском. Тыкаем и получаем очень ествественный перевод теми же голосами, что и в оригинале.
🔥12944🤯2716👍13🤨3😁1
Скандалы, интриги, расследования: xAI подает в суд на своего бывшего инженера за то, что он пытался шпионить для OpenAI

Беднягу зовут Xuechen Li, а само дело было так:

– В начале лета он, работая в xAI, получил оффер от OpenAI и принял его. Сразу после этого он, кстати, продал акций xAI на 7 миллионов долларов.

– Примерно в июле он «случайно» получил доступ к каким-то закрытым файлам (к которым, судя по статье, у него не должно было быть доступов). По словам xAI, это была информация о «продвинутых ИИ-технологиях, превосходящих ChatGPT».

– 14 августа с Ли была проведена внутренняя встреча, на которой он якобы признался в краже некоторых файлов. Однако потом обнаружилось, что на его устройствах есть и другие NDA материалы, о которых он не упомянул. Вот после этого xAI и подали в суд.

В общем, теперь xAI требуют у суда компенсацию (сумма не указана), а также запрет на переход Ли в OpenAI. А иначе, говорят они, «украденные материалы могут позволить OpenAI улучшить ChatGPT с помощью более креативных и инновационных функций xAI».

Кто-то любит спорт, кто-то сериалы, а вот любимое хобби Маска, видимо, – обкладывать исками OpenAI ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1413319🔥18🗿4💯2👍1🤯1
Журнал TIME опубликовал свой ежегодный список Time 100 AI

Список позиционируется как "100 самых влиятельных людей в сфере искусственного интеллекта". В топе – Альтман, Маск, Хуанг, Принс (CEO CloudFlare), Цукерберг, Амодеи, Веньфень и другие.

Но не все так однозначно: есть, как говорится, нюансы.

Например, вот кого в списке нет:

– Илья Суцкевер
– Джеффри Хинтон
– Демис Хассабис
– Ноам Браун
– Ян Лекун
– Мустафа Сулейман
– Аравинг Шринивас

А вот кто там есть:

– Папа Римский
– Чел из мема про вайбкодинг – Рик Рубин
– Художники, писатели и журналисты

В общем, как-то немного неловко получилось, что-ли 🤡

А ссылка на сам список вот: time.com/collections/time100-ai-2025/
Please open Telegram to view this post
VIEW IN TELEGRAM
153😁9127🤯7🗿7🤔5🦄5👍1🔥1🏆1👀1
Учимся мотивировать своих детей правильно
1125😁96👍21🔥9🤔5🗿3🤯1
Кстати, поздравляем всех с Днем Рождения Скайнета

Ему исполнилось уже 28 лет 🕺
Please open Telegram to view this post
VIEW IN TELEGRAM
276😁5512🍾7🗿4🎉3👍1🔥1
Зацените: робот играет в настольный теннис полностью автономно

Такого спортсмена обучили в университете Беркли, и это студенческий проект. Если что, подобного робота год назад показывали в DeepMind, но там была робо-рука, а тут целый гуманоид.

Давайте же разберемся, как он работает. Итак, весь HITTER (HumanoId Table TEnnis Robot) пашет, по сути, на одной двухуровневой иерархической системе ризонинга:

1. Высокоуровневый планировщик (мозг). Эта часть по внешним камерам отслеживает полет мяча, прогнозирует его траекторию и рассчитывает, в какой точке, с какой скоростью и в какой момент времени ракетка должна нанести удар.

2. Низкоуровневый контроллер (тело). Получает сигналы от планировщика и преобразует их в конкретные движения для всех суставов робота. Эту часть обучали с PPO на человеческих движениях. Собственно, благодаря этому тут видна такая ествественность: робот может делать шаги в сторону, поворачивать корпус и замахиваться, а не просто махать ракеткой.

Работает прямо неплохо: в статье заявляют 92.3% успешно отбитых мячей. То есть робот промахивается только в 1 случае из 26. А в одном из экспериментов розыгрыш длился целых 106 ударов подряд. Время реакции – 0.42 секунды от момента удара оппонента до ответного удара робота.

Интересно, в аренду на выходные сдадут?

www.alphaxiv.org/abs/2508.21043
1🔥14547👍23👏8🤯74🗿3🏆2👌1
Плохие новости: там Google нашли фундаментальный баг в RAG

TL;DR: оказалось, что всеми любимый и привычный поиск на эмбеддингах может не всё и имеет серьёзный фундаментальный предел. При фиксированной размерности вектора таким подходом просто невозможно находить все релевантные документы из базы. В своей работе Google доказали это и теоретически, и экспериментально.

О чем вообще речь. Современный поиск и RAG часто опираются на single-vector эмбеддинги: у каждого запроса и документа – по одному вектору, похожесть меряем скалярным произведением/косинусом, дальше берем топ-k ближайших.

И тут возникает вопрос: а вообще возможно ли при фиксированной размерности векторов построить такой поиск, который всегда будет возвращать правильные топ-k документов для любых запросов? Ответ – нет. И сбой происходит уже на очень простых примерах.

Интуитивное объяснение, почему так: чем больше база знаний, тем больше разнообразных комбинаций запросов и релевантных документов нам нужно поддерживать. Но пространство поиска всегда ограничено размерностью эмбеддингов. Так вот, начиная с какого-то числа документов, расположить точки в этом пространстве так, чтобы для каждого запроса мы находили правильные доки, просто невозможно.

Математическое объяснение для любителей:
Представим матрицу A, где строки – это запросы, а столбцы – документы, и на пересечении стоит 1, если документ релевантен, и 0 – если нет. Мы хотим, чтобы поиск на эмбеддингах воспроизводил именно такую матрицу «кто кому подходит». Тогда оценки похожести будут матрицей B = UᵀV, где U и V – это векторы запросов и документов в пространстве фиксированной размерности d. Но sign-rank матрицы (2A−1) может оказаться больше d, а это значит, что никакие d-мерные эмбеддинги не смогут построить B с правильными значениями. Формально: если sign-rank(A) > d, то корректное разделение релевантных и нерелевантных пар в таком пространстве просто невозможно, каким бы мегаумным ни был ваш эмбеддер.


То есть, например, если у вас эмбеддинги размерности 512, то ваш RAG будет работать нормально, пока документов в вашей базе менее 500 тысяч (а это довольно немного). При размерности 1024 – до ~4 млн. При 4096 – примерно до 250 млн. Дальше система начнет сыпаться.

И эти расчеты Google подвели в идеальных условиях, когда векторы оптимизированы под задачу. На практике, когда вы не дообучаете эмбеддинги, пределы еще ниже.

Чтобы показать это на практике, авторы придумали специальный бенчмарк LIMIT. Он построен так, что у каждого запроса релевантны ровно два документа, но комбинаций этих пар очень много. В итоге даже лучшие современные эмбеддеры (GritLM, Qwen3, Gemini и др.) показывают на LIMIT катастрофически низкий recall – около 20% (причём даже на маленькой версии датасета с 46 документами, караул!).

Для сравнения, классический BM25 или multi-vector модели вроде ColBERT выбивают почти 100%. Фишка в том, что тут мы уже не зажаты одним вектором на документ и запрос. Например, у ColBERT стоится много векторов на документ.

Ну короче, мораль такова: поиск на одном векторе – это удобно и быстро, но у него есть жёсткий фундаментальный предел. Поэтому для серьёзных систем RAG все-таки нужны гибридные подходы: разреженный поиск, multi-vector и прочее. Иначе – потолок 😐

Полный текст: On the Theoretical Limitations of Embedding-Based Retrieval
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍27184🔥48🤯11🗿10🤔6🐳63😁2