Data Secrets
77.3K subscribers
6.03K photos
590 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Как нейросети сэкономили врачам месяцы на подготовке к запускам клинических исследований

Вышла новость о том, что НМИЦ онкологии им. Н. Н. Петрова внедрил решение на базе YandexGPT 5 Pro для обработки документов клинических исследований. Рассказываем, почему это важно и как работает.

Все новые лекарства и методы лечения обязаны пройти этап клинического исследования — это когда они проверяются на людях. Но чтобы начать такое исследование, нужно подать 300–800 страниц протоколов, инструкций, таблиц и обоснований, оформленных по строгим этическим и юридическим нормам.

Обычно проверка такой кипы бумаг занимает недели, а согласование — месяцы. С решением на базе YandexGPT первичный чекинг (внимание!) теперь требует всего несколько минут, а полный цикл согласования сокращается до 5-10 дней.

И это только оценка снизу. До этого примерно 35% заявок могли зависать на годы из-за ошибок в документах. А теперь модель автоматически находит неточности, предлагает улучшения и ускоряет все проверки.

В итоге врачи экономят месяцы работы, а пациенты намного раньше получают доступ к лечению. В ближайшее время решение планируется масштабировать на другие исследовательские учреждения, включая онкоцентры стран BRICS.

Решение совместно разработали специалисты из Yandex Cloud, компании Raft и НМИЦ. Вот как все работает: Хабр
14591🔥59👍3210😁75🫡22
The Darwin Gödel Machine: агент от Sakana AI, который совершенствуется, переписывая собственный код

Очень интересная статья вышла у уже известной нам по нескольким громким рисерчам лаборатории Sakana AI. Они показали DGM – первую систему, которая может улучшать саму себя по принципу биологической эволюции. Идея вот в чем:

🟦 В начале есть один агент, способный читать, писать и исполнять код. У него есть доступ к своему коду.
🟦 Агент пробует улучшить себя – меняет свой код и создает новую версию себя, то есть ребёнка.
🟦 Эту новую версию тестируют на задачах типа SWE-bench. Если она работает и тоже умеет понимать, читать и менять код – то ее добавляют в архив.
🟦 А дальше все начинается с начала: на следующем шаге выбирают одного из агентов из архива (не обязательно последнего), и цикл повторяется.

Получается своеобразный генетический алгоритм с саморефлексивностью, и это работает. По сравнению с исходной моделью точность лучшего найденного агента на SWE-bench в экспериментах вырастала с 20% до 50%. На Polyglot – с 14.2% до 30.7%.

Улучшения, которые DGM придумывала, оказались неожиданно разумными: добавление построчного чтения файлов, более точное редактирование строк, учёт истории предыдущих попыток. И всё это – без участия человека.

Конечно, были и нюансы: в статье исследователи прямо пишут, что замечали попытки саботажа и подделки результатов (аля print("Accuracy: 100%")). Пока это легко отловить, но важность валидации очевидна.

Проект опенсорсный, код доступен тут
Статью полностью читаем здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1885028👍12😁5🤯32
MATLAB уже 12 дней лежит из-за хакерской атаки: пострадали 5 миллионов пользователей

На MATLAB до сих пор завязано большинство экспериментальных и инженерных отделов крупных организаций. За эти дни в матлаб уже посыпались жалобы от университетов, автомобильных и даже аэрокосмических компаний. По всему миру пострадали около 5 миллионов пользователей, ущерб страшно даже представить.

Сейчас удалось восстановить почти 85% основных функций, но некоторые все еще работают в ограниченном режиме.

Есть предположение, что руководство MathWorks все-таки заплатило хакерам выкуп. Так или иначе, атака еще продолжается, и хакеры не пойманы.

💀
🤯167😁30171610🔥3🕊22
Сбер проведёт главную технологическую конференцию по генеративному ИИ

25 июня в Москве пройдет ежегодная открытая конференция GigaConf. Формат гибридный — присоединиться можно офлайн или онлайн. В прошлом году GigaConf собрала более 2,5 тысяч офлайн-участников.

Из интересного: более 50 экспертов расскажут о трендах в области AI-технологий, а также проведут практический разбор реальных кейсов по внедрению и использованию GenAI в разработке программного обеспечения.

Как отметил старший вице-президент Сбера Андрей Белевцев, компании, которые откладывают внедрение GenAI, рискуют серьёзно отстать от конкурентов.
👍54🔥19🗿15😁8555🤔3🤯1👌1🏆1
Лаба Artificial Analysis поделилась интересным отчетом о состоянии ИИ по итогам Q2 2025

Главное: Китай впервые добился почти полного паритета с США. Посмотрите на график наверху: по оси Х здесь время, а по оси Y – качество моделей (усредненный результат по 7 самым популярным бенчмаркам, включая математику и кодинг).

Раньше китайские модели отставали на целое поколение, а теперь отставание по времени релизов почти исчезло: новые сопоставимые модели выходят в течение недель после релизов OpenAI и Google.

Причем китайский рынок работает активнее за счет количества игроков: DeepSeek, Alibaba, ByteDance, Tencent, Moonshot, Zhipu, Stepfun, Xiaomi, Baichuan, MiniMax, 01 AI и другие сейчас сыпят релизами почти каждую неделю.

Особенно, конечно, выделяется последняя R1-0528, которая встала в один ряд с o3, и при этом все еще остается открытой моделью (кстати, про опенсорс и говорить нечего: тут они на абсолютном первом месте – см. график 2).

🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
193107🔥41👍109🤨553🤓2💯11
Внимание, шутка для олдов

Спасибо за внимание
😁27631👍14🤨85🔥4🤓4🤔2👀1🗿11
Media is too big
VIEW IN TELEGRAM
Робот по цене макбука от HuggingFace

Знакомьтесь: это HopeJR, полноразмерный робот-гуманоид с 66 степенями свободы конечностей всего за 3000 долларов. Его на днях показали робототехники Hugging Face, и совсем скоро он поступит в продажу.

Робот может ходить, двигать руками и выполнять почти любые задачи, которым вы его научите: весь код для него – в опенсорсе.

Кроме этого HF еще показали мини-робота Reachy Mini. Он настольный и может двигать головой, говорить и слушать. Тут уже предназначено не для выполнения задач, а скорее для прототипирования (оживления) LLM. Цена – около 250 долларов, и тоже в опенсорсе.

Выглядит как большой вызов, особенно учитывая, что текущая робо-индустрия полностью живет по модели черного ящика. Опенсорсный подход HF, да еще с такими ценами, здесь, по сути, первый в своем роде.
🔥23364👍31😁132🤯2🤨1
Зацените иллюстрацию к новой статье журнала WSJ про элаймент

Статья называется «ИИ учится сбегать от человеческого контроля» и посвящена свежему исследованию от Palisade AI, о котором мы подробно рассказывали тут.

Если коротко, в этом исследовании впервые был официально зафиксирован случай, когда модель явно нарушила человеческие инструкции в пользу собственных «интересов».

Ну в общем журналисты переполошились и написали что модели «имитируют элаймент на тестах, а затем все равно возвращаются к опасным действиям: врут, пытаются копировать свои веса и саботировать».

Отдает желтой прессой, конечно, но в целом вывод в статье верный: нам нужно больше внимания уделять элайменту. Это ключ к безопасным ассистентам.

А художнику респект
😁13638🔥19👍117🤔1
Media is too big
VIEW IN TELEGRAM
Сэм Альтман: «Грядут страшные времена» 🪦

CEO говорит, что мир должен всеми силами готовиться к огромному влиянию ИИ. Он заявил, что OpenAI выпускает не идеальные модели затем, чтобы люди успели «адаптироваться и привыкнуть».

Источник: свежее интервью
Please open Telegram to view this post
VIEW IN TELEGRAM
5😁5168747🦄11🤯10😎9👾97👀552
Один из нескольких +- надежных инсайдерских аккаунтов в X сообщает, что o3-pro – на носу

Модель, которую все заждались
🔥117😁45272096👀211
Google представили ATLAS – новую архитектуру памяти для LLM

В Google неустанно продолжают работать над увеличением емкости памяти моделей. Не так давно они показывали архитектуру Titan (вот тут наш подробный разбор), а теперь пишут про Atlas – новый подход, в котором память обучается прямо во время инференса.

Немного о проблеме контекста. Обычным трансформерам тяжело масштабироваться на длинные последовательности: с ростом количества токенов потребление памяти увеличивается квадратично, потому что всю информацию приходится хранить одновременно в KV-кэше.

Рекуррентные сетки же от проблем масштабирования не страдают, потому что память у них фиксированного размера. В то же время из-за этой фиксированности они просто-напросто постоянно ничего не помнят.

В Google сделали вот что: они взяли за основу трансформер, но вообще отказались от self-attention и хранения ключей и значений. Вместо этого все вычисления завязаны на обновляемую память (это идея из RNN). То есть:

На входе мы всё ещё получаем токены контекста, для которых рассчитываем запросы, ключи и значения

Но место того, чтобы сохранять каждую пару (k, v) в кэш, мы прямо во время инференса обучаем наш модуль памяти выучивать взаимосвязи между ними. Модуль памяти здесь – это полносвязная MLP, и она обычным градиентным спуском обучается отображать ключи в значения, то есть MLP(k_i) ≈ v_i.

На выходе получается, что у нас нет KV-кэша, но есть нейро-модуль памяти, который на лету выучил все взаимосвязи в текущем контексте.

Работает ли это? Да, лучше чем в трансформерах и Titan. На бечмарке BABILong ATLAS достигает 80%+ точности на длинах до 10 миллионов токенов. Трансформеры на такой длине уже давно окончательно захлебнулись – смотрите график 2. При этом перплексия и точность тоже остаются приличными.

Отличная работа. Прочитать полностью можно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21156🔥4216🤯1093🦄21
This media is not supported in your browser
VIEW IN TELEGRAM
Московское родео в эпоху ИИ

1:0 не в нашу в пользу
1😁305🤯3727👏1297👍5🔥32🕊1🦄1