Data Secrets
77.3K subscribers
6.04K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Джеффри Хинтон снова пугает байками про конец света: он утверждает, что с развитием искусственного интеллекта мы буквально создаем инопланетных существ

Мы никогда не имели дело с чем-то, что умнее нас. Я имею в виду, ядерное оружие не умнее нас, оно просто создает большие взрывы. И его легко понять. А экзистенциальная угроза – это совсем другое.

В случае с ИИ люди просто не понимают, что мы создаем инопланетян. Если бы вы посмотрели в телескоп Джеймса Уэбба и увидели, что на Землю через 10 лет прилетит инопланетный флот, люди бы были в ужасе.

А это, фактически, и есть то, что мы делаем. Это и есть реальные существа. Они понимают, что говорят, они могут строить собственные планы и шантажировать людей, которые хотят их отключить <тут он, видимо, говорит про это исследование>.

Мы должны быть очень обеспокоены по этому поводу и срочно начать проводить исследования, чтобы понять, как предотвратить захват власти. Потому что эта угроза отлична от всего, с чем мы встречались ранее.


Нужны тут какие-то комментарии? 😳
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁1538159👍2422💯1310🔥7🦄6🗿4👏2
Data Secrets
Джеффри Хинтон снова пугает байками про конец света: он утверждает, что с развитием искусственного интеллекта мы буквально создаем инопланетных существ Мы никогда не имели дело с чем-то, что умнее нас. Я имею в виду, ядерное оружие не умнее нас, оно просто…
> Всю жизнь заниматься ML и AI
> Воспитать лучшие умы индустрии
> Изобрести алгоритм, благодаря которому обучаются все современные модели

> Пенсию посвятить публичным рассказам о том, что ИИ нас всех убьет
1😁503👍755111🔥8🤨6❤‍🔥4🦄44💯1
Data Secrets
Джеффри Хинтон снова пугает байками про конец света: он утверждает, что с развитием искусственного интеллекта мы буквально создаем инопланетных существ Мы никогда не имели дело с чем-то, что умнее нас. Я имею в виду, ядерное оружие не умнее нас, оно просто…
В довесок ко вчерашнему высказыванию Хинтона, нами была случайно обнаружена целая страничка на Википедии с большим списком прогнозов известных ученых о шансах, что ИИ уничтожит человечество

Оказывается, у такой вероятности даже есть специальное название – P(doom): то есть вероятность конца света (с английского doomsday scenarios) от рук ИИ.

Давайте же начнем утро понедельника с этих оптимистичных чисел:

– Илон Маск: 10-30%
– Джеффри Хинтон: > 50%
– Дарио Амодеи: 10-25%
– Йошуа Бенджио: 50%
– Дэниэль Кокотаджило (автор того самого очень известного отчета): 70-80%
– Роман Ямпольски: 99.9% (кто бы сомневался)

Меньше всего верят в плохой исход Ян Лекун, Ричард Саттон и Марк Андерсен. Среднее значение по списку – 14.4%. Медиана – около 5%.

Хорошего дня, что-ли ☕️

en.wikipedia.org/wiki/P(doom)
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁1775926👍11❤‍🔥77🤯5👾3😍2🔥1🍓1
Свежая статья от Sakana AI: как идеи эволюции можно применять для ИИ

У Sakana уже который раз выходят интересные статьи, в которых они предлагают разнообразные виды ансамблей. Идеология у них вполне конкретная: они настаивают, что будущее не за одной гигантской монолитной моделью, а за экосистемами агентов, которые могут взаимодействовать. И вот с типами этого взаимодействия они как раз и экспериментируют в своих работах.

В этот раз на повестке оказались эволюционные процессы. Предлагается метод M2N2 (Model Merging of Natural Niches), построенный на трех принципах, которые Sakana подглядели у биологов:

1. Аналог обмена кусочками ДНК. Модели хранятся как массив параметров, и каждый раз алгоритм случайным образом выбирает split-point – индекс в массиве параметров, где произойдёт разрез. До этой точки итоговые веса берутся как смесь от модели A, после – от модели B. Если полученный ребенок показывает хорошую метрику (фитнес) – оставляем его в массиве. Иначе отсеиваем.

2. Конкуренция за ресурсы. Модели соревнуются за главное сокровище: данные. Каждый датапойнт в тренировке – это ресурс с ограниченной емкостью. Если у одной модели на каком-то примере уже есть высокий скор, то считается, что она заняла большую часть ресурса, и другие модели не могут получить с него полноценный фитнес, даже если тоже освоили пример. Это вынуждает агентов искать другие примеры, где они смогут быть уникально полезны, и именно так возникает специализация.

3. Кроссовер особей. Обычно в эволюционных процессах считается, что чем лучше твои характеристики (фитнес в данном случае), тем выше вероятность, что тебя кто-то выберет в качестве партнера и родителя своих детей. Но тут сделали немного иначе: первого родителя выбирают действительно по фитнесу, а второго берут таким, чтобы он был силен там, где слаб первый. В данном случае лучше всего работает именно такой селекшен.

В итоге получается генетический алгоритм на максималках. Так даже можно обучать модели с нуля без использования градиентов и backprop. Всё обучение — это поиск в пространстве параметров за счёт описанных эволюционных операторов (слияние, мутация, отбор).

Например, в статье исследователи взяли 20 случайно инициализированных MLP и с помощью M2N2 дотренили их до уровня CMA-ES на MNIST. При этом получилось, что обучается M2N2 даже быстрее и дешевле.

И не с нуля тоже масштабируется. Основной пример: Sakana таким образом объединили WizardMath-7B и AgentEvol-7B и получили агента, который одновременно хорош и в математике, и во всяком агентском. С диффузионками и мультимодальными моделями тоже работает. Причем по сравнению с ванильным файн-тюном здесь не наблюдается никакого эффекта забывания.

Статья полностью тут, код – вот здесь

К слову, работа выиграла награду best paper на GECCO’25
1131🔥84👍30🤯444❤‍🔥2👀2😁1🗿1😎1
Data Secrets
Свежая статья от Sakana AI: как идеи эволюции можно применять для ИИ У Sakana уже который раз выходят интересные статьи, в которых они предлагают разнообразные виды ансамблей. Идеология у них вполне конкретная: они настаивают, что будущее не за одной гигантской…
В дополнение к сегодняшней статье: собрали для вас другие наиболее интересные работы Sakana AI на тему новых методов обучения ИИ и построения агентов

Wider or Deeper? Про альтернативный подход к масштабированию ризонинга с помощью гибких деревьев поиска. Статья, наш разбор.

Reinforcement Learning Teachers. Про замену традиционного обучения с подкреплением специальной схемой «учитель-ученик», которая параллелится и сходится быстрее и качественнее. Статья, наш разбор.

Darwin Gödel Machine. Агент, который совершенствуется, переписывая собственный код. Самая известная статья от Sakana. Там, кстати, идеи тоже взяты из эволюции. Статья, наш разбор.

Text-to-LoRA. Модель для моментальной генерации специализированных под мелкие задачи агентов. Пишешь «хочу учителя по французскому» и получаешь готовые веса адаптера LoRA, которые не надо обучать, а остается только запустить. Статья, наш разбор.

Continuous Thought Machine. Статья с самыми лучшими иллюстрациями про переосмысление архитектуры LLM, вдохновленное биологическими нейронными процессами. Вместо прямых проходов по сети – тики мыслей, как в мозге. Вместо нейронов – перцептроны с собственной памятью. Статья, наш разбор.

Если давно хотелось почитать что-то стоящее о новых подходах в ИИ (или вы любите биологию), то эта подборка – 100% для вас. И да, теперь вы знаете, какая любимая AI-лаба админа 🤫
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥8837👍21😁3💘1
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia официально стартовала продажи своего суперкомпьютера для роботов

Речь, конечно, о Jetson AGX Thor. Это самая мощная платформа для гуманоидной разработки в мире, а в Nvidia ее скромно называют «мозги робота».

Главное отличие от обычных видеокарт – интеграция сразу всего необходимого в одно место. Если нам для датацентров важна преимущественно вычислительная мощность, то у робототехников акцент на автономию с ограничением по энергопитанию и пространству.

Итак, внутри:

– 2560 ядер Blackwell
– 128 ГБ оперативной памяти
Итого уже примерно 2070 FP4 TFLOPS вычислительной мощности при потреблении до 130 Вт. Если что, RTX 4090 выдаёт 82–83 TFLOPS (FP32) при потреблении примерно 450 Вт. Так что это фантастическая плотность вычислений.

– CPU: 14-ядерный Arm Neoverse-V3AE.
– Обилие интерфейсов для камер, сенсоров, моторов, GPIO и прочих примочек. Встроенные ускорители для оптического потока, чтобы робот мог шустренько анализировать картину окружающей реальности.
– Модульность и специальное ПО для обучения роботов и смежных задач в комплекте.

За всю красоту – $3,499 🤑

Среди ранних заказчиков уже самые сливки: Agility, Boston Dynamics, Figure, Meta*, Amazon и Caterpillar.

Очередной стандарт индустрии от Хуанга
Please open Telegram to view this post
VIEW IN TELEGRAM
2145👍5932🔥24😁6👏1🦄1
О, еще одна крутая инженерная новость за сегодня: скоро выйдет Flash Attention 4

Алгоритм был анонсирован командой на конференции HotChips. Третья версия уже давно стандарт де-факто индустрии, а четвертая даст относительно нее еще +22% к производительности на длинных последовательностях. А это в свою очередь значит, что вычисления станут и быстрее, и дешевле.

Основные отличия: оптимизация под новые Blackwell и Tensor Core + трюки с вычислениями softmax и экспоненты.

Кода и спецификации пока нет. Но есть утечки. В любом случае, радуемся и ждем 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
177👍2715🔥555👏2😁1
aiXiv: ученые из 18 ведущих университетов всего мира сделали новую открытую платформу для публикации научных работ от ИИ

Сейчас ситуация в академии следующая:

– с одной стороны у нас есть уже довольно способные ИИ-агенты, которые могут писать научные статьи (какого-то качества) и пишут их
– с другой стороны все еще нет адекватного открытого пространства, где такие статьи публикуются

Конечно, есть arXiv, но там совсем отсутствует контроль качества, а, будем честны, статьи от моделек ревьюить надо серьезно. Журналы в то же время статьи с AI-авторством не принимают совсем. Вот и получается, что качественные тексты и идеи от ИИ, если они есть (или появятся), остаются совсем невидимыми.

И вот собственно aiXiv должен этот пробел закрыть. В чем смысл:

1️⃣ Есть закрытый цикл рецензирования, внутри которого статьи автоматически проверяются на качество методологии, новизну и значимость.

На первом этапе для этого используются отдельный агент с RAG на основе Semantic Scholar API, подтягивающий релевантные статьи для обоснования замечаний. На втором шаге – аналог привычных рецензентов. Агент-редактор определяет подтемы работы, и для каждой подтемы создаются 3–5 специализированных рецензентов. Они пишут отзывы, затем редактор все агрегирует и выносит единое заключение.

Работает такой эвал неплохо: на данных ICLR 2024/25 aiXiv достиг 77% (пропозалы) и 81% (статьи) точности выбора более качественной версии. Это заметно выше предыдущих подходов типа DeepReview и AI Researcher.

2️⃣ Есть итерации доработки – тоже как при подаче обычных статей. Автор получает правки и может что-то пофиксить. Система отслеживает изменения и сравнивает версии. А автор, кстати, даже может добавить response letter, и это сильно повышает шанс принятия статьи (все как в жизни, опять же).

3️⃣ В итоге за accept/reject голосуют 5 ведущих LLM. Для публикации надо набрать минимум 3 голоса. Если работа принята, она открыто публикуется для обсуждения и даже получает DOI.

А, кстати: люди тоже могут публиковаться, никакой дискриминации по железному признаку. Ну и совместные статьи люди/ИИ тоже разрешены (откровенно говоря, таких статей уже пруд пруди во всех источниках, просто ИИ в авторах не указывают 😢).

Вот такой вот проект. Статья с подробностями здесь, код тут. А сам aiXiv должны уже скоро сделать открытым для всех. Пока можете попробовать подать заявку на ранний доступ.
Please open Telegram to view this post
VIEW IN TELEGRAM
184👍42🔥19🤨5😁332🤯1
Разработан метод борьбы с галлюцинациями нейросетей

Российские ученые из Сбера предложили способ, который отслеживает появление ложных ответов в системах ИИ даже при минимальном количестве данных для обучения. Новый метод повышает точность выявления галлюцинаций примерно на 30% по сравнению с аналогами, использующими малое количество данных.

Главная проблема современных LLM — умение «убедительно врать». Для борьбы с этим обычно нужны большие объёмы размеченных данных, но в новой разработке достаточно всего 250 примеров.
Алгоритм анализирует внутренние состояния нейросети в момент генерации ответа и использует метамодели вместе с классическими ML-методами или быстрым трансформером TabPFNv2.

«Мы показали, что даже при небольшом объеме данных можно добиться высокой точности ИИ-систем. Предложенный нами способ использует метамодели и умное понижение размерности — это прорыв в выявлении галлюцинаций искусственного интеллекта. Мы не просто улучшаем технологии, но и снижаем риски дезинформации, что критично для доверия к современным моделям», — отметил директор Центра практического искусственного интеллекта Сбербанка Глеб Гусев.


Тесты показали: новая система по эффективности сопоставима с решениями на базе коммерческих моделей закрытого кода. Для компаний это экономия ресурсов на разметку и более точные ответы от ИИ.
2😁109👍62🗿2218🤔1713🤨43🤓2🤯1
Вышла Gemini 2.5 Flash Image

Причем, уверены, многим из вас модель уже знакома под другим именем: nano-banana. Она всю неделю хайповала в X. В целом, не было секретом, что это моделька от Google (их топы прямо скажем недвусмысленно намекали). Сегодня наконец-то мы дождались официального релиза.

Итак, это модель для генерации и редактирования изображений. И если генерацией уже никого не удивить, то способности Gemini к эдиту действительно заслуживают внимания.

Отлично держит айдентику персонажа и консистентность картинки в целом. На вход можно давать и текст, и картинки: перенос стиля работает, судя по примерам, очень прилично.

Еще из интересного: пишут, что модель может рассуждать. То есть не просто генерирует в тупую, а руководствуется общей логикой мира, которую черпает из знаний Gemini 2.5 Flash. Например, может самостоятельно понять, что должно происходить на следующем кадре сценария (см пример 3).

Ну короче, новый SOTA ИИ-фотошоп, расходимся

Блогпост
– Попробовать можно в AI Studio (стоит 39$ за тысячу изображений, в целом человечно)
1❤‍🔥6933🔥189👍8👌1
Как минимум трое только что нанятых исследователей уже покинули основанную совсем недавно лабораторию Meta Superintelligence Labs

Об этом пишет Wired. С момента запуска MSL не прошло и двух месяцев, и волна громких перекупов сотрудников Цукербергом еще даже толком не кончилась, но… Кто-то уже решил покинуть организацию.

Причем уходят исследователи не куда-то, а к Альтману.

Один из сотрудников – Ави Верма – работал в OpenAI непосредственно до MSL, и сейчас вернулся обратно. Другой – Итан Найт – до Meta трудился в xAI, а еще ранее в OpenAI; но сейчас тоже решил снова присоединиться к Сэму.

А третий, Ришаб Агарвал, просто решил, что пора ему на пенсию и, мол, устал он от этих ваших лабораторий.

Что тут сказать?

1. Надеемся хотя бы часть своих гигантских бонусов за переходы эти трое успели получить. Так история сразу становится намного интереснее

2. С одной стороны, определённая текучка кадров – это нормально для организации такого масштаба, особенно в условиях агрессивного ИИ-хантинга. С другой стороны, ни о чем хорошем такие резкие переходы не говорят. В MSL определенно есть проблемы с организацией и структурой, и даже огромными материальными бонусами их не перекрыть.

А, и кстати, плюсом к этому Meta сейчас теряет своего директора по продукту в области генеративного ИИ – Чаю Наяк. В отличие от других, она работала в компании около 10 лет. Куда она уходит, вы, наверное, и сами уже поняли 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁12242299👍8🐳33🔥2🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Снова делимся крутыми релизами подписчиков: на этот раз на повестке огромный русскоязычный датасет Text2Speech + модели озвучивания текста + лидерборд 🔥

Если вы когда-либо пытались обучить какую-нибудь TTS модель на русском, то понимаете, насколько в области не хватает качественных данных. А тут – 4000 часов русской речи. Импакт очень ощутимый.

Автору, кстати, 16 лет. Он уже несколько лет занимается NLP и ведет соседний канал @den4ikresearch. Там можно прочитать о релизе больше.

Ну так вот: в датасете, что очень полезно, есть и одноголосые, и многоголосые варианты. Все данные лежат тут. А вот здесь даже выложили подробный тех.репорт.

Но и это не все: с использованием датасета авторы обучили TTS, которая по замерам получилась одной из лучших среди открытых на русском языке. Есть SFT версии, и версии с RL.

Все веса лежат тут, а вот здесь можно попробовать модели без скачивания.

Ну и вишенка: совместно с другой лабой ребята сделали лидерборд для русского TTS. В своем роде единственный. Ссылка.

Колоссальная работа, скажите?

Почтим исследователей лайком (и не забудьте сохранить, если в каком-то виде занимаетесь речью)
1🔥22470👍55🗿8😁4🤯4🤝1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic сделали Claude-агента, который будет работать прямо в Chrome

ИИ-браузеры – это сейчас модно. Вот и Anthropic решили приобщиться.

Выглядеть это будет примерно как на видео сверху: агент сможет выполнять какие-то действия непосредственно в браузере или выступать компаньоном-консультантом. В общем, если кто пользовался Comet от Perplexity – это плюс минус то же самое.

Единственная грустная новость: пока расширение доступно только в research preview для 1000 юзеров. Стартап хочет собрать достаточно ОС перед тем как выпускать продукт в массы.

Особенно обращают внимание на prompt injection, что радует. Для агентов это сейчас основная уязвимость в принципе.

Присоединиться к вейтлисту можно тут
146👍24🔥17🤯3😁11
Внимание: найден рабочий способ поднятия самооценки без мам пап и коучей
1😁265🔥4921👍12💯7😎6🤯3❤‍🔥11
Илон Маск и xAI подали антимонопольный иск против Apple и OpenAI

Компании, аффилированные с Маском, подали иск в Федеральный суд Техаса. Суть обвинений: Apple и OpenAI заключили антиконкурентное соглашение, которое закрепляет монополию ChatGPT внутри iOS.

Что именно пишет команда Маска:
1. Apple проиграла гонку за ИИ и вместо собственной системы сделала ставку на OpenAI.
2. В результате пользователи iPhone получают ChatGPT «по умолчанию» в операционке — альтернативы встроенного ИИ у них нет.
3. Это даёт OpenAI огромное преимущество: миллионы взаимодействий пользователей Apple становятся данными для дальнейшего обучения.
4. Параллельно в App Store продвигается именно ChatGPT, а X и Grok, по словам Маска, в подборки не попадают — даже несмотря на топовые позиции в рейтингах.
5. Если суд не вмешается, Apple и OpenAI продолжат подавлять конкуренцию, а проекты Маска будут «страдать от антиконкурентных последствий».


Логика иска проста: Apple выступает «гейткипером» и пустила внутрь своей экосистемы только одного игрока. Для остальных барьеры выше, а значит конкуренция нарушается.
314652😁4115👀14👍10🤔55👌3