Data Secrets
77.3K subscribers
6.04K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Ух ты: сегодня на первом месте в топе paper of the day на Hugging Face статья от Sber AI и AIRI

Она посвящена новой и первой опенсорсной (!) модели переноса головы с картинки на картинку GHOST 2.0.

Задача похожа на face swap, но немного сложнее: тут нужно адаптировать голову под всю сцену, следить за цветом кожи, контрастом и другими характеристиками. В то же время, решения получаются практичнее. Например, в отличие от face swap, ничего не ломается, если форма лиц source (откуда переносим) и target (куда переносим) разная.

Архитектура GHOST 2.0 похожа на единственное существовавшее до этого момента решение – модель HeSer (Head Swapper), из которой позаимствовали идею двух основных модулей.

1. Aligner – модуль, реконструирующий голову для вставки в таргет. В основе подобие StyleGAN, входной эмбеддинг для которого генерируют три энкодера. Первые два считывают лицо, прическу и другие детали с source изображения. Последний – позу и выражение лица с target изображения, и меняли относительно HeSer именно его.

В старом решении один из энкондеров был избыточен, обучался с ликами и сильно все портил. Пришлось корректировать и архитектуру, и лосс, и датасет, и процесс трейна. На этом этапе уже виден огромный прогресс по сравнению с HeSer (см. картинку 1).

2. Blender – вставка головы в target фон. В оригинале здесь работала связка извлечения цветного референса для раскраски + сама зашивающая в таргет все маски и изображения модель UNet. Однако оказалось, что генератор цвета провоцирует появления серых областей, а из-за UNet вокруг головы образуется белое пространство.

Поэтому в архитектуре заменили принцип работы и того, и другого. Color Creator теперь сам заполняет все серые области на основе общих оттенков изображения, а в UNet добавили механизм экстраполяции маски, который как бы накладывает фон еще раз поверх вставки головы. При этом, чтобы вырезанных областей от маски не оставалось, картинки еще и постобрабатывали с помощью Kandinsky 2.2. Он с помощью простого запроса качественно закрашивал серость без необходимости файнтюнинга.

Результат – на лицо голову. Метрики подросли, да и на глаз качество результатов сильно приятнее предыдущих алгоритмов.

🔥 Страница проекта | Хабр | Статья | Демо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍97🔥4516😁8🤯6🤓4🗿4🍌3🌭1
Новое видео от Андрея Карпаты: «Как я использую LLM»

Это большой гайд по тому, как подобрать оптимальный инструмент для ваших задач и при этом сэкономить время и деньги. В программе:

– Как работают экосистемы LLM
– ChatGPT под капотом
– Ценообразование: как не переплачивать
– Ризонеры: когда и как их использовать
– Поиск в интернете, deep research, tool use
– Что такое advanced voice mode
– Claude и его артефакты
– Cursor
– NotebookLM
– Генераторы видео и картинок
– Память в ChatGPT
– И даже кастомные GPTs


Все таймкоды на видео помечены, общая продолжительность 2 часа. То что нужно на выходные

youtu.be/EWvNQjAaOHw
1👍14637🔥21😐3🌭1🍌1
Маржинальность DeepSeek составляет 545%. Или нет?

Сегодня внезапно случился шестой, незапланированный, день опенсорса от DeepSeek. Они рассказали о том, как устроен онлайн-инференс моделей DeepSeek-V3/R1 и о том, сколько они зарабатывают на наценке.

Итак, инференс делится на два этапа: Prefilling и Decoding. То есть сначала модель разбивает запрос на токены и формирует эмбеддинги, а затем генерируют выходные токены один за одним. При этом Prefilling легко распараллелить между кучей GPU и проблем тут нет.

А вот с декодингом все сложнее. Тут возникают задержки из-за обмена данными между процессорами и экспертами MoE. Сюда то как раз и встаивают систему DualPipe, о которой мы подробно рассказывали в четвертый день опенсорса DeepSeek. Благодаря ней этапы передачи данных перекрываются вычислениями.

Интересно так же то, что на каждом слое модели при этом доступны аж по 256 экспертов, хотя для одного запроса активируются всего 8. Зачем? Все просто: если один эксперт оказывается перегружен или занят, токены могут быть направлены к другому, что обеспечивает балансировку нагрузки. Плюсом отказоустойчивость и оптимизация вычислений в разных конфигурациях.

А теперь немного экономики.

Сервис работает на H800. За 24 часа пиковая занятость достигала 278 узлов, а средняя – 226.75 узлов. При условии, что каждый узел содержит 8 GPU, ежедневные затраты составляют примерно $87,072.

Всего за сутки обработано 608 миллиардов входных токенов, из которых 56.3% (342 млрд) – это попадания в on-disk KV cache. Сгенерировано 168 миллиардов выходных токенов (средняя скорость генерации – 20–22 токена в секунду)

При стандартном ценообразовании R1, входящие токены оцениваются в $0.14 в кэше или в $0.55 без кэша, а аутпут токены – $2.19 за миллион. То есть общая выручка составляет $562,027, что приводит к маржинальности 545%.

Но это число, конечно, завышено. Во-первых, у DeepSeek-V3 более низкие цены. Во-вторых, в веб-версии все работает бесплатно. В-третьих, даже на API есть ночные скидки.

И тем не менее, с такими оптимизациями и скоростью система остается очень даже экономически эффективной. Очень интересный шеринг от DeepSeek, в общем, таким очень редко кто делится

https://github.com/deepseek-ai/open-infra-index/blob/main/202502OpenSourceWeek/day_6_one_more_thing_deepseekV3R1_inference_system_overview.md
Please open Telegram to view this post
VIEW IN TELEGRAM
1117👍74🔥26😁3💯2😎2
Парень создал тулзу для прохождения собеседований, прошел с помощью нее в Amazon, а теперь его могут отчислить из университета

Разработчика зовут Чунгин Ли. Сейчас он учится в Колумбийском университете и работает над ИИ-приложением InterviewCoder для прохождения технических интервью. Ежемесячный доход стартапа уже составляет 30 тысяч долларов, а он запустился всего месяц назад.

Так вот около недели назад Чунгин решил испытать свое детище в поле, пошел вместе с InterviewCoder проходить собеседование в Amazon и в итоге «с блеском» получил офер.

Об успехе приложения он радостно рассказал в твиттере, опубликовал на ютубе запись собеса и получил кучу просмотров и пользователей (кстати, работать в Amazon он на самом деле не собирался).

В Amazon тоже увидели твиты парня и, когда поняли, что их «обманули», видимо сильно обиделись. Они написали гневное письмо ему, а затем и в его университет с просьбой «принять меры» в отношении и студента, и приложения, которое он продает. Теперь Чунгина могут отчислить.

Сам он, кстати, прокомментировал письмо так: «Лол, не задавайте тупых вопросов на собеседованиях, и люди не будут пользоваться такими штуками»

Парня жалко, конечно, но если это не лучшая реклама, то что? www.interviewcoder.co/
😁312🔥83👍49💯21🫡129🐳3🌚31🌭1
Вышла интересная статья, в которой показали эффективный способ расширения контекстного окна

Продолжается борьба между сторонниками RAG и модельного подхода, в котором контекстное окно пытаются расширить только за счет архитектурных хаков, а не за счет пост-оберток. На эту тему выходит все больше статей. Самая яркая из последних – Infinite Retrieval из Китая.

В этой работе впервые показали способ расширения контекста, который выбивает 100% на бенчмарке «Иголка в стоге сена». Это когда мы вставляем целевое предложение («иглу») в корпус случайных документов («стог сена») и задаем вопрос, на который можно ответить, только используя информацию в «игле».

Раньше некоторые подходы тоже выбивали 100%, НО только на исходном размере контекстного окна модели. А тут взяли малюсенький Qwen2.5-0.5B-Instruct с контекстом 32К, расширили контекст до 1 миллиона (!) и получили результат 100%. Очень круто. Разбираемся, что под капотом 👇

В целом, все построено на привычном подходе кэширования ключей и значений для критически важной информации. Но есть два ключевых отличия:

1. Текст предварительно разбивается на логически завершённые сегменты. Так, чтобы в кэше оставались не отдельные токены, а самые важные законченные мысли

2. Определение значимости сегментов встраивается не поверх, а прямо последним слоем в модель. То есть релевантная информация извлекается прямо во время инференса


Чем-то похоже на недавнюю статью DeepSeek (наш разбор). Очень ждем, пока что-то такое наконец будет в опенсорс продакшене.

arxiv.org/abs/2502.12962
🔥93👍4216🤯5💘1
GPT-4.5 нужна в основном для следующей thinking модели

По итогу нескольких дней тестирования можно сказать, что новая GPT-4.5, пожалуй, самая неоднозначная модель OpenAI на сегодняшний день. Она много чего знает, но плоха в точных задачах по сравнению с ризонерами, а еще чрезвычайно дорого стоит. Если в чате с ней поговорить прикольно, то в API сценариев, при которых ее стоило бы использовать, почти нет.

Единственная надежда: GPT-4.5 пригодится OpenAI для следующего поколения ризонеров. Также, как V3 послужила базой для R1 и, предположительно, 4o — для o1, GPT-4.5 может стать отправной точкой для o3/o4/GPT-5. И если скачок будет такой же, как у o1 относительно 4o, то эта модель насытит очень многие сложные бенчмарки.

Но есть нюанс: цена. Цены на o1 больше цен на 4o в 6 раз. А GPT-4.5 уже сама по себе конски дорогая, куда уж еще больше? Даже если получится немного снизить цены, как это вышло с o3-mini (она в два раза дешевле 4o), все равно в сухом остатке мы получаем довольно недоступный ИИ.

Будем надеяться, у OpenAI есть туз в рукаве
🔥79👍29😁1310👨‍💻31🤔1
Что почитать и посмотреть про обучение LLM и ризонинг? Подборка топ-7 ресурсов от нашей редакции, после которых вы точно лучше поймете, как работают и учатся современные модели 🤓

1. Несомненно, трехчасовое видео Андрея Карпаты "Погружение в LLM". Вся теория по основным этапам обучения, архитектуре, файнтюнингу, ризонингу и обучению с подкреплением верхнеуровнего и доступно. Идеально для первого знакомства с теорией по LLM.

2. Видео про трансформеры от 3Blue1Brown. Немного подробнее про внутреннее устройство LLM. Необходимо хотя бы идейно понять архитектуру, чтобы потом разбираться с новейшими техниками, и этот максимально наглядный гайд подойдет идеально. В видео есть русский дубляж.

3. Для тех, кому хочется практики, отличный бесплатный курс от Hugging Face. Классные иллюстрации, понятные примеры, все необходимое для того, чтобы вы могли сами запускать модели.

4. Статья про модель DeepSeekMath от DeepSeek. Да, здесь все еще не про ризонинг, зато очень подробно и понятно описан этап сбора данных, претрен, эксперименты и обучение с подкреплением. Этот текст даст вам крепкую базу для понимания того, как обучают модели в индустрии. Вот, кстати, наш большой разбор этой статьи.

5. У истоков ризонинга: статья про CoT от Google Research. Одна из первых и самых влиятельных работ, в которой обстоятельно обсуждается, что такое цепочки мыслей CoT и как они влияют на качество результатов. Много примеров. Историческая и необходимая база.

6. Cтатья про DeepSeek-R1. Да, эти ребята умеют хорошо писать. Подробно, лаконично, с практической точки зрения. Прочитайте это, и будете понимать ризонинг лучше, чем 99.9% пользователей ChatGPT. Наш разбор.

7. Очень содержательное выступление "Learning to Reason with LLMs" от Ноама Брауна – известного ученого из OpenAI, который работает как раз над ризонингом и агентами. Про игры, масштабирование компьюта и то, как индустрия пришла к моделям, основанным на рассуждениях.

Сохраняйте!
Please open Telegram to view this post
VIEW IN TELEGRAM
90👍47🔥34🤯32
Я нифига не понимаю в собственном коде
Я занимаюсь вайб-кодингом
😁251🔥44👍20💯15💅8🤯2🙈1
Data Secrets
Что почитать и посмотреть про обучение LLM и ризонинг? Подборка топ-7 ресурсов от нашей редакции, после которых вы точно лучше поймете, как работают и учатся современные модели 🤓 1. Несомненно, трехчасовое видео Андрея Карпаты "Погружение в LLM". Вся теория…
+1 к сегодняшней подборке ресурсов: HuggingFace только что обновили свой курс по NLP и LLM и добавили туда целую главу про ризонинг. Внутри:

🟦 База по обучению с подкреплением и его роль в LLM
🟦 Подробный разбор самых важных моментов статьи про R1
🟦 Практика: пишем собственный GRPO и сами элайним модель

В конце каждой главы – квиз 👍

Гитхаб | Курс на HF
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥98🤯18👍157
Исследователь Юрген Шмидхубер заявил крестному отцу ИИ Джеффри Хинтону, что его надо лишить всех наград за плагиат

Шмидхубер уже стал мемом в ML-сообществе за свои бесконечные выпады о том, что у него украли какую-то выдающуюся идею, но все не останавливается. Из последних заявлений этой легенды:

– Хопфилд и Хинтон получили Нобелевскую премию незаслуженно, потому что украли идею из статьи шестидесятых годов

– Все, что сделали DeepSeek с R1, взято из статей Шмидхубера

– GAN – тоже его идея, а авторы основополагающей статьи про эту архитектуру наглые копирайтеры

– Ну и добивочка: трансформеры, естественно, придумал он, а не ребята из Google

Хинтон, кстати, заявление даже никак не прокомментировал.

Бесконечно можно смотреть на три вещи: как горит огонь, как течет вода, и как все воруют у Шмидхубера
😎91😁72🗿127👍6🤔5🦄54
Media is too big
VIEW IN TELEGRAM
⚡️ В Google Colab завезли Data Science агента!

Он создан специально для работы с DS/ML и может создавать не просто фрагменты кода, а целые ноутбуки. Все просто:

1. Нужно подгрузить свои данные

2. Описать цели (например, «визуализируй», «проведи EDA», «напиши и оптимизируй модель предсказания таргета»)

3. Сидеть и наслаждаться тем, как агент сам пишет и запускает ячейки, импортирует нужные библиотеки и совершенствует свой код

Кстати, на бенчмарке DABStep (он как раз оценивает способности анализировать дату) агент занял четвертое место, сразу после o1, o3-mini и Claude, а это довольно мощный уровень.

Доступно для всех юзеров
Please open Telegram to view this post
VIEW IN TELEGRAM
👍154🔥5827😎7
Стали известны некоторые имена сотрудников компании Ильи Суцкевера

SSI была основала еще летом, но до сих пор дистанцируется от СМИ и остается скрытой. Это значит, что ее сотрудники не указывают в соцсетях место работы, и составы команд не афишируются.

Тем не менее, некоторые сведения иногда проскальзывают. Вот некоторые имена:

🔷 Доктор Яир Кармон, старший преподаватель факультета компьютерных наук Тель-Авивского университета с 2020 года. У него три ученых степени по физике, включая докторскую Стэнфорда. Он занимается алгоритмами и оптимизацией.

🔷 Ницан Тор, выпускник Technion и золотой призер трех международных математических олимпиад.

🔷 Шахар Папини, еще один выпускник Technion, олимпиадник и сооснователь блокчейн-компании.

А еще известный Ярон Бродский и около 10 других инженеров и ученых из Google Research (которых Ярон видимо привел). Интересный состав.

Занятно, что SSI вообще не публикуют вакансии, а об эйчарах и речи не идет. Всех нанимают только по личным рекомендациям и сарафанному радио. Кроме того, говорят, в компании нет иерархической структуры, тимлидов и деления на команды: все равны и работают над одним проектом.

К слову, сейчас SSI оценивается уже в 30 миллиардов. Это всего в 5 раз меньше OpenAI и в 2.5 раза меньше xAI.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍92🔥30🤔2615😁11🤯4
Тот самый фронтендер из вашей команды на ML-хакатоне
😁301🔥44👍236🤯4
MIT перезапустили свой легендарный курс 6.S191: Introduction to Deep Learning

NLP, CV, LLM, приложения в медицине: тут все end-to-end, включая теорию и практику с актуальными версиями библиотек.

Подходит курс даже для тех, кто вкатывается с нуля: достаточно уметь брать производные и умножать матрицы, остальное обещают объяснить на ходу.

Лекции будут выходить в свободный доступ на YouTube по понедельникам, первая вышла вчера. Слайды, код и доп.материалы лежат здесь.

Такое не пропускаем
🔥191👍4024😍7😁1