Data Secrets
77.4K subscribers
6.04K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Тем временем топ аппстора прямо сейчас
🔥195👏37😁20😎6👍43🤯1
Ситуация на сегодняшний день
😁251🔥2312💯7👍6👨‍💻3
Бэнгер-статья дня: Go-with-the-Flow диффузия от Netflix

С помощью диффузии видео генерируется кадр за кадром. Конечно, это происходит не совсем независимо: для согласованности добавляют контекст в виде предыдущих кадров и используют для каждой генерации одинаковый начальный шум.

Но даже так модели страдают от мерцания текстур и неестественных движений объектов (все же видели этот ИИ- балет?).

В Netflix предложили другой подход. Он покажется многим знакомым и интуитивно понятным благодаря Kling: это добавление направления движения. Технически говоря, мы добавляем в исходный шум оптический поток, который перемещает шумовые области в сторону движения объектов.

При этом области, которые после перемещения шума остаются пустыми, заполняются с помощью бипартиграфа (то есть шум как бы перераспределяется). А чтобы сохранять «случайность», то есть гауссовость, на каждом шаге еще примешивается случайный компонент.

В итоге такая модель генерирует гораздо более плавные движения и лучше сохраняет согласованность кадров. Вдвойне круто, что при этом качество в целом не теряется, а производительности требуется совсем капельку больше.

Статья полностью тут
👍63🔥1910🗿3
DeepSeek только что дропнули еще одну опенсорсную модель

Это Janus-Pro – мультимодальная авторегрессионная архитектура, которая умеет унифицированно обрабатывать текст, картинки и аудио. Есть варианты на 7В (веса) и 1В (веса).

Китай, остановись, мы все еще привыкаем к R1 😲
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥268👍39😁2413🤯4❤‍🔥1
Итак, Janus-Pro от DeepSeek. Что это за модель такая?

Вчера, чуть позже, чем веса, стартап выложил тех.репорт про свою новую разработку. Сейчас разберемся, что там интересного.

Итак, Janus-Pro — это улучшенная версия предыдущей модели Janus (про нее мы писали тут). Относительно предшественника в Pro, кроме бОльшего размера и количества данных, появилось одно ключевое улучшение: раздельное кодирование для задач image2text и text2image.

То есть раньше в Янусе использовали единый энкодер для всех задач, и, как оказалось, это вызывало некоторые конфликты. Что, в целом, логично.

Ведь когда мы работаем в режиме мультимодального понимания, то есть image2text, это требует от модели глубокого семантического анализа визуального контента (например, «Какой объект изображён?» или «Что написано на доске?»). А когда ей нужно сгенерировать изображения, от нее требуются совсем другие навыки: понимание пространственных зависимостей, оттенков и соответствия промпту.

Вот и получается, что единый энкодер руинит качество сразу обеих задач. Поэтому в Janus-Pro их два: SigLIP для изображение → текст и VQ Tokenizer для текст → изображение.

Кроме того, для двух этих разных задач далее по пайплайну прикручены еще и два разных адаптера: Understanding Adaptor и Generation Adaptor, которые подбивают выходы энкодеров под формат внутренних слоев модели, то есть авторегрессионного трансформера.

В итоге Janus-Pro генерирует картинки лучше, чем DALL-E 3, SD3 и Emu3, а понимает изображение точнее, чем модели LLaVA! На примерах прогресс очевиден.

Больше метрик и деталей можно найти в полном тексте тех.отчета.

А попробовать погенерировать картинки с помощью модели кстати уже можно на HF, бесплатно
69🔥32👍17🦄7🤯1💯1
ICT.Moscow опубликовали подборку из 80 Open Source решений для ИИ-разработки

Исследователи ИТМО в сентябре 2024 отмечали ключевую роль крупного технологического бизнеса в развитии отечественного Open Source — и эта подборка наглядно это подтверждает.

Большинство решений (74) представлено именно московскими разработчиками, в том числе и командами Яндекса, Сбера и Т-Технологий.

Полную подборку можно скачать в конце статьи 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4513🔥7🗿6😁3🫡3🎃1👾1
Андрей Карпаты похвалил R1 и их бережливость по отношению к бюджетам

DeepSeek это прекрасный пример открытой LLM передового уровня, обученной на смехотворно малом бюджете (2048 GPU на 2 месяца, 6 млн долларов).

Для справки, этот уровень возможностей обычно требует кластеров ближе к 16 тыс. GPU. В основном кластеры компаний с такими разработками имеют около 100 тыс. GPU. Например, Llama 3 405B использовала 30,8 млн GPU-часов, в то время как DeepSeek-V3 выглядит более сильной моделью всего с 2,8 млн GPU-часов (примерно в 11 раз меньше вычислений).


Он говорит, что в основе успеха R1 – "правильное" обучение с подкреплением, то есть не подражание размеченным данным, а именно самообучение и самоисправление.
149😎37🔥20👍6😁3😐3
При этом не все верят, что с вычислениями в DeepSeek все так уж просто

CEO ScaleAI Александр Ванг вот говорит, что на самом деле у компании есть кластер с 50к H100 (неплохо, мягко говоря), но они не могут это разглашать из-за текущих условий экспорта США.

Маск с ним согласился 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔110😁70👍8🤯8🫡31🍌1
Пока единственный, кто теряет работу из-за китайского ИИ, – это ChatGPT
😁34819👍10🔥8👾6🕊1🫡1
Кстати, а вы знали, что в уставе OpenAI явно прописано, что если другая компания будет обгонять их в гонке за AGI, то они бросят конкуренцию и станут помогать этому проекту?

Вот выдержка (опубликовано в 2018 году):

«Мы обеспокоены тем, что разработка AGI на поздней стадии превратится в конкурентную гонку без времени на адекватные меры безопасности. Поэтому, если проект, ориентированный на ценности и безопасность, приблизится к созданию AGI раньше нас, мы обязуемся прекратить конкуренцию и начать помогать этому проекту. Мы проработаем детали в соглашениях для каждого конкретного случая, но типичным условием запуска может быть «больше, чем равные шансы на успех в течение следующих двух лет»


Интересно, а в Stargate это читали? 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
😁319🔥31💅17🤪138👍4🤔3🐳1
Как с помощью ML создали Геокодер, масштабируемый для разных стран

Команда API Яндекс Карт создала Геокодер c использованием deep learning, который определяет точные локации по запросу пользователя. При этом инструмент:

Использует контрастивное обучение, active learning, аугментацию и LLM-генерацию.

Работает даже с опечатками и “народными” запросами на разных языках.

Можно быстро запустить в новой стране за пару недель.

В статье полное описание механизма работы, почитать полностью можно здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥49👍1713🌚2
Китай, остановись: Qwen дропнули еще одну новую модель Qwen2.5-Max

Это судя по всему огромная Mixture-of-Expert модель, которую предобучали на 20 триллионах токенах и дообучали, по классике, с помощью файнтюнинга и RLHF.

На метриках она показывает себя на уровне DeepSeek-v3, GPT-4o и Claude 3.5 Sonnet, кое-где даже лучше. На HumanEval, например, набрано 73 с хвостиком, это очень неплохо.

Модель уже можно бесплатно попробовать на HF и в Qwen чате, а также она уже вышла в API

Напоминаем, что предыдущий релиз Qwen состоялся... вчера. Всем желаем такой продуктивности
🫡84🤯3428🔥10👍5😁21
Тут нейросетка DeepSeek заявляет, что вообще-то она YandexGPT

Причина простая: разрабы минимизировали стоимость обучения, используя буквально все данные из интернета, в том числе и синтетические от YandexGPT😐
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁417🔥76🌚169👀7🫡5🍌2
Альтман с утра радует селфи с Наделлой и пишет, что сотрудничество OpenAI и Microsoft выходит на новый уровень

Шире улыбка == больше GPU
😁213👍21💅17🔥8🍌4😐42🗿2
Media is too big
VIEW IN TELEGRAM
Тем временем вокруг DeepSeek продолжают строить теории заговора

Один из крупнейших ИИ-инвесторов в мире Дэвид О. Сакс на американском телевидении говорит, например, что R1 – это дистилляция из o1, и этому есть доказательства.

В стартапе Альтмана, видимо, позицию разделяют: Bloomberg сообщает, что Microsoft начали расследовать возможную "кражу" данных OpenAI компаниями из группы DeepSeek.

"Должно быть обидно, когда кто-то крадет твою интеллектуальную собственность и делает из этого прибыль" – комментируют в Твиттере статью Bloomberg пользователи. На данный момент на стартап подали уже более 10 групповых исков, связанных с авторскими правами.
😁221🤪59🔥14🤔9👍81🍌1
HuggingFace делятся статистикой: количество скачиваний и лайков на аккаунте DeepSeek растет вертикально и R1 уже вошла в топ-10 самых залайканных моделей в истории платформы

P.S. не будьте как HuggingFace, следите за читаемостью цветовой палитры на ваших графиках
👍152😁88🔥3010🤯2
Ян Лекун: «Реакция рынка на DeepSeek необоснована»

«Большинство заблуждается по поводу инвестиций в AI-инфраструктуру. Большая часть этих миллиардов тратится на инфраструктуру для инференса, а не на обучение.

Запуск AI-ассистентов для миллиардов людей требует огромных вычислительных ресурсов. Если добавить обработку видео, логическое рассуждение, работу с памятью и другие возможности в AI-системы, стоимость их работы будет только расти.

Единственный важный вопрос — будут ли ваши пользователи готовы платить достаточно (напрямую или косвенно), чтобы оправдать капитальные и операционные затраты. »


Переводим: по мнению Лекуна, качество модели не имеет смысла, если у компании нет устойчивой экономики. Другими словами, даже если DeepSeek технологически конкурентоспособен, его способность изменить рынок зависит только от того, сможет ли он эффективно монетизироваться.

Тем временем OpenAI, которые работают в огромный минус уже 10 лет: 😐
Please open Telegram to view this post
VIEW IN TELEGRAM
😁282👍51🤔14🗿105👌3🤯1👻1
Слив данных DeepSeek. Что известно?

Сегодня ночью компания Wiz, которая занимается облачной кибер-безопасностью, объявила у себя в блоге, что обнаружила открытую базу данных DeepSeek, содержащую «чувствительную информацию».

Эта база данных ClickHouse включает в себя более миллиона строк логов, содержащих историю чатов, секретные ключи, детали бэкенда и другую высококонфиденциальную информацию.


Никаких особых навыков белым хакерам не потребовалось: они просто поискали по субдоменам с необычными портами, и нашли хосты, которые привели к БД. Чтобы в нее зайти, также не потребовалось никакой аутентификации, и ресерчеры сразу попали на страницу с доступом к исполнению SQL запросов и добрались до таблиц.

Хакеры предупреждают, что если ИИ будет развиваться такими темпами и дальше, а разработчики не будут уделять нужного внимания безопасности, нас всех ждут еще более ужасные утечки.

DeepSeek ситуацию пока не прокомментировали
🤯190👍30🌭20😐12😁109🌚3👌1😎1