Data Secrets
77.3K subscribers
6.04K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
В офисе Hugging Face в Париже тоже новогоднее настроение
🎄105🤗74🎅187🍾5😍2
Один из пазлов бенчмарка ARC AGI, который o3 не смогла решить

Попробуйте ответить и вы: прямоугольник, на который указывает стрелка, должен остаться красным или стать синим?

Проверим, кто победит ИИ в решении задач для дошкольников 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥52😁32👍102
Яндекс рассказал про то, как и зачем создавался бенчмарк культурного кода для обучения YandexGPT

Так как с нейросетью ежедневно взаимодействуют миллионы людей через Поиск с Нейро и Алису, модель должна быть знакома с культурным кодом своих пользователей для генерации более качественных ответов — объяснили в компании.

Для начала было оцифровано само понимание культурного кода и составлены данные в 4 больших категориях, которые состоят из более мелких. Полученная классификация составила базу будущего бенчмарка.

Далее начали проверять, как модель понимает знакомые русскому человеку цитаты, мемы, сюжеты, контексты, бытовые ситуации и привычки. По ходу оценки навыков трактовка запросов заметно усложнялась.

На основе полученных данных бенчмарк провалидировали, создав тестовый бенч на 200 вопросов, который разделили на 3 возрастные группы: “30+”, “30-” и “все” — так как некоторый пул вопросов был одинаково знаком для всех.

В итоге бенчмарк был масштабирован до 2000 вопросов, на которые отвечали сами AI-тренеры — так удалось составить средний скор в 78% правильных ответов, на который команда будет ориентироваться при замерах. В идеале, результат модели должен быть выше, ведь она многократно видела весь интернет.

Тем не менее, нейросеть не ответила лучше — YandexGPT 4 получил 63% верных ответов. Это значит, есть куда расти и чему еще обучать модель.

Читать полностью здесь
🤨44👍26🗿107😁6👾1
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и мощное поздравление с Рождеством от Boston Dynamics заехало

Как вам такой Санта?
😁77🔥4113👍7🍌4
Ситуация в соцсетях примерно такая
😁13815👍8🤯3💘3🫡2
У Meta тем временем еще одна занятная работа про аналог токенизации

Пару недель назад компания представляла статью про Byte Latent Transformer, в котором вместо токенов использовались патчи байтов (мы разбирали статью подробно вот здесь). А сегодня по сети пролетела их следующая работа: Large Concept Models.

Для начала давайте порассуждаем: как думает и разговаривает человек? Разве мы осмысливаем слово за словом или букву за буквой? Нет, люди думают и "прогнозируют", что сказать дальше, на уровне идей, концепций. Как раз это и попробовали воплотить в жизнь в Meta.

Они предложили заменить задачу предсказания следующего токена на предсказание следующей концепции, где концепция рассматривается как абстрактная идея или действие. Для этого исходный текст разбивается на предложения, и каждое предложение кодируется в SONAR-эмбеддинги. Это Sentence-Level эмбеддинги фиксированной длины, они были предложены в этой статье (тоже Meta, 2023).

Используя замороженные декодер и энкодер SONAR, сама LCM затем обучается как обычно, просто вместо последовательностей закодированных токенов у нее последовательность закодированных концепций.

Всего в статье обучили две модельки, 1.6В и 7В. При этом контекстное окно у них довольно большое за счет того что предсказания происходит на более высоком уровне абстракции. В итоге на zero-shot на нескольких задачах (суммаризация например) LCM заметно превосходит аналогичные по размеру LLM. Довольно интересно, в общем.

Текст статьи тут, с кодом можно поиграть здесь
62👍30🔥18😁2🤯2👌2
Найден вопрос, который никогда не будет по силам ИИ
😁273👍16🍌114🤓3🗿3
Hugging Face радуют релизами даже в празники: они выпустили большой качественный датасет по математике FineMath

Его составляли примерно также, как делали это DeepSeek для своей модели DeepSeekMath (а она очень, очень крута, подробный ее разбор тут). То есть брали CommonCrawl, обучали классификатор на аннотациях LLama-3.1-70B-Instruct и фильтровали математический контент.

В итоге получился очень приличный скейлинг. Посмотрите на график наверху: с ростом количества токенов для обучения точность модели растет заметно приятнее, чем на известных датасетах OpenWebMath и InfiMM. Это как раз за счет разнообразия и качества данных.

P.S. Какие-то любители уже даже обучили на FineMath собственного репетитора по математике (проект)
34🔥12👍8🤗6
OpenAI собирается создать собственного робота-гуманоида

Об этом сообщает The Information. Весь год компания занималась робототехникой теневым образом: они пересобирали команду робо-ресерча (вакансия), которая была расформирована четыре года назад, а также инвестировали в Figure и Physical Intelligence.

Сейчас, по данным двух инсайдеров, стартап переходит в более активную фазу и уже серьезно обсуждает и изучает возможность создания собственного робота-гуманоида.

Лицо Маска представили?
👍53🤔18😁9🔥63
Просвещаем родственников правильно
😁1601811🔥5🤪3❤‍🔥1🦄1
Сэм Альтман, тем временем, снова запостил в Твиттер свой традиционный новогодний вопрос "что бы вы хотели, чтобы OpenAI cделала/исправила в 2025?"

Топ-10 самых популярных ответов:

🔵 AGI (Альтман отвечает "ок" и "🫡")
🔵 Агенты
🔵 Более длинный контекст
🔵 Улучшение качества SORA и новый Dall-E (судя по ответам Сэма новая версия SORA не за горами, а вот с text2image все неоднозначно)
🔵 Улучшение Advanced Voice Mode, учет прошлых разговоров, активация войс мода без нажатия на кнопку
🔵 Family подписка и новые гибкие тарифы
🔵 Меньше ограничений и цензуры
🔵 Снижение цен на API, новый качественный RAG
🔵 Более частные обновления моделей, новая не-thinking модель
🔵 Ускорение и удушевление моделей

Писать в 2025 письмо с пожеланиями Деду Морозу
Писать Сэму Альтману
Please open Telegram to view this post
VIEW IN TELEGRAM
🎅9924👍13🎄9😁2🏆2
"Да, мам, только она у меня со странностями и постоянно повторяет, что она какая-то языковая модель, не обращай внимания"
125😁66🗿8👍2
DeepSeek опенсорснули свою новую модель V3 Chat

685 B (MoE), fp8. Бенчмарки, как и всегда у этих ребят, очень достойные. На LiveBench это теперь лучшая открытая модель, и вторая по качеству после gemini-exp-1206 среди не-ризонеров. На Aider обгоняет Sonnet, уступая только o1.

Вообще, желаем всем такой продуктивности, как у DeepSeek. Только за последний месяц они выпустили DeepSeek 2.5, поиск, DeepSeek VL2, DeepSeek-R1, и вот теперь v3.

Чекпоинт уже доступен на Hugging Face
👍7722🎄3
Центральный Университет – да или нет: отзыв магистра изнутри
В этом году у всех на слуху этот вуз: применяют STEM-подход в обучении, возвращают ученых с мировым именем, чтобы развивать ИИ в стране, одерживают громкие победы в престижных международных соревнованиях и т.д.

Для тех, кто думает, куда подавать документы и на что ориентироваться при выборе вуза, нашли полезную статью. Студент публикует взгляд изнутри на учебные процессы, экспертизу преподавателей, общую атмосферу, включая оснащение аудиторий. Впечатления честные и супер подробные. Пишет, кстати, как раз ML-щик, поэтому там еще много доменных деталей (например, про ридинг-клабы) и скринов описаний DS-курсов.

Читаем полностью тут
👍33🤪1311🔥6👻2
Забавно: новая DeepSeek v3 на русском обозначает себя как модель от OpenAI. В то же время на английском она представляется нормально, как творение DeepSeek.

Русскоязычные датасеты что-то знают 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
😎102😁60🏆8🤔41👍1
This media is not supported in your browser
VIEW IN TELEGRAM
А вот это просто забавно: игра Asteroids с лого ИИ-вендоров вместо врагов 🤣

И главное: создано это полностью с помощью DeepSeek v3 за несколько минут (репа)

Нашлось занятие на вечер
Please open Telegram to view this post
VIEW IN TELEGRAM
😁467👍7🤯2