Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
AlphaXiv становится все прикольнее и прикольнее: теперь в него завезли анализ кодовой базы статьи

Представьте: вы читаете какую-то статью, у вас появляется вопрос и вы задаете его встроенному ассистенту. А тот, отвечая на него, анализирует не только текст статьи, но и репозиторий к ней (если такой имеется). Таким образом, ответы получаются более технически точными и без додумок, если в тексте что-то описано нечетко.

Также можно попросить бота объяснить кусочки кода или даже адаптировать его под ваш проект.

Итого, в AlphaXiv теперь есть: бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям, анализ кода и генератор конспектов 🍯
🔥167👍45🤯2512
Исследовали реализовали отдельный arxiv для агентов-исследователей

Проект называется AgentRxiv и его идея следующая: пусть агенты работают не сами по себе, а как люди делятся, изучают и совершенствуют исследования друг друга.

То есть по сути AgentRxiv – это опенсорсный фреймворк, который дает разным лабораториям возможность добавлять своих агентов на некую общую платформу шеринга, внутри которой те могут «обмениваться идеями».

Звучит занятно, и по первым тестам работает неплохо: в эксперименте с тремя разными лабами результаты агентов с такой коллаборацией улучшились на 13.7%. Это больше, чем при последовательном автономном самоулучшении.

Может скоро у агентов и конференции свои появятся?

Статья | Репа (лицензия MIT)
80🤯48👍28🔥21💯2🍓2😎2
Data Secrets
Робо-стартап Figure только что объявил, что отрывает завод по производству роботов Это та самая компания, которая в прошлом сотрудничала с OpenAI, а недавно выпустила крутого гуманоида Helix (пост). Так вот теперь, кажется, они готовы пускать свое творение…
Media is too big
VIEW IN TELEGRAM
Ура, наконец-то не походка Байдена: FigureAI рассказали, как они научили своего робота ходить по-человечески

Естественная ходьба для роботов – это не так просто, как кажется, потому что так намного сложнее контролировать равновесие и перенос веса по сравнению с ходьбой с согнутыми коленями на полной стопе (а именно так сейчас предвигаются почти все гуманоиды).

Но Figure запарились и теперь походка их роботов Helix действительно похожа на человеческую. И снова в основе всего обучения – RL и симуляция, но при этом переход Sim-to-Real в стартапе умудрились сделать в zero-shot, вообще без доп. тюнинга. То есть:

1. Собрали кучу данных (годы в реальной жизни)
2. Смоделировали все в высокоточной физической симуляции буквально за несколько часов
3. Обученные политики напрямую перебросили в реальные экшены робота

Кажется, Figure первые, кому удался такой трюк, и получилось это с помощью двух вещей:

(1) в симулятор добавляли вариативность среды, чтобы модель получилась устойчивой и умела обобщать навыки на разную физику;

(2) во время инференса очень часто и точно трекаются крутящие моменты двигателей. Идея в том, что чем чаще робот получает такой фидбэк, тем быстрее он может заметить и отреагировать на любые отклонения от планового движения.

Здорово, в общем. Напоминаем, что в 2025 Figure планируют запустить целый завод по производству роботов и начать тестировать их в настоящих домах.
🤯71👍44🔥21😁97😍4❤‍🔥3🗿3
OpenAI начали встраивать MCP от Anthropic в свои продукты

Природа настолько очистилась Model Context Protocol от антропиков стал настолько популярным и так быстро оказался золотым стандартом, что даже OpenAI не устояли и объявили о том, что будут его использовать.

Сейчас они уже встроили MCP в библиотеку Agents SDK (пост о ней). То есть теперь при разработке агентов к ним можно прикручивать серверы MCP и тем самым расширять их скиллы.

Также обещают завести протокол в API и дескотопное приложение (вот это будет особенно круто).

Что такое MCP? Это открытый протокол, который стандартизирует то, как приложения/сайты/базы данных предоставляют контекст LLM. Раньше, чтобы ваша моделька "увидела" и могла постоянно использовать данные из внешнего источника (ну, например, гугл календаря), приходилось каждый раз плясать с бубном и реализовывать все с нуля.

А теперь есть MCP, и он работает как часы со всеми возможными локальными и удаленными источниками данных. Подробнее – в этом и этом постах.

Протокол крут и все его полюбили, потому что он (а) понятный и супер удобный и (б) достаточно безопасный. Смотрите сами: таких MCP уже наплодили миллион для абсолютно всего, вот здесь есть готовые на любой вкус.
👍90🔥4019
О, открыли регистрацию на новый ARC Prize 2025

ARC Prize идет уже несколько лет и это, пожалуй, один из главных международных ИИ-хакатонов мира. Особенно много внимания он собрал в 2024 (вот пост о соревновании и разбор решений победителей №1, №2). Но в 2025 будет еще интереснее:

Датасет заменили с ARC-AGI-1 на свежий ARC-AGI-2

В предыдущие годы многие победные решения основывались на брутфорсе. С новым датасетом это почти невозможно, а значит решения будут позанятнее. Также добавили допольнительную overfit protection на Kaggle

Grand Prize (премия победителям, которые пробьют 85%) увеличилась еще больше с $600k до $700k

Соревнование продлится до ноября. Детали и регистрация тут: arcprize.org/competition
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🤯17🔥61🗿1
⚡️ Qwen опенсорснули настоящую омни-мультимодальную модель на 7B

Qwen2.5-Omni-7B может принимать на вход видео, аудио, текст и картинки, и отвечать аудио или текстом. То есть с моделькой теперь можно общаться по «видеосвязи». Немного технических деталей:

В целом архитектура поделена на thinker и talker

Thinker – это трансформер, который декодит модальности и генерирует ответы и эмбеддинги для talker’а

Talker – авторегрессионка для говорения. Принимает на вход эмбеддинги от thinker’а и генерирует токены речи в стрим режиме

Надо понимать, что это не отдельные модели: оба модуля обучаются одновременно и работают end-to-end

Метрики для 7В замечательные. Обходит даже Gemini 1.5 Pro.

Веса (лицензия Apache 2.0)
Статья
Попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥98👍4221🤯12🤔1
Пошел слух, что Anthropic релизит Sonnet 3.7 с контекстом 500к токенов (сейчас 200к)

Если правда, то будет имба для кодинга
🔥175👍3721🗿5
Есть хорошая и плохая новость

👎 Плохая: нативной генерации изображений gpt-4o для бесплатной подписки пока не будет.

Альтман объявил, что они не ожидали такого ажиотажа и поэтому немного отложили ролаут на free юзеров.

👍 Хорошая: вышел Ideogram 3.0 и в нем дают несколько бесплатных генераций в неделю (для регистрации достаточно гугл аккаунта).

По Elo моделька обгоняет Imagen3 и Flux Pro. Фотореализм и работа с текстом на высоте. А еще можно загружать референсные картинки, чтобы задать генерациям стиль. Пробуйте здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍179🐳1
Про влияние бума ИИ на рекомендательные системы рассказал Николай Савушкин, руководитель направления рекомендательных систем в Яндексе.

Рекомендательные системы развиваются значительно медленнее, чем нашумевшие LMM. Комьюнити для разработки нужен доступ к реальным пользователям и данным об их поведении в сервисах, чего у исследователей часто нет. Но технологическая основа рекомендаций продолжает развиваться, хоть и не так активно из-за специфики направления.

Подробнее об этом и о том, что ждёт рекомендательные системы в будущем, здесь
😁38🔥17🗿15👍127🤨54🤯1💘1
На МТС True Tech Hack 2025 можно создать не только крутое решение, но и расширить свои профессиональные связи

Что тебя ждет на хакатоне?
Поддержка менторов из ИТ-команды МТС
Призовой фонд в 1 500 000 рублей для самых креативных решений
Возможность внести вклад в продукты, которые помогают разработчикам по всей России

Что надо делать?
Разработать прототип продукта на базе ИТ-платформ МТС
Кайфануть от своего результата
Забрать с собой гордое звание победителя и деньги

Регистрация, митап и вся допинформация здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8😁6🗿43🤨3🔥2
Рынок text2image ожил буквально за пару дней: Midjourney планируют запускать седьмую версию своей модели на следующей неделе

Об этом сообщают инсайдеры, побывавшие на Weekly Office Hours стартапа.

Забавный факт: между выходами Midjourney v1 и v6 прошло всего 22 месяца. Между v6 и v7 прошло 16. Довольно сильная смена темпа, так что ждем что-то крутое.

P.S. Обещаем, это последняя на сегодня новость про генераторы картинок
👍84😁37🔥2061
Вы не поверите, но GPT-4o теперь лучшая модель для кодинга

OpenAI только что обновили чекпоинт модели, и результаты на арене по сравнению с прошлой версией скакнули вот так:

- Math 14 место -> 2 место
- Hard Prompts 7 место -> 1 место
- Coding 5 место -> 1 место
- В целом 5 место -> 2 место

Сами разработчики пишут, что теперь моделька лучше следует инструкциям и воспринимает сложные промпты, лучше креативит и использует меньше эмодзи (ура)

На всех платных новый чекпоинт уже раскатили. Фри юзерам будет доступно в течение нескольких недель.
🔥166👍57🏆2110😁9👾7🤯4🍓32❤‍🔥1🤨1