Data Secrets
Робо-стартап Figure только что объявил, что отрывает завод по производству роботов Это та самая компания, которая в прошлом сотрудничала с OpenAI, а недавно выпустила крутого гуманоида Helix (пост). Так вот теперь, кажется, они готовы пускать свое творение…
Media is too big
VIEW IN TELEGRAM
Ура, наконец-то не походка Байдена: FigureAI рассказали, как они научили своего робота ходить по-человечески
Естественная ходьба для роботов – это не так просто, как кажется, потому что так намного сложнее контролировать равновесие и перенос веса по сравнению с ходьбой с согнутыми коленями на полной стопе (а именно так сейчас предвигаются почти все гуманоиды).
Но Figure запарились и теперь походка их роботов Helix действительно похожа на человеческую. И снова в основе всего обучения – RL и симуляция, но при этом переход Sim-to-Real в стартапе умудрились сделать в zero-shot, вообще без доп. тюнинга. То есть:
1. Собрали кучу данных (годы в реальной жизни)
2. Смоделировали все в высокоточной физической симуляции буквально за несколько часов
3. Обученные политики напрямую перебросили в реальные экшены робота
Кажется, Figure первые, кому удался такой трюк, и получилось это с помощью двух вещей:
(1) в симулятор добавляли вариативность среды, чтобы модель получилась устойчивой и умела обобщать навыки на разную физику;
(2) во время инференса очень часто и точно трекаются крутящие моменты двигателей. Идея в том, что чем чаще робот получает такой фидбэк, тем быстрее он может заметить и отреагировать на любые отклонения от планового движения.
Здорово, в общем. Напоминаем, что в 2025 Figure планируют запустить целый завод по производству роботов и начать тестировать их в настоящих домах.
Естественная ходьба для роботов – это не так просто, как кажется, потому что так намного сложнее контролировать равновесие и перенос веса по сравнению с ходьбой с согнутыми коленями на полной стопе (а именно так сейчас предвигаются почти все гуманоиды).
Но Figure запарились и теперь походка их роботов Helix действительно похожа на человеческую. И снова в основе всего обучения – RL и симуляция, но при этом переход Sim-to-Real в стартапе умудрились сделать в zero-shot, вообще без доп. тюнинга. То есть:
1. Собрали кучу данных (годы в реальной жизни)
2. Смоделировали все в высокоточной физической симуляции буквально за несколько часов
3. Обученные политики напрямую перебросили в реальные экшены робота
Кажется, Figure первые, кому удался такой трюк, и получилось это с помощью двух вещей:
(1) в симулятор добавляли вариативность среды, чтобы модель получилась устойчивой и умела обобщать навыки на разную физику;
(2) во время инференса очень часто и точно трекаются крутящие моменты двигателей. Идея в том, что чем чаще робот получает такой фидбэк, тем быстрее он может заметить и отреагировать на любые отклонения от планового движения.
Здорово, в общем. Напоминаем, что в 2025 Figure планируют запустить целый завод по производству роботов и начать тестировать их в настоящих домах.
🤯71👍44🔥21😁9❤7😍4❤🔥3🗿3
OpenAI начали встраивать MCP от Anthropic в свои продукты
Природа настолько очистилась Model Context Protocol от антропиков стал настолько популярным и так быстро оказался золотым стандартом, что даже OpenAI не устояли и объявили о том, что будут его использовать.
Сейчас они уже встроили MCP в библиотеку Agents SDK (пост о ней). То есть теперь при разработке агентов к ним можно прикручивать серверы MCP и тем самым расширять их скиллы.
Также обещают завести протокол в API и дескотопное приложение (вот это будет особенно круто).
Что такое MCP? Это открытый протокол, который стандартизирует то, как приложения/сайты/базы данных предоставляют контекст LLM. Раньше, чтобы ваша моделька "увидела" и могла постоянно использовать данные из внешнего источника (ну, например, гугл календаря), приходилось каждый раз плясать с бубном и реализовывать все с нуля.
А теперь есть MCP, и он работает как часы со всеми возможными локальными и удаленными источниками данных. Подробнее – в этом и этом постах.
Протокол крут и все его полюбили, потому что он (а) понятный и супер удобный и (б) достаточно безопасный. Смотрите сами: таких MCP уже наплодили миллион для абсолютно всего, вот здесь есть готовые на любой вкус.
Сейчас они уже встроили MCP в библиотеку Agents SDK (пост о ней). То есть теперь при разработке агентов к ним можно прикручивать серверы MCP и тем самым расширять их скиллы.
Также обещают завести протокол в API и дескотопное приложение (вот это будет особенно круто).
Что такое MCP? Это открытый протокол, который стандартизирует то, как приложения/сайты/базы данных предоставляют контекст LLM. Раньше, чтобы ваша моделька "увидела" и могла постоянно использовать данные из внешнего источника (ну, например, гугл календаря), приходилось каждый раз плясать с бубном и реализовывать все с нуля.
А теперь есть MCP, и он работает как часы со всеми возможными локальными и удаленными источниками данных. Подробнее – в этом и этом постах.
Протокол крут и все его полюбили, потому что он (а) понятный и супер удобный и (б) достаточно безопасный. Смотрите сами: таких MCP уже наплодили миллион для абсолютно всего, вот здесь есть готовые на любой вкус.
👍90🔥40❤19
О, открыли регистрацию на новый ARC Prize 2025
ARC Prize идет уже несколько лет и это, пожалуй, один из главных международных ИИ-хакатонов мира. Особенно много внимания он собрал в 2024 (вот пост о соревновании и разбор решений победителей №1, №2). Но в 2025 будет еще интереснее:
➖ Датасет заменили с ARC-AGI-1 на свежий ARC-AGI-2
➖ В предыдущие годы многие победные решения основывались на брутфорсе. С новым датасетом это почти невозможно, а значит решения будут позанятнее. Также добавили допольнительную overfit protection на Kaggle
➖ Grand Prize (премия победителям, которые пробьют 85%) увеличилась еще больше с $600k до $700k
Соревнование продлится до ноября. Детали и регистрация тут: arcprize.org/competition
ARC Prize идет уже несколько лет и это, пожалуй, один из главных международных ИИ-хакатонов мира. Особенно много внимания он собрал в 2024 (вот пост о соревновании и разбор решений победителей №1, №2). Но в 2025 будет еще интереснее:
Соревнование продлится до ноября. Детали и регистрация тут: arcprize.org/competition
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🤯17🔥6❤1🗿1
Qwen2.5-Omni-7B может принимать на вход видео, аудио, текст и картинки, и отвечать аудио или текстом. То есть с моделькой теперь можно общаться по «видеосвязи». Немного технических деталей:
Метрики для 7В замечательные. Обходит даже Gemini 1.5 Pro.
Веса (лицензия Apache 2.0)
Статья
Попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥98👍42❤21🤯12🤔1
Есть хорошая и плохая новость
👎 Плохая: нативной генерации изображений gpt-4o для бесплатной подписки пока не будет.
Альтман объявил, что они не ожидали такого ажиотажа и поэтому немного отложили ролаут на free юзеров.
👍 Хорошая: вышел Ideogram 3.0 и в нем дают несколько бесплатных генераций в неделю (для регистрации достаточно гугл аккаунта).
По Elo моделька обгоняет Imagen3 и Flux Pro. Фотореализм и работа с текстом на высоте. А еще можно загружать референсные картинки, чтобы задать генерациям стиль. Пробуйте здесь.
Альтман объявил, что они не ожидали такого ажиотажа и поэтому немного отложили ролаут на free юзеров.
По Elo моделька обгоняет Imagen3 и Flux Pro. Фотореализм и работа с текстом на высоте. А еще можно загружать референсные картинки, чтобы задать генерациям стиль. Пробуйте здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍17❤9🐳1
Про влияние бума ИИ на рекомендательные системы рассказал Николай Савушкин, руководитель направления рекомендательных систем в Яндексе.
Рекомендательные системы развиваются значительно медленнее, чем нашумевшие LMM. Комьюнити для разработки нужен доступ к реальным пользователям и данным об их поведении в сервисах, чего у исследователей часто нет. Но технологическая основа рекомендаций продолжает развиваться, хоть и не так активно из-за специфики направления.
Подробнее об этом и о том, что ждёт рекомендательные системы в будущем, здесь
Рекомендательные системы развиваются значительно медленнее, чем нашумевшие LMM. Комьюнити для разработки нужен доступ к реальным пользователям и данным об их поведении в сервисах, чего у исследователей часто нет. Но технологическая основа рекомендаций продолжает развиваться, хоть и не так активно из-за специфики направления.
Подробнее об этом и о том, что ждёт рекомендательные системы в будущем, здесь
😁38🔥17🗿15👍12⚡7🤨5❤4🤯1💘1
На МТС True Tech Hack 2025 можно создать не только крутое решение, но и расширить свои профессиональные связи
Что тебя ждет на хакатоне?
➖ Поддержка менторов из ИТ-команды МТС
➖ Призовой фонд в 1 500 000 рублей для самых креативных решений
➖ Возможность внести вклад в продукты, которые помогают разработчикам по всей России
Что надо делать?
➖ Разработать прототип продукта на базе ИТ-платформ МТС
➖ Кайфануть от своего результата
➖ Забрать с собой гордое звание победителя и деньги
Регистрация, митап и вся допинформация здесь.
Что тебя ждет на хакатоне?
Что надо делать?
Регистрация, митап и вся допинформация здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8😁6🗿4❤3🤨3🔥2
Рынок text2image ожил буквально за пару дней: Midjourney планируют запускать седьмую версию своей модели на следующей неделе
Об этом сообщают инсайдеры, побывавшие на Weekly Office Hours стартапа.
Забавный факт: между выходами Midjourney v1 и v6 прошло всего 22 месяца. Между v6 и v7 прошло 16. Довольно сильная смена темпа, так что ждем что-то крутое.
P.S. Обещаем, это последняя на сегодня новость про генераторы картинок
Об этом сообщают инсайдеры, побывавшие на Weekly Office Hours стартапа.
Забавный факт: между выходами Midjourney v1 и v6 прошло всего 22 месяца. Между v6 и v7 прошло 16. Довольно сильная смена темпа, так что ждем что-то крутое.
P.S. Обещаем, это последняя на сегодня новость про генераторы картинок
👍84😁37🔥20❤6✍1
Вы не поверите, но GPT-4o теперь лучшая модель для кодинга
OpenAI только что обновили чекпоинт модели, и результаты на арене по сравнению с прошлой версией скакнули вот так:
- Math 14 место -> 2 место
- Hard Prompts 7 место -> 1 место
- Coding 5 место -> 1 место
- В целом 5 место -> 2 место
Сами разработчики пишут, что теперь моделька лучше следует инструкциям и воспринимает сложные промпты, лучше креативит и использует меньше эмодзи (ура)
На всех платных новый чекпоинт уже раскатили. Фри юзерам будет доступно в течение нескольких недель.
OpenAI только что обновили чекпоинт модели, и результаты на арене по сравнению с прошлой версией скакнули вот так:
- Math 14 место -> 2 место
- Hard Prompts 7 место -> 1 место
- Coding 5 место -> 1 место
- В целом 5 место -> 2 место
Сами разработчики пишут, что теперь моделька лучше следует инструкциям и воспринимает сложные промпты, лучше креативит и использует меньше эмодзи (ура)
На всех платных новый чекпоинт уже раскатили. Фри юзерам будет доступно в течение нескольких недель.
🔥166👍57🏆21❤10😁9👾7🤯4🍓3☃2❤🔥1🤨1
Микроскоп для LLM: новое исследование от Anthropic
Anthropic известны своими работами по интерпретируемости. Раньше их основным подходом, который затем переняли OpenAI и Google, были SAE (наши разборы №1, №2, №3, №4, №5). А теперь они предлагают новый метод, который позволяет строить полноценные схемы мыслей ИИ, – Circuit Tracing, то есть цепная трассировка. Технически это вот так:
1. Берем обученный трансформер и определенную задачу.
2. Создаем замещающую модель: некоторые компоненты трансформера заменяем на интерпретируемые линейные модельки, их называют Cross-Layer Transcoder.
3. На конкретной выбранной задаче обучаем транскодеры вести себя также, как оригинальный компонент, то есть решаем задачу минимизации MSE Loss между выходами оригинального слоя и замененного.
4. Теперь у нас есть линеазированная интерпретируемая аппроксимация нашего трансформера, и на ней мы можем отследить потоки активаций через все слои.
5. Используя эти потоки, строим граф атрибуции, отражающий пути влияния одних признаков на другие. Анализируя этот граф, можно выделять какие-то интерпретируемые концепты и рисовать настоящие карты "размышлений" модели.
Как выглядят такие итоговые карты для Claude – посмотрите на картинках 2, 3, 4, 5. Там много интересного, если вглядеться. Например:
Статья про подход | Статья про эксперименты на Claude (советуем прочитать полностью, действительно очень интересное исследование)
Anthropic известны своими работами по интерпретируемости. Раньше их основным подходом, который затем переняли OpenAI и Google, были SAE (наши разборы №1, №2, №3, №4, №5). А теперь они предлагают новый метод, который позволяет строить полноценные схемы мыслей ИИ, – Circuit Tracing, то есть цепная трассировка. Технически это вот так:
1. Берем обученный трансформер и определенную задачу.
2. Создаем замещающую модель: некоторые компоненты трансформера заменяем на интерпретируемые линейные модельки, их называют Cross-Layer Transcoder.
3. На конкретной выбранной задаче обучаем транскодеры вести себя также, как оригинальный компонент, то есть решаем задачу минимизации MSE Loss между выходами оригинального слоя и замененного.
4. Теперь у нас есть линеазированная интерпретируемая аппроксимация нашего трансформера, и на ней мы можем отследить потоки активаций через все слои.
5. Используя эти потоки, строим граф атрибуции, отражающий пути влияния одних признаков на другие. Анализируя этот граф, можно выделять какие-то интерпретируемые концепты и рисовать настоящие карты "размышлений" модели.
Как выглядят такие итоговые карты для Claude – посмотрите на картинках 2, 3, 4, 5. Там много интересного, если вглядеться. Например:
➖ Несмотря на то, что модель решает только задачу next token prediction, она думает наперед. Это видно в задаче написания стихов: Claude планирует рифму еще до того, как начинает писать новую строчку.➖ Claude умеет считать "в уме". Вопреки расхожему мнению, оказывается, что модель не просто запоминает ответы математических задач, а действительно использует сложные вычислительные пути для их решения.➖ Даже галлюцинации оказываются вполне объяснимой вещью: исследователи обнаружили конкретную фичу "ответ известен", и, если она активируется по ошибке, модель начинает выдумывать.➖ Из смешного: если сразу сказать модели ответ на задачу, она будет думать в обратном направлении, то есть пытаться придумать правдоподобное решение для ответа.
Статья про подход | Статья про эксперименты на Claude (советуем прочитать полностью, действительно очень интересное исследование)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥117👍31🤯18❤5🤔5🤨1