Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Media is too big
VIEW IN TELEGRAM
Очень показательный пример того, что могут MCP протоколы: разработчики audio моделек ElevenLabs сделали свой MCP и теперь любой ваш агент (например, Claude) может использовать все возможности их сеток.

Например, чтобы куда-то позвонить, создать аудиокнигу тем голосом, который вы захотите или сделать конспект лекции. Юзкейсов море, при этом усилий на разработку потрачено минимум.
🔥115🤯34👍1110😁1
Data Secrets
Статья, полностью написанная ИИ-агентом, впервые в истории прошла рецензирование на крупнейшей ML-конференции ICLR Помните, мы рассказывали про AI-ресерчера из коробки, которого сделали в японской лаборатории Sakana AI? Так вот автор прошедшей ревью статьи…
В опенсорс наконец официально релизнули того самого агента, чью статью приняли на крупнейшую ML-конференцию ICLR

Напоминаем, что это ИИ-агент The AI Scientist-v2 от японской лаборатории Sakana. Его статья (написанная полностью автономно) примерно месяц назад прошла рецензирование на ICLR воркшоп.

Вот наш пост про первую версию. Главный принцип: система разбивает весь процесс на стадии (генерация идей, реализация экспериментов, визуализация и написание текста), и при этом на каждом этапе работает специальный агент-менеджер. Что нового в v2:

1. Agentic tree search. Вместо последовательной проверки гипотез агент теперь гуляет по пространству идей в виде дерева, так что эксперименты могут проводиться параллельно (картинка 2).

2. Добавили Vision-Language Model, которая отдельно проверяет все таблицы, графики, схемы и подписи к ним.

3. Этап экспериментов раздробили на отдельные подшаги. На каждом добавили ответственного агента и критерии завершения.

4. Написание кода стало полностью автономным. Раньше агент умел только менять человеческие шаблоны, но теперь может и код с нуля написать, и нужный датасет найти, и на HF за моделькой сходить.

К сожалению, кое-где в "уязвимых" местах (типа ссылок на литературу) еще остаются галлюцинации, но в целом – здорово.

Техрепорт | Гитхаб
👍107🔥1918🤯7🤔2
Скоро к Мире Мурати весь бывший OpenAI перетечет

На сайте ее стартапа Thinking Machines Lab тихо обновился список сотрудников. Появилось два новых имени в разделе "advisors":

Боб МакГрю. Бывший директор по исследованиям и ключевой рисерчер OpenAI. До 2018 занимался роботами, затем разрабатывал GPT-3 и 4.

Алек Радфорд. Очень талантливый инженер и тоже бывший исследователь OpenAI. Работал в стартапе почти 10 лет и стоял у истоков GPT, Whisper и DALL-E

С такой командой можно и GPT-5 раньше Альтмана выпустить
Please open Telegram to view this post
VIEW IN TELEGRAM
😎12729😁23👍17🔥4🐳3🤯2
Как студенты используют ИИ: новое исследование от Anthropic

В лаборатории взяли аккаунты, которые привязаны к почтам учебных заведений, отфильтровали диалоги по привязке к учебе (курсовые, проекты, домашки), а затем проанализировали оставшиеся 574 740 чатов.

Сразу оговорка: все анонимно и все данные юзеров защищены. В Anthropic используют внутреннюю ИИ-систему аналитики Clio. Мы о ней рассказывали подробно вот тут. Если кратко: Clio полностью автономно в несколько этапов чистит чаты от персональных данных и извлекает из них фичи. То есть люди вообще не имеют никакого доступа к текстам: только к финальным статистикам.

Возвращаясь к результатам по студентам, вот самое интересное:

🟦 Первая картинка – это соотношение процентов диалога на определенную тему с долей бакалавров США в этой области. Самые продвинутые юзеры ИИ, конечно же, айтишники: 38.6% диалогов связаны с Computer Science, на котором учатся всего 5,4% студентов 😎

🟦 При этом самый распространенный запрос в области Computer Science – написать и отдебажить скрипт на C++ (сочувствуем). Python на втором месте.

🟦 Списывают ли студенты? Да, массово. Запрос "сделай что-нибудь, чтобы нельзя было отличить плагиат" очень распространен. А на картинке 3 представлена разбивка по паттернам промптов. Примерно в 50% случаев это не "объясни мне" а "сделай за меня".

Впрочем, ничего удивительного. Почитать полностью -> тут
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
80😁63👍18😎7🔥2🤓2
This media is not supported in your browser
VIEW IN TELEGRAM
🍯 Там AlphaXiv выпустили своего бесплатного агента Deep Research

Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:

–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов

И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.

Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.

Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
🔥118👍2311👌2
Общедоступная Veo-2, Live API, Gemini в таблицах и еще несколько приятных новостей от Google

Пройдемся по Changelog:

Deep Research внутри Google теперь крутится но новейшей модели Gemini 2.5 Pro. Это та самая, которая сейчас топ-1 на арене и на бенчмарках по математике и кодингу.

В гугл-таблицах Google Gemini теперь можно использовать в виде формулы. Просто пишете AI(<промпт>), и в ячейку или диапазон вставляется результат (см. пример выше).

В общий доступ выходит модель veo-2.0 – модель для генерации видео. Примеры генераций мы накидывали тут.

Gemini-2.0-flash появился в Live API. Теперь с ним можно делать всякие мультимодальные штуки в своих проектах. Модель может принимать на вход текст, голос и даже видео в онлайне.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥2913
This media is not supported in your browser
VIEW IN TELEGRAM
Вы должны это увидеть: Universal Pictures совместно с Boston Dynamics надели на робопса костюм Беззубика из мультика "Как приручить дракона" и получилось вот это 🙂

Кажется, малыша Blue от Nvidia подвинули в рейтинге самых милых роботов
Please open Telegram to view this post
VIEW IN TELEGRAM
148🔥32😍15👍9💘8👀5🕊2🗿21🤯1
Вышел DeepCoder-14B-Preview – окрытая модель для кодинга уровня o3-mini

Ее выпустили Together AI совместно с Agentica. На LiveCodeBench выбивает 60.6%, на AIME 24 – 73.8%, на CodeForces – 1936 (рейтинг). Это полноценный уровень o3-mini (low) и o1.

Моделька с ризонингом. В качестве базовой модели использовали R1-Distill-14B. Ей удлинили контекст, а потом дообучили на кастомном качественно размеченном и покрытом тестами датасете.

Интересно, что обучали только на кодинге и последовательностях длины до 32к токенов, но при этом на бенчах видно, что моделька хорошо обобщается на контекст аж до 64к и очень неплохо себя показывает в математике.

Блогпост | Гитхаб | Веса | Датасет
71👍35🔥21🤔4
This media is not supported in your browser
VIEW IN TELEGRAM
Google дропнули Firebase Studio – IDE в браузере для вайб-кодинга 🎹

Это облачная среда агентской разработки приложений. Есть инструменты для прототипирования (включая дизайн), написания кода, тестирования, деплоя и мониторинга.

Получается end-to-end штука для реализации любого проекта в режиме zero code. Ну или, если хотите, авторский гугловский Cursor на максималках.

Пока что Firebase доступен в превью. Попробовать можно бесплатно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯77🔥27👍141👻1
И еще один релиз от Google: новый чип TPUv7s

Его разрабатывали под кодовым названием Ironwood. В нем 192 гигабайта видеопамяти, и по сравнению с текущим TPUv5 пиковая производительность примерно в 10 раз выше, а энергоэффективность в 2 раз лучше.

При этом пропускную способность HBM заявляют 7.2 TBps на чип. Это в 4.5 раза больше, чем у Trillium.

В целом вполне себе уровень Nvidia

blog.google/products/google-cloud/ironwood-tpu-age-of-inference/
🤯55👍29❤‍🔥184🔥4