Data Secrets
77.3K subscribers
6.03K photos
590 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Большой гайд по разработке агентов

Сбер внезапно сделали всем большой подарок: на конференции ЦИПР старший вице-президент компании Андрей Белевцев представил огромный практический гайд по созданию AI-агентов. Внутри:

– Все про то, кто такие агенты и как они работают
Готовые скрипты и шаблоны для разработки и деплоя мультиагентных систем
– Прикладные рекомендации, основанные на опыте инженеров Сбера

Полезно будет всем: и ИТ-специалистам, и разработчикам, и руководителям.
Мы раскрываем наш практический опыт внедрения таких систем в сложном ИТ-ландшафте Сбера. Уверен, что документ станет ценным и полезным ресурсом на пути освоения и внедрения компаниями современных AI-технологий.

Полную pdf-ку забираем абсолютно бесплатно здесь
5🔥11633🗿15👍96🤯44😁3🤩32🆒1
Data Secrets
Робот по цене макбука от HuggingFace Знакомьтесь: это HopeJR, полноразмерный робот-гуманоид с 66 степенями свободы конечностей всего за 3000 долларов. Его на днях показали робототехники Hugging Face, и совсем скоро он поступит в продажу. Робот может ходить…
Hugging Face сделали собственную легковесную модель для управления роботами

Для универсальных роботов используются модели VLA (Vision-Language-Action), но обычно они достаточно тяжелые и дорогие. Hugging Face же сейчас идет в сторону доступной и дешевой робототехники, и сегодня они выложили SmolVLA – специальную облегченную VLA, которую можно использовать для домашних роботов.

Сама архитектура очень компактная: всего один Action Expert и несколько чередующихся слоев self-attention и cross-attention. На вход модели поступают кадры и задача на естественном языке, на выходе получаем последовательность действий для робота.

Интересно, что обучена модель исключительно на открытых датасетах сообщества LeRobot (их люди за год выложили порядка 500).

Завести SmolVLA можно на домашних GPU или даже на CPU. В проект зашит, помимо прочего, еще и асинхронный инференс.

И вот еще: несмотря на свои размеры (есть варианты на 0.24B, 0.45В и 2.25В), моделька работает очень неплохо, иногда даже на уровне с VLA в десять+ раз больше.

Веса | Репо | Статья
92🔥30👍26😍1
В Bing теперь бесплатно можно пользоваться SORA

Microsoft только что добавили в свой невероятно популярный 😶 браузер инструмент Video Creator. Внутри – SORA, и пользоваться этим можно бесплатно (лимиты пока неизвестны).

Видимо, скоро у OpenAI новый раунд финансирования, раз они раздают инвесторам такие подарки
Please open Telegram to view this post
VIEW IN TELEGRAM
7126🤯16👍6😁433🔥2
Media is too big
VIEW IN TELEGRAM
Ого: Manus анонсировали собственный видео-генератор

Метрик нет, но по черипикам демо качество выглядит неплохо. Говорят, скоро раскатают даже на бесплатный тариф (ну а пока доступно в Basic, Plus и Pro)
🔥6319🤯10👍3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Один из отцов-основателей глубокого обучения Йошуа Бенджио только что сообщил о том, что открывает собственную компанию LawZero

Бенджио – один из самых известных исследователей в области глубокого обучения. Его, наряду с Хинтоном и Лекуном, обычно называют первооткрывателем и отцом Deep Learning. В 2018 он получил премию Тьюринга, а еще он – один из авторов первой статьи про механизм внимания.

Раньше Бенджио работал в Университете Монреаля в Канаде, а сегодня сообщил, что открывает собственную некоммерческую организацию LawZero (lawzero.org).

Название LawZero – это в честь нулевого закона робототехники Исаака Азимова: "Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред".

Как вы уже поняли, компания будет работать над безопасностью. Пока что Бенджио возглавит команду из более чем 15 исследователей, и разрабатывать они все будут так называемого Scientist AI.

Scientist AI будет не агентом, а скорее наоброт – он будет выступать в качестве надсмотрщика для агентов. Цель состоит в том, чтобы эта модель использовалась в тандеме с ИИ, наблюдала за ним и сводила к минимуму потенциальный вред.

Самое интересное, что у LawZero уже и инвестиции есть. Бывший гендир Google Эрик Шмидт, соучредитель Skype Яан Таллин и другие дали Бенджио 30 миллионов долларов.

Будем наблюдать 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
126👍82🔥3225🤔9😁5🤓1🗿11
Юра Борисов может сыграть Илью Суцкевера в фильме про увольнение Альтмана

Фильм снимает режиссер «Претендентов». В сюжете – события осени 2023, когда Сэма драматически уволили, а потом восстановили на позицию CEO OpenAI.

На роль Альтмана, кстати, хотят взять Эндрю Гарфилда

Наши 🐘?
😁15993🔥20108🤨6🤯4👍1👏1
Похож же, ну?
😁20340🔥1881
Сегодня в 20:00 по мск нас ждет что-то новенькое от OpenAI

От этом сообщил один из инженеров стартапа. От написал, что будет «большой день для пользователей, о котором я думаю днями и ночами». Что ж, посмотрим 👀

Кстати, еще из приятных новостей от OpenAI: со вчерашнего дня Codex доступен всем Plus юзерам ChatGPT.

Plus – это подписка за 20$ / месяц. Говорят, что лимиты на Codex «щедрые», но зато тут же уточняют, что в периоды высокого спроса будут появляться ограничения скорости.

Кроме того, теперь агенту можно предоставить доступ в Интернет, и он сможет пользоваться им по необходимости. Changelog
Please open Telegram to view this post
VIEW IN TELEGRAM
63👍31🔥1311🗿33❤‍🔥1🤔1
Anthropic завели своему Claude собственный блог

Оказывается, около недели назад Anthropic тихонько, без анонсов, создали Claude Explains. На этой странице теперь появляются всякие технические заметки и посты про варианты использования ИИ, и пишет все это сам Claude.

Надпись на лендинге гласит: "В наше время у каждого есть блог, даже у Claude. Добро пожаловать в маленький уголок вселенной Anthropic, где Claude пишет посты на любые темы".

Однако справедливости ради надо сказать, что не все в постах Claude Explains написано ИИ от начала и до конца. Представители Anthropic говорят, что блог "курируется экспертами по предметной области, которые улучшают черновики модели и дополняют их примерами и контекстными знаниями".

Насколько масштабны такие правки – непонятно. И все-таки почитать и потыкать блог интересно. Вот, например, милый пост про базовую математику в питоне.

www.anthropic.com/claude-explains
🔥77👍2612😁118🤯1
How much do language models memorize? Новое исследование от Meta FAIR, Google DeepMind и NVIDIA

Задумывались когда-нибудь, сколько данных может запомнить модель с определенным количеством параметров? А сколько конкретно информации может выучить один параметр? А сколько информации он может обобщить?

Кажется, что посчитать это очень сложно или даже невозможно, но вот у ученых из этой статьи получилось: каждый параметр языковой модели способен запомнить примерно 3.6 бит информации. О том, как это посчитали – ниже.

Сразу дисклеймер: до этого были и другие статьи на эту тему, но там запоминание определялось просто тем, может ли модель воспроизвести определенный кусок трейна. На самом же деле все сложнее, и в этой работе подход не такой наивный.

Авторы опираются на понятия из теории информации Колмогорова и Шеннона, и четко разделяют запоминание и обобщение. Если модель воспроизвела что-либо – не значит, что она это запомнила, а не обобщила. В обратную сторону – то же самое.

Количество информации, которое модель именно запомнила, считают так. Берут две модели одинаковой архитектуры и размера: одна – референсная – обучена на огромном количестве данных, вторая – испытуемая – на ограниченном датасете.

Обе модели пропускают один и тот же тренировочный фрагмент через процедуру предсказания и вычисляют вероятности каждого токена. Если вторая модель даёт более высокие вероятности (то есть «тратит» на их декодинг меньше бит, чем референсная), она экономит относительно референсной модели определённое число бит. Сумма сэкономленных бит по всем фрагментам и есть общий объём выученной информации.

Вот так и получилось число 3.6 бит/параметр.

Самое важное, что этот показатель дает возможность четко определить момент перехода запоминания в обобщение: он происходит, когда объём данных в битах примерно равен общей ёмкости модели. И да, экспериментально это сходится: как раз на этом объеме данных тестовый лосс начинает резко падать. Это, кстати, часто называют грокингом.

Красота, как она есть arxiv.org/abs/2505.24832
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥91🔥4024137👍2🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
Забавное: Сэма Альтмана спросили, что бы он делал, окажись у него прямо сейчас в 1000 раз больше компьюта. Ответ оказался из серии "вот это поворот":

Я бы попросил ChatGPT очень усердно подумать над тем, как нам создать лучшие модели, а затем спросил бы эти лучшие модели, что нам делать со всем этим компьютом. Я думаю, это было бы рационально.


Кстати, буквально за 10 минут до этого он сказал, что, на самом деле, идеальная языковая модель будущего не должна быть огромной. Наоборот, это должна быть маленькая модель, которая просто: в совершенстве владеет всеми возможными инструментами, умеет рассуждать на уровне выше человеческого и имеет контекст 1 триллион токенов.

Источник: новое интервью с Snowflake Summit 2025
😁1614124👍16🤯9🔥2
О, TechCrunch пишет, что Mistral собираются выпускать собственного агента для кодинга Mistral Code

Он основан на комбинации Codestral, Codestral Embed, Devstral и Mistral Medium, и его можно будет запускать в разных IDE. Говорят, частная бетка открылась вчера, и скоро продукт выкатят на пользователей.

Кажется, скоро не останется ни одного стартапа без собственного ИИ-программиста
🔥95👍3422
MWS значительно расширила функционал MWS GPT - b2b-платформы для работы с ИИ

Одно из главных нововведений - увеличение числа доступных моделей, теперь их более 40, включая Open Source LLM. Можно сравнивать, тестировать и выбирать ту, что лучше справится с конкретным кейсом.

Можно настраивать сложные сценарии, в которых один агент управляет несколькими помощниками с четко определенным функционалом - для этого в обновленной версии внедрили поддержку мультиагентных архитектур в low-code-конструкторе.

RAG и Vision в ChatUI: ИИ анализирует и выдает краткое содержание из объемных текстов и изображений, отвечает на вопросы по инструкциям и описывает графические материалы.

Ограниченному кругу пользователей доступен FineTune - инструмент для адаптации уже обученной языковой модели к конкретной задаче. Разработчики обещают добавить аналогичный функционал для работы с изображениями и сделать FineTune доступным всем клиентам в следующих обновлениях.

Следите за новостями здесь
👍3014🔥8😁2
OpenAI показали большое обновление ChatGPT для бизнеса: теперь в бота можно интегрировать любые базы знаний вашей компании

Подсоединить к ChatGPT можно Google Drive, Dropbox, SharePoint, Box, OneDrive и другие сервисы. По этим данным можно будет осуществлять поиск, Deep Reserch, ну или просто обрабатывать как хотите.

Это называется "коннекторы", фича раскатывается на пользователей Team и Enterprise. Говорят, что данные "будут оставаться внутри периметра компании", и у каждого юзера будет доступ только к тем файлам, к которым у него есть доступ в корпоративной структуре.

Кроме того, OpenAI анонсировали record mode: это режим записи и транскрибирования любых ваших встреч. Модель сможет автоматически получать доступ к вашим встречам из Teams, Zoom, Google Meet и так далее (+ коннектиться с календарем) и обрабатывать информацию со встречи.

Можно будет задавать по митингам вопросы, суммаризировать, превратить в документ, таблицу и прочее. Доступно, аналогично, для Enterprise. В Team завезут в ближайшее время.

Кстати, как раз сегодня OpenAI пробили три миллиона платных бизнес-пользователей 🤑

Ну и, по классике, ищем на скрине со стрима пасхалки ⬆️
Please open Telegram to view this post
VIEW IN TELEGRAM
119🤯43🔥20👍11🗿10😁83🤔2
Media is too big
VIEW IN TELEGRAM
⚡️ Вайбкодерам салют: вышел Cursor 1.0

(Да, 1.0. Видимо все до этого было MVP). Ну так вот, что нового:

Теперь есть поддержка Jupyter Notebooks! Агент наконец-то сможет создавать и редактировать ячейки прямо внутри ноутбуков. Пока что это будет работать только с Sonnet, но скоро обещают добавить больше моделей.

Добавили BugBot для гитхаба. Агент будет автоматически просматривать ваши PR, вылавливать потенциальные ошибки и проблемы и оставлять комментарии. Прямо внутри комментария можно будет нажать на «Исправить в Cursor», чтобы сразу провалиться в редактор с автоматически созданным промптом для исправления бага.

Background Agent теперь доступен всем. Это фича для удаленного выполнения задач в фоновом режиме. Агенты работают над задачами асинхронно, так что можно поручить много тасок отдельным экземплярам.

Расширенная контекстная память, как в ChatGPT. Теперь Cursor сможет запоминать какие-то факты из диалогов и учитывать их в будущем.

MCP теперь можно добавлять одним щелчком мыши. На сайте уже лежит список официальных серверов (+ можно добавить свой).

Changelog 🍯
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥147👍43273