Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Google выпустили инструмент "Learn Your Way". Это персонализированный репетитор, который поможет вам усвоить любую тему

Система считывает ваши увлечения, а затем любую тему объясняет так, чтобы вам было понятно и интересно. Например, если вы любите баскетбол и должны выучить законы Ньютона, то все примеры начинают строится вокруг бросков и дриблинга. Если вы художник и изучаете экономику, то всё сведется к галерейным аукционам и арт-рынкам.

Но на этом персонализация не заканчивается. Learn Your Way также умеет:

– Создавать майндмэпы, если вам удобнее воспринимать информацию визуально
– Генерировать аудиоуроки, если хотите слушать, а не читать
– Рисовать всякие интерактивные штуки (типа временных шкал, по которым можно тыкать)
Задавать вопросы и делать тесты, которые меняются в зависимости от того, что вы делаете неправильно

Внутри работает мультиагентная система LearnLM на базе Gemini 2.5 Pro. Даже есть специальный агент для рисования обучающих иллюстраций.

Тестировали систему на 60 чикагских студентах в возрасте от 15 до 18 лет. Им дали 40 минут на то, чтобы поизучать незнакомую им всем тему: одна группа просто читала PDFки, другая работала с LYW. Итог: через 5 дней те, кто работал с PDF, помнили материал на 67%, а те, кто учил с Learn Your Way – на 78%. Кроме того, 100% студентов, работавших с ИИ, чувствовали себя более комфортно и заинтересованно по ходу задания.

А еще систему по нескольким специальным критериям оценивали профессионалы из области образования. Получилась довольно положительная картина (скрин 2).

Тулза пока работает в режиме эксперимента, но попробовать уже можно тут. А вот здесь лежит статья

Резко захотелось поучиться
214937👍29❤‍🔥15🔥9🤔3😁1
Большая коалиция из 10 Нобелевских лауреатов, 70 компаний и бывших глав государств подписала требование о введении глобальных «красных линий» для ИИ

Об этом стало известно сегодня на заседании Генеральной Ассамблеи ООН. Всего требование подписало 200 человек: бизнесмены, политики, ученые. Среди них Джеффри Хинтон, Йошуа Бенджио и Войцех Заремба (соучредитель OpenAI).

Кратко о содержании:

– Подписанты требуют ввести международные юридически обязывающие «красные линии» для развития и применения ИИ. Это нужно, чтобы исключить глобальные риски для человечества: массовую безработицу, искусственные пандемии, нарушение прав человека и тд.

– Конкретный список таких «красных линий» не приведен, но предлагают, например, запрет на использование ИИ для производства оружия, организации массовых атак, несанкционированное реплицирование ИИ-систем (в том числе без участия человека) и все такое.

– Государства должны (в кавычках) договориться о таких правилах до конца 2026 года, а также нужно создать независимый международный орган для мониторинга соблюдения законов и оперативной оценки угроз.

Вот такой вот внушительный прецедент. На данный момент это самая крупная подобная петиция. Посмотрим, что выйдет.

https://red-lines.ai/
1😁12760🔥3322👍209🗿53🤔2🤯1
В честь сделки с Nvidia Альтман написал новое эссе под названием "Изобилие интеллекта"

Оно небольшое, поэтому прямо тут приведем перевод полностью с небольшими сокращениями:

Рост использования AI-сервисов поражает, и мы ожидаем, что в будущем он станет ещё более стремительным.

По мере того как ИИ становится умнее, доступ к нему может стать не только ключевым драйвером экономики, но и со временем – базовым правом человека. Почти каждый захочет, чтобы у него было больше ИИ, работающего на его благо.

Чтобы обеспечить миру необходимые мощности для инференса и обучения всё более совершенных моделей, мы закладываем фундамент для масштабного роста AI-инфраструктуры.

Если ИИ сохранит текущую траекторию развития, нас ждут невероятные возможности. Например, с 10 гигаваттами вычислительных мощностей ИИ может найти способ вылечить рак или создать персонализированное обучение для каждого ребёнка на Земле. Но если мощности будут ограничены, придётся выбирать, что важнее. Никто не хочет делать такой выбор – значит, нужно строить.

Наша цель проста: создать фабрику, которая сможет выпускать по гигаватту новых AI-мощностей каждую неделю. Это невероятно сложная задача, требующая инноваций на всех уровнях – от чипов и энергетики до строительства и робототехники. Мы уже активно работаем над этим и верим, что это возможно. В нашем понимании, это может стать самым важным инфраструктурным проектом в истории.

В ближайшие месяцы мы поделимся планами и расскажем о партнёрах, а позже о том, как будем финансировать проект. Ведь рост вычислительных мощностей – ключ к росту дохода, и у нас есть несколько нестандартных идей.


Про выбор между раком и образованием мысль интересная. Но главное, что мы извлекаем из текста: OpenAI собирается строить самый масштабный конвейер мощностей, какой только можно представить.

Как это будет выглядеть, пока не до конца понятно, но один гигаватт в неделю – это 52 гигаватта в год. А это значит, что примерно (расчеты на коленке) к 2035 ИИ будет потреблять уже столько же энергии, сколько потребляет вся Америка.

А – амбиции
913418😁14👍10🔥4
Новые модели Qwen: уровень GPT-5 и Grok 4 от китайцев

В этот раз лаборатория показала сразу несколько моделей:

Основная: Qwen3-Max, новый флагман лабы. Есть варианты Instruct (без ризонинга) и Thinking. Instruct перебивает на бенчах Claude Opus 4 Non-thinking. А вариант с ризонингом – вообще что-то: уровень GPT-5 и Grok4 Heavy на AIME25 (100%), HMMT25 (100%) и GPQA (85%). Весов пока нет, но в чате можно попробовать бесплатно.

Qwen3-VL – новая vision-language модель, которая опережает Gemini 2.5 Pro. Также есть варианты с ризонингом и без. Например, модель можно использовать как Computer Use агента или как Visual Coding агента (аля напиши сайт с дизайном, как на картинке). И, кстати, модель не супер массивная: MoE на 235В с 22 авктивными. Веса.

Обновленный Qwen3-Coder. Добавили мультимодальность + прокачали метрики. На SWE-Bench теперь выбивает почти 70% (это, опять же, примерно уровень Opus 4 и GPT-5).

Кажется, это R1-moment для Qwen. Все модели уже можно попробовать в чате chat.qwen.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥19234👍2697❤‍🔥4😁3🤔2👌1🦄1😎1
Луший хардовый курс этой осени для ML-инженеров и разработчиков

Если вы давно хотели изучить LLM на практике от А до Я, то эта новость точно для вас.

GIGASCHOOL, совместно с крупнейшей магистратурой по искусственному интеллекту AI Talent Hab, запустили большой курс "LLM-инженер". На нем вас научат выходить за рамки ipynb и создавать рабочие системы на базе LLM.

Вы научитесь:

➡️дообучать модели (fine-tuning, PEFT, LoRA / QLoRA, RLHF);
➡️работать с LangChain, LangGraph и векторными базами;
➡️собирать рабочие архитектуры под реальные задачи;
➡️строить RAG‑системы, реализовывать инфопоиск и защищать LLM;
➡️собирать пайплайны, деплоить, трекать, версионировать;
➡️проектировать мультиагентные решения и ассистентов.

Как видите, собрано все самое актуальное (программа подробнее здесь). Плюс, каждая тема будет глубоко разбираться на практике, так что с курса вы выйдете уже с опытом и готовыми наработками в виде кода.

Спикеры – эксперты из больших ИИ-команд. В частности, лекции будет читать NLP Lead X5 Tech Потехин Александр, директор по разработке моделей в Газпромбанке Желтова Кристина и CEO HiveTrace Евгений Кокуйкин.

Стартует курс 15 октября и продлится 25 недель (не пугайтесь, в расписании есть каникулы). Всего будет 252 часа теории и практики, а в конце выдадут серьезный диплом о профессиональной подготовке. И кстати, сегодня предпоследний день по самой низкой цене.

Не теряйте время и регистрируйтесь по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿5214🔥12🤯3👍2🤔1🕊1
Лайфхак для всех, кому в LinkedIn написывают боты

Парень просто добавил себе в био промпт с оберткой в стиле XML, и теперь ему на почту периодически приходят рецепты пирога.

Кажется, это называется «современные проблемы требуют современных решений»
1😁343🔥39👍2111🍓6😎54🎉311
О, Kaggle проведет бесплатный 5-дневный интенсив, посвященный агентам

Обещают много практики, онлайн лекции и даже домашки + итоговый проект. Таким надо пользоваться, коллеги.

Программа кратко:

День 1 – основные концепции, ключевые отличия от обычных LLM, архитектуры
День 2 – Tool Use, MCP, использование API
День 3 – память, способы расширения контекста
День 4 – метрики, мониторинг, легирование, эвал и прозрачность пайплайнов
День 5 – деплой и масштабирование агентов и мультиагентных систем, протокол Agent2Agent

Вроде выглядит годно. Прошлые их интенсивы вызывали огромный ажиотаж (в Generative AI Course участвовали почти 5к человек), так что этот, вероятно, тоже получится хорошим. И еще раз: это бесплатно и никакого отбора проходить не нужно, только регистрация. 10-14 ноября.

rsvp.withgoogle.com/events/google-ai-agents-intensive_2025
🔥116👍2718😁1👌1
Только что наткнулись на вот такую картинку в Твиттере. Попадание 10 из 10, согласитесь?

P.S. Пост для миллениалов, остальным соболезнуем
6😁303🔥472616🗿13🤨9😎76🤔5🐳5🦄5
Секретное оружие аналитика: ИИ, встроенный в дашборды, стал доступен всем

Раскрываем еще один data-секрет! С 24 сентября открывается массовый доступ к ии-агенту внутри BI-системы DataLens.

Нейроаналитик — это ваш напарник прямо в интерфейсе DataLens. Вы показываете ему график, а он помогает его понять: находит инсайты, аномалии и формулирует выводы

Что он делает?
• Смотрит на дашборд и пишет, что там происходит.
• Отвечает на ваши вопросы по данным в чате.
• Помогает создавать кастомные графики, генерируя необходимый код.


Выгода очевидна: меньше рутины, больше инсайтов и ускорение проверки гипотез на 30%.
140🗿21👍13🤯5🔥4🦄2
Teaching LLM to Plan: разбираем свежую громкую статью от MIT про новый подход к обучению моделей мыслить

Как мы уже много раз писали, сейчас ризонинг (хотя он и работает замечательно) – это на самом деле никакой не ризонинг. Рассуждения в LLM называются так чисто условно: на деле мы остаемся в абсолютно той же парадигме, просто модель теперь генерирует для ответа больше токенов.

А вот как научить LLM действительно рассуждать "по-человечески" – это вопрос. MIT предложили один из вариантов. Идея вот в чем:

– Настоящее планирование, если подумать, требует не просто генерации текста, а умения переходить из состояния в состояние. Например, строго: из состояния А следует Б или В, Г не может следовать из А, цепочка A->Б не приведет к цели, значит переходим в состояние В. На деле очень многие задачи на "мышление" раскладываются именно в такие цепочки: головоломки, логические задачки, да даже математика.

– Такие рассуждения называются символьными. И MIT утверждают, что вместо того, чтобы учить модель генерировать просто "какой-то правдоподобный" CoT в виде обычных токенов, мы можем учить ее генерировать такие вот символьные цепочки, и это повысит надежность ризонинга.

– При этом нам даже не нужна разметка, потому что эти цепочки можно проверять верификатором (как делали DeepSeek, когда обучали DeepSeek-Prover-V2). Сначала модели просто показывают много цепочек, учат отделять правильные от неправильных и объяснять, что не так. Затем что-то похожее на RL: модель генерирует CoT, его проверяет верификатор, получаем фидбэк и на нем делаем шаг обучения.

Результат: на задачах из тестов такой ризонинг дает +30–60 п.п. к обычному ризонингу и кратные улучшения относительно бейзлайна. Правда, домен в статье довольно узкий (и модельки брали старые + для GPT-4 вообще prompt-based tuning). Интересно, получится ли подобное применить на более высоком уровне.

https://arxiv.org/pdf/2509.13351
6335👍15🔥10🤔43🤯2😁1
Что-то новенькое: Meta* выпустили собственную модель для кодинга Code World Model

По названию уже ясно, что она не совсем обычная. И действительно: идея компании была в том, чтобы сделать кодинг-модель, не просто генерирующую следующие токены, а понимающую, как код выполняется и как он изменяет состояние системы.

То есть модель как бы становится виртуальным интерпретатором и может рассуждать о том, что конкретно произойдет при изменении, например, той или иной строчки. Обучали так, в три фазы:

1. Pre-training (8T токенов). Классическое предобучение на большом корпусе, 30% данных – код.

2. Mid-training (5T токенов). Главная изюминка. Обучение на данных, которые симулируют динамику вычислений (то есть буквально на world modeling сценариях). Тут было два основных типа данных.

Первый – Python Execution Traces. На них модельку учат точно последовательно предсказывать, что произойдёт при запуске программы с теми или иными начальными данными, как будут менятся состояния переменных от шага к шагу, какой будет стек вызовов и прочее. И все, как на ЕГЭ, без реального запуска кода.

Второй тип данных – ForagerAgent, агентные сценарии в Docker. Модель учится вести себя как разработчик, который работает с реальным проектом, редачит файлы, исправляет баги, запускает тесты и тд. Проекты брали с GitHub, некоторый оставляли как есть с их ошибками, в некоторые подмешивали искусственные баги. SWE-bench задачи исключили для честной оценки (это важно!).

3. Post-training (272B токенов). На самом деле это даже два этапа в одном: SFT файнтюнинг и RL. Но тут уже, в целом, все как у всех.

Метрики – на графике. До GPT-5 и Sonnet 4 не дотягивает, но GPT-oss и последний R1 бьет более менее уверенно. Модель, кстати, небольшая, всего 32B.

В общем, достаточно занятный релиз случился, будем пробовать. Веса CWM можно найти здесь (лицензия исследовательская, некоммер).

И вот еще GitHub и техотчет
1🔥88👍30163🤯3
Если вы думали, что новости про хантинг Цукерберга закончились, то передумайте: сегодня стало известно, что он переманил еще одного крайне значимого исследователя из OpenAI

На этот раз к Meta* присоединился один из изобретателей концепции диффузионных моделей – Yang Song. Именно он с соавторами в 2020 году впервые предложил идею Score-Based Generative Modeling, на которой до сих пор и строится большинство современных генераторов картинок и видео.

Yang долгое время возглавлял команду Strategic Explorations в OpenAI. Теперь он назначен ведущим научным сотрудником в MSL, и будет заниматься поиском новых архитектур и методов для обучения моделей.

Сэма уже даже немного жалко
👍7350😁19119👏2🗿2