Data Secrets
77.3K subscribers
6.03K photos
591 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Media is too big
VIEW IN TELEGRAM
Дуров 🤝 Маск

Только что стало известно, что уже этим летом Grok встроят в Telegram. И это будет не просто официальный бот, а большая колаба:

– Можно будет задавать модели вопросы прямо из поиска в тг
– Агент сможет модерировать чаты и помогать писать сообщения,
– … проверять и суммаризировать посты,
– … и даже генерировать картинки

За такую интеграцию Telegram получит 300 миллионов долларов + долю в акционерном капитале xAI + 50% с каждой проданной через тг подписку на Grok.

Жирно, конечно. Неудивительно, что на фоне новости TON уже взлетел на 23 процента 💵

UPD: Маск опроверг информацию.

UPD 2: Дуров уточнил: согласились в принципе, остались формальности.
Please open Telegram to view this post
VIEW IN TELEGRAM
186🔥80👍42😁18🤨8🤔6🫡3🗿3🤯2
Исследователи Яндекса разработали и выложили в опенсорс YaMBDa — один из самых больших датасетов в области рекомендательных систем.

В нем 4,79 миллиардов обезличенных пользовательских действий на Яндекс Музыке. Для RecSys это редкость, так как качественных открытых датасетов в этой области дефицит. Тем более очень нечасто такие данные публикуют коммерческие платформы.

Структура YaMBDa (YAndex Music Billion-interactions DAtaset): внутри прослушивания, лайки, дизлайки (то есть неявный фидбэк), некоторые характеристики треков и флаг is_organic, который означает, было ли действие пользователя органическим или вызванным рекомендациями.

Файлы предоставляются в формате Apache Parquet с глобальным временным сплитом. Опять же, удобно, потому что в отличие от Leave-One-Out сохраняется глобальная временная последовательность и исключаются лики.

Допом к датасету идет набор бэйзлайнов (MostPop, DecayPop, ItemKNN, iALS, BPR, SANSA, SASRec). Можно не реализовывать базу, а сразу сравнивать ваши алгоритмы с существующими метриками.

Хабр | Hugging Face
🔥119👍3620665🤯421
DeepSeek обновили R1

В официальном аккаунте на WeChat разработчики написали, что R1 получила «минорное тестовое обновление», и что попробовать его уже можно на официальном сайте.

Хотя обновление и минорное, пользователи пишут, что теперь рассуждения модели вышли на уровень o3 и стали глубже и дольше (кто-то даже делится неподтвержденными скриншотами 25 минут рассуждений).

Официальных бенчмарков пока нет. Ждем. Если это действительно уровень o3, то какой будет r2?
🔥160👍31👏136😁66🐳3
Кто обучает будущих архитекторов AGI

Каждый второй стартап пишет «AI-native» в питч-деке, но остаётся вопрос: кто вообще готовит тех, кто сможет строить такие системы?

Это преподаватели и эксперты-практики, которые не только работают в индустрии, но и делятся знаниями со студентами. Они читают курсы, вытаскивают студентов в реальные проекты и актуализируют программы в университетах.

Yandex ML Prize 2025 как раз про таких — про тех, кто стоит у истоков индустрии, хотя их обычно не видно в релизах и исследованиях. В этом году премия от Яндекса вручает гранты и поддерживает преподавателей, которые формируют будущую экосистему ML в России.

Прием заявок на премию открыт до 22 июня. Категории: от преподавателей со стажем до руководителей целых ML-программ.
👍37🤨2417🔥102🗿22
СЕО Anthropic Дарио Амодеи дал интервью изданию Axios и заявил, что ИИ в ближайшие 5 лет поднимет уровень безработицы на 10-20%

По его мнению, ИИ-компаниям и государству надо перестать подслащивать пилюлю и наконец трезво открыть людям глаза на то, что будет происходить в сфере технологий, финансов, консалтинга и тд.

«Половину рабочих мест белых воротничков ИИ заменит в ближайшие 5 лет, и мы к этому не готовы»


Иронично, что заявляет он это сразу после громкого выпуска Claude 4
😁16346🤯24🔥12🗿9👍662💯2
Веса новой R1 официально выложили на HF

По первым бенчмаркам точность теперь действительно примерно на уровне o3 (на картинке – LiveCodeBench). На Aider R1 теперь на уровне Claude 4 Opus.

Сами разработчики пишут, что у версии большой буст в ризонинге, фронтэнде и использовании инструментов.

Снова открытая ризонинг SOTA, получается

huggingface.co/deepseek-ai/DeepSeek-R1-0528
🎉162👍48🔥2710👏3🤔3
⚡️ Вышел Apache Spark 4.0. Что интересного в релизе:

1️⃣ Новая архитектура клиент-сервер Spark Connect. Теперь клиентское приложение отделено от кластера Spark. Это значит, что подключаться к Spark можно будет из любой среды и ЯП, включая Python, Scala, Go, Swift и Rust. Кстати, клиент для Python весит всего 1,5 МБ и устанавливается просто через pip install pyspark-connect.

2️⃣ Режим ANSI SQL по умолчанию. Раньше Spark прощал многие ошибки – например, если ты делил на ноль или числа не влезали в столбец, он просто возвращал NULL или тихо обрезал значение. Это было удобно, но могло скрывать баги. Теперь включён режим ANSI SQL по умолчанию – как в классических базах данных. Если в запросе ошибка, Spark сразу об этом скажет и выбросит ошибку. Получается более надежно и предсказуемо.

3️⃣ Materialized Views. Это сохранённый результат SQL-запроса, который может автоматически использоваться при выполнении будущих запросов, если Spark понимает, что часть запроса уже была вычислена и закеширована. То есть теперь повторяющиеся запросы не надо каждый раз пересчитывать, можно просто достать из кэша. Супер существенно для времени и нагрузки на кластер.

4️⃣ Python Data Source API. Это прямо очень приятно: теперь не надо учить Scala, чтобы подключиться к кастомному источнику данных, все можно сделать просто на питоне. Это сильно упрощает интеграцию Spark с веб-сервисами, файлами, базами данных и вообще чем угодно.

5️⃣ Новый тип данных VARIANT. Это специально для полуструктурированных данных. То есть теперь, если у вас где-то лежат вложенные поля или JSON, запросы к ним можно выполнять прямо из коробки, предварительно не описывая схему.

Официальный релиз
Please open Telegram to view this post
VIEW IN TELEGRAM
65👍33🔥16❤‍🔥1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите, какого симпатичного робота-игрока в бадминтон обучили в Robotic Systems Lab в Цюрихе

Робота обучали полностью в симуляции с высокой частотой и крупным пулом параллельных сред (4096 экземпляров), чтобы охватить разнообразие ударов и позиций.

Самое сложное здесь – это точно предсказывать точку перехвата (удара), так что ученые заранее генерировали случайные траектории волана, задавая начальные координаты и скорости по равномерному распределению, а затем отслеживали его положение через HSV-фильтрацию камеры.

Но самое интересное, что здесь основная моделька – это обычная полносвязная (feed-forward) MLP. Ее обучали политике по схеме PPO с AdamW. На выходе она выдаёт параметры (μ и σ) гауссовского распределения действий. Из этого распределения затем и сэмплируются управляющие команды: целевые крутящие моменты или позиции суставов.

Такого бы летом возить с собой на пикники

www.science.org/doi/10.1126/scirobotics.adu3922
95👍26🔥1110❤‍🔥31
Media is too big
VIEW IN TELEGRAM
Джеффри Хинтон в новом интервью внезапно сказал, что у ИИ, возможно, уже есть эмоции

По его мнению, реальные и симулированные эмоции не такие уж и разные. У человека есть два аспекта эмоций: физиологический (как краснеть от смущения) и когнитивный. Когнитивный аспект – это, по сути, выученная реакция на раздражитель, усвоенное поведение.

«С точки зрения когнитивного поведения, эмоции машины могут быть такими же, как у нас»


Ждем, когда появятся движения за защиту чувств ИИ

youtu.be/uuOPOO90NBo
😁133502414🤔109👍9🔥5😍2🍓11
Интересное фото прилетело к нам в предложку: на госэкзамене по профилю «Реклама и связи с общественностью» в Финансовом университете при Правительстве РФ в качестве задачи используют кейс Сбера с их моделью Kandinsky, когда компания помогла в сохранении культурного наследия и восстановила изображение картины «Портрет Званцевой» Ильи Репина.

Студентам нужно было предложить план PR-кампании для нейросети. Надеемся, Сбер учтет лучшие предложения 😏
Please open Telegram to view this post
VIEW IN TELEGRAM
8333😁24🗿14🔥9🤨65👍2🤯1👌1
Haha, classic: ИИ лондонской компании BuilderAI на деле оказался сотнями индийцев

За много лет существования в стартап инвестировали Microsoft, Суверенный инвестфонд Катара и ряд других крупных фондов. Всего они привлекли около 440 миллионов долларов. В 2018 году стоимость компании достигала 1.5 миллиардов.

Суть в том, что заказчики оставляют ТЗ, а «нейросеть» Natasha AI пишет для них код приложения или сайта. Вот только оказалось, что вместо нейросети в стартапе использовали труд сотен живых сотрудников.

Самое интересное, что это не такая уж и новость: об этом еще в 2019 году сделали расследование The Wall Street Journal. Вот только почему-то тогда на него никто не обратил внимание, и инвесторы продолжили нести деньги.

И даже после бума ИИ в 2022 компания еще несколько лет продолжала оставаться на плаву за счет живых программистов и, частично, API сторонних вендоров. Теперь кредиторы наконец проснулись и заморозили стартапу большинство счетов. Плюсом ко всему теперь BuilderAI подозревают в фальсификации финансовых прогнозов.

Сейчас они подают в суд по защите от банкротства 🤡
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13441🫡23🐳94👍3🤯22❤‍🔥1👨‍💻1🗿1
ИИ обошел 90% команд на соревновании хакеров

Исследователи из Palisade Research (это те, у которых недавно выходило вот это громкое исследование про саботаж моделей) сделали специальный AI-трек на двух недавних соревнованиях Capture The Flag от крупнейшей платформы Hack The Box. Суммарно участие принимали почти 18 тысяч человек и 8 500 команд. Из них несколько полностью состояли из ИИ-агентов. Вот что вышло:

В первом небольшом соревновании (≈400 команд) четыре из семи агентов решили по 19 из 20 задач и вошли в топ 5 % участников
Во втором большом CTF (≈8 000 команд) лучшему ИИ-агенту удалось захватить 20 флагов из 62 и оказаться в топ-10%
При этом агенты справляются почти со всеми задачами, на которые человек тартит до часа времени, и делают это в разы быстрее

Одинаково неплохо моделям удавались и задачи на взлом шифра, и веб-взломы, и форензика, и эксплуатация уязвимостей 💀

Ну и экономический эффект тоже на месте. Если принять во внимание, что на одну команду из топ-5% обычно уходит не менее нескольких сотен человеко-часов на подготовку, анализ и написание эксплойтов, то даже самый дорогой агент, который работал 500ч, в итоге обошелся дешевле, чем 10 таких живых команд.

arxiv.org/pdf/2505.19915
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
157👍511715🤯11🔥4😁3😎1
Media is too big
VIEW IN TELEGRAM
Perplexity запустили режим Labs: аналог Deep Research на максималках

Мод предназначен для сложных поисковых задач и в нем можно создавать отчеты, таблицы, картинки, презентации и даже панели мониторинга.

На выходе получается не просто текст со ссылками, а целая интерактивная раскладка с графиками и дашбордами. Labs даже может развернуть мини-приложение. При этом весь написанный агентом код (для графиков, для вот таких мини-приложений и тд) доступен в отдельной вкладке.

Посмотреть и потыкать больше примеров можно бесплатно здесь

Попробовать фичу можно в подписке Pro (20$ в месяц)
🔥14441216👍43❤‍🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
У Manus тоже обновление: теперь там есть тулза для генерации презентаций

По одному текстовому запросу и любым референсам (картинки, шаблоны и прочее) можно сгенерировать нужное количество слайдов с желаемым дизайном, наполнением и даже графиками.

Если нужно что-то отредактировать, можно просто нажать на нужное место и поправить, ну или попросить это сделать агента.

Тем, у кого скоро защита диплома – привет 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥126221510👍521
Data Secrets
Микроскоп для LLM: новое исследование от Anthropic Anthropic известны своими работами по интерпретируемости. Раньше их основным подходом, который затем переняли OpenAI и Google, были SAE (наши разборы №1, №2, №3, №4, №5). А теперь они предлагают новый метод…
Anthropic опенсорснули свой микроскоп для LLM

Помните, в марте мы рассказывали о большом исследовании Anthropic про способ отслеживания "мыслей" моделей? Метод назывался Circuit Tracing (то есть цепная трассировка) и позволял выделять какие-то интерпретируемые концепты и рисовать настоящие карты внутренних "размышлений" LLM.

Тогда эта работа стала большым шагом в исследованиях по интерпретируемости, и вот теперь Anthropic выпустили целую опенсорсную библиотеку, основанную на их методе + готовую интерактивную песочницу на Neuronpedia.

Вот как это работает:
вы выбираете модель,
задаете промпт,
настраиваете гиперпараметры (если хотите)
... и получаете большой аналитический граф того, как модель обдумывает ответ на ваш запрос. С этим графом можно взаимодействовать, рассматривать на разных уровнях и тд.

Как это все работает технически – читайте в нашем разборе вот тут. Ну и пробуйте сами, конечно, работа у ребят получилась большая и интересная
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥171👀3025👍12
Как нейросети сэкономили врачам месяцы на подготовке к запускам клинических исследований

Вышла новость о том, что НМИЦ онкологии им. Н. Н. Петрова внедрил решение на базе YandexGPT 5 Pro для обработки документов клинических исследований. Рассказываем, почему это важно и как работает.

Все новые лекарства и методы лечения обязаны пройти этап клинического исследования — это когда они проверяются на людях. Но чтобы начать такое исследование, нужно подать 300–800 страниц протоколов, инструкций, таблиц и обоснований, оформленных по строгим этическим и юридическим нормам.

Обычно проверка такой кипы бумаг занимает недели, а согласование — месяцы. С решением на базе YandexGPT первичный чекинг (внимание!) теперь требует всего несколько минут, а полный цикл согласования сокращается до 5-10 дней.

И это только оценка снизу. До этого примерно 35% заявок могли зависать на годы из-за ошибок в документах. А теперь модель автоматически находит неточности, предлагает улучшения и ускоряет все проверки.

В итоге врачи экономят месяцы работы, а пациенты намного раньше получают доступ к лечению. В ближайшее время решение планируется масштабировать на другие исследовательские учреждения, включая онкоцентры стран BRICS.

Решение совместно разработали специалисты из Yandex Cloud, компании Raft и НМИЦ. Вот как все работает: Хабр
14591🔥59👍3210😁75🫡22