Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Микроскоп для LLM: новое исследование от Anthropic

Anthropic известны своими работами по интерпретируемости. Раньше их основным подходом, который затем переняли OpenAI и Google, были SAE (наши разборы №1, №2, №3, №4, №5). А теперь они предлагают новый метод, который позволяет строить полноценные схемы мыслей ИИ, – Circuit Tracing, то есть цепная трассировка. Технически это вот так:

1. Берем обученный трансформер и определенную задачу.

2. Создаем замещающую модель: некоторые компоненты трансформера заменяем на интерпретируемые линейные модельки, их называют Cross-Layer Transcoder.

3. На конкретной выбранной задаче обучаем транскодеры вести себя также, как оригинальный компонент, то есть решаем задачу минимизации MSE Loss между выходами оригинального слоя и замененного.

4. Теперь у нас есть линеазированная интерпретируемая аппроксимация нашего трансформера, и на ней мы можем отследить потоки активаций через все слои.

5. Используя эти потоки, строим граф атрибуции, отражающий пути влияния одних признаков на другие. Анализируя этот граф, можно выделять какие-то интерпретируемые концепты и рисовать настоящие карты "размышлений" модели.

Как выглядят такие итоговые карты для Claude – посмотрите на картинках 2, 3, 4, 5. Там много интересного, если вглядеться. Например:

Несмотря на то, что модель решает только задачу next token prediction, она думает наперед. Это видно в задаче написания стихов: Claude планирует рифму еще до того, как начинает писать новую строчку.
Claude умеет считать "в уме". Вопреки расхожему мнению, оказывается, что модель не просто запоминает ответы математических задач, а действительно использует сложные вычислительные пути для их решения.
Даже галлюцинации оказываются вполне объяснимой вещью: исследователи обнаружили конкретную фичу "ответ известен", и, если она активируется по ошибке, модель начинает выдумывать.
Из смешного: если сразу сказать модели ответ на задачу, она будет думать в обратном направлении, то есть пытаться придумать правдоподобное решение для ответа.


Статья про подход | Статья про эксперименты на Claude (советуем прочитать полностью, действительно очень интересное исследование)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥117👍31🤯185🤔5🤨1
Конспекты по ML в стиле Ghibli

Все соцсети заполнены генерациями новой GPT-4o в стиле японской анимационной студии Ghibli. Мы тоже решили не отставать и нагенерировали вам... ML-конспектов 🤓

Получился определено плюс вайб. Пишите в комментарии, какие еще ML-темы порисовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16671🔥35😁10😍10🤯6🗿5👏3🤨2👾1
Data Secrets
В соцсетях бурно обсуждают только что вышедшего агента Manus: это Operator, Deep Research и Cursor в одном флаконе Его выпустила одноименная китайская лаборатория и этот релиз уже называют DeepSeek moment v2. Чем он цепляет: 1. Он действительно автономный.…
У того самого китайского агента Manus появилось iOS приложение + стали известны цены на подписку

За 39 долларов можно получить 3900 кредитов, за 199 $ – 19 900. В среднем простенькая задача стоит 100-200 кредитов, посложнее 300-500.

А что, не все китайские модели бесплатные? 🥺
😁113🤯30🔥11🤨11🗿5👍31
Облачные технологии — ключ к эффективному AI

Это логично — облачные технологии упрощают доступ к сервисам для работы с big data и делают инструменты для ML-разработки и создания AI-агентов доступнее.

Как использовать эти возможности на практике? Эти вопросы все чаще поднимаются в профессиональном сообществе — например, на профильных конференциях. 10 апреля на GoCloud – ежегодной конференции провайдера облачных и AI-технологий Cloud․ru, судя по заявленной программе, можно будет узнать много нового о практическом применении AI и как оптимально настроить работу ML-инженера в облаке.

Программа насыщенная: помимо AI, будет еще два трека «Инфраструктура и сервисы» – про новые возможности Cloud․ru Evolution, а также «Сценарии работы в облаке», где спикеры поделятся опытом применения облачных технологий.
👍16🔥74😁4🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
NVIDIA выпустила Project G-Assist для настройки и оптимизации игровых ПК

Ассистента анонсировали еще на Computex 2024, но только сейчас экспериментально раскатывают на пользователей. Пока это доступно только владельцам GeForce RTX, но вот что G-Assist может:

🟦Оптимизирует графику и системные настройки для игр или других целей
🟦Диагностирует систему и постоянно мониторит производительность
🟦Повышает эффективность GPU и поможет установить любой NVIDIA стафф

Все крутится на Llama 8В, так что ассистент не прожорливый и запускается локально. Ну и работает бесплатно, если вы уже владелец RTX с минимум 12 ГБ видеопамяти.

www.nvidia.com/en-us/geforce/news/g-assist-ai-companion-for-rtx-ai-pcs/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46🔥156
Парень попросил gpt-4o сгенерировать первую страницу его самой нелюбимой статьи и получил шапку «Attention is all you need»

На этом все.
2😁300👍29🤯15💯71
Media is too big
VIEW IN TELEGRAM
Fun fact: в Meta вообще не используют термин AGI, на этом настаивает Ян Лекун

Дело в том, что AGI (Artificial General Intelligence) означает интеллект не хуже человеческого уровня. Лекун же говорит, что это определение не подходит, потому что на самом деле человеческий интеллект далеко не General.

Вместо этого ученый и его команда используют сокращение AMI – Advanced Machine Intelligence.
2👍139🔥24🤨167💯3🗿2
Всплыли некоторые подробности увольнения Сэма Альтмана осенью 2023 года

The Wall Street Journal выпустил статью-отрывок из будущей книги “The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future”, в которой раскрыли некоторые подробности событий ноября 2023.

Оказалось, что Сэм несколько раз лгал и недоговаривал совету директоров:

Однажды при обсуждении новой модели GPT-4 он солгал, что она прошла проверку безопасности. После перепроверки оказалось, что это не так.

Тестирование GPT-4 на пользователях также началось без ведома директоров.

В другой раз он сказал Мире Мурати, что юридический отдел подтвердил, что GPT-4 Turbo не нужно пропускать через тест безопасности в Microsoft. В последствие главный юрист компании отрицал это.

Ну и вишенка: хотя Альтман не владел никакими акциями OpenAI (помните вот это "I do It because I love It"?), оказалось, что ему тайно принадлежал инвестиционный фонд OpenAI Startup Fund. Сэм утверждал, что прибыли тот не несет, но все равно зачем-то скрывал факт владения от совета.

А еще выяснилось, что помимо Ильи Суцкевера, руку к увольнению Альтмана непосредственно приложила Мира Мурати. Они с Ильей вместе собирали документальные доказательства лжи и токсичности Альтмана и Грега Брокмана. На том же совете, на котором решили уволить Сэма, Миру назначили новым временным CEO.

Это забавно, потому что именно Мира сразу после увольнения Альтмана сделала вид, что она не в курсе "заговора" и возглавила протест сотрудников против увольнения Сэма. Она вместе с 95% сотрудников (и Суцкевером в том числе) подписала петицию с угрозой массового увольнения. Именно поэтому Альтмана восстановили.

Вот такая вот кремниевая игра престолов 👀

P.S. Сама статья WSJ платная, но бесплатное зеркало есть тут, так что можете легко прочитать полностью
Please open Telegram to view this post
VIEW IN TELEGRAM
👍114🫡43😁3522🤯19🤔8🔥5👻5🍓1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
Наткнулись на недавнее интервью Джеффри Хинтона, в котором он называет RLHF «кучкой дерьма»

RLHF на сегодняшний день – один из основных алгоритмов пост-трейнинга. Без него не обходится почти ни одна моделька + на RLHF строится почти любой элаймент.

Но нобелевский лауреат подход все равно недолюбливает и сравнивает его с покраской ржавой машины, которую вы хотите продать 🤷‍♂️🤷‍♂️🤷‍♂️

youtu.be/61BGgwN36Ps
Please open Telegram to view this post
VIEW IN TELEGRAM
😁75🔥56🤔13👍119💯1🤨1
Data Secrets
Итак, нативная обработка изображений от OpenAI вышла, работает супер и даже доступна бесплатным пользователям Но... Google затмил сегодня вечером всех, выпустив Gemini 2.5 Pro. Это та самая модель, которая на арене висела на первом месте под названием Nebula.…
Google сделали свою новую модель Gemini 2.5 Pro бесплатной

Теперь она доступна абсолютно всем юзерам. Все что нужно – аккаунт Google 🥳

Напоминаем, что сейчас Gemini 2.5 Pro занимает первое место во всех номинациях на арене (с отрывом), бьет на кодинге o1, o3-mini и Sonnet 3.7. А еще она мультимодальная и контекст у нее – миллион (!) токенов.

Пробуем: gemini.google.com
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20436👍24❤‍🔥5🗿2
xAI поглотил X или история о том, как Илон Маск будет платить долги Твиттера деньгами ИИ-инвесторов

Поехали разбираться:

Маск купил Твиттер за 44$ млрд два с половиной года назад, но за это время оценка компании успела сильно упасть. В какой-то момент сообщалась, что она стоит менее 10 млрд. Но после инагурации Трампа оценка снова выросла, потому что платформа стала "более влиятельной".

Маск сообщил о поглощении в эту субботу и написал, что X при покупке оценили в в 33 миллиарда (45 - долги 12 млрд). При этом он также сообщил, что xAI теперь стоит 80 миллиардов. Это почти в два раза больше, чем в декабре: тогда озвучивалась сумма в 45 миллиардов.

Итого уже получаем высокую (и, что важно, фактически доказанную сделкой) стоимость X + подорожание xAI + вероятно более широкий доступ xAI к данным X. И это все, можно сказать, бесплатно: покупка была полностью оплачена акциями.

Интересно, что пишет WSJ: "Руководители обеих компаний посчитали, что будет проще привлекать деньги для объединенной компании". То есть теперь Маск будет получать больше инвестиций на мощный ИИ с огромным доступом к данным X, но тратить эти деньги сможет на покрытие долгов соцсети.

Это не первый случай стирания границ между компаниями Маска. На самом деле, у него уже даже были юридические проблемы на этой почве. Посмотрим, чем все закончится в этот раз.
Please open Telegram to view this post
VIEW IN TELEGRAM
😎77🤔26😁12👍11🔥732
Краткое содержание предыдущего поста:
😁159😎2310👍5🦄5🔥2