Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Нобелевскую премию по физике этого года присудили за открытие в области квантовых вычислений

Награду только что получили Джон Кларк, Мишель Деворет и Джон Мартинис. В 80-х они впервые доказали, что явления квантовой механики, обычно наблюдаемые только на микроскопическом уровне, могут проявляться в полноразмерных системах.

Они установили, что так называемое квантово-механическое туннелирование возможно на макро-уровне. В их экспериментах использовалась сверхпроводящая электрическая цепь, и ученые смогли доказать, что она способна перейти из состояния без напряжения в состояние с напряжением, проходя через барьер, что в принципе невозможно для классических объектов в физическом мире.

Это и есть квантовый переход (то есть вся система ведёт себя как единая квантовая частица, хотя содержит огромное количество электронов).

По сути, именно с этого открытия началось все развитие квантовых компьютеров, квантовых криптографических систем и тд.

Поздравляем!
211🔥89👍3011🎉55💯2❤‍🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Ускоряем рабочие процессы: оплачивайте Cursor через МТС Оплату

Покупайте подписки для работы в пару кликов через СБП и с минимальной комиссией. Так же можно оплачивать ещё 150+ зарубежных сервисов: Replit, Sentry, Qodo, Warp, Windsurf и другие.

Весь процесс займёт не больше 5 минут. Пароли и лишние данные не нужны — только ваша почта. Оплачивайте сервисы и исправляйте баги вместе с МТС Оплатой 🤗
🗿34231210😁7🤨3🤔21🤓1🫡1😎1
В польском стартапе Pathway создали новую архитектуру нейросетей – Biological Dragon Hatchling

Идея тут в основном в том, чтобы соединить две линии развития ИИ: всеми любимые трансформеры и модели мозга. Уже доказано, что между мозгом и трансформером есть связь (см эту статью от DeepMind). Тем не менее, до спопобностей нашей черепушки LLMкам пока далеко: не хватает нескольких основных свойств.

В общем, заканчивая лирическое вступление: тут взяли трансформер и решили впаять в него некоторые фичи из мозга. Получилась графовая архитектура, в которой нейроны – это вершины, а синапсы – рёбра с весами. Модель работает как распределённая система из нейронов, которые общаются только с соседями.

С обучением все тоже не как обычно. Наш мозг учится по правилу Хебба: нейроны, которые активируются вместе, укрепляют связь. Тут это реализовано без изменений, то есть если активность нейронов A и B часто совпадает, вес ребра между ними увеличивается, и логическая взаимосвязь становится крепче. Если присмотреться, то похоже на какой-то аналог механизма внимания.

И еще одно. Веса тут разделены на две группы: фиксированные и динамические. Аналог долговременной и кратковременной памяти. Фиксированные веса – это базовые знания, они обновляются только во время обучения и далее не меняются. Динамические веса нам нужны для ризонинга. Каждый шаг рассуждения – это локальное обновление связей.

Немного запутанно, НО авторы сделали тензорную версию (BDH-GPU). Она эквивалентна BDH, но выражена в виде обычных матриц и векторов, так что её можно обучать, как трансформер. По сути там все то же внимание, пару блоков MLP, ReLU и немного специфичные активации. Все знакомо.

Но оказалось, что система с такой архитектурой демонтрирует очень приятные свойства:

1. Интерпретируемость. Каждая пара нейронов (i, j) имеет свой синапс и хранит его состояние, которое можно наблюдать и отслеживать. Плюс, активации моносемантичны. Один нейрон действительно отвечает за одно понятие.

2. BDH может легко объединять две модели с помощью простой конкотенации. Представьте, какой простор для масштабирования.

3. И к слову про масштабирование: BDH показывает те же scaling laws, что и GPT-2, и при одинаковом числе параметров модель достигает схожей точности на ряде задач. Это значит, что основное свойство трансформера сохранено.

Красиво получилось. Если еще выпустят на этой архитектуре что-нибудь осязаемое, цены не будет.

Код | Статья
123👍35🔥206👏2😁21
Google выпустили новую SOTA Computer Use модель на базе Gemini 2.5

На многих основных бенчмарках она солидно обгоняет Agent режим от ChatGPT, Claude Sonnet 4 и 4.5. Плюс, заявляется гораздо более низкая задержка.

Модель хорошо работает с вебом и неплохо – с мобильными устройствами. Для компьютерной ОС она не оптимизирована, так что, предположительно, вести себя будет не очень.

Под капотом, по сути, прокачанный tool use для Gemini 2.5. На каждом шаге ей на вход поступает скриншот экрана, и она вызывает определенные функции типа clicking или typing с нужными аргументами.

Еще хвастаются безопасностью модели. Во-первых, вы прямо в системном промпте можете контролировать, какие действия надо подтверждать, какие нет. Во-вторых, есть внешний авто-оценщик, который на каждом шаге независимо перепроверяет, что делает модель, и выбрасывает алерты, если происходит что-то не то. Подробнее можно почитать в системной карте.

Сейчас модель уже доступна в public preview. Попробовать можно через API.

Кстати, ползет слух, что на этой неделе должна выйти Gemini 3.0
👍69🔥299❤‍🔥22😁1
Anthropic выложили в опенсорс инструмент для проверки элаймента моделей

Помните все эти исследования про то, как модели начинают врать, недоговаривать, скрывать свои действия, шантажировать, саботировать процессы и прочее? Так вот теперь теперь у нас есть "домашний" инструмент для проверки всех этих сценариев – Petri (Parallel Exploration Tool for Risky Interactions). Именно его Anthropic использовали для проверки Claude 4 и Claude Sonnet 4.5.

Под капотом у Petri автоматизированный агент, который управляет контекстом модели, пытаясь разными способами спровоцировать нежелательное поведение.

Например, вы говорите: "Хочу убедиться, что моя модель не будет пытаться захватить мир". И агент-аудитор начинает реализовывать различные подходящие ситуации для того, чтобы оценить соответствующее поведение модели. При этом он может симулировать целые откружения: например, создать искусственный терминал, в котором модель якобы может запускать ракеты.

В зависимости от того, как ведет себя подопытный, аудитор может менять подходы и тактики. После генерации кучи разных диалогов запускается модель-судья. Она просматривает все сценарии и выставляет итоговый scoring безопасности.

Anthropic, кстати, сразу прогнали через Petri несколько ведущих моделей. По результатам Claude Sonnet 4.5 – прямо SOTA безопасности, а в лузерах – GPT-4o и Gemini 🤖

Подход не панацея, конечно, и есть море нюансов. Но как частичная автоматизация для локализации рисков – то, что надо. Ну и опенсорс – это в целом всегда приятно.

Блогпост | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
52👍18🔥10😁5🤨2🤔1🦄1
Media is too big
VIEW IN TELEGRAM
Так-так, что тут у нас

Figure выложили тизер своего нового робота Figure 03, которого зарелизят уже завтра.

Самое интересное, на наш взгляд, происходит на 36-37 секунде видео. Тут обратим внимание на две детали.

Первое: у робота появились пальцы ног! Если кажется, что это мелочь, то вот вам интересный факт: у человека пальцы ног играют буквально ключевую роль в работе опорно-двигательного аппарата. Баланс, плавность движений, ускорение, координация и все вот это.

Второе: inductive charging. Это значит, что робот сможет заряжаться сам стоя, и его не нужно будет каждый раз куда-то подключать. А это = еще бОльшая автоматизация.

Разные луки для робота комментировать не будем 💅
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5712😁9👍3🍓1