Data Secrets
77.3K subscribers
6.03K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
2. Тот самый вау-конструктор для агентов, о котором мы писали утром – Agent Builder.

Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.

Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.

Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
16517👍15🤝2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того:

– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.

– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.

Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
53👍146🤯2😁1
⚡️ GPT-5 Pro и Sora-2 появятся в API

Ждем цен (которые будут, очевидно, конскими)

UPD: дождались

– GPT-5 Pro: 15$/M input, 125$/M output.

– Sora 2: 0.10$ за секунду видео в 720x1280.
Sora-2 pro за такое же разрешение – 0.30$ за секунду.
За 1024x1792 – 0.50$ за секунду.

Есть тут у нас миллионеры?
Please open Telegram to view this post
VIEW IN TELEGRAM
98🤯30👍21🔥119😁8👨‍💻1
OpenAI заключили многомиллиардную сделку с AMD

Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.

Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.

Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.

Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.

То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.

Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.

Акции Nvidia, кстати, при этом упали на 2% 🤦‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
😎94🤯3127😁17👍125🔥1👀1
Пост для любителей обучать нейросети на работе, после работы, вместо работы, на выходных, в отпуске, с женой или вместо жены.

Недавно стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.

Когда
15 сентября — 1 декабря

Призовой фонд
$13,600

Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.

Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.

>_ Участвовать
🤨3721👍10🗿3🔥2😁2🤯2
Data Secrets
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того: – Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы. – Добавили Codex SDK. Теперь агента можно прикрутить…
Еще одна интересная деталь со вчерашней презентации, которую мало кто заметил: весь код в OpenAI теперь проверяет Codex

92% инженеров в стартапе используют агента постоянно. За счет этого количество PR в неделю увеличилось на 70% (success rate Codex около 85%). При этом 100% PR проходят ревью Codex.

ИИ проверяет код в компании, которая разрабатывает ИИ. Что может пойти не так? ☺️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2405516👍7🫡2
Нобелевскую премию по физике этого года присудили за открытие в области квантовых вычислений

Награду только что получили Джон Кларк, Мишель Деворет и Джон Мартинис. В 80-х они впервые доказали, что явления квантовой механики, обычно наблюдаемые только на микроскопическом уровне, могут проявляться в полноразмерных системах.

Они установили, что так называемое квантово-механическое туннелирование возможно на макро-уровне. В их экспериментах использовалась сверхпроводящая электрическая цепь, и ученые смогли доказать, что она способна перейти из состояния без напряжения в состояние с напряжением, проходя через барьер, что в принципе невозможно для классических объектов в физическом мире.

Это и есть квантовый переход (то есть вся система ведёт себя как единая квантовая частица, хотя содержит огромное количество электронов).

По сути, именно с этого открытия началось все развитие квантовых компьютеров, квантовых криптографических систем и тд.

Поздравляем!
212🔥90👍3111🎉75💯2❤‍🔥1
В польском стартапе Pathway создали новую архитектуру нейросетей – Biological Dragon Hatchling

Идея тут в основном в том, чтобы соединить две линии развития ИИ: всеми любимые трансформеры и модели мозга. Уже доказано, что между мозгом и трансформером есть связь (см эту статью от DeepMind). Тем не менее, до спопобностей нашей черепушки LLMкам пока далеко: не хватает нескольких основных свойств.

В общем, заканчивая лирическое вступление: тут взяли трансформер и решили впаять в него некоторые фичи из мозга. Получилась графовая архитектура, в которой нейроны – это вершины, а синапсы – рёбра с весами. Модель работает как распределённая система из нейронов, которые общаются только с соседями.

С обучением все тоже не как обычно. Наш мозг учится по правилу Хебба: нейроны, которые активируются вместе, укрепляют связь. Тут это реализовано без изменений, то есть если активность нейронов A и B часто совпадает, вес ребра между ними увеличивается, и логическая взаимосвязь становится крепче. Если присмотреться, то похоже на какой-то аналог механизма внимания.

И еще одно. Веса тут разделены на две группы: фиксированные и динамические. Аналог долговременной и кратковременной памяти. Фиксированные веса – это базовые знания, они обновляются только во время обучения и далее не меняются. Динамические веса нам нужны для ризонинга. Каждый шаг рассуждения – это локальное обновление связей.

Немного запутанно, НО авторы сделали тензорную версию (BDH-GPU). Она эквивалентна BDH, но выражена в виде обычных матриц и векторов, так что её можно обучать, как трансформер. По сути там все то же внимание, пару блоков MLP, ReLU и немного специфичные активации. Все знакомо.

Но оказалось, что система с такой архитектурой демонтрирует очень приятные свойства:

1. Интерпретируемость. Каждая пара нейронов (i, j) имеет свой синапс и хранит его состояние, которое можно наблюдать и отслеживать. Плюс, активации моносемантичны. Один нейрон действительно отвечает за одно понятие.

2. BDH может легко объединять две модели с помощью простой конкотенации. Представьте, какой простор для масштабирования.

3. И к слову про масштабирование: BDH показывает те же scaling laws, что и GPT-2, и при одинаковом числе параметров модель достигает схожей точности на ряде задач. Это значит, что основное свойство трансформера сохранено.

Красиво получилось. Если еще выпустят на этой архитектуре что-нибудь осязаемое, цены не будет.

Код | Статья
129👍37🔥216👏2😁21
Google выпустили новую SOTA Computer Use модель на базе Gemini 2.5

На многих основных бенчмарках она солидно обгоняет Agent режим от ChatGPT, Claude Sonnet 4 и 4.5. Плюс, заявляется гораздо более низкая задержка.

Модель хорошо работает с вебом и неплохо – с мобильными устройствами. Для компьютерной ОС она не оптимизирована, так что, предположительно, вести себя будет не очень.

Под капотом, по сути, прокачанный tool use для Gemini 2.5. На каждом шаге ей на вход поступает скриншот экрана, и она вызывает определенные функции типа clicking или typing с нужными аргументами.

Еще хвастаются безопасностью модели. Во-первых, вы прямо в системном промпте можете контролировать, какие действия надо подтверждать, какие нет. Во-вторых, есть внешний авто-оценщик, который на каждом шаге независимо перепроверяет, что делает модель, и выбрасывает алерты, если происходит что-то не то. Подробнее можно почитать в системной карте.

Сейчас модель уже доступна в public preview. Попробовать можно через API.

Кстати, ползет слух, что на этой неделе должна выйти Gemini 3.0
👍75🔥3010❤‍🔥22😁1
Anthropic выложили в опенсорс инструмент для проверки элаймента моделей

Помните все эти исследования про то, как модели начинают врать, недоговаривать, скрывать свои действия, шантажировать, саботировать процессы и прочее? Так вот теперь теперь у нас есть "домашний" инструмент для проверки всех этих сценариев – Petri (Parallel Exploration Tool for Risky Interactions). Именно его Anthropic использовали для проверки Claude 4 и Claude Sonnet 4.5.

Под капотом у Petri автоматизированный агент, который управляет контекстом модели, пытаясь разными способами спровоцировать нежелательное поведение.

Например, вы говорите: "Хочу убедиться, что моя модель не будет пытаться захватить мир". И агент-аудитор начинает реализовывать различные подходящие ситуации для того, чтобы оценить соответствующее поведение модели. При этом он может симулировать целые откружения: например, создать искусственный терминал, в котором модель якобы может запускать ракеты.

В зависимости от того, как ведет себя подопытный, аудитор может менять подходы и тактики. После генерации кучи разных диалогов запускается модель-судья. Она просматривает все сценарии и выставляет итоговый scoring безопасности.

Anthropic, кстати, сразу прогнали через Petri несколько ведущих моделей. По результатам Claude Sonnet 4.5 – прямо SOTA безопасности, а в лузерах – GPT-4o и Gemini 🤖

Подход не панацея, конечно, и есть море нюансов. Но как частичная автоматизация для локализации рисков – то, что надо. Ну и опенсорс – это в целом всегда приятно.

Блогпост | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
155👍22🔥11😁5🤔2🤨2🦄1
Media is too big
VIEW IN TELEGRAM
Так-так, что тут у нас

Figure выложили тизер своего нового робота Figure 03, которого зарелизят уже завтра.

Самое интересное, на наш взгляд, происходит на 36-37 секунде видео. Тут обратим внимание на две детали.

Первое: у робота появились пальцы ног! Если кажется, что это мелочь, то вот вам интересный факт: у человека пальцы ног играют буквально ключевую роль в работе опорно-двигательного аппарата. Баланс, плавность движений, ускорение, координация и все вот это.

Второе: inductive charging. Это значит, что робот сможет заряжаться сам стоя, и его не нужно будет каждый раз куда-то подключать. А это = еще бОльшая автоматизация.

Разные луки для робота комментировать не будем 💅
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7918😁9👍5🍓1
Вышел Python 3.14 (версия под кодовым названием ПИтон)

Кратко, что нового:

Появился новый вид строк для кастомной интерполяции: t-strings. Синтаксис как у f-строк, но на выходе значения не подставляются сразу. Вместо этого строки хранят структуру шаблона, которую затем можно передать в любую функцию. Удобно и безопасно против SQL-инъекций или XSS.

Главное: теперь Python официально может работать без GIL. Много лет это был чуть не главный затык языка, но теперь разные потоки действительно могут выполняться параллельно, а не по очереди. Прогресс!

Добавили подсветку синтаксиса в REPL (наконец-то). Теперь все, как в IDE: выделены ключевые слова, строки, ошибки. Мелочь, а приятно.

А еще except/except* теперь можно писать без скобок 👌

Полный ченчлог тут

Команда для апгрейда: uv python upgrade 3.14
Please open Telegram to view this post
VIEW IN TELEGRAM
128👍35🔥29🤗5🎉3😁2🤯1