Новое с OpenAI DevDay 2025 (будет несколько постов):
1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например:
➖ скинуть боту набросок дизайна и вызвать Figma -> агент построит готовый проект;
➖ попросить найти квартиру и вызвать Booking -> он сам будет искать по вариантам и уточнять, что вы хотите;
➖ вызвать Canva и описание -> получите готовую презентацию;
➖ попросить систавить плейлист и вызвать Spotify -> агент скинет сформированный плейлист;
➖ попросить объяснить что-то и вызвать Coursera -> вы сможете смотреть обучающие видео прямо в чате и в режиме лайв спрашивать модель о происходящем.
Самое интересное, что девелоперы скоро смогут добавлять в ChatGPT собственные приложения, пройдя необходимую проверку, и получать монетизацию (оплата и трекинг метрик через ChatGPT также поддерживается). Пока будет доступна SDK либа для разработки, так что можно практиковаться.
1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например:
Самое интересное, что девелоперы скоро смогут добавлять в ChatGPT собственные приложения, пройдя необходимую проверку, и получать монетизацию (оплата и трекинг метрик через ChatGPT также поддерживается). Пока будет доступна SDK либа для разработки, так что можно практиковаться.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤74🤯37😁12👍6⚡5😎2🕊1
2. Тот самый вау-конструктор для агентов, о котором мы писали утром – Agent Builder.
Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.
Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.
Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.
Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.
Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
1❤64⚡17👍14🤝2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того:
– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.
– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.
Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.
– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.
Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
❤52👍14⚡6🤯2😁1
Ждем цен (которые будут, очевидно, конскими)
UPD: дождались
– GPT-5 Pro: 15$/M input, 125$/M output.
– Sora 2: 0.10$ за секунду видео в 720x1280.
Sora-2 pro за такое же разрешение – 0.30$ за секунду.
За 1024x1792 – 0.50$ за секунду.
Есть тут у нас миллионеры?
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡97🤯29👍21🔥11❤9😁8👨💻1
OpenAI заключили многомиллиардную сделку с AMD
Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.
Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.
Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.
Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.
То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.
Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.
Акции Nvidia, кстати, при этом упали на 2%🤦♂️
Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.
Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.
Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.
Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.
То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.
Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.
Акции Nvidia, кстати, при этом упали на 2%
Please open Telegram to view this post
VIEW IN TELEGRAM
😎92🤯31❤27😁16👍12 5🔥1👀1
Пост для любителей обучать нейросети на работе, после работы, вместо работы, на выходных, в отпуске, с женой или вместо жены.
Недавно стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать
Недавно стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать
🤨37❤21👍9🗿3🔥2😁2🤯2
Data Secrets
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того: – Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы. – Добавили Codex SDK. Теперь агента можно прикрутить…
Еще одна интересная деталь со вчерашней презентации, которую мало кто заметил: весь код в OpenAI теперь проверяет Codex
92% инженеров в стартапе используют агента постоянно. За счет этого количество PR в неделю увеличилось на 70% (success rate Codex около 85%). При этом 100% PR проходят ревью Codex.
ИИ проверяет код в компании, которая разрабатывает ИИ. Что может пойти не так?☺️
92% инженеров в стартапе используют агента постоянно. За счет этого количество PR в неделю увеличилось на 70% (success rate Codex около 85%). При этом 100% PR проходят ревью Codex.
ИИ проверяет код в компании, которая разрабатывает ИИ. Что может пойти не так?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁230 54❤16👍7🫡2
Data Secrets
OpenAI заключили многомиллиардную сделку с AMD Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга. Начиная с…
Ситуация на рынке примерно следующая
😁205😎26🤔10❤2 2👍1😍1
Нобелевскую премию по физике этого года присудили за открытие в области квантовых вычислений
Награду только что получили Джон Кларк, Мишель Деворет и Джон Мартинис. В 80-х они впервые доказали, что явления квантовой механики, обычно наблюдаемые только на микроскопическом уровне, могут проявляться в полноразмерных системах.
Они установили, что так называемое квантово-механическое туннелирование возможно на макро-уровне. В их экспериментах использовалась сверхпроводящая электрическая цепь, и ученые смогли доказать, что она способна перейти из состояния без напряжения в состояние с напряжением, проходя через барьер, что в принципе невозможно для классических объектов в физическом мире.
Это и есть квантовый переход (то есть вся система ведёт себя как единая квантовая частица, хотя содержит огромное количество электронов).
По сути, именно с этого открытия началось все развитие квантовых компьютеров, квантовых криптографических систем и тд.
Поздравляем!
Награду только что получили Джон Кларк, Мишель Деворет и Джон Мартинис. В 80-х они впервые доказали, что явления квантовой механики, обычно наблюдаемые только на микроскопическом уровне, могут проявляться в полноразмерных системах.
Они установили, что так называемое квантово-механическое туннелирование возможно на макро-уровне. В их экспериментах использовалась сверхпроводящая электрическая цепь, и ученые смогли доказать, что она способна перейти из состояния без напряжения в состояние с напряжением, проходя через барьер, что в принципе невозможно для классических объектов в физическом мире.
Это и есть квантовый переход (то есть вся система ведёт себя как единая квантовая частица, хотя содержит огромное количество электронов).
По сути, именно с этого открытия началось все развитие квантовых компьютеров, квантовых криптографических систем и тд.
Поздравляем!
❤205🔥83👍30 11🎉5 5💯2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Ускоряем рабочие процессы: оплачивайте Cursor через МТС Оплату ✨
Покупайте подписки для работы в пару кликов через СБП и с минимальной комиссией. Так же можно оплачивать ещё 150+ зарубежных сервисов: Replit, Sentry, Qodo, Warp, Windsurf и другие.
Весь процесс займёт не больше 5 минут. Пароли и лишние данные не нужны — только ваша почта. Оплачивайте сервисы и исправляйте баги вместе с МТС Оплатой 🤗
Покупайте подписки для работы в пару кликов через СБП и с минимальной комиссией. Так же можно оплачивать ещё 150+ зарубежных сервисов: Replit, Sentry, Qodo, Warp, Windsurf и другие.
Весь процесс займёт не больше 5 минут. Пароли и лишние данные не нужны — только ваша почта. Оплачивайте сервисы и исправляйте баги вместе с МТС Оплатой 🤗
🗿34⚡22❤10 10😁7🤨3🤔2☃1🤓1🫡1😎1
В польском стартапе Pathway создали новую архитектуру нейросетей – Biological Dragon Hatchling
Идея тут в основном в том, чтобы соединить две линии развития ИИ: всеми любимые трансформеры и модели мозга. Уже доказано, что между мозгом и трансформером есть связь (см эту статью от DeepMind). Тем не менее, до спопобностей нашей черепушки LLMкам пока далеко: не хватает нескольких основных свойств.
В общем, заканчивая лирическое вступление: тут взяли трансформер и решили впаять в него некоторые фичи из мозга. Получилась графовая архитектура, в которой нейроны – это вершины, а синапсы – рёбра с весами. Модель работает как распределённая система из нейронов, которые общаются только с соседями.
С обучением все тоже не как обычно. Наш мозг учится по правилу Хебба: нейроны, которые активируются вместе, укрепляют связь. Тут это реализовано без изменений, то есть если активность нейронов A и B часто совпадает, вес ребра между ними увеличивается, и логическая взаимосвязь становится крепче. Если присмотреться, то похоже на какой-то аналог механизма внимания.
И еще одно. Веса тут разделены на две группы: фиксированные и динамические. Аналог долговременной и кратковременной памяти. Фиксированные веса – это базовые знания, они обновляются только во время обучения и далее не меняются. Динамические веса нам нужны для ризонинга. Каждый шаг рассуждения – это локальное обновление связей.
Немного запутанно, НО авторы сделали тензорную версию (BDH-GPU). Она эквивалентна BDH, но выражена в виде обычных матриц и векторов, так что её можно обучать, как трансформер. По сути там все то же внимание, пару блоков MLP, ReLU и немного специфичные активации. Все знакомо.
Но оказалось, что система с такой архитектурой демонтрирует очень приятные свойства:
1. Интерпретируемость. Каждая пара нейронов (i, j) имеет свой синапс и хранит его состояние, которое можно наблюдать и отслеживать. Плюс, активации моносемантичны. Один нейрон действительно отвечает за одно понятие.
2. BDH может легко объединять две модели с помощью простой конкотенации. Представьте, какой простор для масштабирования.
3. И к слову про масштабирование: BDH показывает те же scaling laws, что и GPT-2, и при одинаковом числе параметров модель достигает схожей точности на ряде задач. Это значит, что основное свойство трансформера сохранено.
Красиво получилось. Если еще выпустят на этой архитектуре что-нибудь осязаемое, цены не будет.
Код | Статья
Идея тут в основном в том, чтобы соединить две линии развития ИИ: всеми любимые трансформеры и модели мозга. Уже доказано, что между мозгом и трансформером есть связь (см эту статью от DeepMind). Тем не менее, до спопобностей нашей черепушки LLMкам пока далеко: не хватает нескольких основных свойств.
В общем, заканчивая лирическое вступление: тут взяли трансформер и решили впаять в него некоторые фичи из мозга. Получилась графовая архитектура, в которой нейроны – это вершины, а синапсы – рёбра с весами. Модель работает как распределённая система из нейронов, которые общаются только с соседями.
С обучением все тоже не как обычно. Наш мозг учится по правилу Хебба: нейроны, которые активируются вместе, укрепляют связь. Тут это реализовано без изменений, то есть если активность нейронов A и B часто совпадает, вес ребра между ними увеличивается, и логическая взаимосвязь становится крепче. Если присмотреться, то похоже на какой-то аналог механизма внимания.
И еще одно. Веса тут разделены на две группы: фиксированные и динамические. Аналог долговременной и кратковременной памяти. Фиксированные веса – это базовые знания, они обновляются только во время обучения и далее не меняются. Динамические веса нам нужны для ризонинга. Каждый шаг рассуждения – это локальное обновление связей.
Немного запутанно, НО авторы сделали тензорную версию (BDH-GPU). Она эквивалентна BDH, но выражена в виде обычных матриц и векторов, так что её можно обучать, как трансформер. По сути там все то же внимание, пару блоков MLP, ReLU и немного специфичные активации. Все знакомо.
Но оказалось, что система с такой архитектурой демонтрирует очень приятные свойства:
1. Интерпретируемость. Каждая пара нейронов (i, j) имеет свой синапс и хранит его состояние, которое можно наблюдать и отслеживать. Плюс, активации моносемантичны. Один нейрон действительно отвечает за одно понятие.
2. BDH может легко объединять две модели с помощью простой конкотенации. Представьте, какой простор для масштабирования.
3. И к слову про масштабирование: BDH показывает те же scaling laws, что и GPT-2, и при одинаковом числе параметров модель достигает схожей точности на ряде задач. Это значит, что основное свойство трансформера сохранено.
Красиво получилось. Если еще выпустят на этой архитектуре что-нибудь осязаемое, цены не будет.
Код | Статья
❤113👍35🔥20 6👏2😁1 1
Google выпустили новую SOTA Computer Use модель на базе Gemini 2.5
На многих основных бенчмарках она солидно обгоняет Agent режим от ChatGPT, Claude Sonnet 4 и 4.5. Плюс, заявляется гораздо более низкая задержка.
Модель хорошо работает с вебом и неплохо – с мобильными устройствами. Для компьютерной ОС она не оптимизирована, так что, предположительно, вести себя будет не очень.
Под капотом, по сути, прокачанный tool use для Gemini 2.5. На каждом шаге ей на вход поступает скриншот экрана, и она вызывает определенные функции типа clicking или typing с нужными аргументами.
Еще хвастаются безопасностью модели. Во-первых, вы прямо в системном промпте можете контролировать, какие действия надо подтверждать, какие нет. Во-вторых, есть внешний авто-оценщик, который на каждом шаге независимо перепроверяет, что делает модель, и выбрасывает алерты, если происходит что-то не то. Подробнее можно почитать в системной карте.
Сейчас модель уже доступна в public preview. Попробовать можно через API.
Кстати, ползет слух, что на этой неделе должна выйти Gemini 3.0
На многих основных бенчмарках она солидно обгоняет Agent режим от ChatGPT, Claude Sonnet 4 и 4.5. Плюс, заявляется гораздо более низкая задержка.
Модель хорошо работает с вебом и неплохо – с мобильными устройствами. Для компьютерной ОС она не оптимизирована, так что, предположительно, вести себя будет не очень.
Под капотом, по сути, прокачанный tool use для Gemini 2.5. На каждом шаге ей на вход поступает скриншот экрана, и она вызывает определенные функции типа clicking или typing с нужными аргументами.
Еще хвастаются безопасностью модели. Во-первых, вы прямо в системном промпте можете контролировать, какие действия надо подтверждать, какие нет. Во-вторых, есть внешний авто-оценщик, который на каждом шаге независимо перепроверяет, что делает модель, и выбрасывает алерты, если происходит что-то не то. Подробнее можно почитать в системной карте.
Сейчас модель уже доступна в public preview. Попробовать можно через API.
Кстати, ползет слух, что на этой неделе должна выйти Gemini 3.0
👍50🔥23❤7❤🔥2 2😁1