Please open Telegram to view this post
VIEW IN TELEGRAM
😁504🔥66❤30🎉12👾7👍6🍓1
А у нас в эфире постоянная рубрика «GPT-5 решила очередную сложную математику»
В этот раз речь пойдет сразу о двух задачах.
1️⃣ Первая – «Yu Tsumura’s 554th Problem». Это задача из сборника Yu Tsumura, примерно уровня IMO. Суть – доказать тривиальность определённой группы, заданной соотношениями для двух её генераторов.
В последнее время благодаря короткой формулировке она стала своего рода тестовой для ИИ (то есть достигла ли модель уровня IMO или нет).
GPT-5 стала первой моделью, которая справилась с этой задачей. Порассуждала она при этом всего 15 минут.
Забавно, что буквально месяц назад выходила статья «No LLM Solved Yu Tsumura’s 554th Problem», в которой авторы доказывали, что современным моделям все еще не хватает способностей на подобные задачи. Это еще раз к слову о скорости прогресса.
2️⃣ Вторая – NICD-with-erasures majority optimality. Это задача из теории информации, связанная с восстановлением исходного сигнала через канал с шумом. Пара независимых участников пытается по своим частично стёртым версиям наблюдений угадать одну и ту же функцию от исходных данных, с целью максимизировать согласие.
Суть тут в том, что ученые долгое время считали, что мажоритарная функция в этой задаче является оптимальной. GPT-5 впервые доказала обратное, подобрав контрпример.
Это фундаментальная проблема в теории информации и коммуникации. Найти оптимальную функцию – значит лучше проектировать коды восстановления данных, хранить их и тд. Практическое применение огромное, и GPT-5, получается, открыла новую главу для исследований.
Вот такие новости понедельника. Оба решения, кстати, были опубликованы незавимыми математиками.
В этот раз речь пойдет сразу о двух задачах.
В последнее время благодаря короткой формулировке она стала своего рода тестовой для ИИ (то есть достигла ли модель уровня IMO или нет).
GPT-5 стала первой моделью, которая справилась с этой задачей. Порассуждала она при этом всего 15 минут.
Забавно, что буквально месяц назад выходила статья «No LLM Solved Yu Tsumura’s 554th Problem», в которой авторы доказывали, что современным моделям все еще не хватает способностей на подобные задачи. Это еще раз к слову о скорости прогресса.
Суть тут в том, что ученые долгое время считали, что мажоритарная функция в этой задаче является оптимальной. GPT-5 впервые доказала обратное, подобрав контрпример.
Это фундаментальная проблема в теории информации и коммуникации. Найти оптимальную функцию – значит лучше проектировать коды восстановления данных, хранить их и тд. Практическое применение огромное, и GPT-5, получается, открыла новую главу для исследований.
Вот такие новости понедельника. Оба решения, кстати, были опубликованы незавимыми математиками.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍160🔥51🍓23❤19🤯15🤓7😁3 3🤨1🗿1
К слову, сегодня ждем еще один продукт от OpenAI
У них проходит DevDay 2025 в Сан-Франциско. По слухам, должны показать конструктор агентов Agent Builder. Это будет zero/low code продукт типа n8n или Zapier: платформа для простой реализации и оркестрации всяких автоматизаций и агентных рабочих процессов.
У OpenAI уже когда-то выходила библиотека Swarm с тем же функционалом, так что zero code адаптация – логичный следующий шаг.
Для несложных автоматизаций должно быть хорошо. Особенно, если добавят всяких интересных интеграций, MCP и прочего.
Стрим можно будет посмотреть в 20:00 по Мск (ссылку добавим к этому посту, как только появится)
UPD: ссылка -> https://www.youtube.com/live/hS1YqcewH0c
У них проходит DevDay 2025 в Сан-Франциско. По слухам, должны показать конструктор агентов Agent Builder. Это будет zero/low code продукт типа n8n или Zapier: платформа для простой реализации и оркестрации всяких автоматизаций и агентных рабочих процессов.
У OpenAI уже когда-то выходила библиотека Swarm с тем же функционалом, так что zero code адаптация – логичный следующий шаг.
Для несложных автоматизаций должно быть хорошо. Особенно, если добавят всяких интересных интеграций, MCP и прочего.
Стрим можно будет посмотреть в 20:00 по Мск (ссылку добавим к этому посту, как только появится)
UPD: ссылка -> https://www.youtube.com/live/hS1YqcewH0c
👌58❤19 15👍11🔥7 3😁1🤔1🐳1🤨1
У Anthropic новый CTO
Им стал бывший технический директор Stripe Рахул Патил. Он пришёл на место сооснователя Сэма МакКлэниша, который теперь займётся архитектурой и обучением крупных моделей в роли главного архитектора.
Патил будет отвечать за инфраструктуру, вычисления и инференс — ключевые направления для компании, особенно на фоне растущей нагрузки на Claude и гонки с OpenAI и Meta* за вычислительные мощности.
https://techcrunch.com/2025/10/02/anthropic-hires-new-cto-with-focus-on-ai-infrastructure/
Им стал бывший технический директор Stripe Рахул Патил. Он пришёл на место сооснователя Сэма МакКлэниша, который теперь займётся архитектурой и обучением крупных моделей в роли главного архитектора.
Патил будет отвечать за инфраструктуру, вычисления и инференс — ключевые направления для компании, особенно на фоне растущей нагрузки на Claude и гонки с OpenAI и Meta* за вычислительные мощности.
https://techcrunch.com/2025/10/02/anthropic-hires-new-cto-with-focus-on-ai-infrastructure/
👍38😁14 11❤2
Привет! На связи команда МТС True Tech Talents. Мы запускаем набор на 4 поток Школы аналитиков данных🥚
Обучение проходит в онлайн-формате и длится 10 месяцев. Преподаватели — эксперты нашего центра Big Data. Вы научитесь писать на Python, прокачаетесь в математике, основах машинного обучения, ML Ops, Spark и прочих вещах, без которых не выйдет работать в Data Science. Также у студентов будет возможность попасть на стажировку в МТС Web Services.
Обучение бесплатное, но места ограничены - чтобы попасть, необходимо подать заявку до 30 октября и выполнить вступительное задание. Старт обучения - 10 ноября!
Регистрируйся по ссылке, ждём тебя!
Обучение проходит в онлайн-формате и длится 10 месяцев. Преподаватели — эксперты нашего центра Big Data. Вы научитесь писать на Python, прокачаетесь в математике, основах машинного обучения, ML Ops, Spark и прочих вещах, без которых не выйдет работать в Data Science. Также у студентов будет возможность попасть на стажировку в МТС Web Services.
Обучение бесплатное, но места ограничены - чтобы попасть, необходимо подать заявку до 30 октября и выполнить вступительное задание. Старт обучения - 10 ноября!
Регистрируйся по ссылке, ждём тебя!
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁23❤16🗿16 3🤯2
Google DeepMind выпустили занятную статью, в которой проверили, насколько хорошо Veo 3 понимает мир
Google уже долгое время говорят, что их Veo – это не просто моделька для генерации прикольных видосиков, а (потенциально) полноценная world modeling система, которую хотят использовать для обучения следующего поколения моделей, агентов и роботов.
А еще, возможно, такие модели как Veo сами по себе могут стать следующим шагом в развитии ИИ. Ведь ученые вроде Лекуна очень любят повторять, что именно отсутствие понимания материального мира – основная проблема современных LLM, которая отделяет нас от AGI.
Так вот. В Google решили проверить, насколько уже сейчас текущая версия Veo понимает физику и логику нашего мира. Ее прогнали по большому сету задач, среди которых были: лабиринты, моделирование физики, визуальные задачки на ризонинг, распознавание свойств объектов и тд и тп.
Все задачки и как с ними справилась Veo можно посмотреть тут. Если кратко:
– Модель действительно способна решать широкий набор задач, для которых ее не обучали. Пример: детекция, которой напрямую не было в трейне.
– Veo 3 решает задачи, требующие пошагового визуального мышления (которое авторы называют Chain-of-Frames (CoF), аналог Chain-of-Thought в LLM). Например, на лабиринтах 5 на 5 точность достигает 78% на pass@10. Для такой модельки это прямо неплохо.
– Хорошо понимает физику и может смоделировать сложные штуки типа плавучести, трения, отражений, преломлений и другого.
Вывод такой: подобные модели точно можно рассматривать как альтернативу обучению на тексте. Пока, конечно, их развитие все еще в зачатке. Но кто знает, что будет через год, два или три.
Статья
Google уже долгое время говорят, что их Veo – это не просто моделька для генерации прикольных видосиков, а (потенциально) полноценная world modeling система, которую хотят использовать для обучения следующего поколения моделей, агентов и роботов.
А еще, возможно, такие модели как Veo сами по себе могут стать следующим шагом в развитии ИИ. Ведь ученые вроде Лекуна очень любят повторять, что именно отсутствие понимания материального мира – основная проблема современных LLM, которая отделяет нас от AGI.
Так вот. В Google решили проверить, насколько уже сейчас текущая версия Veo понимает физику и логику нашего мира. Ее прогнали по большому сету задач, среди которых были: лабиринты, моделирование физики, визуальные задачки на ризонинг, распознавание свойств объектов и тд и тп.
Все задачки и как с ними справилась Veo можно посмотреть тут. Если кратко:
– Модель действительно способна решать широкий набор задач, для которых ее не обучали. Пример: детекция, которой напрямую не было в трейне.
– Veo 3 решает задачи, требующие пошагового визуального мышления (которое авторы называют Chain-of-Frames (CoF), аналог Chain-of-Thought в LLM). Например, на лабиринтах 5 на 5 точность достигает 78% на pass@10. Для такой модельки это прямо неплохо.
– Хорошо понимает физику и может смоделировать сложные штуки типа плавучести, трения, отражений, преломлений и другого.
Вывод такой: подобные модели точно можно рассматривать как альтернативу обучению на тексте. Пока, конечно, их развитие все еще в зачатке. Но кто знает, что будет через год, два или три.
Статья
👍65🔥31❤11 3😁2
Новое с OpenAI DevDay 2025 (будет несколько постов):
1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например:
➖ скинуть боту набросок дизайна и вызвать Figma -> агент построит готовый проект;
➖ попросить найти квартиру и вызвать Booking -> он сам будет искать по вариантам и уточнять, что вы хотите;
➖ вызвать Canva и описание -> получите готовую презентацию;
➖ попросить систавить плейлист и вызвать Spotify -> агент скинет сформированный плейлист;
➖ попросить объяснить что-то и вызвать Coursera -> вы сможете смотреть обучающие видео прямо в чате и в режиме лайв спрашивать модель о происходящем.
Самое интересное, что девелоперы скоро смогут добавлять в ChatGPT собственные приложения, пройдя необходимую проверку, и получать монетизацию (оплата и трекинг метрик через ChatGPT также поддерживается). Пока будет доступна SDK либа для разработки, так что можно практиковаться.
1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например:
Самое интересное, что девелоперы скоро смогут добавлять в ChatGPT собственные приложения, пройдя необходимую проверку, и получать монетизацию (оплата и трекинг метрик через ChatGPT также поддерживается). Пока будет доступна SDK либа для разработки, так что можно практиковаться.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤60🤯36😁11👍5⚡3🕊1😎1
2. Тот самый вау-конструктор для агентов, о котором мы писали утром – Agent Builder.
Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.
Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.
Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.
Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.
Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
1❤56⚡14👍12🤝2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того:
– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.
– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.
Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.
– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.
Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
❤43👍11⚡5😁1
Ждем цен (которые будут, очевидно, конскими)
UPD: дождались
– GPT-5 Pro: 15$/M input, 125$/M output.
– Sora 2: 0.10$ за секунду видео в 720x1280.
Sora-2 pro за такое же разрешение – 0.30$ за секунду.
За 1024x1792 – 0.50$ за секунду.
Есть тут у нас миллионеры?
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡92🤯22👍19🔥11❤7😁7👨💻1
OpenAI заключили многомиллиардную сделку с AMD
Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.
Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.
Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.
Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.
То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.
Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.
Акции Nvidia, кстати, при этом упали на 2%🤦♂️
Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.
Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.
Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.
Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.
То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.
Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.
Акции Nvidia, кстати, при этом упали на 2%
Please open Telegram to view this post
VIEW IN TELEGRAM
😎53🤯20❤16😁13👍6 3
Пост для любителей обучать нейросети на работе, после работы, вместо работы, на выходных, в отпуске, с женой или вместо жены.
На прошлой неделе стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать
На прошлой неделе стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать