Gemini 3.0 Pro устанавливает рекорд в новом физическом бенчмарке - 9.1%
CritPt - новый исследовательский физический бенчмарк уровня аспирантуры, созданный более чем 60 учёными. Он проверяет ИИ на действительно новые, сложные задачи сразу в 11 разделах физики - и ни одна модель пока не преодолела порог в 9%.
Даже топовые системы вроде Gemini 3.0 Pro Preview набирают лишь 9.1%, подчёркивая, насколько далеко современные модели остаются от настоящих пост-град рассуждений в передовой физике.
https://x.com/ArtificialAnlys/status/1991913465968222555
CritPt - новый исследовательский физический бенчмарк уровня аспирантуры, созданный более чем 60 учёными. Он проверяет ИИ на действительно новые, сложные задачи сразу в 11 разделах физики - и ни одна модель пока не преодолела порог в 9%.
Даже топовые системы вроде Gemini 3.0 Pro Preview набирают лишь 9.1%, подчёркивая, насколько далеко современные модели остаются от настоящих пост-град рассуждений в передовой физике.
https://x.com/ArtificialAnlys/status/1991913465968222555
🔥14❤4🥰3
По словам Сэма Альтмана, ИИ резко меняет то, сколько стоят разные профессии.
Если твоя работа - за компьютером (кодинг, дизайн, написание текстов), ИИ уже умеет делать большую часть таких задач быстро и дёшево. Это снижает ценность цифровых профессий.
Почему так?
Потому что проще всего автоматизировать работу, основанную на знаниях и мышлении. А вот профессии, где нужно быть физически на месте и работать руками сантехники, электрики, хирурги, логистика, доставка- защищены намного лучше. ИИ пока слаб в физическом мире.
Получается интересный переворот:
Работы, считавшиеся «престижными» из-за высокого интеллектуального порога, становятся менее особенными - ИИ делает их слишком быстро.
А профессии, связанные с реальным миром и ручными навыками, наоборот, растут в ценности.
ИИ меняет отношение к цифровому труду:
Не так важно, насколько ты хорош в компьютерных задачах - ИИ легко копирует такую работу. Важнее то, что ты можешь *создать*, *починить*, *построить* или *сделать* своими руками.
И это затрагивает не только рынок труда.
Когда ИИ берёт на себя интеллектуальные задачи, которые раньше давали людям чувство вызова и значимости, многие начинают искать удовлетворение в реальной, физической работе.
В том, где результат - не в файле, а в реальном мире.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁25👍11❤3🔥1😢1💔1
Хочешь перейти из BA в продакты?
Многие BA хотят стать продактами, но сталкиваются с проблемой: продуктовый контекст слишком широкий, и нет ощущения цельной картины.
Интенсив «Product Manager 2.0: менеджер продукта в эпоху ИИ» поможет закрыть разрыв между ролями быстрее и качественнее, чем год самостоятельных попыток.
Что ты получишь:
— понимание роли и компетенций Product Manager в эпоху ИИ, а не по курсам пятилетней давности
— чёткое разграничение: что делает AI, а что остаётся на плечах продакта
— работу с AI Operating Model: как меняются продукт и процессы, когда AI действительно встроен в операционку
— full-stack видение product development: Discovery, Delivery, стратегия, экономика
— практику гипотез, исследований, экспериментов и AI-прототипирования
— метрики, юнит-экономику, P&L, roadmap
Это — короткий мост между BA и PM, который помогает перестать быть “почти продактом” и стать им по факту.
3 дня, два опытных продакта в качестве преподавателей и международный сертификат ICP-PDM.
👉 Ссылка на программу
Реклама. ООО "СКРАМТРЕК". ИНН 9709056610. erid: 2W5zFHZ91pU
Многие BA хотят стать продактами, но сталкиваются с проблемой: продуктовый контекст слишком широкий, и нет ощущения цельной картины.
Интенсив «Product Manager 2.0: менеджер продукта в эпоху ИИ» поможет закрыть разрыв между ролями быстрее и качественнее, чем год самостоятельных попыток.
Что ты получишь:
— понимание роли и компетенций Product Manager в эпоху ИИ, а не по курсам пятилетней давности
— чёткое разграничение: что делает AI, а что остаётся на плечах продакта
— работу с AI Operating Model: как меняются продукт и процессы, когда AI действительно встроен в операционку
— full-stack видение product development: Discovery, Delivery, стратегия, экономика
— практику гипотез, исследований, экспериментов и AI-прототипирования
— метрики, юнит-экономику, P&L, roadmap
Это — короткий мост между BA и PM, который помогает перестать быть “почти продактом” и стать им по факту.
3 дня, два опытных продакта в качестве преподавателей и международный сертификат ICP-PDM.
👉 Ссылка на программу
Реклама. ООО "СКРАМТРЕК". ИНН 9709056610. erid: 2W5zFHZ91pU
❤3🔥3
💡 Синтетические картинки, которые обучают лучше реальных
Исследователи из MIT показали неожиданную вещь:
крошечный синтетический датасет может обучать linear probes на огромных vision-моделях лучше, чем настоящие изображения.
Они создали метод Linear Gradient Matching (LGM), который делает следующее:
1) Берут замороженную модель-основу (DINO, CLIP и т.д.)
2) Смотрят, какие градиенты она выдаёт на реальных изображениях
3) Генерируют синтетические картинки так, чтобы градиенты совпадали
4) Обучают линейный классификатор - и он работает лучше, чем при обучении на исходных данных
Почему это полезно:
— работает между моделями (генерировано под DINO → отлично работает в CLIP)
— особенно сильна на тонких классификациях, где важны микродетали
— помогает увидеть, на что реально смотрит модель: спурьёзные корреляции, похожие кластеры, структуру embedding-пространства
Это меняет представление о данных.
Раньше: «Нужно собрать миллионы картинок».
Теперь: «Нужно правильно сгенерировать десятки».
arxiv.org/abs/2511.16674
Исследователи из MIT показали неожиданную вещь:
крошечный синтетический датасет может обучать linear probes на огромных vision-моделях лучше, чем настоящие изображения.
Они создали метод Linear Gradient Matching (LGM), который делает следующее:
1) Берут замороженную модель-основу (DINO, CLIP и т.д.)
2) Смотрят, какие градиенты она выдаёт на реальных изображениях
3) Генерируют синтетические картинки так, чтобы градиенты совпадали
4) Обучают линейный классификатор - и он работает лучше, чем при обучении на исходных данных
Почему это полезно:
— работает между моделями (генерировано под DINO → отлично работает в CLIP)
— особенно сильна на тонких классификациях, где важны микродетали
— помогает увидеть, на что реально смотрит модель: спурьёзные корреляции, похожие кластеры, структуру embedding-пространства
Это меняет представление о данных.
Раньше: «Нужно собрать миллионы картинок».
Теперь: «Нужно правильно сгенерировать десятки».
arxiv.org/abs/2511.16674
🔥16❤3
Обычно модель хорошо работает только на том датасете, на котором её обучили. Стоит поменять источник данных, качество падает.
В этой статье показывают простой приём: можно заставить нейросеть учиться так, чтобы она не могла определить, с какого датасета пришёл пример. В итоге она начинает выделять более общие, универсальные признаки, которые работают в любых условиях.
Метод очень лёгкий - добавляется к любой нейросети за несколько строк кода. Но результат стабильный: модель лучше справляется с новыми данными, которых раньше не видела.
Работа приятно выделяется: понятная идея, чёткое объяснение, реальные результаты, а не очередные «+2% на случайной метрике».
Почитать: chapterpal.com/s/386d57f4/domain-adversarial-training-of-neural-networks
PDF: arxiv.org/pdf/1505.07818
В этой статье показывают простой приём: можно заставить нейросеть учиться так, чтобы она не могла определить, с какого датасета пришёл пример. В итоге она начинает выделять более общие, универсальные признаки, которые работают в любых условиях.
Метод очень лёгкий - добавляется к любой нейросети за несколько строк кода. Но результат стабильный: модель лучше справляется с новыми данными, которых раньше не видела.
Работа приятно выделяется: понятная идея, чёткое объяснение, реальные результаты, а не очередные «+2% на случайной метрике».
Почитать: chapterpal.com/s/386d57f4/domain-adversarial-training-of-neural-networks
PDF: arxiv.org/pdf/1505.07818
Chapterpal
Domain-Adversarial Training of Neural Networks - ChapterPal
Read and interact with 'Domain-Adversarial Training of Neural Networks' using ChapterPal's conversational reader.
🔥13❤5👍4
⚡️ OpenAI, Anthropic и Google только что получили доступ к петабайтам закрытых экспериментальных данных. Эти данные десятилетиями копили 17 Национальных лабораторий США.
И речь уже не про «улучшение чатботов». Новая государственная программа США — Genesis Mission - официально строит автономных научных агентов.
Они называют это «закрытым научным контуром» (Closed-Loop discovery), и это меняет саму физику изобретений. Не человек использует инструменты — система работает полностью автономно.
Схема, описанная в дорожной карте DOE, выглядит как научная фантастика:
• AI проектирует: смотрит на массивы данных и формирует гипотезу вроде «если смешать эти сплавы при 4000°C - получится сверхпроводник».
• Он отправляет инструкции в роботизированную лабораторию (которую строит DOE), чтобы физически смешать материалы.
• Робот мгновенно возвращает результаты. Если эксперимент провален - AI корректирует формулу.
• Такой цикл прогоняется тысячами итераций, без пауз, 24/7.
Genesis Mission - это попытка впервые в истории построить систему, где наука создаёт саму себя. Без человека в центре.
И речь уже не про «улучшение чатботов». Новая государственная программа США — Genesis Mission - официально строит автономных научных агентов.
Они называют это «закрытым научным контуром» (Closed-Loop discovery), и это меняет саму физику изобретений. Не человек использует инструменты — система работает полностью автономно.
Схема, описанная в дорожной карте DOE, выглядит как научная фантастика:
• AI проектирует: смотрит на массивы данных и формирует гипотезу вроде «если смешать эти сплавы при 4000°C - получится сверхпроводник».
• Он отправляет инструкции в роботизированную лабораторию (которую строит DOE), чтобы физически смешать материалы.
• Робот мгновенно возвращает результаты. Если эксперимент провален - AI корректирует формулу.
• Такой цикл прогоняется тысячами итераций, без пауз, 24/7.
Genesis Mission - это попытка впервые в истории построить систему, где наука создаёт саму себя. Без человека в центре.
🔥31👍13🤯9❤1🤔1
Запустите интеллектуальную базу знаний в облаке с AI
Корпоративная база знаний с AI — это централизованная система в облаке для хранения, управления и поиска информации, дополненная искусственным интеллектом. Встроенные в базу AI-ассистенты автоматически упорядочивают документы, отвечают на вопросы сотрудников и помогают быстро работать с большими объемами данных😎
Начните работу в корпоративной базе знаний с AI: разверните готовое open source решение в облаке Cloud.ru, чтобы получить полный контроль над данными с резервным копированием и встроенной защитой.
Оставить заявку
Корпоративная база знаний с AI — это централизованная система в облаке для хранения, управления и поиска информации, дополненная искусственным интеллектом. Встроенные в базу AI-ассистенты автоматически упорядочивают документы, отвечают на вопросы сотрудников и помогают быстро работать с большими объемами данных
Сценарии использования:
❇️Создание и ведение продуктовой базы знаний
❇️Управление проектной документацией
❇️Хранение и быстрый поиск кадровых документов
❇️Ведение личных заметок сотрудниками
Начните работу в корпоративной базе знаний с AI: разверните готовое open source решение в облаке Cloud.ru, чтобы получить полный контроль над данными с резервным копированием и встроенной защитой.
Оставить заявку
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1🔥1
🧠 Depth Anything 3: Восстановление визуального пространства из любых видов
Depth Anything 3 (DA3) — это модель, предсказывающая пространственно согласованную геометрию из произвольных визуальных входов. Она использует простой трансформер и уникальное представление глубины, что позволяет достигать высоких результатов в оценке глубины и позы.
🚀Основные моменты:
- 💎 Модель DA3 превосходит предыдущие версии в оценке глубины.
- 🌊 Поддержка монокулярной и многовидовой оценки глубины.
- 🎯 Оценка позы с высокой точностью.
- 🔧 Удобный интерфейс и возможность экспорта в разные форматы.
- 📐 Специальные модели для метрической оценки глубины.
📌 GitHub: https://github.com/ByteDance-Seed/Depth-Anything-3
#python
Depth Anything 3 (DA3) — это модель, предсказывающая пространственно согласованную геометрию из произвольных визуальных входов. Она использует простой трансформер и уникальное представление глубины, что позволяет достигать высоких результатов в оценке глубины и позы.
🚀Основные моменты:
- 💎 Модель DA3 превосходит предыдущие версии в оценке глубины.
- 🌊 Поддержка монокулярной и многовидовой оценки глубины.
- 🎯 Оценка позы с высокой точностью.
- 🔧 Удобный интерфейс и возможность экспорта в разные форматы.
- 📐 Специальные модели для метрической оценки глубины.
📌 GitHub: https://github.com/ByteDance-Seed/Depth-Anything-3
#python
🔥5👍3❤2
Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🌭2
самые мощные LLM-агенты часто не справляются даже с простыми рабочими задачами, если действуют полностью самостоятельно.
Но стоит подключить эксперта-человека - и успешность выполнения растёт до +70%.
🔍 Что выяснили
- Upwork провёл 300 реальных оплачиваемых проектов (до $500) в областях: написание текстов, дата-сайенс, веб-разработка, инженерия, продажи, перевод.
- Задачи были специально упрощены, чтобы дать агентам шанс.
- Даже так - агенты, работающие в одиночку, часто проваливались.
- Но когда опытный фрилансер давал короткий отзыв (в среднем 20 минут), качество резко росло с каждой итерацией.
📊 Конкретные цифры
- Claude Sonnet 4 (данные): 64% → 93%
- Gemini 2.5 Pro (маркетинг/продажи): 17% → 31%
- GPT-5 (инжиниринг): 30% → 50%
Эффект особенно заметен в задачах, требующих вкуса, контекста и оценочных решений: письмо, маркетинг, перевод.
Там один цикл обратной связи повышает результат на до +17 пунктов.
Бенчмарки мало отражают реальную работу.
В исследовании использовали строгий pass/fail на финальном результате, плюс внешнюю независимую проверку.
Паттерн очевиден:
- детерминированные задачи (код, преобразование данных) — агенты справляются лучше
- творческие и «открытые» задачи — агенты ошибаются чаще
💰 Экономика
Связка «агент + эксперт» дешевле и быстрее, чем «человек в одиночку».
AI-расходы на Upwork выросли на 53% YoY в Q3-25.
Еще Upwork строит Uma оркестратора, который направляет задачи между людьми и моделями, проверяет результаты и замыкает улучшение по циклу.
*Upwork - это крупная международная онлайн-биржа фриланса
Полный отчёт: upwork.com/static/webflow/assets/webflow-human-agent-productivity-index/upbench_paper.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤6🔥1👌1💯1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Главное из нового интервью Ильи Суцквера (25 ноября 2025, Dwarkesh Podcast)
Самые интересные цитаты:
1. Масштабирование кончилось
> «Current scaling approaches will go some distance and then peter out»
2. Суперинтеллект уже на горизонте
> «Superintelligence in 5 to 20 years. You know what’s crazy? That all of this is real»
3. Главная проблема генерализация
> «A teenager learns to drive in 10 hours. Our best models still can’t after billions of examples»
4. RL стал самым дорогим и самым бесполезным этапом
> «Reinforcement learning already takes more compute than pre-training and gives almost nothing in return»
5. Дальше только исследования
> «We are squarely in the age of research, but this time with powerful computers»
6. У ИИ пока нет настоящих «эмоций»
> «Value functions are basically emotions. Without them alignment will stay fragile»
7. Цитата, которую уже растащили все сми
> «The gap between benchmark scores and real-world performance is getting embarrassing»
8. Про свою компанию SSI
> «We have no products, no distractions. Just safe superintelligence»
Главный вопрос он ставит так:
Какой супер-интеллект мы создадим -
Полное интервью: https://www.youtube.com/watch?v=aR20FWCCjAs
Самые интересные цитаты:
1. Масштабирование кончилось
> «Current scaling approaches will go some distance and then peter out»
2. Суперинтеллект уже на горизонте
> «Superintelligence in 5 to 20 years. You know what’s crazy? That all of this is real»
3. Главная проблема генерализация
> «A teenager learns to drive in 10 hours. Our best models still can’t after billions of examples»
4. RL стал самым дорогим и самым бесполезным этапом
> «Reinforcement learning already takes more compute than pre-training and gives almost nothing in return»
5. Дальше только исследования
> «We are squarely in the age of research, but this time with powerful computers»
6. У ИИ пока нет настоящих «эмоций»
> «Value functions are basically emotions. Without them alignment will stay fragile»
7. Цитата, которую уже растащили все сми
> «The gap between benchmark scores and real-world performance is getting embarrassing»
8. Про свою компанию SSI
> «We have no products, no distractions. Just safe superintelligence»
Главный вопрос он ставит так:
Какой супер-интеллект мы создадим -
«15-летнего гениального подростка, который жадно учится или «что-то уже полностью готовое и законченное. »
Полное интервью: https://www.youtube.com/watch?v=aR20FWCCjAs
❤7👍6🔥3🤨2
💸 Акции ведущих производителей просели на фоне резкого усиления интереса к TPU от Google.
- NVDA упала примерно на 6 процентов
- AMD упала примерно на 8 процентов
- ORCL снизилась примерно на 5 процентов
- CRWV просела примерно на 8 процентов
Спрос на AI никуда не исчез.
Anthropic а теперь и Компания Цукерберга начинают переносить серьезные рабочие нагрузки на TPU от Google.
Рынок заново оценивает расстановку сил в индустрии.
TPU Google воспринимаются как реальная альтернатива GPU.
@data_analysis_ml
- NVDA упала примерно на 6 процентов
- AMD упала примерно на 8 процентов
- ORCL снизилась примерно на 5 процентов
- CRWV просела примерно на 8 процентов
Спрос на AI никуда не исчез.
Anthropic а теперь и Компания Цукерберга начинают переносить серьезные рабочие нагрузки на TPU от Google.
Рынок заново оценивает расстановку сил в индустрии.
TPU Google воспринимаются как реальная альтернатива GPU.
@data_analysis_ml
🔥9❤4👏1