Media is too big
VIEW IN TELEGRAM
⦿ Гуманойдные формы могут оказаться ключевыми для повседневного и персонального использования — там, где среда создана под людей.
А вот специализированные роботы будут незаменимы на производстве и в лабораториях.
⦿ В ближайшие пару лет нас ждёт «вау-момент» в робототехнике.
Но фундаментальные модели пока требуют доработки: надёжности и более глубокого понимания реального мира.
⦿ DeepMind работает сразу в двух направлениях:
- как с Android для роботов — универсальный слой ОС, совместимый с любым роботом;
- и с вертикальной интеграцией - разработка конкретных роботов «под ключ».
Идея проста: скоро роботы будут не только на заводах, но и рядом с нами — а управлять ими станет так же привычно, как смартфоном.
@ai_machinelearning_big_data
#DeepMind #Google #DemisHassabis #Robotics
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔90👍34❤19👀9🎉8🤬3🔥2👏2
🎥 Ray3 — новая модель генерации видео от Luma AI
Это первая reasoning-модель для видео: она не только генерирует контент, но и «понимает» задачи, анализирует, исправляет себя и создаёт генерации студийного уровня.
Можно попробовать бесплатно в Dream Machine.
🔥 Что умеет Ray3:
- Черновой режим (Draft Mode) - позволяет быстро создавай креативы и генерирвать сцены, а потом выводить их в 4K HDR.
- Reasoning — модель хорошо понимает промпты и визуальные команды, строит логику движения и компоновки, умеет «думать» о том, что генерирует.
- Визуальные пометки - можно нарисовать стрелку или кружок на кадре, и Ray3 поймёт, куда двигать камеру или объект.
- Физика и реализм — симуляции движения, толпы, анатомия, свет, отражения, размытость в движении.
- HDR-видео — вывод в 10, 12 и 16-бит HDR с яркими цветами, деталями в тенях и бликах, экспорт в EXR для пост-продакшна.
🟠 Подробнее:
http://lumalabs.ai/ray3
@ai_machinelearning_big_data
#Ray3 #LumaAI #AIVideo #GenerativeAI #ReasoningAI
Это первая reasoning-модель для видео: она не только генерирует контент, но и «понимает» задачи, анализирует, исправляет себя и создаёт генерации студийного уровня.
Можно попробовать бесплатно в Dream Machine.
🔥 Что умеет Ray3:
- Черновой режим (Draft Mode) - позволяет быстро создавай креативы и генерирвать сцены, а потом выводить их в 4K HDR.
- Reasoning — модель хорошо понимает промпты и визуальные команды, строит логику движения и компоновки, умеет «думать» о том, что генерирует.
- Визуальные пометки - можно нарисовать стрелку или кружок на кадре, и Ray3 поймёт, куда двигать камеру или объект.
- Физика и реализм — симуляции движения, толпы, анатомия, свет, отражения, размытость в движении.
- HDR-видео — вывод в 10, 12 и 16-бит HDR с яркими цветами, деталями в тенях и бликах, экспорт в EXR для пост-продакшна.
http://lumalabs.ai/ray3
@ai_machinelearning_big_data
#Ray3 #LumaAI #AIVideo #GenerativeAI #ReasoningAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍352🔥45😐34❤18🤔16👌13😍12👏9🎉8🤨6😴5
Главное новшество - Gemini внутри Chrome. Ассистент понимает, что у вас открыто, и помогает быстро найти нужное среди вкладок, упростить работу с большим количеством информации и не потеряться в хаосе открытых страниц.
Вторая фишка - AI прямо в адресной строке. Больше не нужно открывать отдельный поиск: теперь можно задать вопрос прямо в omnibox и сразу получить осмысленный ответ, а не просто список ссылок.
Еще ИИ анализирует сайты и предупреждает о подозрительных страницах, защищает пароли и блокирует спам-уведомления, делая интернет-серфинг заметно безопаснее.
Пока обновление доступно только в США на Windows и Mac, и работает на английском языке. Но уже очевидно, что Google планирует расширить географию и языковую поддержку.
Учёные из Google DeepMind применили искусственный интеллект, чтобы разобраться с задачами, над которыми математики спорят уже больше века. Речь идёт о «сингулярностях» - моментах, когда уравнения движения жидкости начинают давать бессмысленные ответы вроде «бесконечной скорости» или «бесконечного давления».
Такие сбои возникают, например, в уравнениях Буссинеска (описывают движение тёплой или холодной жидкости, учитывая разницу в плотности) и IPM-уравнениях (движение жидкости в пористых материалах). Эти модели помогают объяснять процессы от океанских течений до фильтрации нефти, но давно оставались загадочными.
С помощью нейросетей PINNs (Physics-Informed Neural Networks) исследователи нашли новые типы этих «сбоев» и закономерности в том, как они развиваются. Точность вычислений оказалась почти идеальной - сравнимой с машинными расчетами.
Главный вывод: ИИ может стать инструментом для решения фундаментальных проблем физики и математики, включая знаменитые уравнения Навье-Стокса, за разгадывание которых назначена премия в миллион долларов.
Deepmind
Исследователи представили метод Compute as Teacher (CaT), который позволяет улучшать языковые модели, даже если у задачи нет готового эталонного ответа.
Идея проста - вместо того чтобы искать «истину», модель сама становится своим учителем. Для этого она многократно решает одну и ту же задачу, создавая разные варианты ответа. Затем специальный механизм выбирает из этих вариантов наиболее обоснованный - и использует его как новую цель для обучения.
Метод работает в двух сценариях. Для задач, где результат можно проверить программно (например, в математике), CaT автоматически оценивает правильность. Для более сложных случаев используется другая LLM-судья, которая задаёт правила оценки (rubrics).
Результаты впечатляют: точность на математическом бенчмарке MATH-500 выросла на +27%, а на HealthBench - на +12%. В дообученной версии CaT-RL улучшения достигли +30–33%.
Главное - CaT снижает зависимость от больших размеченных датасетов и открывает путь к более универсальному и доступному обучению моделей. Это шаг к тому, чтобы ИИ сам помогал себе становиться умнее.
alphaxiv
Это эволюция прошлой линейки 1.1 с акцентом на мультимодальность и практическую производительность.
Теперь модели умеют работать не только с текстом, но и с изображениями благодаря встроенному vision-энкодеру.
Рост точности прирост +15% на бенчмарке по математике и коде (AIME 24/25 и LiveCodeBench v5/v6).
Улучшена работа с веб-поиском, интерпретатором кода и генерацией изображений.
Стиль ответов - более естественный тон, ясность изложения и улучшенное форматирование.
Magistral продолжает развивать свои открытые модели, предлагая всё более удобные и универсальные инструменты для работы с текстом, кодом и картинками. Обновление 1.2 делает их ещё ближе к «швейцарскому ножу» в мире ИИ.
HF
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍145❤43🔥28🥰11👏5🤩5🤬2🦄2😁1🤔1🎉1
Это новый подход, где LLM помогает оптимизировать CUDA-ядра для PyTorch.
• Слияние операций ускоряет forward/backward-проходы, результаты выше стандартных Torch-базлайнов
• Полный пайплайн: PyTorch → генерация CUDA-кода → эволюционная оптимизация во время работы
• Проверка через LLM: модели автоматически отмечают неправильные ядра (дает +30% к производительности)
• robust-kbench — собственный бенчмарк, где измеряют не только скорость, но и корректность работы LLM
Авторы пишут о 2.5x ускорении над PyTorch eager и даже 6x в линейных операциях
Но большинство примеров — это тесты на слияние операций с неотюненной базой, так что цифры спорные.
К тому же PyTorch 2.5 уже внедряет похожие оптимизации ), поэтому такие рекорды могут быстро обесцениться.
Это интересный подход к самообучающимся AI-компиляторам, но заявленные ускорения стоит проверять на праактике.
@ai_machinelearning_big_data
#AI #CUDA #PyTorch #SakanaAI #LLM #Optimizatio
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍139🤔104❤25🔥16🤩12🎉10👏5😢4💘1😎1
Open-source инструмент от исследователей из Stanford, который превращает статические статьи в интерактивных AI-ассистентов.
📌 Как это работает:
- Paper2MCP анализирует статью и её код( если есть), извлекает ключевые методы и превращает их в инструменты внутри MCP-сервера.
- Agent layer подключает этот сервер к чат-агенту (например, Claude Code или Chatgpt).
Поле чего, у каждой статьи появляется свой ИИ-ассистент, который:
- объясняет папиру на простом языке;
- запускает код без ручного копания в репозиториях, зависимостях и API-ключах;
- объединяет данные и пайплайны из разных работ.
Каждый MCP-сервер включает:
- Tools — функции (например, прогноз изменения экспрессии генов).
- Resources — текст, код, датасеты.
- Prompts — шаблоны для пошаговых сценариев.
Фактически Paper2Agent помогает конвертировать научные работы в полноценные рабочие инструменты.
Чтобы повторить методы их статьи, приходилось вручную ставить окружения, импортировать десятки модулей и гадать с входными данными. Paper2Agent позволяет это сделать через диалоговый интерфейс.
@ai_machinelearning_big_data
#ai #ml #aiagent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍239🔥78🤩55❤31👏11🎉10🙏9😐6🥰5🤔4💯2
🤖Как применять LLM для построения ИИ-ассистентов
На научной конференции «ИИ-ЗАМАН» в Казани технологическая платформа Авито подробно рассказала о своем пути к созданию масштабной многоагентной системы. Исследователь данных Виктория Берестова объяснила, как компания переосмыслила подход к автоматизации, отказавшись от громоздких запрограммированных сценариев в пользу гибких LLM-ассистентов.
🟠 В основе перехода — архитектура MAS (Multi-Agent System), где каждый агент выполняет узкоспециализированную роль, подобно юристу или техническому эксперту в большой команде. Это решает ключевую проблему: вместо одного медленного и дорогого универсального помощника работают множество маленьких и эффективных. Система сама решает, какой специализированный агент лучше справится с задачей.
🟠 Экономика такого подхода оказалась выгоднее классических решений. Платформа научилась оптимизировать ресурсы, заменяя дорогие универсальные модели дешевыми специализированными без потери качества. Для еще большей эффективности работает система предварительной фильтрации: простые запросы обрабатываются автоматически, без запуска тяжелых моделей.
🟠 Результат — единый ИИ-помощник, объединивший более 100 рабочих сценариев для тысяч сотрудников. Вместо десятков интерфейсов работники теперь получают помощь через естественный диалог.
🟠Компания уже давно развивает собственные генеративные модели: собственная текстовая A-Vibe и мультимодальная A-Vision уже принесли Авито 670 млн рублей дополнительной выручки в 2024 году. Также в компании объявили о создании своего R&D-отдела под руководством Kaggle Grandmaster Александра Рыжкова. Исследования сфокусированы на пяти направлениях: генеративные модели, компьютерное зрение, голосовые технологии, защита от дипфейков и 3D-технологии.
@ai_machinelearning_big_data
#news #ai
На научной конференции «ИИ-ЗАМАН» в Казани технологическая платформа Авито подробно рассказала о своем пути к созданию масштабной многоагентной системы. Исследователь данных Виктория Берестова объяснила, как компания переосмыслила подход к автоматизации, отказавшись от громоздких запрограммированных сценариев в пользу гибких LLM-ассистентов.
🟠 В основе перехода — архитектура MAS (Multi-Agent System), где каждый агент выполняет узкоспециализированную роль, подобно юристу или техническому эксперту в большой команде. Это решает ключевую проблему: вместо одного медленного и дорогого универсального помощника работают множество маленьких и эффективных. Система сама решает, какой специализированный агент лучше справится с задачей.
🟠 Экономика такого подхода оказалась выгоднее классических решений. Платформа научилась оптимизировать ресурсы, заменяя дорогие универсальные модели дешевыми специализированными без потери качества. Для еще большей эффективности работает система предварительной фильтрации: простые запросы обрабатываются автоматически, без запуска тяжелых моделей.
🟠 Результат — единый ИИ-помощник, объединивший более 100 рабочих сценариев для тысяч сотрудников. Вместо десятков интерфейсов работники теперь получают помощь через естественный диалог.
🟠Компания уже давно развивает собственные генеративные модели: собственная текстовая A-Vibe и мультимодальная A-Vision уже принесли Авито 670 млн рублей дополнительной выручки в 2024 году. Также в компании объявили о создании своего R&D-отдела под руководством Kaggle Grandmaster Александра Рыжкова. Исследования сфокусированы на пяти направлениях: генеративные модели, компьютерное зрение, голосовые технологии, защита от дипфейков и 3D-технологии.
@ai_machinelearning_big_data
#news #ai
👍142🙈58🤓53❤41🔥16👏14🎉11👌5😇4💯3🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
🏭 Microsoft строит самый мощный в мире датацентр для ИИ — Fairwater AI в Висконсине.
Он будет оснащён сотнями тысяч GPU NVIDIA GB200 и обеспечит производительность в 10 раз выше, чем у самого быстрого суперкомпьютера сегодня.
📍 Факты:
- Кампус: около 127 гектаров, 3 здания, примерно 111 000 м² (бывший Foxconn)
- Хранилище: длиной с 5 футбольных полей
- Охлаждение: замкнутый жидкостный контур, 172 гигантских вентилятора, второй по величине водоохлаждающий чиллер
- Сеть: InfiniBand + Ethernet по 800 Гбит/с, топология fat-tree без блокировок
- Рэк: 72 GPU GB200 как один ускоритель → 865 тыс. токенов/сек
- Память: 14 ТБ в пуле на рэк, 1,8 ТБ/с скорость обмена между GPU
🌍 В глобальном масштабе Microsoft объединяет Fairwater с 400+ датацентрами в 70 регионах в единую сеть AI WAN, чтобы десятки тысячи GPU могли работать синхронно над одной задачей.
Запуск планируют на начало 2026 года. Это инфраструктура планетарного уровня.
🟠 Подробности
@ai_machinelearning_big_data
Он будет оснащён сотнями тысяч GPU NVIDIA GB200 и обеспечит производительность в 10 раз выше, чем у самого быстрого суперкомпьютера сегодня.
📍 Факты:
- Кампус: около 127 гектаров, 3 здания, примерно 111 000 м² (бывший Foxconn)
- Хранилище: длиной с 5 футбольных полей
- Охлаждение: замкнутый жидкостный контур, 172 гигантских вентилятора, второй по величине водоохлаждающий чиллер
- Сеть: InfiniBand + Ethernet по 800 Гбит/с, топология fat-tree без блокировок
- Рэк: 72 GPU GB200 как один ускоритель → 865 тыс. токенов/сек
- Память: 14 ТБ в пуле на рэк, 1,8 ТБ/с скорость обмена между GPU
🌍 В глобальном масштабе Microsoft объединяет Fairwater с 400+ датацентрами в 70 регионах в единую сеть AI WAN, чтобы десятки тысячи GPU могли работать синхронно над одной задачей.
Запуск планируют на начало 2026 года. Это инфраструктура планетарного уровня.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍193🔥56❤29🤩18👏9😁7🤔4👀3💘1
Media is too big
VIEW IN TELEGRAM
Ранее Сэм Альтман говорил, что первый продукт компании не будет очками, но теперь они рассматриваются как часть будущей линейки.
В разработке участвует Джони Айв — культовый дизайнер Apple, который ранее критиковал носимые устройства и особенно Humane AI Pin. Обсуждался также вариант внутриушного девайса, но он пока исключен. Если слухи подтвердятся, OpenAI выйдет на рынок персональных AI-устройств, где уже экспериментируют Humane, Meta и другие.
theverge
Управление возьмет американский совет директоров при надзоре правительства США.
Китай согласился передать хранение данных и безопасность американскому партнеру. Но главный вопрос — кто управляет алгоритмами ранжирования, формирующими ленты миллионов пользователей, — пока не решен. (Reuters)
reuters
По мнению компании, взаимодействие с ИИ через промты — ненадежный и устаревший метод.
Новый подход делает работу моделей стабильнее: управление контекстом, уровни абстракции, встроенные правила безопасности и контроль случайности. Среди ключевых технологий — aLoRAs, позволяющая переписывать и проверять запросы, и open-source инструмент Mellea, превращающий размытые промты в структурированные программы.
Tipranks
Она позволяла извлекать данные из Gmail через скрытые инструкции в письмах. Пользователи не замечали подвоха: агент автоматически выполнял вредоносные команды.
OpenAI закрыла дыру и поблагодарила исследователей за находку. Этот случай показал серьезные риски «нулевых кликов», когда атака происходит без участия пользователя и без видимых признаков. (The Verge)
theverge
Модель на 100B параметров, но при инференсе активирует лишь ~6,1B. Внутри алгоритм IcePop, устраняющий нестабильность MoE и сокращающий разрыв между обучением и инференсом.
Модель обучена в три этапа (SFT, RLVR, RLHF), показывает SOTA-результаты в математике, коде и логике, выдавая 200+ токенов/с на 4 GPU H20. Доступна по MIT-лицензии. (HF)
HF
Модель мультимодальная, поддерживает контекст 2M токенов. Тарифы: $0.20 за 1M входных токенов и $0.50 за 1M выходных. В 20 раз дешевле GPT-5-high и при производительности на уровне Gemini 2.5 Pro, стоит в 25 раз дешевле.
X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤83👍25🔥11🤬2🎃2💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Y-Hand M1 — универсальная рука для человекоподобных роботов
Компания Yuequan Bionic представила Y-Hand M1 - самую универсальную и ловкую антропоморфную руку с рекордной степенью свободы движений.
Что умеет:
- Вести ручку по бумаге
- Открывать бутылки
- Резать бумагу
- Выполнять мелкие бытовые задачи почти как человек
🔧 Технические характеристики:
- 38 степеней свободы, нагрузка до 28.7 кг
- Точность позиционирования кончика пальца — 0.04 мм
- Полное сжатие пяти пальцев за 0.2 секунды
- Репликация суставов пальцев с помощью собственных магнитоэлектрических искусственных мышц
⚡️ По сути, это шаг к тому, чтобы роботы получили руки, которые по ловкости максимально близки к человеческим.
@ai_machinelearning_big_data
#ai #robots
Компания Yuequan Bionic представила Y-Hand M1 - самую универсальную и ловкую антропоморфную руку с рекордной степенью свободы движений.
Что умеет:
- Вести ручку по бумаге
- Открывать бутылки
- Резать бумагу
- Выполнять мелкие бытовые задачи почти как человек
- 38 степеней свободы, нагрузка до 28.7 кг
- Точность позиционирования кончика пальца — 0.04 мм
- Полное сжатие пяти пальцев за 0.2 секунды
- Репликация суставов пальцев с помощью собственных магнитоэлектрических искусственных мышц
@ai_machinelearning_big_data
#ai #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77❤33🔥15👏9😭1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Марк Цукерберг:
Эти слова показывают, насколько серьёзно Цукерберг и его компания воспринимают гонку ИИ.
💸 Капитальные вложения не сокращаются — наоборот, компании наращивают расходы.
👉 Сигнал для всего рынка: крупнейшие игроки готовы рисковать колоссальными суммами ради лидерства в ИИ.
📌Полное интервью
@ai_machinelearning_big_data
#ai #ml #airace #money #zuck
> «Мы будем тратить деньги очень агрессивно.
Даже если мы потеряем пару сотен миллиардов — это будет неприятно, но лучше так, чем остаться позади в гонке за супер-интеллектом».
Эти слова показывают, насколько серьёзно Цукерберг и его компания воспринимают гонку ИИ.
💸 Капитальные вложения не сокращаются — наоборот, компании наращивают расходы.
👉 Сигнал для всего рынка: крупнейшие игроки готовы рисковать колоссальными суммами ради лидерства в ИИ.
📌Полное интервью
@ai_machinelearning_big_data
#ai #ml #airace #money #zuck
1👍126❤32🔥17😁17🤔8✍2👏1💘1
⚡️ Вышли новые версии Qwen3-Next-80B в формате FP8!
📌 Модели:
- Qwen3-Next-80B-A3B-Instruct-FP8: 80B, обученная в формате Instruct. Сочетает MoE-архитектуру и FP8-квантование, при большом размере работает быстро и кушает меньше памяти, поддерживает длинный контекст - до 262k токенов (с расширением до миллиона) и оптимизирована для сложных задач рассуждения и работы с большими документами.
- Qwen3-Next-80B-A3B-Thinking-FP8
— Thinking модель, с акцентом на рассуждения, и решение логических задач. Гибридное внимание: Gated DeltaNet + Gated Attention → работа с супердлинными контекстами. Thinking-версия** показывает топ-результаты на задачах рассуждений, обгоняя не только Qwen3-30B/32B, но и закрытую Gemini-2.5-Flash-Thinking
- FP8-точность → быстрый инференс при сохранении качества.
- Полная совместимость с Transformers, vLLM и SGLang.
- Подходит для продакшн-задач, где важны скорость и эффективность.
🟠 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
🟠 ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
@ai_machinelearning_big_data
#qwen #opensource #llm #ml
📌 Модели:
- Qwen3-Next-80B-A3B-Instruct-FP8: 80B, обученная в формате Instruct. Сочетает MoE-архитектуру и FP8-квантование, при большом размере работает быстро и кушает меньше памяти, поддерживает длинный контекст - до 262k токенов (с расширением до миллиона) и оптимизирована для сложных задач рассуждения и работы с большими документами.
- Qwen3-Next-80B-A3B-Thinking-FP8
— Thinking модель, с акцентом на рассуждения, и решение логических задач. Гибридное внимание: Gated DeltaNet + Gated Attention → работа с супердлинными контекстами. Thinking-версия** показывает топ-результаты на задачах рассуждений, обгоняя не только Qwen3-30B/32B, но и закрытую Gemini-2.5-Flash-Thinking
- FP8-точность → быстрый инференс при сохранении качества.
- Полная совместимость с Transformers, vLLM и SGLang.
- Подходит для продакшн-задач, где важны скорость и эффективность.
@ai_machinelearning_big_data
#qwen #opensource #llm #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤53👍23🔥14❤🔥1👌1💘1