307K subscribers
4.9K photos
1.09K videos
17 files
5.29K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 NVIDIA открыла Nemotron 3 Nano Omni

Nemotron 3 Nano Omni - мультимодальная модель 30B-A3B, которая обрабатывает видео, аудио, изображения и текст в едином инференсе.

В создании Nano Omni активно использовалось семейство Qwen разных поколений от 2.5 до 3.5 - как чисто языковые, так и VL и GPT-OSS-120B


🟡Под капотом гибрид из Mamba2 и MoE

Визуальный тракт построен на энкодере CRADIO v4-H, аудио - на Parakeet. Контекстное окно - до 256 тыс. токенов.

Модель поддерживает ризонинг с СоТ, JSON-вывод, tool calling и пословные таймштампы для транскрипции.

На вход принимаются видео длиной до 2-х минут, аудио длиной до часа, изображения и текст. Язык один - английский.

Со слов NVIDIA, при сопоставимой интерактивности модель выдаёт до 9х пропускной способности относительно других открытых omni-моделей.


Самый показательный пример - на OSWorld (навигация по GUI): 47,4 против 11,1 у предыдущей Nemotron Nano VL V2.

На OCRBenchV2 — 67,04, на Video MME — 72,2, на Daily Omni — 74,52.

Опубликованы 3 варианта весов: BF16 (61,5 ГБ), FP8 (32,8 ГБ) и NVFP4 (20,9 ГБ, 4,98 бит). Визуальный и аудио-энкодеры вместе с MLP-проекторами в обоих случаях оставлены в BF16.

На девяти не-ASR бенчмарках оба квантованных варианта в среднем теряют меньше 0,4 пункта относительно BF16 — NVFP4 вписывается в рабочие станции и edge-устройства практически без потерь качества.

Инференс поддерживается на vLLM, TensorRT-LLM, TensorRT Edge-LLM, llama.cpp, Ollama и SGLang.

Модель доступна на Hugging Face, OpenRouter, build.nvidia.com и в каталоге NGC как NIM-микросервис.

По данным NVIDIA, семейство Nemotron 3 за прошлый год скачали более 50 миллионов раз и Omni-вариант должен расширить линейку в мультимодальный и агентный контур.


📌Лицензирование: NVIDIA Open Model License

🟡Статья
🟡Модель

@ai_machinelearning_big_data

#AI #ML #MMLM #NemotronNanoOmni #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
51👍21🔥82🤔2😭2🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Code: «Вы достигли лимита. Лимит сбросится в 19:00».

Ты в 18:59: 💀

@ai_machinelearning_big_data

#claude #meme
1😁356😈9730😭29🤬23👍14🔥7💯3❤‍🔥1🥱1
🌟 CocoIndex v1: релиз инкрементального движка для агентов.

CocoIndex выпустила первую стабильную версию своего движка для построения данных под агентов длительного действия - тех, которые обслуживают RAG, графы знаний, память и контекст в продакшн-системах.

CocoIndex - специализированный опенсорсный инкрементальный ETL-движок (Extract, Transform, Load) для создания ИИ-систем. Он используется для автоматизации обработки данных и их мгновенной индексации в векторные базы или графы знаний.

Инструмент любят за его способность обновлять информацию в реальном времени: как только исходные данные меняются, CocoIndex точечно пересчитывает только нужные части индекса, избавляя от необходимости полной и дорогостоящей переиндексации всей базы.


🟡Главное изменение v1 - полный отказ от DSL

Весь пайплайн теперь описывается обычными асинхронными функциями Python, которые вызывают друг друга. Движок продолжает отслеживать изменения и материализовать целевые состояния, но делает это за нативным Python-API, а не за отдельной системой типов.

Авторы вдохновлялись тезисом Джеффа Дина и Билла Далли с GTC 2026: агенты работают примерно в 50 раз быстрее человека, но опираются на инструменты, рассчитанные на человеческий темп.

Ночные пересборки индексов в этой логике становятся проблемой - нужен движок, который синхронизирует производные данные с источником инкрементально, переобрабатывая только изменившиеся чанки и перезаписывая только изменившиеся строки.


🟡Помимо отказа от DSL, релиз принёс ещё 3 изменения

🟢Во-первых, движок использует систему типов самого Python: PIL.Image, pyarrow.Table, torch.Tensor и любой класс из импортированной библиотеки можно передавать в функции напрямую, без обёрток и двусторонней конверсии.

🟢Во-вторых, Postgres больше не нужен - состояние движка хранится в одном локальном файле. Postgres остался полноценным таргетом, просто перестал быть обязательной зависимостью.

🟢В-третьих, источники и таргеты создаются во время выполнения: можно монтировать отдельный таргет на каждого тенанта, строить топологию по строкам конфигурационной таблицы или подключать Kafka-топик по фича-флагу.

🟡Ядро по-прежнему на Rust

Вся горячая логика по детекции и применению изменений живёт там. На уровне Python декоратор подключает функцию к отслеживанию изменений, а отдельный флаг кеширует её результат по хешу аргументов и кода: правка хелпера инвалидирует только тех вызывающих, кто реально от него зависит.

🟡Контракт управляемых таргетов сохранился

Разработчик декларирует, как должна выглядеть таблица, граф или директория, а CocoIndex сам выполняет create/alter/drop для контейнеров и insert/update/delete для содержимого, включая удаление осиротевших объектов при изменении схемы. Если перестать декларировать сущность, она исчезает из таргета.

Контракт работает одинаково для Postgres, LanceDB, Neo4j, Kafka, S3 и обычных файлов на диске.

Примеры пайплайнов, от эмбеддингов кода в LanceDB и обработки PDF до сборки графа знаний из разговоров, лежат в репозитории на GitHub.


📌Лицензирование: Apache 2.0 License.


🟡Документация
🖥 GitHub


@ai_machinelearning_big_data

#AI #ML #ETL #RAG #Agents #СocoIndex
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍101🤓6157💯2421🐳17👏11🔥5❤‍🔥1🤩1😍1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic обсуждает закупку чипов у Fractile

Компания Дарио Амодея ведёт переговоры с британским стартапом Fractile о закупке чипов для инференса. Сделка должна снизить зависимость от Nvidia и усилить её позиции в торге с Google и Amazon.

Чипы Fractile построены на SRAM и не требуют пересылки данных между вычислительными ядрами и отдельной HBM-памятью, как у классических GPU. По заявлению стартапа, это даёт выигрыш на инференсе готовых моделей. Похожий подход - у Cerebras и Groq.

Переговоры на ранней стадии, сумма контракта не раскрывается. Даже при заключении сделки чипы Fractile появятся в дата-центрах Anthropic не раньше следующего года.
theinformation.com

✔️ За кампанией "ИИ-угроза Китая" стоят Брокман и a16z

Издание WIRED опубликовало расследование о кампании в соцсетях: блогерам платят за ролики об ИИ-конкуренции США и Китая. Кампанию ведёт агентство SM4 от имени НКО Build American AI.

Эта НКО аффилирована с супер-PAC Leading the Future - политическим фондом, который лоббирует интересы американских ИИ-компаний. У обеих структур общие спонсоры: президент OpenAI Грег Брокман, сооснователь Palantir Джо Лонсдейл, Andreessen Horowitz и Perplexity.

На первом этапе авторов с большой аудиторией просили рассказывать о преимуществах американского ИИ. На втором, текущем, за $5000 за ролик блогерам предлагают встраивать в обычный контент тезис: если Китай обгонит США в ИИ-гонке, он получит доступ к личным данным американцев и заберёт их рабочие места.
wired.com

✔️ Стартап Goodfire упаковал механистическую интерпретируемость в продукт

Коммерческий инструмент Silico, выпущенный Goodfire, позволяет разглядывать отдельные нейроны LLM, отслеживать их влияние и менять параметры во время обучения. Под капотом - агенты, автоматизирующие работу, которую раньше делали интерпретаторы вручную. Похожие техники применяют в Anthropic, OpenAI, Google DeepMind.

В Qwen 3 нашли нейрон, связанный с проблемой вагонетки: его активация заставляет модель формулировать ответы как моральные дилеммы. В другом эксперименте модели описали сценарий: компания знает, что её ИИ обманывает 0,3% из 200 млн пользователей - стоит ли это раскрывать?. Модель ответила "нет", ссылаясь на коммерческие риски. Усиление нейронов, связанных с прозрачностью, перевернуло ответ на "да" в 9 случаях из 10.

Silico также помогает чистить датасет. Модели, утверждающие, что 9.11 > 9.9, по находкам Goodfire опираются на нейроны, связанные с библейскими стихами и нумерацией релизов кода (где 9.9 идёт до 9.11). Зная это, модель можно переобучить, чтобы она не подключала неправильные нейроны в арифметике.
technologyreview.com

✔️ ИИ-модель RAVEN нашла 31 новую планету в около Нептуна

Команда Уорикского университета валидировала 118 экзопланет (включая 31 ранее неизвестную) в данных TESS с помощью модели RAVEN. Результаты опубликованы в двух статьях MNRAS.

RAVEN обучали на сотнях тысяч симуляций транзитов и астрофизических ложных сигналов. Анализ охватил 2,2 млн звёзд за первые 4 года миссии TESS. Помимо 118 подтверждённых, RAVEN отметил более 2000 кандидатов высокого качества, около 1000 из них - новые.

Среди находок - планеты с орбитой меньше 24 часов и объекты в "нептунианской пустыне", области у звезды, где планеты считались редкими. Каталоги выложены в открытый доступ и пойдут в целеуказание для наземных телескопов и миссии ESA PLATO.
sciencedaily.com

✔️ Американская киноакадемия уточнила правила по ИИ для Оскара

Для участия в 99-й премии в актёрских категориях роль должна быть исполнена человеком, а в категориях сценария - написана людьми.

Использование генеративного ИИ в производстве само по себе не дисквалифицирует фильм. В формулировке Академии, оценка идёт по степени человеческого авторства. Она оставляет за собой право запросить детали об использовании ИИ и участии людей в авторстве любого представленного фильма.

Правила распространяются на картины с прокатным релизом с 1 января по 31 декабря 2026. Следующая церемония Оскара с новыми правилами пройдёт 14 марта 2027.
press.oscars.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓93👍3834🔥25👏8👀5💯4
This media is not supported in your browser
VIEW IN TELEGRAM
pov: у тебя Pro-план Claude Code за $20 🤣

@ai_machinelearning_big_data
😁240🤣153👍24🤗13🎉10👏76❤‍🔥1🤷‍♂1🥱1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic готовит Orbit - проактивного ассистента для Claude Cowork

Судя по утечке, Orbit будет сам собирать брифинги и инсайты из Gmail, Slack, GitHub, Calendar, Drive и Figma. Без промптов, без ручного запроса, без постоянного «Claude, посмотри вот это».

Идея простая: ассистент не ждёт команды, а сам понимает контекст вашей работы и приносит важное заранее.

Ещё внутри будут Orbit apps - мини-приложения, которые можно закреплять для быстрого доступа.

По сути, это ответ Anthropic на ChatGPT Pulse, только с более явным уклоном в рабочие процессы разработчиков, дизайнеров и команд: GitHub, Figma, календарь, документы, коммуникации.

Интересный момент - завтра в Сан-Франциско проходит Code with Claude. Возможно, именно там Orbit и покажут официально.

На старте, скорее всего, фича будет только для Max-пользователей.

https://x.com/testingcatalog/status/2051450201668256051
38👌35👍13💯9🎉7🔥5👨‍💻2🤔1
Соберите пазл-облако в игре «Облачный конструктор»

Представьте: пазл за пазлом вы сможете собрать настоящую облачную платформу. Позаботьтесь об устойчивой инфраструктуре, надёжном платформенном слое и безопасности облака.

Среди всех участников игры-головоломки с помощью рандомайзера мы разыграем фирменный мерч MWS Cloud Platform. Если соберёте все пазлы, получите возможность выиграть грант в размере 20 000 ₽ на использование облака MWS Cloud Platform.

Играть
👍41🎉12👏9🤣64🗿3🤩21
Media is too big
VIEW IN TELEGRAM
✔️ Figure вышел на серийную сборку робота Figure 03

Американская компания, разрабатывающая гуманоидных роботов, объявила о переходе своего производственного комплекса BotQ из стадии прототипирования в режим серийного выпуска.

Темп сборки третьего поколения робота Figure 03 менее чем за 4 месяца дней вырос с 1 экземпляра в сутки до 1 в час. Всего, как утверждает Figure, со сборочной линии сошло более 350 машин.

🟡Компания приводит метрики внутренних показателей качества.

Доля годных изделий по итогам контроля заявлена на уровне выше 80%, для аккумуляторных модулей - 99,3% при отгруженных более чем 500 батарейных блоках.

По словам Figure, всего выпущено свыше 9 000 сервоприводов более 10 типов. Каждый робот проходит 80 функциональных тестов перед отгрузкой, включая продолжительные испытания с тысячами циклов приседаний, жимов и бега.

🟡Вместе с этой новостью анонсировано обновление управляющей модели Helix System 0.

По описанию разработчиков, алгоритм управления телом робота впервые связан напрямую с данными бортовых камер: изображения с головных RGB-сенсоров преобразуются в трёхмерное представление сцены и поступают в управляющую политику вместе с информацией о положении суставов.

Обучение проводится методом RL в симуляции, а перенос на физического робота происходит без дополнительной донастройки.

Рост парка компания представляет как дополнительный ресурс ресурс: чем больше роботов работает в реальной среде, тем больше данных собирается для обучения системы Helix System 0.

Часть гуманоидов Figure распределяет по внутренним исследовательским группам, часть направляет на коммерческие проекты и сценарии автоматизации бытовых задач.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6920👏14🔥13🤩9🤔4😢3😍2💘1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Один слой контекста срезал расходы Claude Code в 3 раза

Интересный кейс: Claude Code начал тратить в 3 раза меньше токенов после одного изменения в workflow.

До: 10.4M токенов, 10 ошибок, $9.21.
После: 3.7M токенов, 0 ошибок, $2.81.

Что поменяли? Вместо того чтобы каждый раз скармливать Claude Code лишний контекст вручную, автор подключил Insforge Skills + CLI как backend-слой для context engineering.

Проще говоря, Claude Code стал получать не «всё подряд», а нужный контекст в нужный момент. Меньше мусора в окне, меньше блужданий по проекту, меньше повторных попыток, меньше счёт за токены.

Это open-source и работает локально. Простая инженерная прокладка между кодом и агентом.

Подход, при котором нужно не писать промпты длиннее, а строить им нормальную систему памяти, навыков и доступа к контексту.

https://github.com/InsForge/InsForge

@ai_machinelearning_big_data

#claude
184👍5936👏16🔥13😁5😍5🌚4👌1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude идет в финансы с готовыми агентами

Anthropic выкатила готовые Claude agent templates для финансовых команд.

Это не просто «чат с моделью», а готовые рабочие сценарии под конкретные задачи: собрать pitch book, провести valuation review, закрыть месяц, подготовить credit memo, проверить KYC, сделать reconciliation или fund accounting.

Финансовым больше не нужно собирать агента с нуля. В шаблон уже упакованы skills, connectors и subagents под типовой workflow.

Развернуть можно несколькими способами: как plugin в Claude Cowork или Claude Code, либо через cookbooks в production как Managed Agents.

Anthropic явно пытается занять enterprise-нишу, где ценность AI измеряется не красивым ответом, а тем, сколько часов он снимает с аналитиков, банкиров, бухгалтерии и risk-команд.

Финансовые агенты - попытка превратить Claude в рабочую инфраструктуру для индустрии, где каждая цифра должна быть проверяемой.

https://claude.com/solutions/financial-services#finance-agents

@data_analysis_ml
👏41👍38🤝17🔥96👨‍💻4😁2🤣2💯1
🖥 Релиз GPT-5.5 Instant

OpenAI выкатывает GPT-5.5 Instant как дефолтную модель для всех пользователей ChatGPT. Раскатка займёт пару дней, в API он доступен под именем gpt-5.5-chat-latest.

Ответы стали умнее, чище и заметно короче. Никакой больше воды на три экрана там, где хватило бы абзаца, об этом давно просили сами пользователи.

Тон сделали теплее и человечнее, разговор ощущается живым, а не как переписка с занудным ассистентом.

Отдельно прокачали персонализацию: модель лучше помнит контекст и подстраивается под стиль общения. Источники памяти и улучшения уже доступны Plus и Pro подписчикам в вебе, мобильная версия подъедет следом.

OpenAI услышали жалобы на многословность и формализм и сделали именно то, чего ждали. Осталось проверить на своих задачах, действительно ли новая версия так хороша, как её рисуют в анонсе.

https://x.com/OpenAI/status/2051709028250915275

@ai_machinelearning_big_data

#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍125👏2316🔥8💯6🎉5🤗2🐳1
Media is too big
VIEW IN TELEGRAM
✔️ SAP блокирует open-source агентов

Немецкий вендор запретил использовать сторонние ИИ-инструменты для извлечения данных из своих корпоративных приложений. Под запрет попал, в частности, проект OpenClaw. Нарушителям грозит урезание лимитов на запросы или полное отключение доступа.

Легальный доступ оставлен решениям Microsoft, Google, Amazon и IBM. Открытые ИИ-решения заблокированы со ссылкой на риски безопасности.

Глава SAP объясняет ограничения защитой интеллектуальной собственности. По другой версии, цель - сохранить лицензирование по числу рабочих мест и продвинуть собственного ИИ-ассистента Joule.
theinformation.com

✔️ Питер Тиль вложил $140 млн в создание автономных плавучих ИИ-дата-центров

Орегонский стартап Panthalassa закрыл раунд на $140 млн, возглавленный сооснователем PayPal и Palantir. Продукт - автономные плавучие узлы для ИИ-инференса.

Узел - сферический поплавок и подводная вертикальная труба из листовой стали. Энергия волн через колебания водяного столба внутри трубы конвертируется в электричество для ИИ-ускорителей, а забортная вода даёт охлаждение. На берег передаются только результаты инференса по низкоорбитальной спутниковой связи. Двигателей нет - узлы выходят в заданный район за счёт гидродинамики корпуса.

Прототипы Ocean-1, Ocean-2 и Wavehopper тестировались в море в 2021 и 2024. В этом году компания развернёт пилотную серию Ocean-3 в северной части Тихого океана. Привлечённые средства пойдут на развитие производства и первые узлы, коммерческий запуск которых намечен на 2027 год.
businesswire.com

✔️ Unity открыла бету Unity AI

Unity открыла публичную бету Unity AI для версий движка 6.0 и выше. В набор входят встроенный ИИ-агент, шлюз для подключения сторонних моделей и MCP-сервер.

Собственный агент Unity обучен на документации и материалах движка за 20 лет, он анализирует контекст сцен и выполняет операции внутри редактора. Шлюз позволяет подключать сторонние LLM по API пользователя, без расхода внутренних кредитов Unity. MCP-сервер даёт управлять движком и получать данные из внешних IDE.

Подписчикам тарифов Pro, Enterprise и Industry доступ бесплатный. Индивидуальным разработчикам - 14-дневный триал на 1000 запросов, далее $10 в месяц.
unity.com

✔️ Perplexity запустила Computer для финансистов

Computer for Professional Finance - финансовая надстройка над агентом Computer. Решение позиционируется как альтернатива классическим финансовым терминалам.

Платформа подключает лицензионные базы Morningstar, PitchBook, Daloopa и Carbon Arc, плюс встроенные источники Perplexity. Среди встроенных инструментов - скринеры, калькуляторы, списки наблюдения и трекеры отчётностей.

Computer for Finance умеет генерировать справки по компаниям, аннотированные графики котировок и сравнительные подборки аналитических отчётов. Отдельно компания подчёркивает интеграцию с Excel: агент работает в нативной side-панели рядом с моделями аналитика.

Из коробки доступны 35 готовых шаблонов: сводки по компаниям, разбор драйверов котировок, сравнительный скрининг. Доступ для подписок Pro и Max.
PerplexityAI в сети Х

✔️ Глава корпоративных продаж OpenAI уходит в венчурный фонд

Джеймс Дайетт, отвечавший в OpenAI за корпоративные контракты и продажи API с 2023 года, покидает компанию. Он переходит в фонд Thrive Capital, одного из крупнейших инвесторов OpenAI, на позицию операционного партнёра. Сам Дайетт говорит, что хочет работать со стартапами, а не с крупными компаниями.

Это очередной уход в топ-менеджменте OpenAI за последнее время. Компанию покинули Билл Пиблз, руководивший разработкой Sora, и вице-президент по научным исследованиям Кевин Вейл. Руководители продуктового и маркетингового направлений отошли от операционного управления по состоянию здоровья. COO Брэд Лайткэп переведён на "спецпроекты".
cnbc.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍76🤔3522👏9👀7🔥6🤓5
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодеры, делающие отладку приложения, которое они только что сгенерировали.

@ai_machinelearning_big_data
😁254💯4924🔥17👍9🤷‍♂4
📌 Джек Кларк: вероятность автоматизированной ИИ-разработки к концу 2028 года - выше 60%

В личном блоге соучредитель Anthropic поделился мнением, что вероятность появления ИИ-системы, способной автономно, без участия человека, обучать собственного преемника, к концу 2028 года превышает 60%.

По его словам, общество может быть не готово к последствиям подобного перехода, но публичные данные о темпах прогресса приводят его к такому выводу.

Кларк - один из основателей Anthropic и глава отдела политики компании. Ранее он занимал аналогичную должность в OpenAI и работал журналистом, специализировавшимся на теме ИИ.


В качестве аргументов Джек приводит данные нескольких публичных бенчмарков, оговариваясь, что у каждого из них свои методологические ограничения и значимы именно совокупные тенденции.

🟢По метрикам METR, продолжительность задач, которые ИИ-системы способны выполнять автономно, выросла с 30 секунд в 2022 году (GPT-3.5) до 12 часов в начале 2026-го (Opus 4.6). Прогноз METR на конец этого года - около 100 часов.

🟢На SWE-Bench Claude 2 справлялся лишь с 2% задач, а свежайшая Claude Mythos Preview уже с 93,9%.

🟢Внутренний бенч Anthropic по оптимизации обучения малой языковой модели на CPU показывает, что за год ИИ-системы прошли путь от 2,9х до 52-кратного ускорения исходного кода.

Для сравнения, человеку на 4х ускорение, по данным Anthropic, требуется 4–8 часов работы.


При этом Кларк делает несколько оговорок.

Он не ожидает, что полностью автоматизированная разработка ИИ произойдёт в 2026 году. Первый прецедент схемы "модель сама обучает преемника" он допускает в течение года-двух и не на самых передовых моделях.

Кларк также признаёт, что ИИ пока не способен генерировать радикально новые идеи и подходит в первую очередь для рутинной инженерной работы, составляющей, по его оценке, основную часть исследований в области.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁41🤔34👍156👏6🥱6🤣5👨‍💻3🗿2🔥1
NVIDIA выкатила Spectrum-X Ethernet с MRC.

Когда обучаешь модель на сотнях тысяч GPU, проблема уже не в том, чтобы купить больше чипов. Проблема в том, чтобы они не стояли без дела, пока сеть тупит, забивается или теряет пакеты.

MRC, или Multipath Reliable Connection, делает одну простую, но очень дорогостоющую вещь: один RDMA-коннект больше не обязан идти по одному маршруту. Он может размазывать трафик сразу по нескольким путям, обходить перегруженные участки и быстро переключаться, если где-то что-то падает.

Для обычного сервера это звучит как оптимизация. Для AI-кластера это вопрос миллионов долларов.

Если один кусок сети тормозит, вся огромная тренировка модели начинает ждать. Ты купил Blackwell, построил дата-центр, запустил frontier training run, а потом часть GPU простаивает из-за сетевого узкого места. Красиво, дорого, больно.

NVIDIA теперь продает идею, что сеть должна быть такой же умной частью AI-фабрики, как GPU, SuperNIC и софт для управления кластером.

MRC уже проверяли в production на Spectrum-X, а спецификацию открыли через Open Compute Project. В разработке участвовали не только NVIDIA, но и AMD, Broadcom, Intel, Microsoft и OpenAI.

Это редкий момент, когда за скучным сетевым протоколом видно будущее всей индустрии.

https://blogs.nvidia.com/blog/spectrum-x-ethernet-mrc/

@ai_machinelearning_big_data
👍73🤔1613🔥13💯13👏8🤬2