Привет! Авито проводит второй ML reading club, в этот раз с Денисом Кайшевым, Senior Backend Engineer. Вместе со зрителями прочитаем и разберём статью Demystifying NCCL: An In-depth Analysis of GPU Communication Protocols and Algorithms.
Изучим архитектуру библиотеки NCCL и обсудим:
— как работают её внутренние механизмы, для которых почти нет документации;
— как описываются способы обмена при взаимодействии intra/inter node;
— как строятся алгоритмы коллективных операций.
Найдём узкие места библиотеки и выясним, как оптимизировать производительность распределённых вычислений.
📌 Встреча пройдёт 20 ноября в 18:00 в Контур.Толке.
⌚️ Ссылку на подключение пришлём в канал «Доска AI-объявлений» за час до начала эфира.
Изучим архитектуру библиотеки NCCL и обсудим:
— как работают её внутренние механизмы, для которых почти нет документации;
— как описываются способы обмена при взаимодействии intra/inter node;
— как строятся алгоритмы коллективных операций.
Найдём узкие места библиотеки и выясним, как оптимизировать производительность распределённых вычислений.
📌 Встреча пройдёт 20 ноября в 18:00 в Контур.Толке.
⌚️ Ссылку на подключение пришлём в канал «Доска AI-объявлений» за час до начала эфира.
Forwarded from Анализ данных (Data analysis)
⚡️ NVIDIA выпустила модель Llama-3 Nemotron Super-49B-v1.5-NVFP4
Это 49B reasoning-модель, улучшенная версия Meta Llama-3.3-70B-Instruct, которая даёт более сильное рассуждение, лучшее использование инструментов и стабильный диалог на длинных контекстах.
Она ориентирована на реальные агентные нагрузки - RAG, tool calling, сложные цепочки действий - и поддерживает контекст 128K, позволяющий держать большие беседы, документы и планы без нарезки.
Главное обновление - Neural Architecture Search, который снижает потребление памяти и повышает пропускную способность.
В итоге модель может выполнять тяжёлые задачи на одном H200 под высокой нагрузкой - это уменьшает стоимость сервинга и позволяет использовать большие batch'и.
huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5-NVFP4
Это 49B reasoning-модель, улучшенная версия Meta Llama-3.3-70B-Instruct, которая даёт более сильное рассуждение, лучшее использование инструментов и стабильный диалог на длинных контекстах.
Она ориентирована на реальные агентные нагрузки - RAG, tool calling, сложные цепочки действий - и поддерживает контекст 128K, позволяющий держать большие беседы, документы и планы без нарезки.
Главное обновление - Neural Architecture Search, который снижает потребление памяти и повышает пропускную способность.
В итоге модель может выполнять тяжёлые задачи на одном H200 под высокой нагрузкой - это уменьшает стоимость сервинга и позволяет использовать большие batch'и.
huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5-NVFP4
🤖 Умная библиотека для выполнения кода и вызова инструментов
Code-Mode упрощает взаимодействие AI с инструментами, позволяя выполнять TypeScript-код с доступом ко всему набору инструментов. Это решение значительно ускоряет выполнение задач, снижая количество вызовов API и потребление токенов.
🚀Основные моменты:
- 60% быстрее выполнения по сравнению с традиционными вызовами инструментов
- Уменьшение потребления токенов на 68%
- Снижение количества API-вызовов на 88%
- Поддержка различных протоколов для интеграции
📌 GitHub: https://github.com/universal-tool-calling-protocol/code-mode
Code-Mode упрощает взаимодействие AI с инструментами, позволяя выполнять TypeScript-код с доступом ко всему набору инструментов. Это решение значительно ускоряет выполнение задач, снижая количество вызовов API и потребление токенов.
🚀Основные моменты:
- 60% быстрее выполнения по сравнению с традиционными вызовами инструментов
- Уменьшение потребления токенов на 68%
- Снижение количества API-вызовов на 88%
- Поддержка различных протоколов для интеграции
📌 GitHub: https://github.com/universal-tool-calling-protocol/code-mode
GitHub
GitHub - universal-tool-calling-protocol/code-mode: 🔌 Plug-and-play library to enable agents to call MCP and UTCP tools via code…
🔌 Plug-and-play library to enable agents to call MCP and UTCP tools via code execution. - GitHub - universal-tool-calling-protocol/code-mode: 🔌 Plug-and-play library to enable agents to call MCP a...
LangChain 1.0 вышел в октябре — курс уже на новом API. ⚡
Без старого 0.3 и сломанного кода.
Переписываем программу под актуальный стек:
✅ LangChain 1.0 — стабильный API, код из уроков запускается
✅ LangGraph для агентов — долгоживущие, устойчивые workflow
✅ RAG с метриками: precision/recall, faithfulness
✅ Гибридный поиск + rerank
✅ FastAPI-сервис + observability (латентность, токены, p95)
Практика • Проект в GitHub • Сертификат Stepik 📜
Основные модули уже обновлены, остальные выкатываются по мере релиза —
доступ ко всем обновлениям у вас автоматом.
Скидка 25% — последние 3 дня. 🔥
Пройти курс на Stepik
Без старого 0.3 и сломанного кода.
Переписываем программу под актуальный стек:
✅ LangChain 1.0 — стабильный API, код из уроков запускается
✅ LangGraph для агентов — долгоживущие, устойчивые workflow
✅ RAG с метриками: precision/recall, faithfulness
✅ Гибридный поиск + rerank
✅ FastAPI-сервис + observability (латентность, токены, p95)
Практика • Проект в GitHub • Сертификат Stepik 📜
Основные модули уже обновлены, остальные выкатываются по мере релиза —
доступ ко всем обновлениям у вас автоматом.
Скидка 25% — последние 3 дня. 🔥
Пройти курс на Stepik
🇯🇵 Andy Rubin - создатель Android и экс-топ-менеджер Google - возвращается в робототехнику с новой компанией Genki Robotics, базирующейся в Токио, Япония. Согласно отчёту корейского MK.co.kr и The Information, стартап работает в режиме «стелс» и набирает команду для разработки первых прототипов.
Слово «Genki» по-японски означает «живой», «энергичный» - это говорит о фокусе на динамичных машинах, вероятно, способных передвигаться в человеческом пространстве.
Andy Rubin уже давно интересуется роботами-пешеходами: во время работы в Google он руководил робо-дивизионом и покупал японскую хуманоидную компанию Shaft. На конференции в 2018 году он предсказал эру «nog-everywhere» (ноги повсюду), утверждая, что именно ногами роботы смогут использовать лифты, подниматься по лестницам и работать там, где колёса бессильны.
Выбор Токио как центра Genki Robotics — стратегический: Япония славится мощным инженерным ресурсом в области робототехники и университетскими кадрами, которые трудно переоценить. Rubin явно намерен воспользоваться преимуществом японской экосистемы вне привычного Силиконовой долины.
Но рынок хуманоидов крайне насыщен и затратен. Несмотря на прошлые успехи Rubin-а (в 2013-м он инициировал множество покупок робототехнических компаний), после ухода из Google его компания смартфонов Essential Products закрылась в 2020-м.
Пока Genki Robotics работает в тени — неизвестно, какие задачи она решает и какую технологию использует. Но возвращение Rubin-а в эту область может стать важным событием для индустрии хуманоидов.
Слово «Genki» по-японски означает «живой», «энергичный» - это говорит о фокусе на динамичных машинах, вероятно, способных передвигаться в человеческом пространстве.
Andy Rubin уже давно интересуется роботами-пешеходами: во время работы в Google он руководил робо-дивизионом и покупал японскую хуманоидную компанию Shaft. На конференции в 2018 году он предсказал эру «nog-everywhere» (ноги повсюду), утверждая, что именно ногами роботы смогут использовать лифты, подниматься по лестницам и работать там, где колёса бессильны.
Выбор Токио как центра Genki Robotics — стратегический: Япония славится мощным инженерным ресурсом в области робототехники и университетскими кадрами, которые трудно переоценить. Rubin явно намерен воспользоваться преимуществом японской экосистемы вне привычного Силиконовой долины.
Но рынок хуманоидов крайне насыщен и затратен. Несмотря на прошлые успехи Rubin-а (в 2013-м он инициировал множество покупок робототехнических компаний), после ухода из Google его компания смартфонов Essential Products закрылась в 2020-м.
Пока Genki Robotics работает в тени — неизвестно, какие задачи она решает и какую технологию использует. Но возвращение Rubin-а в эту область может стать важным событием для индустрии хуманоидов.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Компании заключили трехстороннее соглашение, меняющее расклад сил в индустрии. В рамках партнерства Anthropic обязуется закупить вычислительные мощности в Microsoft Azure на $30 млрд. В свою очередь, Nvidia инвестирует в стартап до $10 млрд, а Microsoft вложит еще до $5 млрд.
К тому же, это первое сотрудничество Anthropic и Nvidia на уровне моделей: алгоритмы Claude будут оптимизированы под архитектуры Grace Blackwell и будущие Vera Rubin.
Еще модели Claude Sonnet 4.5, Opus 4.1 и Haiku 4.5 станут доступны клиентам Microsoft Foundry и будут интегрированы в Copilot (GitHub и Microsoft 365). Сделка делает Claude единственной LLM топ-уровня, представленной на всех трех главных облачных платформах мира.
blogs.microsoft.com
Cloudflare объявила о присоединении Replicate, платформы для запуска и деплоя ИИ-моделей. Покупка станет частью единой инфраструктуры «AI Cloud», объединяющей глобальную периферийную сеть Cloudflare с инструментарием Replicate для работы с нейросетями.
Для разработчиков это означает крупное обновление сервиса Workers AI. В скором времени каталог из более чем 50 тыс. моделей Replicate станет доступен внутри экосистемы Cloudflare. Фишкой слияния станет поддержка запуска кастомных моделей и дообучения непосредственно на Workers AI.
Существующие API Replicate продолжат работать и получат буст производительности за счет инфраструктуры Cloudflare. Также в планах интеграция с другими сервисами: объектным хранилищем R2, векторной базой Vectorize и шлюзом AI Gateway.
blog.cloudflare.com
В отличие от Cursor или GitHub Copilot, Antigravity получил режим Manager View. Это центр управления для оркестрации работы множества агентов, выполняющих задачи параллельно в разных воркспейсах.
Агенты работают на базе Gemini 3 Pro, Claude Sonnet 4.5 или GPT-OSS и имеют прямой доступ к редактору, терминалу и браузеру. Инструмент умеет запоминать контекст прошлых проектов и обучаться на действиях пользователя.
Antigravity уже доступна в публичном превью для macOS, Windows и Linux бесплатно, причём Google обещает «щедрые лимиты» на использование моделей.
antigravity.google
На конференции SC25 состоялся анонс моделей Apollo, нацеленных на ускорение промышленного инжиниринга. Новое семейство позволит внедрять возможности ИИ в ПО для сложных вычислений в реальном времени — от проектирования микросхем и аэродинамики до прогнозирования климата и задач термоядерного синтеза.
В основе Apollo лежит комбинация нейронных операторов, трансформеров и диффузионных методов, адаптированных под законы физики. Инициативу уже поддержали Siemens, Cadence и Synopsys, которые планируют интегрировать новинку в свои продукты. Модели в скором времени появятся на HuggingFace и платформе NVIDIA NIM.
blogs.nvidia.com
DR Tulu — открытая модель на 8 млрд. параметров для создания агентов глубокого поиска, которая может самостоятельно планировать исследование, использовать внешние поисковые инструменты, собирать информацию из множества источников и предоставлять ответы с точными ссылками.
Модель учили на методе RLER (Reinforcement Learning with Evolving Rubrics). Вместо статических наград методика использует динамические критерии оценки, которые эволюционируют вместе с моделью. Это предотвращает взлом вознаграждения и заставляет агента реально анализировать контекст, а не имитировать правильный формат ответа.
По тестам DR Tulu-8B не уступает решениям от OpenAI и Perplexity на задачах long-form research, но работает кардинально дешевле. Стоимость выполнения сложного запроса у нее менее одного цента, тогда как аналогичная задача у OpenAI может стоить $1.80.
allenai.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️Запускаем технологические решения вместе!
Друзья, разработчики, инноваторы!
Центр исследований и разработки Сбера в Санкт-Петербурге открывает регистрацию на SpbTechRun – хакатон, где рождаются прорывные идеи и крутые проекты.
Нас ждёт уникальный формат с полным погружением:
✅ Заочный этап до 5 декабря: соберите команду и работайте над проектом из любой точки.
🔆 Вас ждут промежуточные чек-поинты с фидбеком от экспертов. Это шанс не сбиться с пути и прокачать свои решения.
✅ Очный финал 13 декабря: Самые сильные команды встретятся лицом к лицу, чтобы представить свои решения и побороться за звание лучших.
💡 3 реальных кейса. В каждом мы определим тройку победителей.
Ваш талант не останется незамеченным!
🏆 Победителям классный мерч от Сбера и дополнительные баллы при приеме в Санкт-Петербургский государственный университет в 2026 году на образовательную программу магистратуры «Искусственный интеллект и наука о данных».
🔥 Готовы к вызову? Успейте занять свое место на старте и ознакомиться с деталями мероприятия на официальном сайте Хакатона.
Друзья, разработчики, инноваторы!
Центр исследований и разработки Сбера в Санкт-Петербурге открывает регистрацию на SpbTechRun – хакатон, где рождаются прорывные идеи и крутые проекты.
Нас ждёт уникальный формат с полным погружением:
✅ Заочный этап до 5 декабря: соберите команду и работайте над проектом из любой точки.
🔆 Вас ждут промежуточные чек-поинты с фидбеком от экспертов. Это шанс не сбиться с пути и прокачать свои решения.
✅ Очный финал 13 декабря: Самые сильные команды встретятся лицом к лицу, чтобы представить свои решения и побороться за звание лучших.
💡 3 реальных кейса. В каждом мы определим тройку победителей.
Ваш талант не останется незамеченным!
🏆 Победителям классный мерч от Сбера и дополнительные баллы при приеме в Санкт-Петербургский государственный университет в 2026 году на образовательную программу магистратуры «Искусственный интеллект и наука о данных».
🔥 Готовы к вызову? Успейте занять свое место на старте и ознакомиться с деталями мероприятия на официальном сайте Хакатона.
Media is too big
VIEW IN TELEGRAM
Илон Маск заявил, что самое эффективное место для ИИ-инфраструктуры - это космос.
На Земле системы ограничены охлаждением и энергопотреблением: из 2-тонной стойки с GPU почти 1.95 тонны - это масса радиаторов и системы охлаждения.
В космосе всё иначе: постоянная солнечная энергия 24/7, не нужны батареи, а отвод тепла намного проще.
Идея - перенести крупные ИИ-центры туда, где инфраструктура может быть значительно эффективнее.
На Земле системы ограничены охлаждением и энергопотреблением: из 2-тонной стойки с GPU почти 1.95 тонны - это масса радиаторов и системы охлаждения.
В космосе всё иначе: постоянная солнечная энергия 24/7, не нужны батареи, а отвод тепла намного проще.
Идея - перенести крупные ИИ-центры туда, где инфраструктура может быть значительно эффективнее.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.
В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.
Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai
Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.
ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.
Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com
Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.
Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com
Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.
AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co
Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.
В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.
Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM