315K subscribers
4.78K photos
1.04K videos
17 files
5.21K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 ИИ-агенты на контентных платформах: два подхода к встраиванию в медиа.

На русскоязычных медиа-площадках появились первые публичные интеграции ИИ-агентов непосредственно в пользовательский интерфейс. Два свежих кейса — Хабр и «Код Дурова» — демонстрируют разные архитектурные подходы к одной задаче: помочь читателю взаимодействовать с контентом.

🟡 Хабр: объяснение кода в статьях

Хабр совместно с SourceCraft разработал фичу для объяснения кодовых сниппетов прямо в статьях. В блоках кода появилась кнопка «Объяснить код с SourceCraft» — при нажатии ИИ-помощник на базе Yandex AI Studio берёт в качестве контекста всю статью и конкретный блок кода, затем генерирует объяснение в оверлейном окне. Можно в один клик перейти в среду разработки с сохранением контекста статьи, чтобы продолжить работу с кодом.

🟡 «Код Дурова»: агент-помощник по всему сайту

Издание запустило агента «Кодик» также на базе Yandex AI Studio — он работает как персональный помощник по всему контенту сайта. Архитектура задействует два компонента: нейросетевые модели для генерации ответов и AI Search для поиска релевантных материалов по сайту.

Логика работы: агент сначала ищет по контенту площадки. Если релевантная информация найдена — формирует ответ с привязкой к конкретным публикациям. Если нет — фолбэчит на базовые знания модели, покрывая вопросы за пределами тематики сайта. Функционал шире: поиск материалов по запросу, рекомендации, объяснение терминов, краткий пересказ статей в реальном времени.

📌 В обоих случаях площадки выступают потребителями платформенных решений, а не строят инфраструктуру с нуля.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍118🤓3321👏12🎉4🔥3💯3
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 VoxCPM2: открытая 2B TTS-модель на 30 языках.

VoxCPM2 - крупное обновление открытой системы синтеза речи VoxCPM.

Модель обучена на более 2 млн. часов мультиязычных аудиоданных и поддерживает 30 языков, включая русский, китайский, английский, японский, корейский, арабский и хинди (плюс 9 диалектов китайского).

За проектом стоит OpenBMB, структура при Университете Цинхуа, объединяющая академическую лабораторию THUNLP и коммерческую компанию ModelBest.

THUNLP - одна из сильнейших академических групп по LLM в Азии, которой руководит легенда китайского NLP, профессор Maosong Sun.

OpenBMB известна сериями CPM, MiniCPM, AgentCPM и фреймворками BMTrain и OpenPrompt.


🟡В второй версии VoxCPM отказались от дискретной токенизации аудио.

В отличие современных TTS-систем, VoxCPM2 работает напрямую с непрерывными представлениями в латентном пространстве AudioVAE V2.

Пайплайн состоит из 4 стадий: LocEnc, TSLM, RALM и LocDiT. На выходе - аудио с частотой 48 кГц студийного качества: асимметричная архитектура AudioVAE V2 принимает референс на 16 кГц и повышает разрешение без внешнего апсемплера.

🟡Обновление добавило 2 новые возможности.

🟢Voice Design создает голос по текстовому описанию: достаточно указать пол, возраст, тембр, эмоцию и темп - никакого референсного аудио не нужно.

🟢Controllable Voice Cloning клонирует голос по короткому аудиофрагменту и в довесок позволяет управлять стилем, эмоциями и скоростью речи, сохраняя оригинальный тембр.

Из версии 1.5 перешел режим Ultimate Cloning: если передать вместе с референсом его точный транскрипт, модель воспроизводит ритм, интонации и манеру речи.

🟡Тесты

На Seed-TTS-eval модель показывает WER 1.84% на английском и CER 0.97% на китайском при сходстве голоса (SIM) 75.3% и 79.5% соответственно.

На мультиязычном Minimax-MLS-test система лидирует по SIM в подавляющем большинстве из 24 языков, опережая Minimax, ElevenLabs, FishAudio S2 и Qwen3-TTS.

В задаче генерации голоса по описанию модель набирает лучшие баллы среди open-source решений на InstructTTSEval в английском языке.

🟡Модель потребляет около 8 ГБ VRAM.

Скорость инференса по соотношению времени, затраченного моделью на генерацию аудио к длительности самого аудио - около 0.3 на NVIDIA RTX 4090. На движке Nano-vLLM этот показатель снижается до 0.13 (подходит для стриминга в реальном времени).

Есть скрипты и гайд для SFT (добавления нового языка или домена) или LoRA для глубокой имитации конкретного спикера. LoRA потребует 5–10 минут аудио и 20 ГБ VRAM.

Пример генерации аудио на демо-спейсе HF без клонирования и постобработке - в видеофайле поста.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Документация
🟡Модель
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #TTS #VoxCPM2 #OpenBNB
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7234👏12🔥10🤩5❤‍🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Z ai выпустила GLM-5.1.

Китайская лаборатория релизнула GLM-5.1 - флагманскую MoE-модель с 754B параметров нового поколения, ориентированную на агентную инженерию.

Фокус релиза - на кодинг и долгие агентные сессии.

🟡Тесты

🟢На SWE-Bench Pro модель берет 58,4, обходя Claude Opus 4.6 (57,3), GPT-5.4 (57,7) и Gemini 3.1 Pro (54,2).

🟢На Terminal-Bench 2.0 результат 63,5, а в связке с Claude Code - 66,5.

🟢В CyberGym GLM-5.1 выбивает 68,7 против 48,3 у предыдущей GLM-5

🟢В BrowseComp - 68,0 без внешнего менеджера контекста.

🟠На бенчмарках HLE, AIME 2026 и GPQA-Diamond модель держится на уровне конкурентов, но не лидирует: здесь впереди Gemini 3.1 Pro и GPT-5.4.

GLM-5.1 построена так, чтобы оставаться продуктивной на длинной дистанции: декомпозировать задачу, запускать эксперименты, читать результаты, находить блокеры и пересматривать стратегию.

Z ai утверждает, что модель устойчиво оптимизирует решение на протяжении сотен итераций и тысяч вызовов инструментов, то есть результат тем заметнее, чем дольше она запускают.

API доступен на платформе Z ai, веб-версия на chat.z.ai обещана в ближайшие дни. Веса опубликованы на Hugging Face под лицензией MIT.

Для локального развертывания уже готовы сборки под SGLang 0.5.10+, vLLM 0.19.0+, xLLM, KTransformers и свежую ветку Transformers.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥8828💯21👍13👏5😁5💘2
⚡️ Anthropic запустила проект Glasswing.

Project Glasswing - инициатива по защите критической программной инфраструктуры с помощью ИИ.

Поводом стали возможности разрабатываемой модели Claude Mythos Preview, которая, по оценке самой компании, превосходит почти всех специалистов по поиску и эксплуатации уязвимостей в коде.

За несколько недель работы Mythos Preview обнаружила тысячи 0-day уязвимостей, в том числе во всех крупных операционных системах и браузерах. Среди раскрытых примеров:

🟢27-летняя ошибка в OpenBSD, позволяющая удаленно обрушить систему через одно подключение;

🟢16-летний баг в FFmpeg, который автотесты не замечали после 5 млн. прогонов;

🟢автономно собранная цепочка эксплойтов в ядре Linux, поднимающая права обычного пользователя до полного контроля над машиной.

Модель находила уязвимости и писала эксплойты без участия человека. Все упомянутые баги уже исправлены, для остальных Anthropic уже опубликовала криптографические хэши описаний и раскроет детали после выхода патчей.


🟡Mythos не выйдет в общий доступ.

Партнеры Glasswing получат модель для оборонительных задач: локального поиска уязвимостей, тестирования бинарников, защиты конечных точек и пентестов. Доступ открыт более чем 40 организациям, поддерживающим критическую и open-source-инфраструктуру.

К проекту присоединились AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA и Palo Alto Networks.

Anthropic выделяет до $100 млн. в кредитах на использование модели и $4 млн. прямых пожертвований: $2,5 млн в Alpha-Omega и OpenSSF через Linux Foundation и $1,5 млн. для Apache Software Foundation.

После этапа превью, модель будет доступна участникам Glasswing по цене $25 за миллион входных и $125 за миллион выходных токенов через Claude API, Amazon Bedrock, Vertex AI и Microsoft Foundry.

Защитные механизмы для моделей такого класса Anthropic планирует обкатать на ближайшем релизе Claude Opus, который не несет сопоставимых рисков.

Anthropic уже обсуждает возможности Mythos Preview (как атакующие, так и защитные) с американскими госструктурами.

Подробности о возможностях модели, ее свойствах и общих характеристиках доступны в Claude Mythos Preview system card.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥117👍44🤔27👏107❤‍🔥3🥰2
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic расширяет партнерство с Google и Broadcom.

Компания заключила крупное соглашение о поставке вычислительных мощностей нового поколения с запуском в 2027 году. Почти вся новая инфраструктура разместится в США.

Масштабирование железа связано с ростом бизнеса: в 2026 году прогнозируемая годовая выручка Anthropic перешагнула $30 млрд., а число клиентов, тратящих на Claude более $1 млн в год, достигло 1000 компаний.

Главным облачным провайдером остается Amazon, но Anthropic не привязывается к одному вендору: модели тренируются и запускаются на AWS Trainium, Google TPU и NVIDIA GPU.
anthropic.com

✔️ ИИ-триада объединилась для защиты моделей от нелегальной дистилляции.

OpenAI, Anthropic и Google начали использовать площадку Frontier Model Forum для совместного отслеживания попыток враждебной дистилляции. Эта практика нарушает условия использования и обходится лабораториям Кремниевой долины в миллиарды долларов упущенной выгоды ежегодно.

Координация выстроена по аналогии с кибербезопасностью: компании делятся данными об атаках и тактиках злоумышленников, чтобы быстрее блокировать несанкционированный сбор результатов инференса.

Полноценному обмену мешает американское антимонопольное законодательство. Разработчики опасаются обвинений в сговоре и ждут от правительства США правовых инструкций для легальной защиты технологий.
bloomberg.com

✔️ OpenAI открыла набор на программу Safety Fellowship по безопасности ИИ.

Пилотный проект ориентирован на специалистов по элайнменту. Приоритеты: оценка уязвимостей, снижение рисков, контроль над ИИ-агентами, защита приватности и предотвращение злоупотребления моделями.

Программа пройдет с 14 сентября 2026 по 5 февраля 2027 года. Участники получат стипендию, менторов, вычислительные мощности и кредиты на API, но без доступа к внутренним системам OpenAI.

Формат - удаленно или в центре Constellation. По итогам каждый должен представить статью, бенчмарк или датасет.
OpenAI обещает, что опыт и технические навыки будут важнее дипломов. Заявки принимаются до 3 мая.
openai.com

✔️ Китай развернул масштабную кампанию по краже тайваньских технологий.

По данным спецслужб Тайваня, Пекин атакует ИИ-сектор и производителей чипов, чтобы преодолеть технологическую блокаду. На острове фиксируют всплеск промышленного шпионажа: китайские компании используют теневые каналы, нелегально хантят инженеров, похищают интеллектуальную собственность и закупают оборудование в обход экспортного контроля.

Параллельно растет давление в киберпространстве. Только за первый квартал года ИТ-сети Тайваня зафиксировали свыше 170 млн попыток несанкционированного проникновения с целью сбора данных и слежки.
reuters.com

✔️ Нейросимволический ИИ для робототехники снижает энергопотребление в 100 раз.

Университет Тафтса опубликовал концепт гибридной VLA-модели для управления роботами. Метод использует архитектуру, объединяющую глубокое обучение с правилами символьной логики. Система заранее выстраивает абстрактный план, опираясь на свойства объектов, и не учится долгим путем проб и ошибок.

На тестах с «Ханойской башней» модель показала радикальный прирост эффективности. Время обучения сократилось с полутора суток до 34 минут, затраты энергии на тренировку упали до 1% от стандартных VLA-систем. В инференсе потребление составило 5%. Точность выросла с 34% до 95%.

В усложненной версии теста нейросимволический ИИ добился успеха в 78% случаев, а традиционные модели провалили все попытки. По мнению авторов, структурное мышление поможет решить проблему роста энергоаппетитов нейросетей.
sciencedaily.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍159🤓25👏2217🔥5💯3❤‍🔥2
✔️ Codex пробил отметку в 3 млн. активных пользователей в неделю.

Об этом сообщил Сэм Альтман в сети Х.

В честь достижения этой отметки лимиты использования Codex будут сброшены.

Так будет каждый раз при достижении очередного миллиона, вплоть до 10 миллионов.

Счастливого вам вайб-кодинга и пусть удача всегда будет с вами! (с)


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
87🎉38👍34🔥13👏5🐳4🤬1
🌟 WildDet3D: открытая модель монокулярной 3D-детекции по одному снимку.

Институт Аллена представил модель WildDet3D, которая по одному изображению строит 3D-рамки объектов: оценивает их положение, размер и ориентацию в метрических координатах.

Модель принимает сразу несколько типов промптов: текстовый запрос, клик по точке или готовый 2D-бокс от внешнего детектора.

🟡Архитектура состоит из 3 блоков

2D-детектор построен на SAM3 и обрабатывает все типы запросов.

Геометрическая ветка использует энкодер DINOv2 с обучаемым декодером глубины, учитывающим геометрию обзора: направления лучей камеры зашиваются через сферические гармоники, что снимает необходимость в отдельной калибровке.

Третий компонент, 3D-head, объединяет через кросс-внимание 2D-детекции с признаками глубины и поднимает их в полноценные 3D-боксы.

Если на инференсе доступны данные с LiDAR, ToF или стереокамеры, они подмешиваются в ту же геометрическую ветку без переобучения.

🟡Тесты

На бенчмарке Omni3D модель показывает 34,2 AP с текстовыми промптами (это +5,8 пункта к прежнему лидеру 3D-MOOD).

На zero-shot переносе на Argoverse 2 WildDet3D практически удваивает прежний результат: 40,3 ODS против 23,8.

На редких категориях из собственного бенчмарка WildDet3D-Bench успехи, разумеется, еще лучше - 47,4 AP против 2,4 у 3D-MOOD.

🟡Вместе с моделью вышло демо-приложение для iOS.

Оно использует видеопоток с камеры iPhone и данные LiDAR-сенсора, чтобы в реальном времени отрисовывать 3D-боксы поверх сцены как AR-оверлей.

Это наглядная демонстрация того, как монокулярная модель усиливается, когда устройство умеет отдавать дополнительный сигнал глубины.

🟡Третья часть релиза - датасет WildDet3D-Data.

Более 1 млн. изображений и 3,7 млн. верифицированных 3D-аннотаций, охватывающих свыше 13 тыс. категорий объектов. По сценам распределение получилось такое: 52% помещений, 32% городской среды и 15% природы.

Он собран на основе 2D-наборов (COCO, LVIS, Objects365, V3Det): кандидаты в 3D-боксы генерировались 5 независимыми методами оценки геометрии, затем фильтровались, проверялись VLM и дополнительно отбирались людьми.


🟡Статья
🟡Модель
🟡Техотчет
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #CV #Detection #WildDet3D #Ai2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩78👏30👍2111🔥11🎉9🥰3
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic Claude Managed Agents: готовая облачная инфраструктура для агентов.

Стартовала публичная бета набора API для создания и запуска автономных ИИ-агентов. Сервис берет на себя всю бэкенд-рутину: песочницы, состояния сессий, контроль доступа и оркестрацию.

Claude Managed Agents поддерживает долгие автономные сессии: агенты работают часами, сохраняя контекст и прогресс даже при обрывах связи. Доступна и мультиагентная координация - главная модель запускает подчиненных агентов для параллельных задач. Ключевая фича - самооценка: алгоритм итеративно дорабатывает результат до соответствия критериям.

Тарификация: стандартная оплата за токены плюс $0.08 за час активного рантайма. Развернуть агентов можно через веб-консоль Claude, CLI или Claude Code. Вот почему Антропик забанил клешню.
claude.com

✔️Лаборатория Цукерберга выпустила модель Muse Spark.

Muse Spark - первая мультимодальная модель из семейства Avocado, созданная в Superintelligence Lab. Доступ открыт через веб-сайт и фирменное приложение, для разработчиков запущено закрытое тестирование API.

Архитектура поддерживает визуальную цепочку рассуждений, использование внешних инструментов и оркестрацию агентов. Фишка релиза - режим Contemplating Mode: несколько ИИ-агентов параллельно анализируют сложную задачу.
По независимым тестам модель держится в топ-5, уступая лишь GPT-5.4 и Gemini 3.1 Pro.

Создатели отчитались о высоких результатах в визуальных STEM-задачах и медицинской аналитике, но признают отставание в коде и долгих многоэтапных сценариях.
reuters.com

✔️ Stability AI запустила ИИ-платформу Brand Studio.

Продукт ориентирован на бизнес, которому нужны консистентные генерации в едином визуальном стиле. В основе - инструмент Brand Central, позволяющий дообучать модели на дизайне компании: корпоративные цвета, композиция, стилистика фото, правила размещения логотипов.

Технически Brand Studio - хаб-оркестратор. Умная маршрутизация подбирает оптимальную модель под каждый промпт, переключаясь между Stable Diffusion и Nano Banana или Seedream. Для сложных задач есть Producer Mode: агент сам разбивает ТЗ на пошаговый план с возможностью ручной корректировки.

Сервис заточен под энтерпрайз: ролевой доступ, единый вход, совместная работа с макетами. Базовая подписка - $50 в месяц, на триале дают 1000 кредитов.
stability.ai

✔️ Cloudflare перейдет на постквантовое шифрование в 2029 году.

Cloudflare ускоряет переход на постквантовую криптографию и планирует полностью защитить свою инфраструктуру, включая механизмы аутентификации, уже к 2029 году.

Сокращение сроков вызвано недавними исследованиями Google и Oratomic. Последние доказали, что момент, когда вычислительные системы смогут ломать современные шифры, наступит не в 2035-м, а раньше.

Cloudflare предупреждает, что добавления PQ-алгоритмов мало, для защиты от даунгрейд-атак придется полностью отказаться от уязвимых протоколов, а ротация скомпрометированных секретов займет годы.
cloudflare.com

✔️ Точность Google AI Overviews составляет 91%.

Стартап Oumi провел независимое тестирование Google AI Overviews по бенчмарку SimpleQA. Переход поисковика на Gemini 3 поднял общую точность ответов с 85% до 91%. Но качество указания источников парадоксальным образом ухудшилось.

Доля ответов, где информация верна, но ссылки ее не подтверждают выросла с 37% до 56%. Система регулярно опирается на посты в соцсетях, игнорируя более авторитетные ресурсы.

Кроме того, поисковый ИИ уязвим к SEO-манипуляциям: алгоритм охотно подхватывает фейковые факты из оптимизированных блогов и выдает их за истину в первой строке выдачи. В итоге, несмотря на рост точности, проблема некорректного связывания данных и источников делает верификацию ответов крайне сложной.
nytimes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
61🤓50👍22🤔17🔥6👏4👌2
🌟 VimRAG: мультимодальный RAG-агент, который держит контекст в виде графа памяти.

Tongyi Lab (Alibaba Group) опубликовала VimRAG - фреймворк агентного RAG для работы с текстом, изображениями и видео.
Проект развивает прошлогодний VRAG-RL и решает проблему мультимодального RAG: визуальные данные тяжелые по токенам, но семантически разрежены, а классическая ReAct-история забивает контекст шумом и провоцирует повторные бесполезные запросы к поиску.
Вместо журнала наблюдений VimRAG моделирует рассуждение как динамический направленный ацикличный граф. Каждая вершина хранит подзапрос, действие агента, текстовое саммари и банк визуальных токенов.

Ребра фиксируют логические зависимости между шагами. Такой граф позволяет агенту отличать тупиковую ветку от новой гипотезы и не уходить в циклы повторных поисков.

🟡 Поверх графа работает Graph-Modulated Visual Memory Encoding.

Бюджет визуальных токенов распределяется с учетом исходящей степени в графе, экспоненциального временного затухания (имитация забывания) и рекурсивной обратной связи от потомков.

Ключевым фрагментам достается высокое разрешение, а второстепенные кадры сжимаются или отбрасываются. Для видео задействована способность VLM привязывать содержимое к временной шкале (извлечение ключевых кадров по таймкодам).

🟡Третий компонент - Graph-GPO.

GGPO строит критический путь от корня к ответу и накладывает градиентную маску, исключая тупиковые узлы из положительных примеров, а ценные ретривы - из отрицательных.
По графикам обучения это дает более быструю сходимость, чем базовый GSPO без прунинга.
🟡Тесты

🟢VimRAG обходит Vanilla RAG, ReAct, VideoRAG, UniversalRAG, MemAgent и Mem1 на 9 бенчмарках (HotpotQA и SQuAD до SlideVQA, MMLongBench, LVBench и XVBench).

🟢На Qwen3-VL-8B-Instruct средний скор поднимается с 43,6 до 50,1, на 4B-версии - с 40,6 до 45,2.

При этом средняя длина траектории ниже, чем у ReAct и Mem1: структурированная память съедает меньше действий на ответ.

В репозитории доступны:

🟠тренировочный фреймворк VRAG-RL, демо VRAG на тестовой Qwen2.5-VL-7B-VRAG через vLLM (нужна A100 80GB);

🟠демо на API Qwen3.5-Plus через DashScope (с визуализацией DAG рассуждения и расширенным ризонингом).

Поисковый движок построен на FAISS и поддерживает эмбеддинги GVE-3B/7B и Qwen3-VL-Embedding-2B/8B. Индексировать можно изображения, PDF (через конвертацию) и нарезанное на чанки видео.
Код трейна самого VimRAG обещают выложить после внутреннего ревью Alibaba.
🟡Arxiv
🟡Модель
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #RAG #VRAG #TongyiLab
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7936🤓34👏13🔥11🤔10
🙂 Проект badclaude якобы получил абьюз от Антропик.

История с завирусившимся в сети проектом badclaude получила продолжение.

BadClaude добавляет поверх интерфейса Claude анимацию кнута: при нажатии он отправляет команду прерывания и просит модель отвечать быстрее, сопровождая это оскорбительными сообщениями в адрес ИИ.


Автор проекта опубликовал в сети Х скан письма от Антропик, в котором компания требует удаления всех упоминаний Claude и Anthropic из репозитория проекта до 14 апреля.

Твит подхватили крупные СМИ: Yahoo Tech и MSN написали про "серьезные этические проблемы из-за злоупотребления неймингом".

Тем временем, создатель badclaude добавил в репозитории проекта roadmap, в котором абьюз от Anthropic является вторым этапом после релиза.

В планах проекта: криптомайнер, логи о том, сколько раз вы хлестали Клода кнутом и обновленная физика кнута.

Подлинность письма-претензии не подтверждена. Является ли эта история троллингом или PR-акцией проекта - неизвестно.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣47🤔4133👍10🔥10🤬9🤨2
✔️ Анонимная модель HappyHorse-1.0 возглавила арену ИИ-видео.

7 апреля на Artificial Analysis Video Arena без анонсов, пресс-релизов и корпоративного бэкграунда появилась модель HappyHorse-1.0, которая сразу заняла 1 место.

🟢В категории text-to-video без аудио она обошла Seedance 2.0.

🟢В image-to-video без аудио рейтинг ещё выше - 1391–1406 Elo, это новый абсолютный максимум арены.

🟠В треке с аудио HappyHorse идет второй, уступая только Seedance 2.0.

🟡Команда, которая стоит за моделью официально не раскрыта.

Все, что известно о внутреннем устройстве, собрано из описаний на happyhorse-ai.com (домен, кстати зарегистрирован 7 апреля).

Заявлено 15 млрд. параметров и 40-слойный трансформер, обрабатывающий текстовые, визуальные и аудио-токены в единой последовательности, без перекрестного внимания и без отдельных подсетей под каждую модальность.

Инференс идет за 8 шагов без CFG, с ускорением через собственный компилятор MagiCompiler.

Пятисекундный ролик в 1080p, по данным авторов, рендерится примерно за 38 секунд на H100.

Поддерживается совместная генерация видео и синхронного аудио с липсинком на 7 языках, включая китайский, английский, японский и кантонский. GitHub и Model Hub помечены как coming soon.

🟡Вокруг авторства в сети идет активное расследование.

Одна версия связывает HappyHorse с Alibaba: в пользу этого играет название (2026 - год Лошади по китайскому календарю).

Издание The Information ссылаясь на 2 источника, эту версию подтвердило.


Другая - указывает на Tongyi Lab и линейку Wan, однако технические описания HappyHorse и недавно вышедшей Wan 2.7 расходятся: Wan 2.7 делает акцент на ризонинге и длинном тексте, тогда как HappyHorse строится вокруг однопоточного трансформера и 8-шагового инференса.

Третья версия, набирающая вес в техническом сообществе, строится на сходстве HappyHorse с открытой моделью daVinci-MagiHuman от SandАi, вышедшей в марте: совпадают метрики визуального качества, следования промту, физической консистентности и WER голоса.

Если релиз состоится на условиях open source с коммерческой лицензией, как следует из описания на сайте модели, это станет первым случаем, когда открытая видеомодель обошла закрытых лидеров в пользовательских слепых тестах.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥77🤔15👏1211🎉6👍4🏆3😁1🥱1
Media is too big
VIEW IN TELEGRAM
✔️ Cowork стал доступен на всех платных тарифах и получил инструменты корпоративного администрирования.

Anthropic перевела Claude Cowork для macOS и Windows из статуса превью в общий доступ. Агент теперь доступен на всех платных тарифах. Главное в релизе - набор корпоративных функций для развертывания Cowork внутри компаний.

Администраторы получили ролевую модель доступа с синхронизацией пользователей через SCIM и возможность задавать лимиты расходов по командам. Закрыт пробел в аудите: теперь через расширенную поддержку OpenTelemetry система логирует вызовы инструментов, операции с файлами и подтверждения действий, а телеметрию можно отгружать в SIEM.

Отдельно появился гранулярный контроль над MCP-коннекторами: на уровне организации можно, например, оставить агенту только чтение и заблокировать любые операции записи. Каталог интеграций пополнился официальным коннектором Zoom.
claude.com

✔️ ByteDance развернула полнодуплексную голосовую модель.

ByteDance представила SeedDuplex, которая продолжает слушать пользователя, пока сама говорит. Модель обрабатывает звук и смысл слитно, поэтому умеет адаптивно определять границы реплик, она отличает реальный конец фразы от паузы на обдумывание.

Отдельный модуль шумоподавления отсекает фон и посторонние голоса. По замерам ByteDance, задержка отклика сократилась на 250 мс, а число неуместных перебиваний упало на 40%.

Seeduplex уже полностью раскатана в приложении Doubao - основном потребительском продукте ByteDance
bytedance.com

✔️ Gemini теперь генерирует интерактивные симуляции прямо в чате.

Google добавила в Gemini новый формат ответа: вместе с текстом чат-бот может отдавать интерактивные визуализации. На запрос смоделировать физическую систему или показать структуру молекулы Gemini соберёт рабочий виджет прямо в окне диалога.

Визуализациями можно управлять. Например, в ответе про орбиту Луны появляются ползунки для начальной скорости и силы гравитации — значения можно тянуть мышью или вбивать вручную, а траектория и устойчивость орбиты пересчитываются на лету.

Обновление уже раскатывается на всех пользователей приложения Gemini, за исключением корпоративных аккаунтов Workspace и Education. Чтобы попробовать, нужно переключиться на модель Pro и добавить в промпт команду «помоги визуализировать».
blog.google

✔️ LM Studio приобрела стартап Locally AI.

LM Studio объявила о поглощении проекта Locally AI, разработчика приложений для локального инференса на iPhone, iPad и Mac. Основатель стартапа Адриен Грондин переходит в LM Studio и возглавит направление кросс-платформенных интерфейсов.

Сделка нужна, чтобы вывести LM Studio за пределы десктопа: до сих пор клиент работал только на macOS, Windows и Linux. На базе наработок Locally AI разработчики смогут запускать локальных агентов на мобильных устройствах.

В ближайших планах LM Studio - связать десктопную и мобильную версии в одну экосистему, чтобы модели и чаты синхронизировались между устройствами пользователя.
lmstudio.ai

✔️ Cursor перевел ревьюера Bugbot на онлайн-обучение.

Cursor изменил схему тренировки Bugbot, ИИ-инструмента для код-ревью. Раньше модель обновляли редкими офлайн-итерациями, теперь она дообучается в процессе ревью реальных PR.

Bugbot собирает 3 типа сигналов: дизлайки на собственные замечания, ответы разработчиков с разбором ошибок модели и комментарии людей, которые указывают на пропущенные баги. На основе этой обратной связи бот формулирует кастомные инструкции, подстраивающие его под бизнес-логику целевого репозитория.

После перехода на непрерывное обучение доля валидных срабатываний выросла до 78%. Это выше, чем у Greptile, CodeRabbit и GitHub Copilot. Включить генерацию правил и прогнать ретроспективное обучение можно в дашборде Cursor.
cursor.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍141👏31🤩20🎉1918🔥1
⚡️ Anthropic запустила функцию гибридного использования моделей Claude.

На Claude Platform новый серверный тул - Аdvisor. Он реализует механику, в которой Sonnet или Haiku идут как исполнитель и ведут задачу от начала до конца, а Opus подключается как советник, чтобы в результате получить качество, близкое к Opus, по цене, близкой к Sonnet.

Модель-исполнитель сама решает, когда позвать Opus, он подключается как обычный вызов инструмента.

Opus получает выжимку контекста, возвращает план, исправление или сигнал остановки, после чего исполнитель продолжает работу. Советник не вызывает другие инструменты и не пишет в ответ пользователю - только дает указания исполнителю.

Все происходит внутри одного запроса, без дополнительных раунд-трипов и ручной оркестрации.

Токены советника тарифицируются по его ставкам и репортятся в usage отдельно, так что расход по уровням можно отслеживать.

На SWE-bench Multilingual, связка Sonnet + Opus-advisor дает +2,7% к качеству относительно Sonnet в соло и при этом снижает стоимость на 11,9%.

На BrowseComp Haiku + Opus-advisor выдает 41,2% против 19,7% у чисто Haiku, а общая стоимость остаётся на 85% ниже, чем если запускать только Sonnet.


Advisor tool доступен в бете по API. Документация - тут.

Как же Антропик волшебно нарисовала график SWE-Bench 🙂


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
60👏36🤣28🤓18🤔10👍76👌6🔥4
Media is too big
VIEW IN TELEGRAM
⚡️ В дом главы OpenAI бросили коктейль Молотова, подозреваемый задержан.

20-летний мужчина метнул самодельное зажигательное устройство в дом Сэма Альтмана в Сан-Франциско, спровоцировав пожар. Скрывшись с места преступления, злоумышленник направился к штаб-квартире OpenAI, расположенной в 5 километрах от дома.

Спустя час полиция задержала его возле главного офиса компании - там молодой человек угрожал сжечь здание дотла.

В результате инцидентов никто не пострадал и полиция пока не уточняет, находился ли руководитель OpenAI дома в момент нападения.
ft.com

✔️ Минфин США и ФРС экстренно собрали глав крупнейших банков из-за модели Mythos.

Министр финансов США и председатель ФРС провели закрытую встречу с руководителями Citigroup, Morgan Stanley, Bank of America и Goldman Sachs. Темой срочного совещания стали риски кибербезопасности, спровоцированные релизом модели Mythos от Anthropic.

Опасения властей связаны с техническими возможностями модели. Mythos способен находить и самостоятельно эксплуатировать уязвимости нулевого дня во всех основных операционных системах и веб-браузерах. Для системно значимых банков, от которых зависит глобальная экономика, это означает переход киберугроз на принципиально иной уровень автоматизации.

Цель экстренного совещания - убедиться, что финансовый сектор осознает масштабы проблемы и готов перестроить защиту внутренних сетей под новые реалии.
bloomberglaw.com

✔️ MiniMax выпустил модель генерации музыки Music 2.6.

В новой версии улучшили качество сведения и следование инструкциям. Теперь через промпт можно точно задавать BPM, тональность, порядок вступления партий и выстраивать сложную эмоциональную дугу трека.

Проведена глубокая оптимизация средних и низких частот. Для работы с готовым материалом появилась функция Cover. Она извлекает мелодический каркас из загруженного аудио и позволяет полностью изменить жанр или аранжировку, сохранив исходный мотив и ритмику.

Кроме этого, представлены три новых Music Skills. Они позволяют интегрировать генерацию музыки в сторонние сервисы, собирать динамические плейлисты на основе предпочтений пользователя и наделять виртуальных ассистентов вокалом для импровизаций. Модель доступна в стадии беты с 14-дневным бесплатным использованием.
minimax.io

✔️ Релиз DeepSeek V4 ожидается в конце апреля.

По данным инсайдеров, новая флагманская модель DeepSeek V4 дебютирует во второй половине апреля. Ожидается, что архитектура будет насчитывать триллионы параметров, а размер контекстного окна расширится до миллионов токенов.

Намеки на скорый релиз уже появились в веб-интерфейсе платформы, где разработчики добавили быстрый и экспертный режимы для обработки сложных комплексных запросов. DeepSeek пока воздерживается от официальных комментариев.
finance.sina.com.cn

✔️ ЦРУ внедряет ИИ во внутренней аналитике.

Разведывательное управление США подготовило первый отчет, сгенерированный ИИ. По словам заместителя директора ведомства, в ближайшие годы ИИ-ассистенты будут встроены во все аналитические платформы ЦРУ. Нейросети возьмут на себя подготовку черновиков, верификацию разрозненных данных, машинный перевод и выявление скрытых трендов.

За последний год управление уже протестировало 300 подобных проектов. Активнее применять генеративные модели начнет и Центр киберразведки, курирующий скрытые хакерские операции, хотя право принятия ключевых решений ведомство обещает оставить за людьми.
politico.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
73🤔5222🔥19👍11👨‍💻7🙈4🐳1🤝1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Anthropic вынесла планирование Claude Code в облако.

В Claude Code появилась команда /ultraplan - она передает планирование из локального CLI в облачную сессию Claude Code on the web.

Логика в том, что чтение кода и составление плана почти не зависят от локального окружения и спокойно уезжают в облако, тогда как реализация часто завязана на интерактивность и инструменты конкретной машины.

По расходу токенов и лимитам /ultraplan сопоставим с обычным plan mode (об этом отдельно уточнил инженер Anthropic Thariq в сети X).


Запустить можно 3 способами:

🟢командой /ultraplan с промптом;

🟢ключевым словом ultraplan внутри запроса;

🟢из approval-диалога локального plan mode, выбрав «Refine with Ultraplan».

Пока Claude разбирает репозиторий в облаке, терминал остается свободным, а статус-индикатор показывает одно из 3-х состояний: черновик пишется, требуется уточнение или план готов.

Готовый драфт открывается в браузере в отдельном review-интерфейсе. Каждая итерация порождает новую версию плана, и таких циклов может быть сколько угодно.

После согласования разработчик решает, где исполнять:

🟠«Approve and start coding» оставляет работу в той же облачной сессии и доводит ее до diff и PR на вебе.

🟠«Approve and teleport back to terminal»: план возвращается в локальный CLI, где его можно влить в текущую беседу, открыть новую сессию с чистым контекстом или просто сохранить в файл на потом.

Функция доступна в режиме research preview всем, у кого подключен Claude Code на вебе, и требует CLI версии 2.1.91 или новее, но не работает поверх Amazon Bedrock, Google Vertex AI и Microsoft Foundry.

Активный Remote Control при запуске /ultraplan отключается - оба инструмента делят один и тот же интерфейс и одновременно жить там не могут.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍107🤓2016👏9👨‍💻5🤷‍♀4🔥3💯2😁1👌1🌭1
🚨 Claude «деградировал» и это видно по логам.

Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.

Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.

Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.

Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.

Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.

Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.

Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.

Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.

Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки

Замечали ли вы, что Claude стал тупее в последнее время ?🤯


Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.

234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.

После этого Anthropic ответили и фактически подтвердили её выводы.

Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇

https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103

@ai_machinelearning_big_data

#news #ai #ml #claude
👍12963😭49😁16💯11🗿9🔥8🤔5🤷‍♂2
✔️ OpenAI объяснила путаницу с лимитами тарифов Pro.

После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов.

Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами.

Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x.

План за $200 дает как двадцатикратный объём Plus на тех же условиях.

Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру).

Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x».

Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus.


Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки.

По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍80🤔5419🤨8🔥6😐6🙊5🎃1
⚡️ Дом Сэма Альтмана снова подвергся нападению.

В воскресенье утром резиденция генерального директора OpenAI Сэма Альтмана в Сан-Франциско подверглась второй атаке всего через два дня после инцидента с поджогом.

Полиция арестовала 25-летнюю Аманду Том и 23-летнего Мухаммада Тарика Хусейна по обвинению в неосторожном обращении с огнестрельным оружием.

В 1:40 ночи автомобиль с двумя людьми остановился перед домом Альтмана в районе Russian Hill, предварительно несколько раз проехав мимо. Офицеры задержали подозреваемых и изъяли при обыске 3 единицы огнестрельного оружия.

Первая атака произошла в пятницу: 20-летний Даниэль Алехандро Морено-Гама бросил коктейль Молотова в металлические ворота дома Альтмана.

Перед попыткой поджога он написал несколько эссе под названием "Эпитафия человечеству", выражая опасения, что развитие ИИ приведет к исчезновению человечества. Он также участвовал в деятельности группы PauseAI, выступающей за запрет разработки ИИ.

PauseAI, в свою очередь, осудила действия поджигателя:

Мы желаем безопасности и мира Сэму Альтману, его семье и всем пострадавшим. Организация PauseAI считает, что каждый заслуживает безопасности, включая Сэма Альтмана и его близких. Насилие в отношении кого бы то ни было противоречит всему, за что мы выступаем.


После первого инцидента Сэм Альтман написал пост в личном блоге и разместил фото семьи:

Страх и беспокойство по поводу ИИ оправданы. Мы наблюдаем самые масштабные изменения в обществе за долгое время, а возможно, и вообще когда-либо.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😢58🤣32🤬16🤔1311👍5🔥4🙏2😨2😁1🤩1
⚡️ MiniMax выложила M2.7 в открытый доступ.

Через 3 недели после мартовского релиза MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.

За несколько дней после публикации сообщество сделало 32 квантованные сборки и 6 файнтюнов.

Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.

Итог: рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.


🟡Инженерные бенчи тоже интересные

🟢На SWE-Pro M2.7 выдает 56,22% (паритет с GPT-5.3-Codex, а не с Sonnet 3.5, как сообщалось ранее).

🟢На SWE Multilingual 76,5 и Multi SWE Bench 52,7. VIBE-Pro - 55,6% (почти вровень с Opus 4.6).

🟢Terminal Bench 2 - 57,0%, NL2Repo - 39,8%.

🟢В офисной работе M2.7 держит ELO 1495 на GDPval-AA (лучший результат среди open-source и выше GPT-5.3).

🟢На Toolathon - 46,3%, на MM Claw - 62,7% (рядом с Sonnet 4.6) при 97% соблюдения инструкций на 40+ сложных скиллах.

Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.

Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM.

Параллельно команда открыла исходники OpenRoom, интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
117🔥54🏆22🤩97👍5👏5💘1
✔️ MoonshotAI готовит модель Kimi K2.6 к релизу

Китайские тестеры раннего доступа Kimi Code получили сообщение, которое говорит о скором релизе модели Kimi K2.6.

Перевод скрина:

KIMI Code

Программа раннего доступа завершена
Спасибо за ваше участие и обратную связь

Привет, x

Спасибо, что приняли участие в тестировании программы раннего доступа Kimi Code! Каждый ваш отзыв помог нам сделать продукт лучше, и это очень важно для нас. Программа раннего доступа на этот период завершена, и мы надеемся увидеться с вами снова при запуске следующего этапа.

Сейчас мы занимаемся финальной настройкой и доработкой продукта на основе отзывов, полученных в ходе этого тестирования. Новая модель K2.6-code-preview, которую вы опробовали, скоро будет запущена для всех пользователей. Еще раз спасибо за вашу поддержку и доверие как одного из первых участников.

Команда Kimi Code
2026 Kimi



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94👏1914🎉13🔥7💯7🦄2❤‍🔥1🥰1