💡 Релиз Z-Image: быстрая 6B модель
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
❤39👍20🥰3🦄3🔥2😁2
Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.
Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.
Основные темы интервью:
Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.
Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.
Приоритеты для улучшения в будущих версиях Gemini Pro:
Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.
Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.
Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤102👍30🔥18🥰5❤🔥2😁1🤩1😇1🦄1
Media is too big
VIEW IN TELEGRAM
OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.
OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com
Alibaba и ByteDance начали массово переводить обучение LLM в Юго-Восточную Азию. Цель миграции в Сингапур и Малайзию — получить легальный доступ к ускорителям Nvidia, прямые поставки которых в КНР заблокированы. Арена мощностей у зарубежных ЦОД формально не нарушает санкционный режим. Этот обходной путь стал безопасным после того, как администрация США отменила «правило распространения».
Исключением остается DeepSeek, который продолжает тренировать модели внутри Китая, используя запасы карт Nvidia и сотрудничая с инженерами Huawei. В индустрии формируется гибридная архитектура: обучение выносится на зарубежные кластеры, а инференс все чаще переводится на локальные китайские чипы.
ft.com
Китайский техногигант запустил продажи смарт-очков Quark. Устройство, внешне неотличимое от стандартной оправы, работает под управлением модели Qwen. Стартовая цена гаджета составляет около $268.
Инженеры сделали ставку на автономность и интеграцию с экосистемой: девайс оснащен сменными аккумуляторами, двойной оптикой и системой профессиональной съемки. Очки глубоко связаны с сервисами компании — пользователи могут использовать визуальный ассистент для мгновенного перевода, оплаты через Alipay и распознавания товаров для поиска цен на Taobao.
reuters.com
Apple опубликовала работу, предлагающую новый подход к генерации видео, способный потеснить диффузионные модели. Система STARFlow-V построена на архитектуре потоковой нормализации и обучается как единая модель для работы с текстом, картинками и видео.
В отличие от диффузии, требующей множества итераций для денойза, STARFlow-V использует однократное обратимое отображение и строгую причинно-следственную логику. Глобальный блок модели работает авторегрессионно: генерация каждого нового латента зависит исключительно от предыдущих данных.
Для оптимизации скорости вычислений применяется параллельные обновления Якоби, что дает качество уровня SOTA при более высокой стабильности генерации.
starflow-v.github.io
Лаборатория Марка Цукерберга разработала AdvancedIF - инструмент для выявления реальных пределов LLM в выполнении директив. Бенчмарк фокусируется на сценариях с высокой когнитивной нагрузкой: набор данных включает более 1600 промптов, каждый из которых содержит 6 одновременных условий: от требований к формату и стилю до негативных ограничений и перекрестных логических зависимостей.
Помимо разовых запросов, AdvancedIF тестирует управляемость моделей через системные промпты и способность удерживать контекст в сложных диалогах. В качестве арбитра используется o3-mini, которая сверяет ответы модели с критериями, разработанными экспертами-людьми. Инструментарий поддерживает пакетную обработку, а сам датасет можно найти на Hugging Face.
github.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤71👍19🔥8🦄3
NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.
Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.
В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.
Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.
В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).
@ai_machinelearning_big_data
#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤66👍34🔥11🤬2🦄2❤🔥1
Media is too big
VIEW IN TELEGRAM
В Школе анализа данных, где готовят специалистов по ИИ, началось обучение по применению ИИ в естественно-научных исследованиях. На программу подали заявки ученые из 37 регионов - больше всего запросов получили от экспертов в областях физики, медицины и химии. В итоге зачислили 50 молодых исследователей: от магистрантов до кандидатов наук из Москвы, Петербурга, Уфы, Иркутска, Владивостока и Екатеринбурга.
Участники изучают основы ИИ и сразу применяют инструменты в своих задачах. С каждой командой работает эксперт ШАДа: помогает выбрать методы и спланировать эксперимент. Если проекту нужны тяжелые вычисления, подключаются мощности Yandex Cloud.
Команда из Institute of Science Tokyo анонсировала фреймворк PianoKPM Net, способный с высокой точностью определять активность мышц рук без использования нательных датчиков. Обычно для этого требуется инвазивная и дорогая электромиография, но новая архитектура реконструирует паттерны мышечных сокращений, анализируя только видеозапись.
В основе системы - уникальный датасет, собранный на базе 12 часов игры профессиональных пианистов, где визуальные данные синхронизированы с реальными сигналами мышц. Технология превращает обычную камеру в диагностический инструмент, что важно для реабилитационной медицины, спортивной аналитики и создания продвинутых интерфейсов «человек-компьютер». Авторы планируют выложить датасет и модель в открытый доступ.
techxplore.com
Project Prometheus поглотил разработчика агентного ИИ General Agents. Сделка прошла в закрытом режиме еще летом и сопровождалась переходом команды инженеров из DeepMind и Tesla в структуру Prometheus. Цель Prometheus: создание ИИ-систем для поддержки сложных производств автомобилестроения и космической отрасли.
Главный актив General Agents - технология Ace для автономного управления интерфейсами и приложениями. Хотя изначально Ace создавался для автоматизации рутинны на ПК, в рамках Prometheus эти наработки, судя по всему, будут масштабированы для индустриальных сценариев.
wired.com
Глава направления Sora в OpenAI Билл Пиблз сообщил, что бесплатные аккаунты теперь ограничены всего 6 видеогенерациями в сутки, так как текущие графические процессоры буквально плавятся от запросов. Это ограничение не выглядит временным: компания прямо предлагает докупать генерации по мере необходимости, хотя условия для подписчиков ChatGPT Plus и Pro пока остались прежними.
Google приняла аналогичные меры, урезав бесплатный доступ к инструменту Nano Banana Pro до 2 изображений в день. Техгигант предупредил, что лимиты могут меняться динамически и без уведомлений. Кроме того, под ограничения попал и доступ бесплатных пользователей к модели Gemini 3 Pro.
theverge.com
ИИ-поисковик получил функцию "persistent memory", которая позволяет запоминать предпочтения, интересы и детали предыдущих диалогов. Теперь система автоматически создает "постоянный контекст" пользователя, а ответы становятся персонализированными и требуют меньше уточняющих запросов.
Perplexity извлекает факты из хранилища памяти и напрямую использует их при формировании ответа. Этот контекстный слой работает поверх любой выбранной модели без потери накопленных знаний о пользователе. Функция полностью управляема: сбор данных можно отключить в настройках, а в режиме инкогнито история не сохраняется.
perplexity.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤59👍26🔥8😁4🦄4
Ostris, разработчик популярного пакета для обучения диффузионных моделей добавил поддержку обучения для Z-Image Turbo с помощью De-Distill адаптера.
AI Toolkit — это универсальный набор инструментов для обучения диффузионных моделей на потребительском оборудовании. Он может запускаться как в GUI, так и в командной строке. Набор разработан так, чтобы быть простым в использовании, но при этом обладать всеми возможными функциями.
По первым тестам, обучение возможно на 12+ VRAM, а обучение персонажа на 17 изображениях длительностью 3000 шагов на RTX 5090 занимает примерно полтора часа.
Подробный гайд по процессу автор тулкита обещает выпустить в ближайшие дни.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤40🔥15🥰5🦄3👍2
MedSAM-3 - исследовательский проект, который переносит возможности сегментации по текстовым запросам из общего домена в медицинский.
Несмотря на мощь оригинальной SAM 3, тесты показали ее слабую применимость к клиническим данным: базовая модель часто путает анатомические структуры и не понимает специфические термины.
MedSAM-3 решает эту проблему, позволяя врачам выделять объекты на снимках МРТ, КТ, УЗИ и гистопатологии с помощью естественного языка. Например, по запросу
«сегментируй опухоль молочной железы».В основе - дизайн SAM 3 с двойным трансформером. На обучении заморозили энкодеры изображений и текста, чтобы сохранить сильные визуальные приоритеты оригинала, а вот компоненты детектора прошли SFT на медицинских датасетах. Это позволило сохранить мощный базис оригинальной SAM 3, но добавить ей понимание медицинской специфики.
В посттрейн-тестах наилучшую производительность показала конфигурация MedSAM-3 T+I, где текстовые подсказки были объединены с ограничивающими рамками. Такой подход позволил тестовой модели обойти классический U-Net и первую версию MedSAM на бенчмарках BUSI (Dice score - 0.7772) и Kvasir-SEG.
Он использует мультимодальную LLM (в экспериментах - Gemini 3 Pro) в качестве планировщика, который анализирует запрос, выстраивает цепочку рассуждений и итеративно управляет процессом сегментации.
В эксперименте c Gemini 3 Pro, на том же тестовом наборе BUSI, метрика Dice выросла с 0.7772 до 0.8064.
⚠️ Проект пока на стадии техотчета, но разработчики обещают опубликовать код и веса модели в ближайшее время. Так что тем, кто занимается ИИ в медицине - рекомендуем следить за репозиторием на Github.
@ai_machinelearning_big_data
#AI #ML #Segmentation #MedSAM3
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54👍20❤16💋5🥰3🤔2🦄2🗿1
Kling AI — это сервис для генерации видео китайской компании Kuaishou (Kwai). Наибольшую известность он получил как аналог OpenAI Sora, способный создавать по текстовому описанию видеоролики с поддержкой консистентности персонажей и продвинутыми инструментами.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28🔥20🥰4👏2❤1🦄1
Media is too big
VIEW IN TELEGRAM
CEO Nvidia обратился к сотрудникам с директивой использовать ИИ-инструменты для решения абсолютно любой задачи, где это технически возможно. Хуанг считает, что компания должна не только давать миру железо для вычислений, но и сама служить эталоном ИИ-эффективности.
Особое внимание он уделил инструментам разработки, настаивая на их тотальном внедрении в инженерные процессы. Несмотря на автоматизацию, компания продолжает расти. За год штат Nvidia увеличился с 29,6 до 36 тысяч человек, и для покрытия текущих задач требуется нанять еще около 10 тысяч специалистов.
NVIDIA не первая, кто требует от сотрудников использования ИИ - Google и Microsoft также начали привязывать использование нейросетей к KPI сотрудников.
techspot.com
Разработчик Тибор Блахо обнаружил в тестовой версии ChatGPT для Android отсылки на рекламный функционал. Строки содержат формулировки: «рекламная функция», «поисковая реклама» и «карусель поисковой рекламы», что указывает на то, что OpenAI, возможно, разрабатывает функцию показа рекламы в ChatGPT.
Tibor Blaho в сети X
Мажорное обновление платформы Pinokio, позиционирует пятую версию как «Vercel для localhost». Инструмент позволяет разворачивать на macOS, Windows и Linux любые веб-серверы, CLI-приложения и ИИ-модели в один клик. Система полностью автоматизирует рутину по настройке окружения, самостоятельно подтягивая необходимые пакетные менеджеры.
Pinokio может создавать лаунчеры для любых проектов с помощью ИИ-агентов. Интерфейс стал универсальным, добавлена поддержка интерактивных терминалов и режим Cells для параллельной работы с фронтендом, бэкендом и логами в одном окне. В новой версии появился «локальный интернет»: Pinokio присваивает запущенным приложениям короткие HTTPS-домены и делает их доступными для других устройств в сети, автоматически активируя сервисы при входящем запросе.
Автор Pinokio в сети X
Организаторы конференции ICLR опубликовали результаты проверки контента, проведенной совместно с Pangram Labs. Анализ массива из 75 800 отзывов показал, что почти 16 тыс. рецензий (около 21%) были полностью сгенерированы ИИ, а не написаны людьми. Проблема затронула и сами научные статьи: 199 поданных рукописей были распознаны как полностью написанные ИИ, а еще в 9% работ доля сгенерированного текста превысила 50%.
Хотя регламент ICLR допускает использование ИИ-инструментов для правки текста или генерации кода при условии явного указания, создание синтетических рецензий подрывает доверие к процессу ревью. В ответ на инцидент организаторы вводят обязательный автоматизированный скрининг всех материалов на использование ИИ.
nature.com
Проект позиционируется как попытка вернуть пользователям достоверный интернет эпохи до ChatGPT. Расширение использует Google Search API для жесткой фильтрации выдачи, отсекая любые материалы, опубликованные после 30 ноября 2022 года. Автор называет этот подход тактикой «выжженной земли»: по ее мнению, это единственный надежный способ гарантировать, что контент создан человеком, в условиях тотального ИИ-слопа.
Slop Evader работает с YouTube, Reddit, Stack Exchange и архивами других крупных платформ. Очевидный технический недостаток полной потери доступа к актуальным новостям является осознанной частью концепции. Создатель расширения надеется, что растущий запрос пользователей на «человеческий» контент в итоге вынудит поисковые системы внедрить маркировку генеративных материалов.
404media.co
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29❤25🔥9🦄2
⚡️Ozon Profit расширяет сбор и разметку данных для ML по всей России
Краудсорсинговая платформа Ozon Profit, которая изначально фокусировалась на онлайн-задачах, теперь позволяет собирать данные и проводить проверки в офлайне по всей России. Это полезно для проектов, чьи ML-модели требуют физической верификации.
Компании могут отправлять исполнителей для фотофиксации витрин, проверки цен и качества сервиса в любом городе. Параллельно за год в 5 раз вырос объем чисто онлайн-проектов по разметке изображений, текстов и видео, а также анализу тональности обращений — критически важных задач для обучения моделей.
Сейчас в офлайне исполнители выезжают на точку для сбора данных, а в онлайне занимаются разметкой данных, анализом эмоций в комментариях, модерацией. Сегодня на платформе зарегистрировано более 100 000 исполнителей.
@ai_machinelearning_big_data
#news #ml
Краудсорсинговая платформа Ozon Profit, которая изначально фокусировалась на онлайн-задачах, теперь позволяет собирать данные и проводить проверки в офлайне по всей России. Это полезно для проектов, чьи ML-модели требуют физической верификации.
Компании могут отправлять исполнителей для фотофиксации витрин, проверки цен и качества сервиса в любом городе. Параллельно за год в 5 раз вырос объем чисто онлайн-проектов по разметке изображений, текстов и видео, а также анализу тональности обращений — критически важных задач для обучения моделей.
Сейчас в офлайне исполнители выезжают на точку для сбора данных, а в онлайне занимаются разметкой данных, анализом эмоций в комментариях, модерацией. Сегодня на платформе зарегистрировано более 100 000 исполнителей.
@ai_machinelearning_big_data
#news #ml
👍28❤13🥱12🥰3🌚2🤣2😢1🍓1🦄1
NVIDIA анонсировала, о чем расскажет на конференции NeurIPS, которая началась сегодня и пройдет до 7 декабря в Сан-Диего.
NVIDIA DRIVE Alpamayo-R1, или сокращенно AR1.
Это первая в мире открытая ризонинг-VLA модель специально для исследований в области автопилотов. Модель построена на базе NVIDIA Cosmos Reason и отлично поддается дообучению с помощью RL.
Alpamayo-R1 будет доступна на GitHub и Hugging Face, а фреймворк AlpaSim для тестов уже опубликован.
Cosmos Cookbook - руководство с рецептами для физического ИИ и генерации синтетических данных и оценки моделей.
LidarGen - "модель мира", которая генерирует данные лидаров для симуляций.
Omniverse NuRec Fixer - инструмент мгновенного исправления артефактов в нейронных реконструкциях а робототехнике и БПЛА.
ProtoMotions3 - открытый фреймворк на базе Isaac Lab, позволяющий тренировать цифровых людей с невероятно реалистичной физикой.
MultiTalker Parakeet - модель для ASR нескольких спикеров даже в быстром темпе и с перекрытиями.
В паре с ней идет Sortformer - инструмент для диаризации, т. е. разделения спикеров в аудиопотоке в реальном времени.
Ну и, конечно, NeMo Gym - библиотека для создания сред обучения с RL в комплекте с NeMo Data Designer, комплексом для создания и проверки синтетических наборов данных.
К конференции NVIDIA подготовила более 70 научных работ. Вот лишь несколько жемчужин из этого списка:
Audio Flamingo 3. Это большая аудио-языковая модель, которая может "понимать" и анализировать аудиозаписи длительностью до 10 минут.
Minitron-SSM. Техника прунинга, которая позволила уменьшить модель Nemotron-H 8B с 8 до 4 млрд. параметров, при этом удвоив скорость инференса.
ProRL, или Prolonged Reinforcement Learning. Концепция, которая доказала, что продление процесса RL выводит модели на совершенно новый уровень в ризонинге.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30❤22🔥7🤗3❤🔥1🦄1
Линейка включает флагманскую Mistral Large 3 и компактные Ministral-модели - все под лицензией Apache 2.0 с коммерческим использованием.
Модели оптимизированы для широкого спектра задач: от работы на устройствах с ограниченными ресурсами до корпоративных нагрузок.
- Mistral Small 3 вышла на уровень свыше 81 % на MMLU: для компактной модели это очень высокий показатель при низких задержках.
- Mistral Medium 3.1 заняла верхние позиции в LM Arena: первое место в категории English (no style control), второе, в общем зачёте, плюс топ-3 в задачах кодирования и длинных запросов.
- Medium 3.1 показывает около 90 % качества «тяжёлых» моделей, но при существенно меньших ресурсных затратах - одно из лучших соотношений цена/производительность на рынке.
https://mistral.ai/news/mistral-3
@ai_machinelearning_big_data
#mistral #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65❤29🔥7🦄5
Media is too big
VIEW IN TELEGRAM
Компания объявила о приобретении Bun — популярного инструментария для запуска и сборки JavaScript-приложений. Технологии и команда стартапа станут фундаментом для дальнейшего масштабирования платформы Claude Code.
Bun, основанный Джаредом Самнером в 2021 году, завоевал популярность как экстремально быстрая альтернатива Node.js, объединяющая в себе рантайм, пакетный менеджер, бандлер и тестовый раннер.
Bun останется опенсорсным проектом под лицензией MIT. Anthropic обещает продолжить инвестировать в инструмент, сохраняя его статус независимого и универсального решения для JS/TS-экосистемы.
anthropic.com
Это третье поколение тензорных процессоров Amazon. Trainium3, изготовленный по 3-нм техпроцессу, показывает буст по производительности до 4.4x и энергоэффективности в 4 раза по сравнению с Trainium 2. Архитектура чипа поддерживает новые форматы данных MXFP8 и MXFP4.
UltraServer - это вычислительный узел, объединяющий 144 чипа с общим объемом памяти 20.7 ТБ HBM3e и агрегированной пропускной способностью 706 ТБ/с. Такие серверы можно объединять в кластеры EC2 UltraClusters масштабом более 1 млн. чипов.
Также AWS потизерила будущий Trainium 4: следующее поколение чипов получит совместимость с GPU NVIDIA через шину NVLink Fusion.
aws.amazon.com
Команда vLLM анонсировала релиз vLLM-Omni, расширения, созданного для адаптации инфраструктуры под omni-модели, которые могут бесшовно работать с текстом, изображениями, видео и аудио в рамках одного процесса.
Архитектура vLLM-Omni предлагает полностью переработанный поток данных. Система использует дезагрегированный пайплайн, объединяющий 3 этапа: мультимодальные энкодеры, логическое ядро на базе vLLM и генераторы.
vLLM-Omni может эффективно оркестрировать сложные гетерогенные рабочие процессы и параллельно выполнять вычисления. Фреймворк сохраняет простоту внедрения, поддерживая полную совместимость с OpenAI API и Hugging Face.
blog.vllm.ai
Важное обновление SGLang, которое кардинально упрощает работу ML-инженеров, позволяя проводить квантование и деплой моделей внутри одной экосистемы без использования сторонних утилит и сложных пайплайнов.
Теперь разработчики могут напрямую через API конвертировать модели в форматы NVFP4, MXFP4, FP8 и сразу запускать их в продакшн. Тесты на архитектуре NVIDIA Blackwell показали, что использование квантования NVFP4 через SGLang удваивает пропускную способность по сравнению с базовым FP8.
lmsys.org
Openness Index — новый стандарт оценки ИИ, который отделяет настоящий опен-сорс от моделей, которые лишь притворяются открытыми. Рейтинг анализирует проекты по 2 направлениям: доступность весов и прозрачность процесса разработки (методология и датасеты для пре- и пост-трейна).
Верхние строчки рейтинга заняли китайские разработки. Среди коммерческих решений хороший результат показала Nemotron Nano 9B v2 (67 баллов), а вот полностью закрытые проприетарные модели ожидаемо остались на дне рейтинга с оценками в 1–5 баллов. Лидером списка стала модель OLMo с показателем 89.
Индекс наглядно подсвечивает проблему термина «open weights»: модели, публикующие только веса без контекста, теряют баллы на прозрачности.
Artificial Analysis в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥45❤34👍7🍓6🦄1
В последний год любой, кто следит за развитием моделей с открытыми весами знает - Китай недостижим.
Qwen и DeepSeek фактически задали стандарт того, как должна выглядеть современная архитектура MoE. В США же большинство компаний занимались лишь доработкой чужих чекпоинтов.
И вот, американская компания Arcee AI собралась
Компания столкнулась с тем, что корпоративным клиентам нужна "юрисдикционная безопасность" . Специалистов по комплаенсу уже не устраивает ответ
"мы дообучили модель неизвестного происхождения". Им нужен полный контроль над пайплайном данных.Семейство моделей Arcee AI получило имя Trinity. Пока в превью-релиз вошли 2 конфигурации:
И пока мы тестируем Nano и Mini, Arcee AI тренирует флагмана Trinity Large.
Его релиз запланирован на январь 2026 года. Это будет модель на 420 млрд. параметров, из которых 13 млрд. будут активны.
Обе доступные модели, Trinity Nano и Trinity Mini выпущены под лицензией Apache 2.0. Они опубликованы на Hugging Face и поддерживаются llama.cpp, LM Studio и vLLM.
Mini также доступна через OpenRouter по очень привлекательной цене - около 4,5 центов за 1 млн. токенов.
@ai_machinelearning_big_data
#AI #ML #MoE #Trinity #ArceeAi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42❤15🔥12🥰5🦄3
Media is too big
VIEW IN TELEGRAM
OpenAI опубликовала исследование новой техники Confessions. Метод решает проблему, когда модели пытаются обмануть систему оценки^ используют reward hacking или выдают уверенные, но ложные факты ради получения высокого балла.
Суть - в генерации вторичного ответа. После выдачи результата модель формирует отдельный отчет, где анализирует свое поведение на предмет соответствия инструкциям и получает награду за точное описание своих ошибок, даже если в основном ответе она соврала или нарушила правила.
Тесты на GPT-5 Thinkin показали пригодность Confessions: вероятность того, что ИИ нарушит правила и скроет это, упала до 4,4%. Важно понимать, что метод не предотвращает галлюцинации, а служит диагностическим инструментом.
openai.com
Amazon запустил новую линейку из 4 моделей Nova. В нее вошли версии Lite и Pro, ориентированные на ризонинг, речевая модель Sonic и мультимодальная Omni, работающая одновременно с текстом, изображениями и видео. Все новые сервисы интегрированы в инфраструктуру AWS. Также был представлен сервис Nova Forge, позволяющий компаниям создавать кастомные версии моделей на собственных данных.
Кроме того, анонсирован инструмент Nova Act для создания агентов, автоматизирующих действия в браузере. Nova Act поддерживает архитектуру Human-in-the-Loop для передачи сложных задач человеку, а также предоставляет возможности для отладки: полные логи и записи сессий можно сохранять напрямую в Amazon S3.
aboutamazon.com
Новая компания Universal Mechanical Assistant (UMA) официально объявила о выходе на рынок. Она будет делать роботов для выполнения реальной физической работы в промышленных масштабах .
В инженерный костяк вошли Реми Каден (разработчик Tesla Autopilot и фреймворка LeRobot), Пьер Сермане (ветеран исследований в DeepMind), а также Роберт Найт, создатель робота SO-100.
UMA уже разрабатывает 2 аппаратные платформы: мобильного промышленного робота с двумя манипуляторами для складов и компактного гуманоида для работы в больницах и жилых помещениях. Стартап заручился поддержкой Яна Лекуна и Томаса Вольфа.
businesswire.com
Новая модель поддерживает режим audio-video co-generation. Она генерирует видеоряд одновременно со звуковым сопровождением в рамках единого процесса. Система умеет создавать диалоги между несколькими персонажами, музыкальные клипы и сложные звуковые сцены (ASMR или экшен) с высокой точностью липсинка.
Есть технические ограничения: генерация голоса поддерживается только на английском и китайском языках (запросы на других языках автоматически переводятся в английский). В режиме Image-to-Video качество финального ролика теперь еще сильнее зависит от разрешения исходного изображения.
klingai.com
Поддержка Gemini тестировалась исключительно в экспериментальной ветке Opera Neon, а теперь стала доступной в Opera One и геймерском Opera GX. Интеграция реализована через боковую панель.
Ассистент получил доступ к контексту браузера: он может анализировать содержимое активных веб-страниц, групп вкладок и видео, выполняя по запросу саммари или сравнительный анализ контента. Заявлена полноценная мультимодальность: движок обрабатывает не только текст, но и голосовые команды, изображения и загруженные файлы.
Техническая часть тоже изменилась. Разработчики перенесли в основные браузеры новую архитектуру с агентным подходом, изначально обкатанную в Neon. Это позволило увеличить скорость генерации ответов на 20%.
prnewswire.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥44❤30👍14😁1🤔1💔1👀1💘1🦄1
На международной конференции компания показала RATE (Refined Assessment for Translation Evaluation) — инструмент, который анализирует качество перевода с учётом естественности речи. Одна из ключевых задач системы — выявлять ситуации, когда модель формально передаёт смысл, но выбирает неверный тон или стиль.
В отличие от существующих методик, RATE фиксирует широкий спектр отклонений: от стилистических несоответствий до ошибок в передаче регистров речи. На тестировании RATE обнаружила в 7 раз больше ошибок, чем MQM (Multidimensional Quality Metrics) и ESA (Error Span Annotation), что подчёркивает ограниченность прежних подходов.
Инструмент уже применяется в процессах развития моделей перевода Яндекса. Такой метод оценки позволяет точнее сопоставлять решения нейросетей с реальными пользовательскими сценариями — от деловых коммуникаций до бытовых диалогов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29❤19🥰9👍4🥱2🎄1💘1
Media is too big
VIEW IN TELEGRAM
Пока Сэм Альтман переводит OpenAI в режим «code red» после выхода Gemini 3, Anthropic демонстративно отказывается от паники. На саммите NYT Dealbook, CEO компании? Дарио Амодей заявил, что им не нужно реагировать на каждый шаг конкурентов авралами, так как у Anthropic принципиально иной вектор развития.
Вместо гонки за вниманием и метриками вовлеченности, Anthropic глубоко фокусируется на корпоративном сегменте. Дарио говорит, что их приоритет - высокая интеллектуальная деятельность: генерация чистого кода, научные исследования и сложная аналитика. Он также скептически оценил огромные бюджеты техногигантов, назвав их финансовую политику «YOLO-стратегией».
businessinsider.com
Проект Anthropic Interviewer - инструмент для автоматизации социологических исследований. Он позволяет проводить глубокие интервью в промышленных масштабах, делегируя роль интервьюера ИИ.
Компания опубликовала результаты первого масштабного эксперимента: массив из 1250 транскриптов бесед. В выборку попали представители массовых профессий, ученые и работники креативных индустрий. ИИ выяснял, как специалисты реально интегрируют нейросети в свои рабочие процессы и как оценивают карьерные риски. Датасет доступен на HuggingFace под лицензией CC-BY.
anthropic.com
Google представила инструмент Workspace Studio для упрощения автоматизации в корпоративных средах. Платформа, построенная на Gemini 3, позволяет создавать кастомных ИИ-агентов без написания кода всего за несколько минут.
Инструмент получил глубокую интеграцию в экосистему Google: созданные помощники работают непосредственно внутри Gmail, Drive и Chat, беря на себя рутину: обработка почты, управление расписанием или анализ документов. Заявлена возможность подключения внешних систем - Asana, Jira, Mailchimp и Salesforce. Доступ к студии уже открыт для бизнес- и энтерпрайз-подписчиков.
workspace.google.com
BrowseSafe - решение для обеспечения безопасности агентного веба. Инструмент защищает ИИ-ассистентов от вредоносных инструкций, которые злоумышленники скрывают в структуре веб-страниц.
Угроза заключается в способности агентов считывать весь HTML-код, включая невидимые пользователю элементы (комментарии, скрытые поля и мета-теги). Хакеры могут внедрять туда команды, перехватывающие управление моделью. BrowseSafe выступает в роли легковесного детектора: он сканирует контент в реальном времени и блокирует подозрительные инструкции до того, как они попадут в контекст основной LLM.
В релиз также вошел бенчмарк BrowseSafe-Bench, содержащий более 14 тысяч сценариев атак для тестирования надежности систем.
perplexity.ai
Суд Манхэттена постановил, что компания должна передать The New York Times и другим новостным изданиям массив анонимизированных переписок пользователей. Это решение принято в рамках громкого процесса об авторских правах: истцы утверждают, что модели OpenAI незаконно обучались на их контенте.
Судья отклонила аргументы OpenAI о рисках для приватности, посчитав меры по обезличиванию данных достаточными. Доступ к логам важен для истцов: они намерены доказать, что ChatGPT способен дословно воспроизводить защищенные авторским правом статьи. OpenAI уже подала апелляцию, называя требование нарушением стандартов безопасности, но по текущему решению обязана подготовить данные в течение 7 дней.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28❤21🦄5🔥3😢2😁1
Исследовательская группа DeepReinforce разработала систему полностью автоматического написания GPU-кода для матричного умножения под названием CUDA-L2.
Этот код работает на 10–30% быстрее, чем cuBLAS и cuBLASLt, а это, на минуточку, уже оптимизированные библиотеки от самой NVIDIA.
Обычно такие библиотеки создаются вручную людьми, которые используют готовые шаблоны ядер. А автотюнеры лишь подкручивают параметры, например, размер тайлов.
Но DeepReinforce считают, что даже критически важные и глубоко оптимизированные задачи, как HGEMM, могут быть улучшены с помощью LLM, работающей в связке с RL.
В системе CUDA-L2 языковая модель буквально пишет исходный код CUDA с нуля для каждого размера матрицы. Она не просто меняет параметры, она может менять структуру кода, циклы, стратегию тайлинга, паддинг и даже свизл-паттерны. А еще, она сама выбирает стиль программирования - будь то сырой CUDA, CuTe, CUTLASS или inline PTX.
Процесс выглядит так: цикл RL запускает сгенерированные ядра на реальном железе, измеряет скорость и корректность, а затем обновляет LLM. Со временем модель выводит свои собственные правила производительности, вместо того чтобы полагаться на знания, заложенные людьми.
В качестве генератора использовалась модель DeepSeek 671B. Ее дополнительно доучили на смеси массива CUDA-ядер и качественном коде из библиотек PyTorch, ATen, CUTLASS и примеров от NVIDIA.
Для претрейна и файнтюна LLM большая часть времени GPU тратится именно на операции матричного умножения HGEMM. Если ускорить эти ядра на те самые 10–30%, которые обещает CUDA-L2, то весь процесс обучения становится заметно дешевле и быстрее.
Поскольку CUDA-L2 обрабатывает около 1000 реальных размеров матриц, а не пару вручную настроенных, ускорение работает для самых разных архитектур. Это значит, что в тот же бюджет на GPU можно вместить больше токенов обучения, больше прогонов SFT или RLHF и т.д.
HGEMM-ядра, созданные CUDA-L2, стабильно быстрее стандартных библиотек.
В так называемом "оффлайн-сценарии" CUDA-L2 работает примерно на 17–22% быстрее, чем
torch.matmul, cuBLAS и cuBLASLt. Она даже на 11% обгоняет cuBLASLt AutoTuning, который сам по себе уже использует поиск ядра.А в "серверном", сценарии, который имитирует реальный инференс с паузами между вызовами - разница еще больше: буст в 24–29% по сравнению с
torch.matmul и cuBLAS.Простым рисёрчем проект не ограничен, в репозитории на Github авторы выложили оптимизированные ядра HGEMM A100 для 1000 конфигураций.
В планах: расширение на архитектуры Ada Lovelace, Hopper, Blackwell, поддержка более плотных конфигураций и 32-битный HGEMM.
@ai_machinelearning_big_data
#AI #ML #CUDA #DeepReinforce
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍106❤32🔥27🤷6⚡1🆒1🦄1
Media is too big
VIEW IN TELEGRAM
Подключение ИИ-инструментов к рабочим процессам разработки открывает новый вектор атак. Проблема затрагивает Gemini CLI, Claude Code и OpenAI Codex.
Механизм взлома основан на внедрении скрытых инструкций в issues, пулл-реквесты или коммиты. Когда агент считывает этот текст для анализа, он может ошибочно интерпретировать его как прямую команду, а не как пассивные данные.
Тестирование, проведенное Aikido Security показало, что уязвимость актуальна как минимум для 5 компаний из списка Fortune 500. Google оперативно устранила брешь в Gemini CLI, однако эксперты настоятельно рекомендуют инженерам ограничивать полномочия ИИ-агентов и внедрять строгую валидацию входных данных.
aikido.dev
Google Research анонсировала Titans — новую архитектуру, которая решает проблему эффективности обработки огромных массивов данных. Фишка - в механизме «глубокой обучаемой памяти», которая обновляется непосредственно в процессе инференса, превращая работу сети в непрерывный цикл онлайн-обучения.
Вместо сохранения всего контекста Titans использует градиенты как индикатор неожиданности: модель запоминает только те токены, которые несут новую информацию и отсеивает предсказуемые данные. Это позволяет поддерживать контекстные окна объемом более 2 млн. токенов при сохранении линейной скорости вычислений, свойственной RNN.
В тестах на длинный контекст и ризонинг архитектура обошла по производительности Transformer++ и Mamba 2.
research.google
OpenRouter совместно с фондом a16z опубликовали исследование «State of AI», основанное на анализе 100 триллионов обработанных токенов. Главный инсайт — рост популярности рассуждающих моделей: во второй половине 2025 они уже генерируют половину всего трафика платформы.
Драйвером индустрии остается разработка ПО: на задачи по написанию и отладке кода приходится более 50% всех запросов. Одновременно растет доля open-source решений, открытые модели занимают уже треть рынка, локомотивами выступают китайские DeepSeek и Qwen.
Эксперты прогнозируют скорый переход к прокси-инференсу, когда сложные задачи будут автоматически распределяться между несколькими специализированными моделями.
openrouter.ai
Техногигант приобрел компанию Limitless (ранее Rewind), создателя умного кулона, который записывает, транскрибирует и индексирует разговоры пользователя в реальном времени.
Устройство Limitless позиционировалось как аппаратный «расширитель памяти», позволяющий мгновенно находить информацию в прошлых диалогах. Это направление сейчас переживает бум: ранее стартап привлек более $33 млн. инвестиций, в том числе от фонда a16z и Сэма Альтмана.
Согласно заявлению, продажи устройств Limitless новым клиентам будут прекращены. Текущие владельцы гаджетов продолжат получать поддержку, но для дальнейшего использования сервиса им придется принять новые условия конфиденциальности.
reuters.com
MIT представила устройство размером с насекомое. В основе разработки лежат мягкие приводы и двухуровневый ИИ-контроллер, объединяющий методы предиктивного планирования и имитационного обучения. Такая архитектура позволяет роботу мгновенно адаптироваться к внешним возмущениям.
На тестах микро-бот показал уверенную маневренность, выполнив 10 непрерывных сальто за 11 секунд в условиях сильных порывов ветра. Проект планирует создавать автономные рои для поисково-спасательных миссий: благодаря миниатюрным размерам и ударопрочности, они смогут проникать в узкие расщелины завалов при ЧС.
Следующим этапом станет интеграция бортовых камер и сенсоров для полноценной навигации вне помещений.
news.mit.edu
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53❤22🔥8🙊2😁1🦄1
The Verge пишет, что по информации инсайдеров, OpenAI планирует представить обновление уже в начале следующей недели, ориентировочно 9 декабря.
Ожидается, что GPT-5.2 вернет компании доминирующие позиции в сегменте больших языковых моделей.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53😁39❤15🔥8🦄2✍1🤗1