383K subscribers
4.43K photos
850 videos
17 files
4.87K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
✔️ Модель P1 взяла золото на Международной олимпиаде по физике.

Shanghai AI Lab натренировал семейство моделей P1 для решения сложнейших физических задач. Флагманская модель P1-235B-A22B добилась исторического результата, став первой открытой моделью, которая решила задачи Международной олимпиады по физике 2025 года на уровень золотой медали.

P1 сравнялась на физическом бенче HiPhO по количеству медалей с Gemini-2.5-Pro и обошла GPT-5. Основой успеха стала мультиагентная система PhysicsMinions, которая итеративно проверяет и улучшает решения, анализируя их логику и физическую состоятельность.

Весь проект P1, включая сами модели и бенчмарки, опубликован в открытом доступе.
prime-rl.github.io

✔️ Google готовит тысячекратное увеличение ИИ-мощностей.

Техногигант планирует в 1000 раз нарастить свои вычислительные мощности для ИИ в течение следующих 4-5 лет. По словам топ-менеджеров, Google уже вынуждена удваивать серверные емкости для ИИ каждые полгода, чтобы справляться с растущей нагрузкой.

Руководство Google считает, что риск недоинвестирования в инфраструктуру сейчас выше, чем риск перерасхода средств. План расширения опирается на три элемента: более тесную интеграцию аппаратного и программного обеспечения, повышение эффективности моделей и использование кастомных чипов.
cnbc.com

✔️ В NotebookLM добавили возможность создавать презентации и инфографику.

Сервис расширили функцией генерации слайдов на основе загруженных источников. Инструмент подойдет для быстрого структурирования информации и создания черновиков презентаций или визуально улучшения уже существующих материалов.

Слайды доступны для скачивания в формате PDF, экспорт в Google Slides и PowerPoint уже находится в разработке. За работу новой функции отвечает Nano Bana Pro.

Лимиты на использование зависят от типа аккаунта пользователя.
NotebookLM в сети Х

✔️ Reality Labs Марка Цукерберга анонсировала text-to-world систему.

WorldGen — система генерации полностью интерактивных 3D-мирой на основе простых текстовых запросов. Технология использует процедурную логику и диффузионные модели для создания детализированных и стилистически выдержанных локаций размером до 50x50 метров.

Итоговые сцены WorldGen, согласно демо-роликам, не просто статичны, а готовы к навигации и взаимодействию. Созданные миры совместимы с игровыми движками Unity и Unreal и не требуют дополнительных конвертаций или сложной настройки рендеринга.

Проект находится на стадии исследования и пока недоступен для широкого использования.
roadtovr.com

✔️ Ubisoft создает ИИ-NPC для игр.

Игровая студия анонсировала экспериментальный проект Teammates, который меняет взаимодействие с неигровыми персонажами. Технология на базе генеративного ИИ позволяет NPC понимать естественную речь и действовать как участники процесса, а не просто скриптовые боты.

В рамках прототипа, созданного на основе шутера от первого лица, игроку помогают два ИИ-напарника и голосовой ассистент Джаспар. Они способны реагировать на голосовые команды: подсвечивать цели, предоставлять информацию о сюжете, изменять игровые настройки или ставить игру на паузу. Система анализирует контекст и действия игрока, обеспечивая динамическую реакцию персонажей в реальном времени.

Ubisoft говорит, что проект уже прошел закрытое тестирование. По мнению CEO компании, ИИ станет для индустрии революцией, сравнимой с переходом игр от 2D к 3D.
news.ubisoft.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
42👍19🔥16🦄2
Новое семейство моделей от Яндекса Alice AI теперь доступно для бизнеса

✔️ Yandex B2B Tech открыла доступ к Alice AI — линейку генеративных моделей, которые лежат под капотом у Алисы. Первая модель, Alice AI LLM, уже доступна на платформе Yandex AI Studio и предназначена для корпоративных задач: анализа документов, работы с текстами, она также лучше поддерживает диалог и справляется с креативной генерацией.

По результатам тестов, Alice AI в 60% случаев показала более высокое качество ответов, чем DeepSeek V3.1 и Qwen3-235B. Модель прошла полный цикл обучения от претрейна до SFT. Благодаря оптимизированному под русский язык токенайзеру в один токен “помещается” 4-5 символов на кириллице, а в опенсорсных моделях в среднем – 2-3 символа. При равной тарификации стоимость работы с Alice AI LLM будет в 1,5-2 раза дешевле зарубежных.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁39🤣3517👍17🥱8🔥7🌚4❤‍🔥1
Media is too big
VIEW IN TELEGRAM
✔️ США запускают национальный проект для искусственного интеллекта.

Президент США подписал указ о создании единой государственной ИИ-платформы. Проект, реализация которого поручена Министерству энергетики, должен радикально ускорить научные исследования и сократить циклы открытий в биотехнологиях и энергетике с нескольких лет до дней.

Инициатива мобилизует инфраструктуру 17 федеральных исследовательских центров. Их суперкомпьютеры и накопленные за десятилетия массивы научных данных будут использованы для обучения специализированных моделей. Новая платформа позволит ИИ-агентам автономно планировать эксперименты, проверять гипотезы и генерировать прогнозы в области химии, биологии и инженерии.
whitehouse.gov

✔️ OpenAI объединила голосовой и текстовый режимы в ChatGPT.

ChatGPT получил обновление, которое устраняет барьер между способами ввода: голосовой чат теперь интегрирован непосредственно в основное окно переписки. Это позволяет пользователям бесшовно переключаться между речью и набором текста, не переходя в отдельный режим.

Теперь во время голосовой сессии можно свободно просматривать историю сообщений, сгенерированные изображения или карты, а ответы ассистента автоматически дублируются в текстовом виде.

Функция уже доступна в мобильных приложениях и веб-версии. Для тех, кто хочет пользоваться голосовым интерфейсом отдельно, OpenAI оставила возможность вернуть его через настройки в разделе Voice Mode.
OpenAi в сети Х

✔️ Microsoft выпустила модель для управления компьютером.

Fara-7B — компактная агентная модель от Microsoft Research на базе Qwen2.5-VL для автономной работы с интерфейсами. Модель умеет анализировать скриншоты, генерировать команды для мыши и клавиатуры, предсказывая точные пиксельные координаты.

В бенчмарках Fara-7B обошла существующие решения и выполняет задачи в разы дешевле крупных моделей - средняя стоимость сессии составляет меньше 3-х центов. Веса модели опубликованы на Hugging Face под лицензией MIT.
microsoft.com

✔️ В Гарварде разработали модель для диагностики редких генетических заболеваний.

Гарвардская медшкола представила popEVE - нейросеть, способную с высокой точностью выявлять патогенные мутации в геноме для решения проблем диагностики редких наследственных болезней, причины которых врачи зачастую не могут найти годами.

PopEVE объединяет генеративный ИИ с языковой моделью для белков и статистикой человеческих популяций. Система умеет корректно сравнивать опасность мутаций, расположенных в абсолютно разных генах, и выдавать унифицированный клинический рейтинг риска. Предыдущие модели не справлялись с такой кросс-генной калибровкой.

Эффективность системы подтвердили на выборке из 30 000 пациентов. Модель успешно определила причину болезни в трети случаев и попутно обнаружила 123 гена, ранее не связывавшихся с развитием патологий.
harvard.edu

✔️ Grok 5 сразится с чемпионами League of Legends в 2026 году.

Илон Маск анонсировал амбициозный эксперимент: в 2026 году следующая версия модели xAI бросит вызов сильнейшим киберспортивным командам мира. Матч планируется не просто как шоу, а как критический тест на пути к AGI.

Для чистоты эксперимента инженеры введут жесткие технические ограничения, уравнивающие шансы. Модель не будет подключаться к API игры — она должна «смотреть» на монитор через камеру с имитацией обычного человеческого зрения. Скорость реакции и частоту кликов также лимитируют до физических возможностей человека. Предполагается, что Grok 5 освоит сложные механики MOBA-стратегии с нуля, опираясь только на чтение документации и самостоятельные эксперименты в ходе игры.
Elon Musk в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
87👍28🔥9🥰6👏2🐳2🦄1
🌟 ZAYA1: первая MoE-модель, полностью обученная на стеке AMD.

Есть устойчивое мнение, что серьезное обучение нейросетей возможно только на чипах одной известной компании.

В Zyphra решили доказать обратное, и, в сотрудничестве с AMD и IBM провели эксперимент, который на практике доказал, что есть альтернатива.

Стартап опубликовал техотчет и результат - модель ZAYA1. Это первая модель архитектуры MoE, обученная полностью на платформе AMD.

Сеттинг проекта был действительно "красным": графические процессоры AMD Instinct, сетевые интерфейсы AMD Pensando и программный стек ROCm.

ZAYA1 получилась довольно интересной. У неё 8.3 млрд. общих параметров, из которых активных всего 800 миллионов.

Несмотря на компактность, в тестах она выглядит бодро. В ризонинге, математике и программирование ZAYA1 обошла Llama-3-8B и OLMoE. А по общим показателям встала в один ряд с Qwen3-4B и гугловской Gemma3-12B.

Обучение проходило на кластере IBM Cloud, где модель переварила 14 трлн. токенов. Но дело не только в железе, в папйплайне использовали архитектурные инновации:

🟢Новый механизм внимания - Compressed Convolutional Attention. Он использует свертки внутри блока внимания, это снизило нагрузку на вычисления и память.

🟢Переделали маршрутизатор MoE. Вместо стандартного линейного роутера, ZAYA1 использует сложную последовательность операций, что заставляет "экспертов" внутри нейросети специализироваться гораздо лучше.

🟢Residual Scaling. Добавили обучаемые скалярные гейты в остаточный стрим на выходы каждого блока, чтобы модель контролировала степень забывания.


⚠️ Для запуска инференса потребуется ветка zaya форка transformers из репозитория Zyphra.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Модель
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #MoE #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4922🔥13😁7🦄3🙏1
Media is too big
VIEW IN TELEGRAM
✔️ Densing Law: эффективность LLM удваивается каждые 3,5 месяца.

Университет Цинхуа опубликовал в Nature Machine Intelligence работу, декларирующую новый эмпирический закон развития ИИ - Densing Law. Согласно их данным, «плотность способностей» языковых моделей растет по экспоненте: количество параметров, необходимых для достижения фиксированного уровня качества, сокращается вдвое каждые 3,5 месяца.

Как следствие, стоимость инференса падает в 2 раза каждые 2,6 месяца, что подтверждается рыночной динамикой цен на API (падение в 266 раз за неполные 2 года).

Авторы прогнозируют скорый расцвет Edge AI: с учетом прогресса мобильных чипов, эффективная мощность моделей, способных работать локально на смартфонах и часах, теперь удваивается каждые 88 дней.
nature.com

✔️ Власти Китая запретили ByteDance использовать чипы Nvidia.

Администрация киберпространства Китая заблокировала возможность использования ускорителей Nvidia при развертывании новых вычислительных мощностей ByteDance. По данным The Information, материнская компания TikTok, ставшая в этом году крупнейшим закупщиком оборудования Nvidia в регионе, теперь располагает внушительными складскими запасами железа, которое невозможно пустить в дело из-за регуляторных ограничений.

Этот запрет стал очередным шагом Пекина в кампании по снижению зависимости от американских технологий. Власти принудительно переориентируют техгигантов на использование отечественной продукции, продвигая решения от Huawei и Cambricon в качестве безальтернативной замены импортному кремнию.
theinformation.com

✔️ Uber запустила в Абу-Даби сервис беспилотных такси.

Столица ОАЭ стала четвертым городом в мире и первой локацией на Ближнем Востоке, где агрегатор начал массовую эксплуатацию роботакси. Технологическим партнером выступил китайский стартап WeRide: их автономные автомобили теперь курсируют в районе острова Яс и доступны для заказа в приложении через тарифы UberX и Uber Comfort.

Хотя в США Uber уже возит пассажиров без водителей в Остине, Финиксе и Атланте, запуск в Абу-Даби знаменует начало масштабной глобальной экспансии. В ближайшие пять лет партнеры планируют вывести беспилотные авто WeRide на улицы еще 15 городов, включая европейский рынок.
cnbc.com

✔️ LTX Studio представила инструмент для изменения сюжета внутри видео.

Новая функция Retake в платформе LTX приносит точечный контроль в видео-продакшен, она умеет «переснимать» конкретные временные отрезки внутри ролика без потери общей целостности сцены.

Технически это работает как темпоральный инпэйнт: модель перегенерирует выделенный фрагмент (от 2 до 16 секунд), жестко привязываясь к контексту соседних кадров для сохранения освещения, динамики и стиля. Это дает возможность менять реплики персонажей, корректировать актерскую игру или переписывать концовку сцены, оставляя остальной футаж нетронутым.

Инструмент уже доступен всем пользователям платформы и через API.
ltx.studio

✔️ Google DeepMind выложила в открытый доступ фильм-хронику создания AlphaFold.

Google опубликовала на YouTube полную версию документальной ленты The Thinking Game. Картина, съемки которой заняли 5 лет, погружает зрителя во внутреннюю кухню лаборатории DeepMind и показывает эволюцию команды: от первых побед в стратегических играх до решения фундаментальной биологической проблемы с помощью AlphaFold.

В центре сюжета не только технические прорывы, но и личная история сооснователя DeepMind Демиса Хассабиса, посвятившего жизнь созданию AGI.
youtube.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5826🥰9🔥2🦄2
💡 Релиз Z-Image: быстрая 6B модель

Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.

Главное из отчета:

* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.

Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.


🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo

@ai_machinelearning_big_data


#Tongyi #ai #genai #ml
39👍20🥰3🦄3🔥2😁2
📌This Is How We Are Going to Build AGI: CAIA Google рассказал о состоянии ИИ.

Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.

Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.

Основные темы интервью:

🟡Успех Gemini 3 и подход к AGI

Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.

🟡Новый взгляд на прогресс и бенчмарки

Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.

🟡Планы на будущее

Приоритеты для улучшения в будущих версиях Gemini Pro:

🟢Следование инструкциям: Модель должна уметь понимать и выполнять запрос пользователя, а не просто отвечать так, как считает нужным.

🟢Интернационализация: Google сосредоточен на языках, где исторически производительность была невысокой.

🟢Функциональные и инструментальные вызовы: Это критически важные технические области, поскольку они позволяют моделям естественно использовать существующие инструменты.

🟢Код и агентские действия : Код - это база для создания чего угодно в цифровом мире. Корай считает, что агентские действия и код — это наиболее перспективные области роста, в которых еще есть много возможностей для совершенствования.

🟡Интеграция с продуктами и инновации

Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.

🟡Единство моделей и генеративные медиа

Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.

Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.

🔜 Смотреть полное интервью на Youtube


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
102👍30🔥18🥰5❤‍🔥2😁1🤩1😇1🦄1
Media is too big
VIEW IN TELEGRAM
✔️ Метаданные пользователей OpenAI API утекли через сервис Mixpanel.

OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.

OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com

✔️ Китайский бигтех переносит обучение ИИ за границу.

Alibaba и ByteDance начали массово переводить обучение LLM в Юго-Восточную Азию. Цель миграции в Сингапур и Малайзию — получить легальный доступ к ускорителям Nvidia, прямые поставки которых в КНР заблокированы. Арена мощностей у зарубежных ЦОД формально не нарушает санкционный режим. Этот обходной путь стал безопасным после того, как администрация США отменила «правило распространения».

Исключением остается DeepSeek, который продолжает тренировать модели внутри Китая, используя запасы карт Nvidia и сотрудничая с инженерами Huawei. В индустрии формируется гибридная архитектура: обучение выносится на зарубежные кластеры, а инференс все чаще переводится на локальные китайские чипы.
ft.com

✔️ Alibaba представила умные очки Quark.

Китайский техногигант запустил продажи смарт-очков Quark. Устройство, внешне неотличимое от стандартной оправы, работает под управлением модели Qwen. Стартовая цена гаджета составляет около $268.

Инженеры сделали ставку на автономность и интеграцию с экосистемой: девайс оснащен сменными аккумуляторами, двойной оптикой и системой профессиональной съемки. Очки глубоко связаны с сервисами компании — пользователи могут использовать визуальный ассистент для мгновенного перевода, оплаты через Alipay и распознавания товаров для поиска цен на Taobao.
reuters.com

✔️ Apple создает альтернативу диффузионным нейросетям.

Apple опубликовала работу, предлагающую новый подход к генерации видео, способный потеснить диффузионные модели. Система STARFlow-V построена на архитектуре потоковой нормализации и обучается как единая модель для работы с текстом, картинками и видео.

В отличие от диффузии, требующей множества итераций для денойза, STARFlow-V использует однократное обратимое отображение и строгую причинно-следственную логику. Глобальный блок модели работает авторегрессионно: генерация каждого нового латента зависит исключительно от предыдущих данных.

Для оптимизации скорости вычислений применяется параллельные обновления Якоби, что дает качество уровня SOTA при более высокой стабильности генерации.
starflow-v.github.io

✔️ AdvancedIF: жёсткий бенчмарк проверки LLM на следование сложным инструкциям.

Лаборатория Марка Цукерберга разработала AdvancedIF - инструмент для выявления реальных пределов LLM в выполнении директив. Бенчмарк фокусируется на сценариях с высокой когнитивной нагрузкой: набор данных включает более 1600 промптов, каждый из которых содержит 6 одновременных условий: от требований к формату и стилю до негативных ограничений и перекрестных логических зависимостей.

Помимо разовых запросов, AdvancedIF тестирует управляемость моделей через системные промпты и способность удерживать контекст в сложных диалогах. В качестве арбитра используется o3-mini, которая сверяет ответы модели с критериями, разработанными экспертами-людьми. Инструментарий поддерживает пакетную обработку, а сам датасет можно найти на Hugging Face.
github.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
71👍19🔥8🦄3