367K subscribers
4.52K photos
893 videos
17 files
4.96K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🚀 Вышел QwenLong-L1.5 - модель для long-context reasoning, которая на длинных контекстах конкурирует с GPT-5 и Gemini-2.5-Pro.

Коротко о модели
- 30B параметров, из них 3B активных
- Заточена под рассуждение на очень длинных контекстах
- Полностью открыты веса, код обучения и рецепты данных

Ключевые показатели:
- +31.7 балла на OpenAI MRCR при контексте 128K - SOTA среди всех моделей
- На уровне Gemini-2.5-Pro на 6 крупных long-QA бенчмарках
- +9.69 на CorpusQA
- +6.16 на LongBench-V2

Что интересного.

1. Синтетические данные в масштабе
14.1K длинных reasoning-сэмплов из 9.2B токенов без ручной разметки.
Средняя длина - 34K токенов, максимум - 119K.

2. Стабильное RL-обучение
Используется балансировка задач и Adaptive Entropy-Controlled Policy Optimization (AEPO), что позволяет стабильно обучать модели на длинных последовательностях.

3. Архитектура с памятью
Итеративные обновления памяти за пределами окна 256K токенов.
Результат - +9.48 балла на задачах с контекстом от 1M до 4M токенов.

QwenLong-L1.5 - это один из самых сильных open-source шагов в сторону реально масштабируемого ризонинга с длинным контекстом

Модель интересна не только результатами, но и тем, что весь стек обучения открыт.

GitHub: https://github.com/Tongyi-Zhiwen/Qwen-Doc
Paper: https://modelscope.cn/papers/2512.12967
Model: https://modelscope.cn/models/iic/QwenLong-L1.5-30B-A3B
HF: https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1.5-30B-A3B

@ai_machinelearning_big_data

#AI, #LLM, #opensource, #long #Owen
53👍28🔥19🦄1
✔️Команда AI-Центра Т-Банка выпустила обновление языковых моделей T-Pro 2.1 и T-Lite 2.1

Ключевыми изменениями стали улучшенные способности в точном следовании инструкциям (Instruction Following) и tool calling.

✔️Как изменились T-Pro 2.1 и T-Lite 2.1

T-Pro 2.1 (32B): модель стала значительно лучше понимать сложные требования (ответы строго в формат JSON, лимиты длины, многошаговые инструкции) и увереннее работать в агентских сценариях. Она основана на базе Qwen3-32B и отвечает без “тысяч токенов рассуждений”.

T-Lite 2.1 (8B): популярная модель после обновления стала сильнее в прикладных задачах и при этом сохранила скорость и практичность для продакшена и локального запуска.

✔️Обучение моделей работе с инструментами

Для улучшения Instruction Following команда разработала собственный пайплайн генерации синтетических данных на основе подхода AutoIF. На RL-стадии использовался алгоритм GRPO с комбинированной reward-функцией, которая проверяла как выполнение формальных требований через верификационные функции, так и осмысленность ответа через штраф на основе Reward Model.

Это позволило избежать классической проблемы “reward hacking”, когда модель учится подстраиваться под проверку, а не давать хорошие ответы.

✔️Генерация синтетических инструментов для tool calling

Для изменений в tool calling был разработан синтетический пайплайн. Сначала генерировались реалистичные наборы инструментов, а затем — сложные многошаговые диалоги с их использованием через мультиагентную симуляцию. Для обучения на этих данных применялся RL (GRPO) с бинарным reward, проверяющим корректность вызова, и балансировкой датасета.

✔️Результаты на бенчмарках

На локализованном русскоязычном бенчмарке IFeval T-Pro 2.1 демонстрирует результат 0.8065, значительно опережая свою версию 2.0 (0.6865), а T-Lite 2.1 показывает 0.7585. На тесте BFCL v3 (RU), оценивающем tool calling, T-Pro 2.1 набирает 65.96 баллов, что является одним из лучших показателей среди открытых моделей, а T-Lite 2.1 — 56.45. В диалоговых аренах (Arena Hard Ru, WildChat) обновленные модели также показывают существенный рост качества ответов на реальные пользовательские запросы.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
155👍19🔥11🤣9👌2🤗1🦄1
Media is too big
VIEW IN TELEGRAM
🗣 Новая линейка Qwen3-TTS: VoiceDesign и VoiceClone

Qwen представили новое поколение TTS-моделей, которые выводят управление голосом и voice cloning на новый уровень. Быстрее, выразительнее и гибче, чем раньше.

VoiceDesign-VD-Flash
Модель для полного конструирования голоса с нуля.

Что умеет:
- полный контроль речи через обычные текстовые инструкции
- управление тоном, ритмом, эмоциями и персоной
- никаких готовых голосов - ты создаешь уникальную вокальную идентичность
- превосходит GPT-4o-mini-tts и Gemini-2.5-pro в role-play бенчмарках

Подходит для:
- игровых персонажей
- виртуальных ассистентов
- сторителлинга и диалогов
- AI-персонажей с характером

VoiceClone-VC-Flash
Фокус на быстрое и качественное клонирование голоса.

Ключевые возможности:
- клонирование любого голоса всего по 3 секундам аудио
- генерация речи на 10 языках (китайский, английский, японский, испанский и другие)
- на 15% ниже WER по сравнению с ElevenLabs и GPT-4o-Audio в мультиязычных тестах
- контекстно-зависимая интонация и ритм для более естественного звучания
https://x.com/Alibaba_Qwen/status/2003445076257656880
Попробовать:
Qwen Chat: http://chat.qwen.ai
Блог: https://qwen.ai/blog?id=qwen3-tts-vc-voicedesign
• VoiceDesign:
http://hf.co/spaces/Qwen/Qwen3-TTS-Voice-Design
http://modelscope.cn/studios/Qwen/Qwen3-TTS-Voice-Design
• VoiceClone:
http://hf.co/spaces/Qwen/Qwen-TTS-Clone-Demo
http://modelscope.cn/studios/Qwen/Qwen-TTS-Clone-Demo

@ai_machinelearning_big_data


#AI #TTS #voicecloning
👍5721🔥10🦄2🍓1
⚡️ Microsoft хочет избавиться от всего C и C++ к 2030 году и переписать код на Rust

В Microsoft поставили радикальную цель - полностью убрать C и C++ из своих кодовых баз к 2030 году и заменить их Rust.

Причем делать это собираются не вручную, а с помощью ИИ и алгоритмов, на скоростях, которые раньше казались фантастикой.

Новая «North Star» метрика Microsoft звучит так:
- 1 инженер
- 1 месяц
- 1 миллион строк кода

Об этом рассказал Galen Hunt, Distinguished Engineer в Microsoft, в своем посте на LinkedIn.

В чем идея
Microsoft строит инфраструктуру, которая объединяет:
- алгоритмический анализ кода
- графы зависимостей на масштабе миллионов строк
- AI-агентов для понимания и переписывания кода

По сути, компания хочет автоматизировать массовое переписывание самых больших и старых кодовых баз.

Как это будет работать
- алгоритмы строят масштабируемый граф исходного кода
- AI-системы анализируют и изучают код
- затем эти же системы модифицируют и переписывают его
- инфраструктура уже используется для задач понимания старого кода

Почему это звучит рискованно
- переписываются десятилетиями отлаженные системы
- Rust не избавляет от логических ошибок
- массовый rewrite - один из самых опасных процессов в инженерии
- высокая скорость повышает риск регрессий

Почему Microsoft все равно идет на это:
- большая часть критических уязвимостей исторически связана с C и C++
- Rust реально сокращает классы memory-багов
- ИИ впервые делает такой масштаб переписывания кода технически возможным

Источник:
linkedin.com/posts/galenh_principal-software-engineer-coreai-microsoft-activity-7407863239289729024-WTzf/

@ai_machinelearning_big_data

#Microsoft #Rust #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
😁122👍86🤣8120🤔14🙈14🔥12👀3🦄2🥰1🍓1
Media is too big
VIEW IN TELEGRAM
✔️ Google A2UI: открытый стандарт для генерации UI силами ИИ-агентов.

A2UI (Agent-to-User Interface) - открытый проект Google, который стандартизирует процесс создания визуальных интерфейсов нейросетями. Инструмент позволяет агентам генерировать полноценные интерактивные элементы (формы, карточки, дашборды) в реальном времени.

Проект декларирует безопасность через абстракцию. Вместо генерации исполняемого кода, который может нести риски, агент отправляет JSON-файл, описывающий структуру. Клиентское приложение само парсит этот манифест и отрисовывает компоненты, используя собственные проверенные библиотеки.

Экосистема уже включает поддержку веб-фреймворков и Flutter (через GenUI SDK), а в дорожной карте заявлена интеграция с React, Jetpack Compose и SwiftUI.
github.com

✔️ YouTube тестирует инструмент для генерации игр.

YouTube Gaming запустила закрытое бета-тестирование сервиса Playables Builder, которое позволяет авторам создавать мини-игры на основе промптов. Система работает на базе Gemini 3: чтобы превратить идею в рабочий интерактивный проект, достаточно загрузить короткое текстовое описание, видеофрагмент или изображение.

Новый инструмент нацелен на удержание аудитории через геймификацию контента. На данный момент доступ конструктору ограничен (требуется активный канал и одобрение заявки) и допускаются только пользователи из США, Канады, Великобритании и Австралии.
Youtube Gaming в сети X

✔️ OpenAI запустила функцию персональных итогов года.

Компания представила инструмент, позволяющий взглянуть на свою активность в чат-боте за прошедший год. Функция генерирует персонализированный отчет, присваивает награды-достижения и создает тематические стихи и изображения, базируясь на содержании диалогов.

Итоги года доступны только в США, Великобритании, Канаде, Австралии и Новой Зеландии для пользователей тарифов Free, Plus и Pro. Корпоративные и образовательные аккаунты остались без поддержки этой опции.

Для получения отчета необходимо, чтобы в настройках были включены история чатов и функция памяти, а сам аккаунт должен иметь достаточный объем накопленных данных. Запустить генерацию можно вручную через баннер на главной странице или прямым запросом к боту.
forbes.com

✔️ Alphabet покупает разработчика инфраструктуры Intersect за $4,75 млрд.

Материнская компания Google заключила соглашение о приобретении девелопера ЦОДов Intersect Power. Это первый случай, когда бигтех не просто заключает контракты на поставку электричества, а напрямую покупает крупного ресурсного игрока. Сделка, которую планируют закрыть в первой половине 2026 года, будет полностью оплачена денежными средствами.

Стратегический смысл покупки заключается в решении проблемы энерго-дефицита для обучения и работы ИИ. Google получает возможность строить дата-центры в едином комплексе с генерирующими мощностями, что позволяет избежать использования электросетей общего пользования.

Intersect сохранит операционную независимость, хотя ряд действующих активов в Техасе и Калифорнии будут выведены в отдельную структуру и не войдут в периметр сделки.
abc.xyz

✔️ Qwen обновила Qwen-Image-Edit.

Новая версия Qwen-Image-Edit-2511 пришла на смену сборке 2509 и предлагает ряд качественных изменений. Теперь модель лучше сохраняет консистентность персонажей и общую структуру кадра при внесении локальных правок.

Помимо стабильности, усилили способности к геометрическому рассуждению и генерации промышленного дизайна. Попробовать новинку можно через веб-интерфейс Qwen Chat, а веса для локального развертывания уже на HuggingFace и ModelScope.
TongyiLab в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6718🔥11🤔2
⚡️ HF Learn: 11 бесплатных курсов по ИИ от HuggingFace.

В преддверии новогодних праздников платформа подготовила набор обучающих материалов по основным направлениям ИИ:

🟢LLM Course - познакомит с большими языковыми моделями и обработкой естественного языка с использованием библиотек экосистемы HF: Transformers, Datasets, Tokenizers и Accelerate.

🟢Robotics Course - проведет вас от классической робототехники к современным подходам, основанным на ML.

🟢Model Context Protocol Course - курс, созданный в партнерстве с Anthropic , научит пониманию, использованию и созданию приложений с помощью MCP.

🟢Smol-course - самый всеобъемлющий (и самый короткий) трек по тонкой настройке языковых моделей.

🟢AI Agents Course - научит разбираться и использовать самую топовую тему на сегодняшний день: создание и применение агентов ИИ.

🟢Deep RL Course - курс по самой интересной теме в области ИИ: глубокому обучению с подкреплением.

🟢Computer Vision Course - подробный разбор компьютерного зрения, созданный сообществом HF, состоящий из теории, практических занятий и увлекательных заданий.

🟢Audio Сourse - научит вас использовать Transformers для обработки звука. Вы получите представление о специфике работы с аудиоданными, изучите различные архитектуры Transformers и обучите собственные модели.

🟢ML for Games Course - узнаете как интегрировать модели ИИ в процессы разработки игр и создавать уникальные игровые впечатления.

🟢Diffusion Course - полномасштабный источник знаний и навыков по диффузии. Теория и практика: от изучения библиотеки Diffusers до создания конвейеров обработки данных.

🟢ML for 3D Course - авторский набор обучающих материалов по использованию машинного обучения в 3D от Дилана Эберта (IndividualKex) - разработчика по 3D-графике HuggingFace.

Сохраните на праздники, в этом году они длинные


@ai_machinelearning_big_data

#AI #ML #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4132🔥13🦄2
📌 Тренируем FunctionGemma самостоятельно.

LM Studio в коллаборации с Unsloth опубликовали подробный туториал по файнтюнингу недавно выпущенной Google модели FunctionGemma.

FunctionGemma - уменьшенная версия Gemma (всего 270Ь параметров) для агентских сценариев и работы в качестве бэкенда приложений, которую можно запускать практически на любом устройстве.


Гайд состоит из подробного описания всего процесса от обучения модели вызову инструментов до преобразования в GGUF-формат и последующего запуска его в LM Studio

Туториал подойдет для локального трейна (Unsloth работает на NVIDIA, AMD и Intel), но есть и готовый Collab Notebook для тренировки в облаке.


⚠️ FunctionGemma не предназначена для использования в качестве прямой диалоговой модели.


@ai_machinelearning_big_data

#AI #ML #LLM #Tutorial #Unsloth #LMStudio
Please open Telegram to view this post
VIEW IN TELEGRAM
24🔥16🥰6🦄2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 Midea MIRO U: одна голова - шесть рук.

В отличие от традиционных двуруких андроидов, Midea Group спроектировала платфору исключительно под утилитарную эффективность. Шесть бионических манипуляторов работают скоординированно: нижняя пара отвечает за силовые операции и подъем тяжестей, а верхние конечности выполняют точную сборку и крепеж.

Такая архитектура позволяет роботу выполнять до 3 задач одновременно, при этом сохраняя габариты человеческого торса для интеграции в производственные линии без их переделки.

MIRO U базируется на мобильном колесном шасси с возможностью вращения на 360 градусов и вертикальным лифтом. Midea, использующая наработки своего немецкого подразделения KUKA, уже начала пилотное внедрение системы на заводе в Уси.

Инженеры рассчитывают, что шестирукий форм-фактор повысит эффективность переналадки линий на 30%, минимизируя простои при смене выпускаемых моделей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥2211🤩3🤗2
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI разрабатывает рекламные форматы для ChatGPT.

По данным The Information, компания активно обсуждает внедрение рекламы в свой чат-бот. Рассматривается несколько механик: от классических баннеров в боковой панели до нативной интеграции спонсорского контента прямо в ответы нейросети.

Наибольший интерес представляет план использования функции «Memory» для таргетинга. Это означает, что система будет анализировать архивы личных диалогов пользователя, чтобы повысить релевантность объявлений.

Напомним, что ранее Сэм Альтман называл ответы ИИ под влиянием рекламы «антиутопией», однако теперь OpenAI движется именно по этому пути, пытаясь найти баланс между монетизацией и доверием аудитории.
theinformation.com

✔️ ИИ-гиганты получили иск за обучение ИИ на пиратских библиотеках.

Группа писателей, включая лауреата Пулитцеровской премии Джона Каррейру, подала коллективный иск в суд Калифорнии против OpenAI, Google, Anthropic, xAI, Perplexity и компании Марка Цукерберга. Это первый случай, когда юридические претензии касательно обучающих выборок затронули компанию Илона Маска и Perplexity.

Истцы обвиняют компании в «преднамеренной краже» контента через использование пиратских библиотек LibGen, Z-Library и OceanofPDF. В иске утверждается, что нарушение авторских прав произошло дважды: сначала при нелегальном скачивании книг для сборки датасетов, а затем — при создании копий во время обучения и оптимизации моделей.

Представители Perplexity уже ответили, что не индексируют книги, а в xAI обвинения назвали коротко «ложью устаревших медиа».
news.bloomberglaw.com

✔️ MiniMax обновила модель M2.

Модель, получившая индекс M2.1, нацелена китайским MiniMax на доминирование в сегменте ИИ-агентов и разработки ПО. Новинка получила архитектуру с 230 млрд. параметров (из которых активны 10 млрд.) и выдает до 100 токенов в секунду в инференсе.

Главный фокус релиза — на vibe coding и поддержке мобильной разработки. M2.1, по словам создателей, хорошо знает Rust, Go и Kotlin, а на тесте SWE-bench Multilingual она показала точность 72,5%, вплотную приблизившись к Claude 3.5 Sonnet.

Одной из ключевых фишек стала технология Interleaved Thinking, которая помогает модели лучше справляться с многослойными инструкциями. Модель доступна через API, OpenRouter и Ollama.
minimax.io

✔️ Mistral AI обновила Vibe CLI: добавили поддержку Skills и ризонинг-моделей.

Vibe CLI теперь может работать со Skills - набором инструкций, в которых можно собрать экспертизу и правила разработки для повторного использования в разных проектах. Кроме того, Vibe CLI получил поддержку моделей рассуждения, а также встроенные темы для интерфейса.

Обновление доступно для установки через команду uv tool install mistral-vibe.
Mistral AI в сети X

✔️ Google предлагает годовую подписку Ai Pro за полцены.

В преддверии 2026 года Google One запустил промо-кампанию, предлагая новым пользователям скидку 50% на план AI Pro: его стоимость на первый год снижена с $199,99 до $99,99.

Пакет открывает доступ к возможностям модели Gemini 3 Pro, контекстному окну в 1 млн. токенов и инструментам Deep Research.

Акция продлится до 31 декабря 2025 года включительно, после чего подписка будет продлеваться по стандартной цене.
9to5google.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5229🔥12🤗2🦄2😁1
⚡️ Nvidia забирает команду основателей Groq и лицензирует архитектуру LPU

Производитель чипов Groq объявил о сделке с Nvidia, которая больше напоминает «покупку кадров», чем обычное партнерство.

Стороны опровергли слухи о полном поглощении стартапа за $20 млрд: вместо этого подписан договор о неэксклюзивном лицензировании технологий инференса.

Ключевой момент сделки — трансфер мозгов.

Основатель и CEO Groq Джонатан Росс, президент Санни Мадра и ведущие инженеры переходят на работу в Nvidia. Им предстоит интегрировать свои наработки в экосистему «зеленой команды».

Groq при этом продолжит существовать как независимая компания под руководством бывшего финдиректора Саймона Эдвардса, а платформа GroqCloud будет работать в штатном режиме.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬2524👍14🔥7🤔2🤣2🦄2💘1