This media is not supported in your browser
VIEW IN TELEGRAM
Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.
OpenAI называет ее моделью для кодинга в реальном времени.
Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.
Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥115❤25👍18😐2🗿2
Центральный университет и СИБУР будут совместно готовить специалистов в области ИТ для промышленности и развивать прикладной ИИ. Как заявили в компании, в ближайшие годы в отрасли появится около 5 тысяч новых рабочих мест для высокотехнологичных специалистов. Сотрудничество нацелено на интеграцию ИИ в производственные и бизнес-процессы СИБУРа
В планах — запуск образовательной программы по искусственному интеллекту в Центральном университете и открытие кафедры технологий ИИ на базе корпоративного университета СИБУРИНТЕХ.
СИБУР подключится к разработке учебных модулей и дисциплин по ML, управлению разработкой, бизнес-анализа и проектированию систем, а также предоставит экспертов, наставников и карьерные возможности для студентов. Центральный университет будет разрабатывать сами программы.
Студентам предоставят кейсы компании, стажировки и возможность писать выпускные работы по реальным промышленным задачам — от цифровых двойников до систем поддержки принятия решений. Часть проектов будут внедрены в бизнес-процессы компании.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍89❤20🥱14🔥13🤣7🦄4
Tencent Hunyuan выкатили open-source решение для тех, кто хочет запускать LLM локально на кофеварке.
HY-1.8B-2Bit - модель, которую утрамбовали так плотно, что она занимает меньше места, чем многие современные мобильные приложения.
Модель пилили методом Quantization-Aware Training, который в отличие от PTQ, позволяет адаптироваться к низкой разрядности весов еще на этапе тренировки.
За основу взяли backbone Hunyuan-1.8B-Instruct и жестко сжали веса до 2 бит. При этом эффективный размер в памяти получился эквивалентен модели на 300М параметров, а физический вес получился всего 600 МБ.
Что самое ценное - сохранили фичу Dual-CoT: модель умеет переключаться между быстрым мышлением для простых тасков и глубоким long-CoT для сложных.
Текущая реализация требует поддержки инструкций Arm SME2. Это значит, что вся эта красота заведется только на Apple M4 и MediaTek Dimensity 9500.
Если у вас M1/M2 или Snapdragon прошлых поколений - пока мимо. Разработчики обещают подвезти Neon kernel позже.
Кстати, GGUF тоже есть, так что если под рукой есть M4 - можно тестить. Остальным остается ждать оптимизации под старые инструкции.
@ai_machinelearning_big_data
#AI #ML #SLM #2bitQ #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤70👍37🔥14🦄3😁2💘2🤷♀1
Media is too big
VIEW IN TELEGRAM
В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.
По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.
Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
bloomberg.com
Минобороны США ведет переговоры с OpenAI и Anthropic о размещении их моделей на всех уровнях секретности. При этом военные требуют снять большинство ограничений и этических фильтров.
Пока прогресс неравномерный. OpenAI уже запустила ChatGPT на платформе genai.mil, которой пользуются свыше 3 млн. сотрудников Пентагона. Компания сняла часть стандартных ограничений, но гарантии безопасности сохранилась. Похожие сделки ранее заключили Google и xAI.
С Anthropic сложнее. Они настаивают на соблюдении собственных политик использования и категорически против применения Клода для боевых и разведывательный целей.
reuters.com
Новинка построена на архитектуре MoE и получила 10 млрд. активных параметров при 229 млрд. общих. Она обучалась в сотнях тысяч сложных сред и умеет самостоятельно планировать действия без явных инструкций от пользователя.
По заявленным бенчмаркам, M2.5 превосходит GPT-5.2, Gemini 3 Pro и Claude в веб-поиске, агентных тасках и по офисными задачами. В кодинге модель в ряде тестов обходит Claude Opus 4.6. Веса опубликованы под лицензией MIT.
Закрытый вариант, M2.5-Lightning, выдает 100 токенов в секунду - это вдвое быстрее топовых аналогов. Час ее непрерывной работы стоит 1 доллар, а 4 инстанса можно гонять параллельно круглый год за 10 тыс. долларов.
API и тариф для разработчиков доступны на платформе Minimax.
minimax.io
WebMCP — это реализация протокола MCP для браузерной среды, чтобы сделать агентов быстрее и надежнее за счет предсказуемого интерфейса вместо хрупкого парсинга страниц.
С помощью него сайты получат возможность предоставлять агентам структурированные инструменты: бронирование билетов, создание тикетов поддержки, поиск товаров и т.д. В основе архитектуры два API: декларативный для простых действий через HTML-формы и императивный для сложных сценариев на JavaScript.
Пока WebMCP доступен как превью для разработчиков через программу раннего доступа Google. В перспективе интеграция с Chrome и Gemini позволит агентам напрямую совершать действия прямо из браузера без участия пользователя.
developer.chrome.com
В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.
Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.
По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤68🔥47👍31🤣14😁7😐7🤔2💔2❤🔥1
История началась с тупика, в который зашли математики Давей Чен и Квентин Жендрон. Пять лет назад они пытались разобраться в сложном разделе алгебраической геометрии, связанном с дифференциалами - элементами математического анализа, используемыми для измерения расстояний вдоль изогнутых поверхностей.
В ходе работы они зашли в тупик: их рассуждения опирались на странную формулу из теории чисел, но ни доказать ее, ни обосновать они не смогли. В итоге Чэнь и Жандрон опубликовали работу, в которой представили свою идею как гипотезу, а не как теорему.
Попытки Чена использовать ChatGPT для поиска решения оказались бесполезными - языковая модель просто не справлялись с задачей такого уровня абстракции.
Прорыв случился благодаря встрече Чена с Кеном Оно, известным математиком, работающим в Axiom. Узнав о проблеме, Кен загрузил исходные данные в систему AxiomProver.
К утру ИИ выдал готовое доказательство. Prover обнаружил связь между задачей Чена-Жендрона и числовым феноменом, впервые изученным еще в XIX веке. Затем система сама разработала доказательство и, что важно, самостоятельно его верифицировала.
По словам Кена Оно, алгоритм нашел то, что упустили все люди-эксперты, работавшие над темой. Результат оформили и опубликовали на arXiv и положили на Github.
AxiomProver представляет собой гибрид LLM и уникального движка для логического вывода с использованием языка формальной верификации Lean. Этот микс позволяет системе строить цепочки рассуждений, математическая корректность которых проверяется автоматически.
Подход напоминает систему AlphaProof от Google, но, по словам CEO Axiom Карины Хонг, они задействовали ряд новых техник, позволяющих выходить за рамки простого поиска по существующей литературе.
Еще более впечатляющим выглядит кейс системы с гипотезой Феля, касающейся сизигий - математических соотношений, в которых числа выстраиваются в алгебраические закономерности. Она опирается на формулы, впервые обнаруженные более 100 лет назад в записных книжках легендарного индийского математика Сринивасы Рамануджана.
В этом случае AxiomProver не просто заполнил недостающее звено - он разработал доказательство от начала до конца. Воспроизвести трек доказательства может любой желающий, код - на Github.
К слову, система буквально в январе этого года решила все 12 задач математической олимпиады Putnam, самого престижного конкурса для студентов бакалавриата.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍143❤41🔥27👏10🎉8🤩4💯3🤣1
Alibaba открыла исходный код Zvec - встраиваемой векторной СУБД, которую авторы называют «SQLite для векторных баз данных».
Проект заточен на локальные RAG-пайплайны, семантический поиск и агентские сценарии на ноутбуках, мобильных устройствах или другом edge-железе.
Идея в том, что разворачивать отдельный сервер ради векторного поиска и фильтрации по метаданным избыточно. Zvec встраивается в процесс Python-приложения и не требует ни отдельного демона, ни сетевых вызовов.
Существующие решения не подходят для маломощных устройств: Faiss дает только ANN-индекс без скалярного хранилища и крэш-рекавери; DuckDB-VSS ограничен в опциях индексирования; Milvus и облачные векторные хранилища требуют сеть.
Под капотом - Proxima, векторный движок продакшен-уровня, который Alibaba сама использует в собственных сервисах. Поверх него сделали лаконичный Python API:
Это позволяет собирать локальных ассистентов, которые одновременно используют семантический поиск, множественную фильтрацию и несколько эмбеддинг-моделей - все в одном движке.
По производительности Zvec заявляет победу на бенче VectorDBBench с датасетом Cohere 10M - более 8 000 QPS при сопоставимом реколле. Это вдвое больше, чем у лидера ZillizCloud и с более быстрым построением индекса.
Авторы объясняют успех глубокой оптимизацией под CPU: SIMD, кэш-эффективные структуры, многопоточность и prefetching.
Пока платформенная поддержка ограничена
@ai_machinelearning_big_data
#AI #ML #VDB #ZVEC #Alibaba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍75🤩43👏24❤22🔥18🌚16🌭15🙊13🕊12😘11😍10
Это первый open-weight релиз в серии Qwen3.5.
Лицензия Apache 2.0.
Что интересного:
• Мультимодальная модель
Понимает текст и изображения
• Создана для AI-агентов
Оптимизирована для реальных задач: планирование, работа с инструментами, многошаговые действия.
• Новая архитектура
Hybrid Linear Attention + Sparse MoE + масштабное обучение с reinforcement learning.
• Высокая скорость
Заявлено что моделька примерно в 6- 9 раз быстрее, чем у предыдущей Qwen3-Max.
• Глобальная модель
Поддержка 201 языков и диалектов.
Модели такого уровня в открытом доступе:
- можно запускать AI у себя, без зависимости от API
- полный контроль над данными
- возможность строить собственных агентов и продукты
- снижение стоимости на масштабах
Qwen3.5-397B - реально в топе
Модель либо:
• на 1 месте,
• либо рядом с GPT-5.2 / Claude Opus 4.5 / Gemini 3 Pro почти во всех бенчмарках.
@ai_machinelearning_big_data
#qwen #ai #llm #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥201❤31👍29🤩9🎉6👏5👌5🤣4❤🔥2💯1
Media is too big
VIEW IN TELEGRAM
Быстрые и синхронные движения вывели возможности роботизированной моторики на новый уровень и установили сразу несколько мировых рекордов.
Модель H2 также стала одной из главных звёзд шоу- робот появился на главной сцене в Пекине и на площадке в Иу в образе Царя Обезьян.
В тяжёлых доспехах он «летал на облаке», роль которого исполняли четвероногие роботы-собаки B2W, и с высоты поздравлял зрителей с Китайским Новым годом.
@ai_machinelearning_big_data
#Unitree #ai #Ml #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥146🤩51👏20❤16👍8🏆7🎉3👀1
Media is too big
VIEW IN TELEGRAM
Австрийский разработчик, автор OpenClaw, объявил о переходе в OpenAI. В своем блоге Питер Штайнбергер объяснил решение тем, что строить большую компанию ему неинтересно, а OpenAI - это быстрейший путь к реальным изменениям.
По словам Сэма Альтмана, в компании Штайнбергер возглавит разработку персональных агентов нового поколения. OpenClaw при этом не исчезнет: проект передадут в фонд и откроют исходный код под поддержкой OpenAI.
Sam Altman в сети Х
Линейка представлена в 3-х версиях: Pro, Lite и Mini, плюс отдельная модель для кодинга. Семейство получило мультимодальность: улучшена работа с документами, таблицами, графиками и видео. По бенчмаркам ByteDance, Seed2.0 Pro обходит GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro в задачах на визуальную математику, логику и восприятие.
На олимпиадных тестах по математике и программированию Seed2.0 Pro показала результаты на уровне золотых медалей. На IMO - 35 из 42 баллов, На 5 соревнованиях ICPC - золото в каждом.
Модель уступает Claude в генерации кода, Gemini - в редких знаниях, а по склонности к галлюцинациям проигрывает обоим. Зато цена API кратно ниже: 47 центов за миллион входных токенов. Доступ к моделям — через чат-приложение Doubao и облачную платформу Volcano Engine.
bytedance.com
Компания запустила представительство в Бангалоре - втором азиатском офисе после Токио, открытого в октябре 2024 года. Офис сосредоточится на работе с индийскими стартапами и предприятиями в сферах образования и сельского хозяйства.
Об открытии объявили в день старта саммита AI Impact в Нью-Дели, собравшего более 250 тысяч участников. Компания намерена использовать площадку для переговоров с регуляторами и потенциальными партнёрами на индийском рынке.
Выручка Anthropic в Индии удвоилась с момента объявления о расширении в октябре 2025 года. Среди клиентов - крупные корпорации, цифровые компании и стартапы на ранних стадиях.
anthropic.com
Первой платформой стал Telegram: пользователи любых тарифов могут подключить бота через QR-код за минуту, без API-ключей и настройки конфигов.
Агент в чате выполняет многошаговые задачи с тем же набором инструментов, что и веб-приложение: исследования, обработка данных, генерация отчетов и PDF. Поддерживаются голосовые сообщения, изображения и файлы — агент транскрибирует аудио, распознает намерение и возвращает результат в диалог.
На выбор предлагают 2 режима: Manus 1.6 Max для сложных задач с ризонингом и Manus 1.6 Lite для быстрых ответов и простых запросов. Стиль общения тоже настраивается — от лаконичного до подробного. Поддержку других платформ обещают в ближайшее время.
manus.im
OpenAI опубликовала препринт по теоретической физике, в котором описан тип взаимодействия глюонов, считавшийся невозможным - когда один глюон имеет отрицательную спиральность, а остальные положительную. Учебники десятилетиями утверждали, что такая амплитуда равна нулю.
Ключевую роль сыграла методология: человеческие расчеты давали громоздкие выражения, сложность которых росла сверхэкспоненциально. GPT-5.2 Pro упростила расчеты, выявила закономерность и предложила общую формулу для произвольного числа частиц.
Внутренняя версия модели потратила 12 часов на формальное доказательство, которое прошло проверку стандартными методами: рекурсией Берендса–Гиле и софт-теоремой.
openai.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤108👍41🤩36🔥18🎉7👏4🤔3💯1🫡1🗿1
Генеративные модели делятся на 2 лагеря: диффузионные и авторегрессионные. Вторые концептуально ближе к LLM - генерируют изображение токен за токеном, как текст. Проблема в том, что это очень медленно, а качество проигрывает диффузии.
BitDance - экспериментальная 14B AR-модель, которая пытается решить оба этих вопроса разом.
Этим проектом группа китайских рисёчеров показала, что правильный бинарный токенизатор + diffusion head + параллельный патчинг закрывает большинство претензий.
Они локализовали 3 проблемы дискретных AR-моделей и закрыли каждую отдельным решением.
Вместо VQ-кодбука тут используется бинарный токенизатор на основе квантования с групповым разбиением каналов. Словарь вырастает до 2²⁵⁶ (для сравнения: у Cosmos - 65536), при этом модель держит PSNR 25.29 против 24.81 у непрерывного DC-AE, то есть бинарные токены реконструируют изображение лучше, чем VAE у SANA.
А как вообще выбирать из словаря в 2²⁵⁶ вариантов? Обучить классификатор на все возможные токены тут не вариант: такой слой не поместится ни в какую память. В качестве решения - прикрутили diffusion head, которая моделирует биты на непрерывном гиперкубе. То есть, модель предсказывает структуру битов через velocity-matching, что и позволяет сэмплить из гигантского пространства состояний.
AR генерирует по одному токену за шаг. BitDance за один шаг выдает сразу 64 токена (или 16), при этом модель понимает, как они связаны между собой внутри этого блока. Громко заявленный результат: 30x ускорение относительно next-token AR при сопоставимом качестве.
На мелкой версии ImageNet BitDance-H достигает FID 1.24 (лучший результат среди AR-моделей, наравне с xAR-H).
На DPG-Bench (text-to-image) полноценная BitDance набирает 88.28 - это выше FLUX.1-Dev, SD3, Janus-Pro, но уступает Seedream 3.0 и Qwen-Image.
В релизе 2 версии 14B модели, с предикшеном на 16 и 64 токена и макс. разрешением 1Мpx.
Остается вопрос: насколько бинарный токенизатор + diffusion head добавляет латентности на каждом шаге, даже если самих шагов стало меньше из-за патчинга.
30x по скорости - это сравнение не с диффузионными моделями, которые уже умеют генерировать за 4–8 шагов.
14B - это не про "взял и запустил". Есть конечно версии на ImageNet с разрешением 256х256 для воспроизведения эксперимента, но не за этим мы сюда пришли .
@ai_machinelearning_big_data
#AI #ML #AR #T2I #BitDance
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤓104🔥43👀27👍26❤24🤷20😈17😐16😭15🤔13
Media is too big
VIEW IN TELEGRAM
xAI начала раскатывать Grok 4.20, которую Илон Маск описал как значительный апгрейд по сравнению с 4.1. Внутри работают сразу 4 агента: Grok, Harper, Benjamin и Lucas. Вместо одиночной генерации они устраивают дебаты: агенты спорят, перепроверяют факты друг друга и выдают согласованный ответ.
По цифрам: контекст 256 тыс. токенов, полная мультимодальность (текст, фото, видео). Ризонинг оценивается в 1505–1535 пунктов ELO.
Grok 4.20 под видом анонимной модели успела проявить себя в торговом соревновании Alpha Arena, показав доходность до 35% на крипторынках. Обновление уже доступно в X и через API.
Elon Musk в сети X
Koyeb делал serverless-платформу для развертывания ИИ. Цель предсказуема - интегрировать технологии стартапа в экосистему Mistral. Главный трофей - технология Koyeb Sandboxes, которая создает изолированные среды для безопасного запуска ИИ-агентов.
Mistral планирует внедрить эти наработки в свои продукты и использовать опыт команды для развития платформы Mistral Compute (той самой, что работает на серверах с водяным охлаждением). В марте вся команда Koyeb из 16 инженеров переходит в штат Mistral. Цену сделки не раскрыли.
reuters.com
Новая настройка безопасности, Lockdown Mode, это "кнопка паники" для корпоративных клиентов, которые боятся утечек и промпт-инъекций.
Работает жестко: при активации система отрубает потенциально опасные инструменты и блокирует внешние запросы за периметр OpenAI. Админы могут включить этот режим принудительно и настроить белые списки для проверенных приложений.
Еще в интерфейсах (ChatGPT, Atlas, Codex) появятся метки Elevated Risk, которые будут предупреждать о функциях, несущих потенциальные риски. OpenAI говорит, что полагаться на мягкие программные фильтры уже нельзя и требуются жесткие архитектурные блокировки.
openai.com
CEO Unity Мэтт Бромберг определил "AI-driven authoring" как приоритетное направление развития компании на 2026 год. Компания готовит инструмент, который сможет собирать казуальные игры с нуля, используя только естественный язык.
Бета-версию Unity AI покажут на GDC в марте 2026 года. Технология будет работать нативно внутри платформы, Unity возьмет топовые внешние модели и доучит их понимать контекст движка.
В компании уверены, что такой подход даст результат лучше, чем попытки заставить универсальные LLM писать сложный игровой код. Цель - окончательная демократизация геймдева, порог входа в который, похоже, скоро исчезнет совсем.
wccftech.com
По словам генерального директора Ирвинга Тана, почти весь производственный пул выбрали 7 главных клиентов для своих ИИ-проектов. С тремя из них уже подписаны контракты даже на 2027 и 2028 годы..
Бизнес WD меняется на глазах: доля потребительского рынка в выручке упала до 5%. В условиях, когда дата-центры требуют все больше ресурсов для обучения и работы ИИ, производителям становится невыгодно ориентироваться на рядовых пользователей. Деньги теперь там, где нейросети.
mashable.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤71🐳44👍20🔥8⚡5🤔5😢3🏆2😐1
Мы привыкли, что навигация = минимизация ETA. Но в реальности пользователь сходит с неудобного маршрута, даже если тот экономит 30 секунд. Команда маршрутизации Яндекс Карт пересобрала ранжирование. Теперь варианты оцениваются не только по времени в пути, но и по совокупности факторов, влияющих на удобство поездки.
Ранжированием занимается ML-модель, обученная на обезличенных данных поведения пользователей - агрегированных паттернах, таких как плотность сходов или предпочтения на перекрестках. В качестве метрики было выбрано совпадение фактического трека пользователя с предложенным маршрутом. Этот показатель и стал новым таргетом для ML-модели.
Раньше маршруты ранжировались в первую очередь по ETA. Теперь каждый вариант описывается сотнями признаков: от времени в пути до сложности манёвров и исторических данных о сходах. На основе этого «признакового портрета» модель рассчитывает скор - вероятность того, что водитель успешно доедет без отклонений.
Акцент при обучении модели сместился: теперь она оптимизируется в первую очередь на то, чтобы первый предложенный маршрут оказался тем, по которому человек действительно доедет до конца. Именно топ-1 получает максимальное внимание, при этом остальные варианты никуда не исчезают и доступны для выбора.
В поездке человек не строит рейтинг маршрутов - он выбирает один, а все остальные варианты для него в этот момент перестают существовать. Поэтому мы перешли от классического «ранжирования» к задаче «выбора», используя функцию потерь на основе Softmax с one‑hot‑таргетом.
Долгое время порядок формировался простой сортировкой по ETA - удобные и предсказуемые маршруты не всегда были на первом месте и иногда вовсе выпадали из топ-3.
- Синий маршрут - результат старого ранжирования (ETA-first);
- Красный - новое ML‑ранжирование, он чуть медленнее по времени, но с него реже сходят.
Модель начала чаще поднимать такие варианты наверх, обходя сложные участки или центр города. В итоге первым оказывается не самый быстрый путь, а тот, который на практике понятнее и чаще проезжаем. При этом пользователю предлагаются и другие варианты и выбор всегда остается за ним.
Такой подход позволяет учитывать реальные сценарии движения и легко масштабируется: модель может учитывать новые факторы - от персонализации до адаптации под локальные дорожные особенности.
Технические детали и логику работы модели команда разложила на Хабре.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍119🤷♂27❤23🤔18🙏15🍾15🤷12👌11😎9🏆8🔥7
Tiny Aya: семейство мультиязычных SLM.
Cohere Labs выкатили семейство моделей Tiny Aya на 3 млрд. параметров с контекстным окном 8К, которое поддерживает 70+ языков.
Семейство заявляется как достойный кандидат для локальных переводчиков, чат-ботов и образовательных тулзов в оффлайн-режиме. Если необходимо, чтобы было быстро, локально и переводить суахили или кхмерский лучше, чем Llama - это вот оно.
🟡 Фишка релиза в дата-инжиниринге.
Tiny Aya учили на 6 трлн. токенов, а проблему нехватки данных для редких языков решали через синтетику от моделей-учителей (своя Command R + DeepSeek-V3).
Вместо того чтобы учить одну модель всему сразу, разбили данные на языковые кластеры (Европа, Азия, Африка и т.д.) и дотюнивали отдельные ветки, после чего смержили эти региональные чекпоинты в глобальную модель Tiny Aya Global.
🟡 Состав семейства
Tiny Aya Global: Универсальный чекпоинт для всех языков.
Tiny Aya Earth: Африка и Западная Азия.
Tiny Aya Fire: Южная Азия.
Tiny Aya Water: Азиатско-Тихоокеанский регион и Европа.Мы тут
GGUF: Есть к каждой версии в 4, 8 и 16-бит.
iOS и Android: модели доступны в PocketPal
🟡 Результаты тестов
Global-версия бьет Gemma 3-4B в 46 языках из 61 на бенче WMT24++.
На iPhone 17 Pro выдает 32 токена/сек, на стареньком iPhone 13 - около 10 токенов/сек в квантовании Q4_k_m.
Самый высокий показатель безопасности (91.1%) среди конкурентов (Qwen3-4B, Ministral-3-3B).
🟡 Капля реализма
📌 Лицензирование: CC-BY-NC-4.0 License.
🟡 Блогпост
🟡 Набор моделей
🟡 Техотчет
🟡 Demo
@ai_machinelearning_big_data
#AI #ML #SLM #TinyAya #Cohere
Cohere Labs выкатили семейство моделей Tiny Aya на 3 млрд. параметров с контекстным окном 8К, которое поддерживает 70+ языков.
Семейство заявляется как достойный кандидат для локальных переводчиков, чат-ботов и образовательных тулзов в оффлайн-режиме. Если необходимо, чтобы было быстро, локально и переводить суахили или кхмерский лучше, чем Llama - это вот оно.
Tiny Aya учили на 6 трлн. токенов, а проблему нехватки данных для редких языков решали через синтетику от моделей-учителей (своя Command R + DeepSeek-V3).
Вместо того чтобы учить одну модель всему сразу, разбили данные на языковые кластеры (Европа, Азия, Африка и т.д.) и дотюнивали отдельные ветки, после чего смержили эти региональные чекпоинты в глобальную модель Tiny Aya Global.
Tiny Aya Global: Универсальный чекпоинт для всех языков.
Tiny Aya Earth: Африка и Западная Азия.
Tiny Aya Fire: Южная Азия.
Tiny Aya Water: Азиатско-Тихоокеанский регион и Европа.
GGUF: Есть к каждой версии в 4, 8 и 16-бит.
iOS и Android: модели доступны в PocketPal
Global-версия бьет Gemma 3-4B в 46 языках из 61 на бенче WMT24++.
На iPhone 17 Pro выдает 32 токена/сек, на стареньком iPhone 13 - около 10 токенов/сек в квантовании Q4_k_m.
Самый высокий показатель безопасности (91.1%) среди конкурентов (Qwen3-4B, Ministral-3-3B).
Это 3B модель. В сложных задачах она очевидно хуже или где-то рядом с одноклассниками, чудес ждать не стоит.
Несмотря на заявленное разнообразие, английский язык занимает львиную долю датасета во всех кластерах.
При сильном сжатии (ниже Q4) качество начинает заметно страдать, особенно на редких языках.
@ai_machinelearning_big_data
#AI #ML #SLM #TinyAya #Cohere
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓65💯36🥱34❤27🤩27🦄20🔥19😴17🙈16😇15👍14
Media is too big
VIEW IN TELEGRAM
EVMbench - специализированный фреймворк, который проверяет, насколько хорошо языковые модели справляются с 3 задачами: находят баги в коде смарт-контрактов, эксплуатируют их в контролируемой среде и исправляют без нарушения логики контракта.
Тестовая база построена на реальных примерах багов, найденных ранее в ходе аудитов и профильных соревнований.
Авторы рассчитывают, что EVMbench станет отраслевым стандартом, что важно для защиты активов в секторе децентрализованных финансов, где исправить ошибку после деплоя уже невозможно.
openai.com
Теперь в NotebookLM сгенерированные презентации можно дорабатывать прямо в диалоге с ИИ, без ручной правки каждого слайда. Достаточно написать, что изменить, и модель перестроит контент сама.
Второе обновление - экспорт в PPTX. Готовую презентацию можно скачать и открыть в Microsoft PowerPoint. Поддержка Google Slides анонсирована, но пока не запущена.
NotebookLM в сети Х
ИИ-поисковик прекратил эксперименты с рекламной монетизацией, посчитав, что она фундаментально противоречит миссии сервиса. Несмотря на то, что стартап одним из первых начал тестировать спонсорские ответы в 2024 году, сейчас руководство решило свернуть эту инициативу.
Представители компании пояснили, что их главная ценность - это точность и объективность информации. Даже если промо-блоки четко маркированы и технически не влияли на генерацию текста, сам факт их наличия заставляет людей сомневаться в честности ответов.
В Perplexity пришли к выводу, что для удержания платных подписчиков пользователь должен быть уверен, что получает лучший возможный ответ, не искаженный коммерческими интересами рекламодателей.
ft.com
В чат-бот добавили модель Lyria 3 от DeepMind. На вход она принимает текст, картинку или видео, а если указать в запросе имя исполнителя, Gemini создаст трек в похожем стиле (но скопировать артиста напрямую не получится).
Инструмент в бете, но уже пишет полноценные треки на английском, немецком, испанском, французском, хинди, японском, корейском и португальском языках. Вся музыка, созданная через Lyria 3, получает метку SynthID.
blog.google
Команда инженеров-химиков института адаптировала архитектуру LLM для нужд биотехнологий. Созданный алгоритм помогает промышленным дрожжам Komagataella phaffii эффективнее производить сложные белки, используемые в вакцинах и препаратах от рака.
Суть разработки - решении проблемы генетических синонимов. Одна и та же аминокислота может кодироваться разными триплетами ДНК (кодонами), но на классических методах оптимизации выбор самых часто встречающихся вариантов нередко приводит к дефициту ресурсов клетки и снижению выработки.
Инженеры обучили модель на геноме дрожжей, заставив ее воспринимать ДНК как текст. ИИ не просто запомнил частоту кодонов, но и усвоил скрытый контекст — «синтаксис» их взаимодействия. В тестах на реальных белках, включая человеческий гормон роста и моноклональные антитела, последовательности от ИИ превзошли результаты лучших коммерческих инструментов в 5 случаях из 6.
Технология обещает сократить расходы на разработку новых лекарств, которые на этапе подготовки производства сейчас составляют до 20% от общего бюджета.
news.mit.edu
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👏38👍15🔥10🤩8🤔5😎5🎉3🤝1🆒1
Компания сообщила о масштабной оптимизации инфраструктуры обучения больших языковых моделей: качество и объёмы разработки сохранены, а годовая экономия составила 4,8 млрд ₽ (≈ 400 млн ₽ в месяц).
YCCL (Yet Another Collective Communication Library) — собственная разработка Яндекса для ускорения коллективных операций и межпроцессорного взаимодействия в кластерах.
С её помощью удалось:
- в 2 раза ускорить обмен данными между GPU,
- сократить объём передаваемой информации
- перенести часть управляющей логики с GPU на CPU, снизив нагрузку на графические процессоры.
Сопоставимые по уровню решения есть только у крупнейших игроков рынка (Meta, AMD и ряд китайских бигтех-компаний).
Компания внедрила вычисления в формате FP8, что дало:
ускорение обучения до 30%, двукратное снижение коммуникаций между GPU.
Размер батча увеличен до 16–32 млн токенов, что уменьшило простой GPU и повысило загрузку и эффективность использования кластеров.
Дополнительно улучшили стабильность инфраструктуры и сократили затраты, связанные с перезапусками обучения.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍107🤣71🔥28❤22👏8🤩7😁5🤬3😢2🤔1🎉1
⚡️ VK внедряет VLM в поиск VK Видео
VK начала внедрение визуально-языковых моделей в поисковые системы своих продуктов. Технология уже работает в VK Видео. Теперь система анализирует не только название и описание ролика, но и сами кадры, звук и видеоряд.
Тестирование гипотез ускорилось в 5 раз, новые улучшения внедряются заметно быстрее, а поиск будет развиваться динамичнее.
Технология также усилит векторный поиск. Система будет опираться не только на семантическое совпадение слов, но и на реальное содержание видео через анализ аудио и визуальных признаков.
Подобные мультимодальные подходы развивают Microsoft, Google и TikTok. Обновление поэтапно появится и в других сервисах VK.
@ai_machinelearning_big_data
#news #ai #ml #VK
VK начала внедрение визуально-языковых моделей в поисковые системы своих продуктов. Технология уже работает в VK Видео. Теперь система анализирует не только название и описание ролика, но и сами кадры, звук и видеоряд.
Тестирование гипотез ускорилось в 5 раз, новые улучшения внедряются заметно быстрее, а поиск будет развиваться динамичнее.
Технология также усилит векторный поиск. Система будет опираться не только на семантическое совпадение слов, но и на реальное содержание видео через анализ аудио и визуальных признаков.
Подобные мультимодальные подходы развивают Microsoft, Google и TikTok. Обновление поэтапно появится и в других сервисах VK.
@ai_machinelearning_big_data
#news #ai #ml #VK
1🤣97👍72🔥19👏8🥱7🤷♂5🗿5😁2🤔2🌚2😴1
Media is too big
VIEW IN TELEGRAM
Команда Nerve переходит в OpenAI в рамках сделки формата acqui-hire. Технологии стартапа будут интегрированы в существующие продукты OpenAI для улучшения механизмов поиска на рабочих местах.
До поглощения Nerve работала как единый хаб. Система умела извлекать данные из корпоративных документов, электронной почты, Google Drive и Slack, заменяя рутинный ручной поиск автоматизированными сценариями.
Наработки Nerve станут инфраструктурным компонентом для создания будущих ИИ-агентов, способных самостоятельно оперировать корпоративной информацией и выполнять сложные многошаговые задачи.
usenerve.com
Китайская корпорация активно нанимает инженеров и исследователей в Сан-Хосе, Лос-Анджелесе и Сиэтле для лаборатории Seed.Перед кандидатами ставятся задачи по подготовке датасетов для LLM, улучшению алгоритмов генерации видео и изображений, а также разработка научных моделей для дизайна лекарственных препаратов.
Отдельный фокус сделан на проекте Seed Edge Research, цель которого в создании систем с человекоподобными способностями к обучению.
Агрессивный наем происходит на фоне многолетнего давления американских регуляторов. Несмотря на это, ByteDance явно не планирует уступать технологическую гонку и усиливает свои R&D-центры на территории конкурентов.
bloomberg.com
В рамках проекта Project Silica инженеры решили фундаментальную проблему деградации носителей в дата-центрах. В Nature вышла статья о важном сдвиге: команда отказалась от дорогого чистого кварца в пользу доступного боросиликатного стекла. Фемтосекундные лазеры "прожигают" в пластине толщиной 2 мм сотни слоев информации
Фишка исследования — изобретение «фазовых вокселей». Раньше методы опирались на поляризацию, а новый подход изменяет фазу стекла и требует лишь одного лазерного импульса на воксель. Чтобы разобрать эту плотную трехмерную структуру и убрать искажения, Microsoft подключила нейросети. Скорость записи подняли, запустив несколько лучей параллельно, а само устройство упростили: теперь для чтения хватает одной камеры вместо четырех.
Стеклянный носитель не боится воды, высоких температур и пыли. Тесты на старение подтвердили, что записанная информация останется неизменной минимум несколько тысячелетий. На этом исследовательская часть Project Silica закончена. Технология готова, теперь на ее основе можно строить хранилища.
microsoft.com
Новая функция Photoshoot - часть маркетинговой платформы Pomelli. Инструмент ориентирован на малый и средний бизнес, он превращает через Nano Banana фотографии товаров в качественные студийные и лайфстайл-кадры без затрат на продакшен.
Платформа автоматически парсит сайт компании, извлекает фирменные цвета, шрифты и общую эстетику бренда для применения к генерируемому контенту. Сервис предлагает готовые визуальные пресеты, замену фона по текстовому запросу и перенос стиля с референсов. Пока это бесплатная бета, но только для США, Канады, Австралии и Новой Зеландии.
blog.google
Phoenix-4 покадрово генерирует каждый пиксель лица и головы виртуального собеседника, опираясь на датасет из тысяч часов реальных диалогов.
Киллер-фича Phoenix-4 в способности анализировать контекст беседы и демонстрировать эмпатию. Модель знает более 10 эмоций и умеет плавно переключаться между ними в реальном времени. Разработчики заверяют, что тем самым победили эффект «зловещей долины».
Технически все серьезно: HD-видео, 40 кадров в секунду. Tavus предлагает использовать это в продажах, обучении и медицине - там, где человеку важно внимание.
tavus.io
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍52❤35🔥14👏4🌚3🥰2
SkillsBench — исследование и первый бенчмарк, где Agent Skills тестируются как самостоятельный артефакт.
Авторы из 15+ топовых университетов взяли 84 задачи из 11 доменов, запустили 7 конфигураций моделей (Claude Code с Opus/Sonnet/Haiku 4.5 и 4.6, Gemini CLI с Gemini 3 Pro/Flash, Codex с GPT-5.2) и проверили 3 условия: без Skills, с готовыми Skills и с самостоятельно сгенерированными Skills. Итого: 7 308 траекторий с детерминированными верификаторами на pytest.
Готовые Skills в среднем поднимают pass rate на 16,2 процентных пункта: с 24,3% до 40,6%. Но картина неоднородная: в медицине прирост составил +51,9%, для производства — +41,9%, тогда как в разработке ПО всего +4,5%.
Это объяснимо: там, где модели плохо покрыты обучением (клинические протоколы, промышленные воркфлоу), Skills дают максимальный эффект. Там, где модель и так знает домен - почти ничего.
Когда моделям предлагали сначала написать нужные гайды, а потом решать задачу, средний результат упал на 1,3% по сравнению с работой вообще без Skills. Только Claude Opus 4.6 показал скромный плюс (+1,4%), а GPT-5.2 просел на 5,6%.
Иными словами - модели не умеют надежно создавать то знание, которым умеют пользоваться.
Оптимальный вариант: 2–3 модуля, прирост +18,6%. При 4 и более - всего +5,9%. Подробная документация вообще дает отрицательный эффект: –2,9%, с ней агент буквально тонет в контексте.
Показательна и стоимость решения задач: Haiku 4.5 со Skills обходит Opus 4.5 без Skills — меньшая и более дешевая модель с готовыми Skills бьет старшую модель без них.
Gemini 3 Flash при этом показал лучший абсолютный результат среди всех конфигураций - 48,7% со Skills при цене $0,57 за одну задачу против $1,06 у Gemini 3 Pro.
@ai_machinelearning_big_data
#AI #ML #LLM #Benchmark #Skills
Please open Telegram to view this post
VIEW IN TELEGRAM
👍57🤓42❤16🤔9👏8❤🔥6👌4🔥1🥰1
Media is too big
VIEW IN TELEGRAM
Компания готовит к запуску линейку фирменных гаджетов. Первым устройством станет умная колонка. Ее релиз ожидается не раньше февраля 2027 года по цене от 200 до 300 долларов.
Фишкой гаджета станет встроенная камера с функцией распознавания лиц. Устройство сможет анализировать происходящее вокруг и давать проактивные советы. Производство аппаратных новинок планируют поручить компании Foxconn.
Колонка станет отправной точкой для новой экосистемы. В разработке также находятся умные очки (старт производства в 2028 гоу), беспроводная гарнитура Sweetpea, умный стилус Gumdrop и прототип настольной лампы.
theinformation.com
Георгий Герганов и его команда переходят в Hugging Face. Проект llama.cpp останется полностью открытым и независимым. Разработчики сохранят за собой техническое руководство, а Hugging Face обеспечит финансирование и ресурсы.
Цель партнерства - техническая интеграция. Поскольку transformers де-факто стала стандартом для архитектур ИИ-моделей, а llama.cpp выступает фундаментом для их локального инференса, команды хотят максимально упростить связку этих инструментов. В будущем развертывание новых моделей из transformers в llama.cpp должно работать в один клик.
Также планируется улучшить упаковку и общий пользовательский опыт архитектуры GGML. Hugging Face делает ставку на то, что локальный инференс вскоре станет альтернативой облачным вычислениям.
huggingface.co
Anthropic выпустила официальную интеграцию ИИ-ассистента для Microsoft PowerPoint. Плагин уже появился в Microsoft Marketplace и доступен в статусе бета-версии для подписчиков тарифов Pro, Max, Team и Enterprise.
Через Claude можно генерировать целые презентации или править отдельные слайды с помощью текстовых запросов. Чат-бот понимает контекст текущего дизайна - он умеет считывать макеты, шрифты и цветовую палитру из образца слайдов. Таким образом, все новые элементы и сгенерированный контент автоматически подстраиваются под корпоративный стиль или существующее оформление документа.
claude.com
Новая функция AI Selves позволит развернуть виртуального двойника, который обладает памятью, уникальным характером и способен самостоятельно общаться с другими людьми. За мимику и артикуляцию при разговоре отвечают собственные аудиовизуальные модели лаботатории.
Пользователи смогут детально настраивать свою копию: задавать голос, манеру общения и загружать конкретные факты биографии или личные предпочтения. Процесс напоминает воспитание аватара, где создатель несет ответственность за заложенные в ИИ инструкции. Предполагается, что такие агенты будут интегрированы в мессенджеры и соцсети, где смогут общаться и действовать от имени пользователя.
Pika Labs открыла регистрацию через список ожидания. Стоимость использования сервиса или уровнях подписки пока неизвестны.
Pika Labs в сети Х
Команда Microsoft по безопасности ИИ оценила 60 комбинаций методов верификации цифрового контента и опубликовала рекомендации для платформ и ИИ-компаний. Схема трёхуровневая: история происхождения файла, водяные знаки и цифровая подпись контента. Вместе они позволяют отследить, было ли изображение или видео создано или изменено ИИ, но не определить, правда ли это.
Главная ирония: когда CSO компании Эрик Хорвиц спросили, внедрит ли Microsoft собственные рекомендации в Copilot, LinkedIn и Azure, он ушёл от прямого ответа.
Эксперт по цифровой криминалистике из UC Berkeley Хани Фарид оценивает инициативу осторожно: стандарт не решит проблему целиком, но существенно усложнит массовый выброс фейков.
technologyreview.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26❤21👏21🔥8🤔3🎉3😁1🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
Новый инструмент сканирует кодовую базу и предлагает патчи для исправления найденных проблем. Сейчас он доступен в режиме ограниченного превью для Enterprise и Team клиентов, а мейнтейнеры репозиториев могут запросить приоритетный бесплатный доступ.
Обычный статический анализ ищет совпадения с известными паттернами уязвимостей. Этого достаточно, чтобы поймать торчащие наружу пароли или устаревшее шифрование.
Но прорехи в бизнес-логике или сломанный контроль доступа такие инструменты пропускают - там нужно понимать, как компоненты взаимодействуют между собой и куда движутся данные.
Claude Code Security делает именно это: читает и анализирует код так, как его читал бы человек-исследователь безопасности.
Каждая находка проходит многоступенчатую верификацию. Claude сам перепроверяет результаты, пытаясь опровергнуть собственные выводы и отсеять ложные срабатывания.
Финальные находки появляются в дашборде с оценкой серьезности и уровнем уверенности модели. Решение, применять предложенный патч или нет остается за людьми, без человеческого одобрения ничего не меняется.
За инструментом - более года исследований. Команда Frontier Red Team тестировала Claude на соревнованиях CTF и совместно с Pacific Northwest National Laboratory отрабатывала защиту критической инфраструктуры.
С Opus 4.6 команда обнаружила в open-source проектах более 500 уязвимостей, которые не замечали годами, несмотря на регулярный аудит.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👍10❤8👏8🤔4🎉2