This media is not supported in your browser
VIEW IN TELEGRAM
Этот ролик выглядит значимее, чем 99% видео с роботами, дерущимися в ММА.
Роботы Unitree Robotics всё активнее выходят в реальную среду, и одно из самых очевидных применений - работа в больницах .
Легко представить, что уже через несколько лет такие роботы станут обычным вспомогательным персоналом.
@ai_machinelearning_big_data
#Unitree #ai #robots
Роботы Unitree Robotics всё активнее выходят в реальную среду, и одно из самых очевидных применений - работа в больницах .
Легко представить, что уже через несколько лет такие роботы станут обычным вспомогательным персоналом.
@ai_machinelearning_big_data
#Unitree #ai #robots
1❤114🤔81👍30👏27🔥14💯14🎉6😁3
30 марта злоумышленники опубликовали в npm 2 вредоносные версии библиотеки axios. Версии 1.14.1 и 0.30.4 содержали скрытый установщик кроссплатформенного RAT, инструмента скрытого удаленного доступа.
JavaScript-библиотека Axios широко распространена в экосистеме разработки ИИ-решений, она обеспечивает HTTP-взаимодействие между клиентскими интерфейсами и API (OpenAI, Anthropic, LangChain).
Компрометацию обнаружила компания StepSecurity - ее ИИ-анализатор пакетов зафиксировали аномальные исходящие соединения к домену sfrclak[dot]com в CI-пайплайнах открытых проектов.
Это одна из самых технически изощренных атак на цепочку поставок, когда-либо зафиксированных в экосистеме npm.
Атакующие получили доступ к npm-аккаунту ведущего мейнтейнера проекта jasonsaayman и подменили привязанный email.
Публикация обошла штатный CI/CD-пайплайн: все легитимные релизы axios 1.x выходят через GitHub Actions с криптографической привязкой по OIDC, а вредоносная версия была залита напрямую с украденным npm-токеном - без привязки к коммиту или тегу в репозитории.
Сам код axios не менялся ни на строку. Единственным изменением в package.json стало добавление зависимости plain-crypto-js@4.2.1, пакета, который нигде в исходниках axios не импортируется.
Его единственная задача - выполнить скрипт, запускающий RAT-дроппер для macOS, Windows и Linux. В течение 2 секунд после npm install вредонос устанавливает соединение с сервером - еще до того, как npm заканчивал разрешение остальных зависимостей.
После запуска дроппер удалет себя и подменяет свой package.json на чистую заглушку с номером версии 4.2.0 вместо 4.2.1.
Проведенное расследование установило, что операция была спланирована заранее.
За 18 часов до атаки злоумышленник зарегистрировал чистый клон легитимного crypto-js, создающий видимость нормальной истории публикаций. Затем вышла версия 4.2.1 с вредоносным postinstall-хуком. Обе ветки axios, актуальная 1.x и устаревшая 0.x, были инфицированы с интервалом в 40 минут.
Вредоносные версии axios оставались в реестре npm около 3 часов, после чего были удалены. Пакет plain-crypto-js продержался примерно 4 с половиной часа.
Всем, кто установил axios@1.14.1 или axios@0.30.4, рекомендуется проверить наличие директории plain-crypto-js в node_modules. Её присутствие означает, что дроппер был запущен, даже если npm list не показывает версию 4.2.1.
Зависимость необходимо удалить, а все секреты, SSH-ключи и токены на затронутых машинах считать скомпрометированными.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬138😢38❤19🤔19👍13🔥10😁5👀1
Media is too big
VIEW IN TELEGRAM
Расширение позволяет вызывать Codex напрямую из рабочего процесса для код-ревью и делегирования задач. Инструмент поддерживает базовую проверку синтаксиса, расширенное интерактивное ревью с наводящими вопросами и автоматическое расследование дефектов с исправлением багов.
Плагин работает через локальный Codex CLI и не изолирован от системы. Он наследует авторизацию устройства, конфигурацию, переменные окружения и доступ к репозиториям.
Для установки дополнения потребуется Node.js версии 18.18 или новее, а также любая учетная запись ChatGPT, включая бесплатный тариф, либо API-ключ OpenAI. Исходники плагина опубликованы на Github.
community.openai.com
Новинка замыкает линейку Veo 3.1 и ориентирована на массовую генерацию контента. Стоимость создания на новой модели на 50% меньше. чем на версии Fast.
Lite генерирует ролики на основе текста или изображений, предлагая базовые настройки ориентации кадра и длительность в 4, 6 или 8 секунд. 4K не поддерживается, доступны только 720p и 1080p.
Доступ к Veo 3.1 Lite уже открыт на платных тарифах в Gemini API и платформе Google AI Studio. Одна секунда видео в 720p обойдется в 5 центов, а в 1080p - в 8 центов. Также анонсировано снижение тарифов для Veo 3.1 Fast с 7 апреля.
blog.google
Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.
Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.
За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.
Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации
Сейчас он уже работает над версией на Rust.
История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты
Предприятие в городе Фошань рассчитано на выпуск 10 000 человекоподобных машин ежегодно. Переход на конвейерный формат сократил время сборки одного устройства в среднем до 30 минут. Это повысило общую эффективность производства более чем на 50% по сравнению с традиционными методами сборки.
Технологический процесс состоит из 24 этапов и включает 77 процедур для проверки безопасности и надежности узлов. Линия отличается высокой гибкостью: архитектура конвейера позволяет одновременно выпускать различные модификации роботов для разных нужд - от заводских цехов до медицинских учреждений.
Тренд на массовое производство поддерживают и другие локальные разработчики: Unitree и UBTech планируют поставить на рынок десятки тысяч роботов уже к концу этого года, а Agibot отгрузила более 5 тыс. единиц в 2025 году.
cctvplus.com
Вендор применит к GDDR подход вертикальной компоновки из чипов HBM, чтобы заполнить нишу между дорогой HBM и классической GDDR. До конца года Micron подготовит оборудование и приступит к тестовому производству, а первые четырехслойные инженерные образцы появятся в 2027 году,
С развитием ИИ рынку требуются более доступные решения, особенно для инференса, где HBM избыточна, а производительности обычной графической памяти не хватает. Многослойная GDDR даст повышенную пропускную способность и увеличенную емкость, сохранив при этом конкурентную цену. Помимо ИИ-ускорителей, новые чипы найдут применение в игровых видеокартах.
Для запуска производства Micron предстоит преодолеть ряд инженерных барьеров: контроль тепловыделения, оптимизация энергопотребления и удержание низкой себестоимости сложного процесса упаковки.
etnews.com
@ai_machinelearning_big_data
🐍 полезные ресурсы 🚀Max
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍96👏74❤24🤔24😎15🎉7🔥5👀3🥰2🦄1
Анализ анализ утекшего сегодня исходного кода Claude Code подтвердил давно циркулирующую в сети гипотезу о том, что преимущество Claude Code над веб-интерфейсом не в языковой модели, а в обвязке вокруг нее.
Если подставить в эту архитектуру другую модель (DeepSeek, MiniMax или Kimi) и адаптировать системные инструкции, результат будет сопоставим с оригиналом.
Модель ориентируется в проекте еще до первого запроса пользователя. Статичные части промпта отделены от динамических специальными маркерами и кэшируются глобально, что избавляет от повторной сборки контекста при каждом обращении.
Для поиска файлов предусмотрен отдельный Glob-инструмент, а для навигации по коду - инструмент на базе LSP, который открывает доступ к иерархии вызовов и ссылкам между сущностями. Благодаря этому модель воспринимает код не как статичный текст, а как структуру с зависимостями.
Claude Code дедуплицирует чтение файлов: если файл не изменился, повторно он не обрабатывается. Слишком объемные результаты инструментов выносятся на диск, а в контексте остается лишь превью со ссылкой. Длинные контексты автоматически усекаются и суммаризуются.
В нем создаются разделы: состояние задачи, рабочие файлы и функции, ошибки, выводы, рабочий лог. Это некий цифровой аналог заметок, которые разработчик делает по ходу работы.
Форкнутые процессы переиспользуют кэш родителя и учитывают мутабельные состояния. Это позволяет вести суммаризацию и фоновый анализ, не засоряя основной цикл агента.
В комментариях упоминается модель capybara-v2-fast и описаны ее особенности: чувствительность к стоп-последовательностям, склонность к избыточным аннотациям и защищенные блоки мышления.
Модели Opus 4.7 и Sonnet 4.8 фигурируют в коде лишь как примеры невыпущенных версий.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍87🔥43🤔25❤22🤓6💔3😭3😁1😨1
Парижский стартап H Company выпустил семейство мультимодальных моделей Holo3, предназначенных для управления графическими интерфейсами.
H Company (ранее Holistic AI) публично вышла на рынок в начале 2024 года. Основатели: Шарль Кантор, бывший исследователь Стэнфорда, и Лоран Сифр, ветеран Google DeepMind и один из ключевых участников проекта AlphaGo.
Посевной раунд составил $220 млн - один из крупнейших в истории европейского венчура. Среди инвесторов: Эрик Шмидт, Юрий Мильнер, Бернар Арно, Ксавье Ньель, а также Amazon, Samsung и UiPath.
Старшая Holo3-122B-A10B доступна только на платформе H Company по цене 40 центов за миллион входящих и 3 доллара за миллион выходных токенов.
Младшая версия Holo3-35B-A3B выложена на Hugging Face под лицензией Apache 2.0 и также доступна бесплатно через Inference API с ограничением в 10 PRM. В платном режиме - 0,25/1.8 доллара за миллион входных/выходных токенов.
Сначала по заданным сценариям генерируются синтетические примеры навигации по интерфейсам.
Затем данные расширяются за пределы исходных условий, чтобы модель учитывала нестандартные ситуации.
На финальном этапе все примеры проходят курируемый отбор и обучение с подкреплением.
Для тренировки H Company построила генератор синтетических корпоративных сред, в котором агенты создают веб-приложения по спецификациям сценариев, формируя верифицируемые задачи разной сложности.
На базе этих сред разработан H Corporate Benchmarks - набор из 486 многошаговых задач в 4 категориях: электронная коммерция, бизнес-ПО, инструменты совместной работы и межприложенческие сценарии.
Последние требуют координации между несколькими системами одновременно (скажем, извлечь цены из PDF, сопоставить их с бюджетами сотрудников и автоматически разослать персонализированные письма с одобрением или отказом).
Флагманская Holo3-122B-A10B набрала 78,85% на бенчмарке OSWorld-Verified - это лучший результат на ведущем тесте взаимодействия с рабочим столом.
@ai_machinelearning_big_data
#AI #ML #MMLM #Holo3 #HCompany
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👨💻110👍28🤩25❤16💯16🔥6👏6🤨1😐1
This media is not supported in your browser
VIEW IN TELEGRAM
🌔 Люди снова летят к Луне - впервые за 54 года.
Ракета NASA только что успешно стартовала с четырьмя астронавтами на борту.
Этот полёт - не просто символический. Корабль уйдёт на рекордные 407 000 км от Земли - дальше, чем когда-либо летал человек.
Следующий шаг - уже не мечты:
высадка на Луну запланирована на 2028 год.
@ai_machinelearning_big_data
#space
Ракета NASA только что успешно стартовала с четырьмя астронавтами на борту.
Этот полёт - не просто символический. Корабль уйдёт на рекордные 407 000 км от Земли - дальше, чем когда-либо летал человек.
Следующий шаг - уже не мечты:
высадка на Луну запланирована на 2028 год.
@ai_machinelearning_big_data
#space
🔥207❤84👏27👍14😁8🤣7🌚5
Media is too big
VIEW IN TELEGRAM
Компания направила GitHub жалобу в рамках DMCA, потребовав заблокировать доступ к утекшему коду Claude Code. Платформа полностью удовлетворила запрос и зачистила репозитории с нелегальным контентом.
Под блокировку попал родительский репозиторий
nirholas/claude-code и все его форки - в общей сложности 8100 проектов. Представитель Anthropic заявил, что содержимое этих репозиториев целиком нарушает авторские права компании.github.com
LFM2.5-350M - крошечная модель на 350 млн параметров. В нее влили 28 трлн. токенов и отполировали обучением с подкреплением. В квантованном виде вся эта радость весит меньше 500 МБ.
При столь скромных размерах она уверенно справляется с задачами агентных циклов, извлечением структурированных данных и вызовом внешних инструментов.
Разработчики говорят, что по сравнению с прошлой версией новинка стала в 2 раза лучше понимать инструкции и работать с функциями. Модель заводится локально на CPU, видеокартах и мобильных чипах. Плюс из коробки нативно поддерживается железо AMD, Intel и Qualcomm.
liquid.ai
Вышедший из стелс-режима стартап PrismML, созданный выходцами из Калтеха, придумал интересную концепцию - «плотность интеллекта». Суть в том, чтобы мерить полезную работу модели на гигабайт используемой памяти.
Чтобы не быть голословными, они релизнули семейство моделей Bonsai, с флагманом на 8B во главе. У модели однобитные веса, поэтому занимает она 1,15 ГБ. Заявлено, что при сохранении качества генерации она в 14 раз меньше, в 8 раз быстрее и в 5 раз экономнее аналогов в той же весовой категории. Плотность интеллекта оценивается в 1,06/ГБ против 0,10/ГБ у стандартных полноразмерных моделей на 8B.
В довесок к 8В идут легкие версии на 4B и 1,7B параметров. Код и веса - в опенсорсе под лицензией Apache 2.0.
prismml.com
Техногигант вынужден пойти на массовые сокращения из-за финансового давления, вызванного многомиллиардными инвестициями в ИИ. Пытаясь догнать конкурентов на рынке, Oracle привлекла огромные кредиты для строительства дата-центров и планировала привлечь еще 50 млрд. долларов на расширение инфраструктуры.
Высокая долговая нагрузка и снижение денежного потока вызвали обеспокоенность инвесторов - с начала года акции Oracle рухнули на 25%. Компания пока отказывается комментировать увольнения, однако руководство верит, что ИИ-стратегия окупится в долгосрочной перспективе.
Топ-менеджмент уверен, что спрос на ИИ-инфраструктуру остается большим и неудовлетворенным, а портфель контрактных обязательств на 553 млрд. долларов является прямым доказательством востребованности их решений на рынке.
businessinsider.com
Проект Панкаджа Гупты стал одной из первых крупных потерь ИИ-бума. Несмотря на финансирование при участии a16z, Джеффа Дина из Google и CEO Perplexity, а также базу в 1,3 млн. пользователей, компания так и не нашла востребованность на рынке.
Yupp развивал платформу краудсорсинга: пользователи за вознаграждение оценивали ответы более 500 ИИ-моделей, а лаборатории покупали эти данные для улучшения продуктов. Но эволюция технологий уничтожила эту бизнес-модель. Фокус сместился с чат-ботов на сложные агентные архитектуры, напрямую взаимодействующие со сторонними сервисами, API и реальными данными.
Ручная оценка текстовых генераций потеряла ценность для инженеров. Поняв, что подход больше не имеет экономической перспективы, команда решила закрыть бизнес. Неизрасходованный капитал вернут инвесторам, а Yupp проработает до середины апреля в режиме экспорта пользовательских данных.
yupp.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔93👍66❤34😢18🔥4👏4🤣3😐2🫡1🦄1
Forwarded from Норникель
Наш путь — комбинация ИИ и робототехники
🖥 Комбинация искусственного интеллекта и робототехники — не сценарий из будущего, а практический путь развития современной промышленности. Именно эту мысль директор департамента технологических инноваций «Норникеля» Алексей Тестин обозначил на форуме «ТОЛК-2026».
«ТОЛК Форум» — часть «ТОЛК-2026», крупнейшего в России форума-интенсива от частного бизнеса о финансах и инвестициях, где бизнес, власть и экспертное сообщество обсуждают ключевые вопросы развития экономики и технологий.
📄 Среди участников и спикеров форума — глава Банка России Эльвира Набиуллина, заместитель руководителя Администрации Президента Максим Орешкин и другие представители российского и международного экспертного сообщества.
💬 Алексей Тестин выступил в сессии «Что после ИИ-пузыря? Во что будем инвестировать до 2035 года» и рассказал о решениях «Норникеля», которые уже дают измеримый эффект бизнесу.
Машинное обучение и предиктивные алгоритмы компания внедряет в промышленность почти пять лет. Этот стек уже приносит «Норникелю» около 10 млрд ₽ в год — за счет влияния на EBITDA и дополнительных металлов, которые удается получать благодаря более точным моделям и прогнозам.
▶️ Но следующий шаг — роботизация. Рудники компании работают на глубине до 2 километров, и в таких условиях требования к безопасности, точности и устойчивости технологий становятся только выше. При этом эффект от ИИ — это во многом еще и эффект от снижения погрешностей, которые неизбежны при ручном управлении: человек просто не может работать с той же точностью, что алгоритм и машина в связке.
Именно поэтому ставка «Норникеля» — на комбинацию ИИ и робототехники как на будущую точку роста. Не в отрыве от практики, а на базе уже созданной технологической инфраструктуры: ML-кластеров на площадках компании, выстроенных процессов работы с подрядчиками, сильного контура информационной безопасности и собственной платформы внедрения.
📌 Такой подход показывает, что технологические инновации для «Норникеля» — не набор отдельных экспериментов, а последовательный курс на повышение эффективности, безопасности и качества производственных решений.
Следите за новостями «Норникеля» в MAX
«ТОЛК Форум» — часть «ТОЛК-2026», крупнейшего в России форума-интенсива от частного бизнеса о финансах и инвестициях, где бизнес, власть и экспертное сообщество обсуждают ключевые вопросы развития экономики и технологий.
💬 Алексей Тестин выступил в сессии «Что после ИИ-пузыря? Во что будем инвестировать до 2035 года» и рассказал о решениях «Норникеля», которые уже дают измеримый эффект бизнесу.
Машинное обучение и предиктивные алгоритмы компания внедряет в промышленность почти пять лет. Этот стек уже приносит «Норникелю» около 10 млрд ₽ в год — за счет влияния на EBITDA и дополнительных металлов, которые удается получать благодаря более точным моделям и прогнозам.
Именно поэтому ставка «Норникеля» — на комбинацию ИИ и робототехники как на будущую точку роста. Не в отрыве от практики, а на базе уже созданной технологической инфраструктуры: ML-кластеров на площадках компании, выстроенных процессов работы с подрядчиками, сильного контура информационной безопасности и собственной платформы внедрения.
Следите за новостями «Норникеля» в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓58👍22👏17😁14❤11💯5😐5🥱1
Команда Google Quantum AI совместно с исследователями Ethereum Foundation и Стэнфорда опубликовали исследование, которое рисует тревожную картину: квантовая угроза касается не отдельных блокчейнов, а криптовалютной индустрии в целом - от базовых транзакций до смарт-контрактов, механизмов консенсуса, стейблкоинов и токенизированных активов.
В центре работы - оценки ресурсов для взлома криптографии на эллиптических кривых secp256k1, которая защищает подписи в Bitcoin, Ethereum и множестве других блокчейнов.
Авторы разработали квантовые схемы, которые потребуют менее 500 тысяч физических кубитов (в 20 раз меньше, чем считалось ранее).
Для контекста: крупнейшие квантовые процессоры сегодня содержат порядка 1000 кубитов, но индустрия масштабируется быстро, и финишная черта теперь значительно ближе.
На сверхпроводящей архитектуре такая атака займёт около 9 минут при среднем времени блока Bitcoin в 10 минут. Это означает, что квантовый атакующий теоретически способен перехватить транзакцию прямо из мемпула, вычислить приватный ключ и подменить перевод до его записи в блокчейн.
Вероятность успеха такой атаки авторы оценивают примерно в 41%.
Исследование разбирает уязвимости всей криптоэкосистемы. Около 6,9 млн. BTC (порядка 35% всех монет в обращении) уже подвержены атакам по раскрытым или повторно использованным ключам, включая 1,7 млн BTC на ранних адресах эпохи Сатоши.
Современный формат Taproot (P2TR), принятый в 2021 году, парадоксальным образом вернул уязвимость, устраненную предшественниками: он снова записывает публичный ключ открыто в блокчейн.
Авторы выделяют 5 отдельных категорий:
Litecoin, Dogecoin, Bitcoin Cash, Zcash, Monero, Solana, Cardano, Rootstock - все используют криптографию на эллиптических кривых и находятся в зоне риска.
Приватные блокчейны (Zcash и Monero) столкнутся еще и с ретроактивной деанонимизацией: будущий квантовый атакующий сможет расшифровать исторические конфиденциальные транзакции.
Стейблкоины и токенизированные активы наследуют все уязвимости хост-блокчейнов, а прогнозируемый рост рынка токенизации до 16 трлн USD к 2030 году многократно увеличивает масштаб потенциального ущерба.
При этом Proof-of-Work-майнингу Bitcoin квантовые компьютеры не угрожают: ускорение от алгоритма Гровера полностью поглощается накладными расходами квантовой коррекции ошибок.
Для подтверждения своих оценок без раскрытия деталей атаки команда применила криптографическое доказательство с нулевым разглашением - прецедент ответственного раскрытия в квантовом криптоанализе.
Авторы призывают все криптосообщества как можно скорее начинать миграцию на постквантовую криптографию, ссылаясь на успешные примеры: блокчейн QRL, первую PQC-транзакцию на Algorand, эксперименты на Solana и XRP Ledger.
@ai_machinelearning_big_data
#QuantumComputing #Crypto #PostQuantum #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤨131🤔41❤29😨16🔥12👍8🌚8🤣4😭4👏3🥰1
В ШАДе Яндекса научили CatBoost находить борщевик на спутниковых фото
За выявление сорняка отвечают технологии компьютерного зрения. Модель обучали в сервисах Yandex Cloud, для валидации использовался датасет из 10 тыс. спутниковых фото с очагами заражения. Качество распознавания оценивали по метрике IoU – получилось 0,75. Результат также проверяли эксперты
Волонтеры и специалисты уже пользуются сервисом: с его помощью выявили очаги заражения общей площадью 421 га в 17 регионах и ликвидировали один крупный. В дальнейшем Яндекс планирует научить искусственный интеллект распознавать другие инвазивные растения.
@ai_machinelearning_big_data
#news #ml #ai
За выявление сорняка отвечают технологии компьютерного зрения. Модель обучали в сервисах Yandex Cloud, для валидации использовался датасет из 10 тыс. спутниковых фото с очагами заражения. Качество распознавания оценивали по метрике IoU – получилось 0,75. Результат также проверяли эксперты
Волонтеры и специалисты уже пользуются сервисом: с его помощью выявили очаги заражения общей площадью 421 га в 17 регионах и ликвидировали один крупный. В дальнейшем Яндекс планирует научить искусственный интеллект распознавать другие инвазивные растения.
@ai_machinelearning_big_data
#news #ml #ai
1❤105👍72🔥42🤣27👏17😁9😎9🤝5💔1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская Zhipu AI, работающая на международном рынке под брендом Zai, представила GLM-5V-Turbo - мультимодальную модель, которая обрабатывает изображения, видео и текст для кодинг-задач.
Не путать новинку с вышедшей двумя неделями ранее GLM-5-Turbo: та была чисто текстовой языковой моделью, оптимизированной под агентные сценарии.
В модели GLM-5V-Turbo реализован концепт цикла
восприятие → планирование → исполнение для кодинг-агентов. Модель принимает на вход дизайн-макет или скриншот интерфейса, понимает компоновку, цветовую палитру и иерархию компонентов, после чего генерирует работающий фронтенд-проект.
Для вайрфреймов она восстанавливает структуру и логику взаимодействия, для макетов стремится к попиксельной точности воспроизведения.
Помимо прямой генерации кода по картинке, GLM-5V-Turbo работает в связке с Claude Code и OpenClaw: просматривает целевые сайты, собирает визуальные элементы и детали навигации, а затем генерирует код по результатам исследования.
Под капотом визуальный энкодер CogViT и архитектура Multi-Token Prediction. Контекстное окно составляет 200K токенов, максимальный выход - 128K токенов.
По собственным бенчам Z.ai заявляет лидирующие результаты в задачах design-to-code, визуальной генерации кода и работы с GUI-средами - AndroidWorld и WebVoyager.
При этом в чисто текстовом кодинге модель сохранила позиции по CC-Bench-V2: добавление визуальных возможностей не просадило текстовые навыки.
Модель доступна через API Z.ai и на OpenRouter. Цена - $1,20 за миллион входных токенов и $4,00 за миллион выходных.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡91❤20🤨16🔥13👨💻8🤔7👏6👍4
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0!
Blog: https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
GGUFs: https://huggingface.co/collections/unsloth/gemma-4
Guide: https://unsloth.ai/docs/models/gemma-4
@ai_machinelearning_big_data
#Gemma
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0!
Blog: https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
GGUFs: https://huggingface.co/collections/unsloth/gemma-4
Guide: https://unsloth.ai/docs/models/gemma-4
@ai_machinelearning_big_data
#Gemma
🔥153⚡39❤22👍12🏆5👏4💘3❤🔥1🤝1👾1
Cotype Light 3 ломает рынок корпоративных ИИ-агентов
MWS AI выкатили мультимодальную модель на 9B параметров, которая работает с текстом и с визуалом в едином контексте. Договоры, чертежи, формы, картинки можно обрабатывать без костылей и переключений между системами.
Ключевой акцент сделан на эффективности: меньше модель, ниже стоимость, быстрее внедрение в корпоративные процессы. При этом по качеству она уже конкурирует с моделями в 100B+.
- Мультимодальность из коробки: текст и изображения в одной логике.
- 9B параметров, но топ-3 в MERA среди русскоязычных моделей.
- Точность >99% в задачах на математику и знания о мире.
- Инференс на одном GPU без кластеров.
- Можно разворачивать в закрытом контуре.
По железу все приземленно:
A100, A10, L4 - один ускоритель, без сложной инфраструктуры
Запуск подтверждает тренд, который образовался на рынке: уход от гигантских моделей к компактным, заточенным под задачи. Выигрывает не тот, у кого больше параметров, а тот, у кого дешевле и быстрее работает прод.
MWS AI выкатили мультимодальную модель на 9B параметров, которая работает с текстом и с визуалом в едином контексте. Договоры, чертежи, формы, картинки можно обрабатывать без костылей и переключений между системами.
Ключевой акцент сделан на эффективности: меньше модель, ниже стоимость, быстрее внедрение в корпоративные процессы. При этом по качеству она уже конкурирует с моделями в 100B+.
- Мультимодальность из коробки: текст и изображения в одной логике.
- 9B параметров, но топ-3 в MERA среди русскоязычных моделей.
- Точность >99% в задачах на математику и знания о мире.
- Инференс на одном GPU без кластеров.
- Можно разворачивать в закрытом контуре.
По железу все приземленно:
A100, A10, L4 - один ускоритель, без сложной инфраструктуры
Запуск подтверждает тренд, который образовался на рынке: уход от гигантских моделей к компактным, заточенным под задачи. Выигрывает не тот, у кого больше параметров, а тот, у кого дешевле и быстрее работает прод.
🔥95👍32👏31🤣15❤10😁10💯6🎅1🗿1🆒1
Alibaba официально представила Qwen 3.6-Plus, новую флагманскую языковую модель, наследницу серии Qwen 3.5.
В 3.6 Plus сделан акцент на агентный кодинг. Модель самостоятельно декомпозирует сложные задачи на уровне репозитория, пишет и тестирует код, итеративно отлаживает его до готового результата.
Контекстное окно в миллион токенов - это примерно 2000 страниц текста в одном запросе, что позволяет загружать целые кодовые базы и длинные документы целиком.
Максимальный выход - 65 536 токенов, СoT включен постоянно, есть поддержка function calling.
Принципиальное отличие от предшественника: устранена проблема overthinking, которая была главной претензией разработчиков к Qwen 3.5. Модель тратит меньше токенов на рассуждения и ведет себя стабильнее в продакшн-сценариях.
По неофициальным тестам сообщества, скорость генерации примерно втрое выше, чем у Claude Opus 4.6, хотя time-to-first-token на бесплатном тарифе в среднем составляет 11,5 секунды.
Цена на платформе Alibaba Model Studio - от $0,5 до 2 за миллион входных токенов и от $3 до 6 за то же количество выходных.
Бесплатно - на OpenRouter (в режиме превью) и в веб-чате Qwen.
Планов на опен-сорс относительно нового флагмана Alibaba не озвучивала, но циркулируют слухи, что часть моделей серии Qwen 3.6 все-таки выложат в открытый доступ.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥96🤩32❤24👏9👍4🤣2🏆1🫡1