Исследователи из MWS AI (входит в MTS Web Services), Университета ИТМО и IITU представили метод, который улучшает понимание диалога. Работа принята на EACL 2026, одну из главных конференций по NLP.
Ключевая проблема диалоговых систем заключается в том, что боты теряют контекст разговора, начинают отвечать мимо запроса, и в итоге пользователь получает нерелевантный результат. Новый подход меняет сам принцип обучения. Вместо того чтобы просто показывать модели правильные ответы, ей дают возможность самой находить решения и получать сигнал за точность. Для этого используется обучение с подкреплением GRPO.
Такой подход снижает требования к данным, упрощает перенос на новые сценарии и делает внедрение быстрее и дешевле. В экспериментах модель на 8 млрд параметров показала точность 41,9%, превзойдя GPT-4 с результатом 38,7%, а также более крупную модель на 32 млрд параметров.
Отмечается, что обучение может проходить на данных из других доменов, весь процесс укладывается в одну GPU, а код открыт.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍117👏30😁17🎉16❤10💯7🔥3👀1
Media is too big
VIEW IN TELEGRAM
Из-за ошибки в CMS в открытый доступ попали около 3000 внутренних документов Anthropic. Главной утечкой стала информация о разработке новой модели, которая в черновиках упоминается как Mythos и Capybara. Представители компании подтвердили тестирование продукта.
Mythos или Capybara представляет собой новый класс моделей, стоящий на ступень выше актуальной флагманской Opus. Разработчики заявляют о качественном скачке в логике, написании кода и кибербезопасности - результаты тестов значительно превосходят показатели Opus 4.6.
В документах говорится, что возможности модели по поиску уязвимостей могут представлять угрозу. Из-за этого релиз будет крайне осторожным: сначала API откроют узкой группе раннего доступа. Другой преградой для релиза стала высокая стоимость инференса - Anthropic пытается оптимизировать архитектуру, чтобы сделать использование модели рентабельным.
fortune.com
Обновление ориентировано в первую очередь на корпоративные IT-команды, которые смогут упаковывать рабочие процессы, интеграции и настройки MCP-серверов в версионируемые пакеты. Из коробки Codex поддерживает работу с Slack, Figma, Notion и Gmail.
Через эти плагины Codex может брать на себя задачи по планированию, сбору информации и координации, которые предшествуют разработке и управлять последующими процессами.
Новая функция уже доступна в приложении Codex, CLI и расширениях для IDE. В будущем OpenAI планирует запустить официальный каталог плагинов и добавить платформу для их публикации.
OpenAI Developers в сети Х
Федеральный суд США вынес предварительное постановление, запрещающее Министерству обороны разрывать связи с разработчиком чат-бота Claude. Судья встала на сторону стартапа, расценив действия властей как незаконную месть за корпоративную позицию, а не как защиту национальной безопасности.
Суд также отверг аргументы правительства о риске саботажа со стороны Anthropic. Юристы стартапа доказали техническую невозможность подобных сценариев: после развертывания модели на стороне заказчика компания лишается доступа к ней и не может удаленно отключить нейросеть, изменить ее код или отследить, как именно военные ее применяют.
Вступление судебного приказа в силу отложено на семь дней, чтобы дать правительству время на апелляцию. Представитель Минобороны назвал вердикт «позором», сославшись на фактические ошибки суда.
bloomberg.com
Google добавила в Gemini возможность легкого перехода с конкурирующих ИИ-платформ. Теперь можно перенести предпочтения, сохраненный контекст и полную историю чатов из ChatGPT и Claude.
Механика миграции работает двумя способами. Для переноса персональных настроек используется промпт: его нужно скопировать в старый ИИ-ассистент для генерации сводки, а затем вставить ответ в Gemini. Историю диалогов предлагается загружать архивом истории в формате ZIP объемом до 5 ГБ. Это позволит продолжить старые беседы уже в интерфейсе Google.
В рамках обновления раздел Past Chats также переименован в Memory.
blog.google
Вслед за релизом инструмента Video Studio на базе Seedance 2.0, CapCut открыла доступ к функциям генерации для новых регионов. Теперь обновление доступно пользователям из Европы, Канады, Австралии, Новой Зеландии и Южной Кореи.
Опробовать возможности модели можно в бесплатном пробном периоде на всех платформах сервиса, включая мобильное приложение, десктопный клиент и веб-версию.
Для пользователей сервиса также опубликовано руководство по работе с новыми ИИ-инструментами редактора.
СupCut в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42🤔38👍25🔥6👏2😍2
Media is too big
VIEW IN TELEGRAM
27 марта года в широкий прокат вышла полуторачасовая документалка «The AI Doc: Or How I Became an Apocaloptimist».
Фильм сняли оскароносный режиссер Дэниел Рорер и Чарли Тайрелл, номинировавшийся на премию Академии за короткометражку. Премьера картины состоялась на кинофестивале «Сандэнс» 27 января этого года.
Сюжет строится на личной истории Рорера: узнав, что станет отцом, он пытается понять, в каком мире предстоит жить его ребенку. Об этом он разговаривает с ключевыми фигурами отрасли и независимыми исследователями.
Среди собеседников - глава OpenAI Сэм Альтман, основатели Anthropic Дарио и Даниэла Амодеи, руководитель Google DeepMind Демис Хассабис, лауреат премии Тьюринга Джошуа Бенжио, исследовательница этики ИИ Тимнит Гебру, а также Элиезер Юдковский, один из наиболее известных сторонников жесткого контроля над развитием ИИ-систем.
Фильм подсвечивает полярный спектр мнений: от потери рабочих мест, тотальной слежке, возможности появления неуправляемого сверхразума до аргументов в пользу того, что ИИ способен ускорить открытия в медицине и борьбе с изменением климата.
Название содержит неологизм «апокалоптимист» - так режиссер обозначил позицию, при которой человек признает серьезность угроз, но отказывается от пассивного отчаяния.
На Rotten Tomatoes картина набрала 89% положительных рецензий из 35 опубликованных, а на Metacritic средняя оценка составляет 60 баллов из 100 на основе 9 рецензий. Зрительский рейтинг на IMDb: 7,3 из 10.
Ленту показывают в оффлайн кинотеатрах США и на избранных онлайн-платформах (Fandango at Home и Apple TV). В бесплатные кинотеатры пока не завезли.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔65👍50❤12🤣10👏9🔥5🥱5🙈2💯1👻1
This media is not supported in your browser
VIEW IN TELEGRAM
Рука уменьшена в размерах на 60% и теперь практически совпадает по габаритам с ладонью взрослого человека.
Это не вопрос эстетики: при обучении робота через телеуправление оператором-человеком несовпадение пропорций приводит к деградации обучающих данных. Инженеры называют это «проблемой изоморфизма» и Xiaomi говорит, что решила ее.
Число активных степеней свободы выросло до 22–27, что на 83% больше, чем у предыдущей версии.
Площадь тактильных сенсоров, покрывающих ладонь, подушечки и фаланги пальцев стала 8200 мм².
Увеличение площади дает возможность манипулировать объектами на ощупь, без опоры на компьютерное зрение: робот может закручивать винты и удерживать перо, не повредив его.
Для сбора обучающих данных Xiaomi использует тактильные перчатки. Оператор выполняет действия руками, а система в реальном времени записывает данные о захвате и передает их собственным ИИ-моделям компании.
Предыдущие версии руки выходили из строя менее чем за 10 тыс. циклов захвата из-за износа компонентов. Новая конструкция прошла 150 тыс циклов ( это примерно 61 час непрерывной работы).
Фишка апдейта - бионические потовые железы.
Система микронасосов испаряет жидкость через каналы охлаждения, изготовленные с помощью передовых производственных технологий, и рассеивает около 10 Вт тепла.
Принцип заимствован у человеческого тела: испарение отводит тепло от встроенных моторов и предотвращает перегрев компактного корпуса при длительных силовых захватах.
Ранее Xiaomi продемонстрировала работу робота на реальной автомобильной сборочной линии - 3 часа непрерывной работы с показателем успешности 90,2%. Обновленная рука рассчитана на то, чтобы довести эту цифру до 99,9%.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79❤28🔥18😁4👾2
Не мультимодальную сборку из отдельных компонентов, а единую нативную архитектуру, которая с первого слоя работает с текстом, изображением, аудио и видео одновременно.
Главное, что отличает модель от конкурентов: Audio-Visual Vibe Coding. Описываешь голосом в камеру что нужно сделать, модель генерирует рабочий код сайта или игры.
Плюс Script-Level Captioning, который превращает видео в полноценный сценарий с таймкодами и привязкой реплик к спикерам.
• По бенчмаркам Qwen3.5-Omni-Plus бьёт Gemini 3.1 Pro в большинстве категорий.
• По распознаванию речи WenetSpeech: 4.30/5.84 против 11.5/14.2.
• По пониманию аудио VoiceBench: 93.1 против 88.9.
•
• По зрению MVBench: 79.0 против 74.1. По тексту MMLU-Redux: 94.2 против 95.9 (тут паритет). Итого 215 SOTA-результатов по подзадачам.
Модель корректно реагирует на перебивание и не ломается от фонового шума), встроенный WebSearch и Function Calling, поддержка 74 языков в ASR и 29 в TTS.
Доступна через Qwen Chat, HuggingFace и API Alibaba Cloud.
Qwenchat: https://chat.qwen.ai
Blog: https://qwen.ai/blog?id=qwen3.5-omni
Hugging Face Offline Demo: https://huggingface.co/spaces/Qwen/Qwen3.5-Omni-Offline-Demo
Hugging Face Online Demo: https://huggingface.co/spaces/Qwen/Qwen3.5-Omni-Online-Demo
@ai_machinelearning_big_data
#ai #ml #qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85🔥55💯38❤23🎉8👨💻4💘2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Компания Z.ai (создатели моделей GLM) выпустили AutoClaw - инструмент, который позволяет запускать OpenClaw локально, без интернета и без API-ключей других провайдеров.
OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).
В чем плюсы AutoClaw:
• Скачал - запустил. Никаких сторонних API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят
По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без сторонних подписок.
AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x
@ai_machinelearning_big_data
OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).
В чем плюсы AutoClaw:
• Скачал - запустил. Никаких сторонних API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят
По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без сторонних подписок.
AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x
@ai_machinelearning_big_data
👨💻100❤88👍53🎉24🔥11🤩4👏3🗿3😁2🌚2🤔1
Media is too big
VIEW IN TELEGRAM
Anthropic начала подготовку к первичному размещению акций и ведет предварительные переговоры с ключевыми игроками Уолл-стрит: Goldman Sachs, JPMorgan и Morgan Stanley, чтобы выбрать организаторов листинга.
Ожидается, что в ходе IPO стартап сможет привлечь более $60 млрд. Размещению предшествовал крупный раунд финансирования, прошедший в феврале этого года. В рамках этого раунда консорциум инвесторов во главе с фондами GIC и Coatue вложил в компанию $30 млрд, что подняло общую капитализацию Anthropic до $380 млрд.
Финансовый рынок уже отреагировал на новости: эмитенты ETF начали подавать заявки на регистрацию маржинальных фондов, привязанных к котировкам будущих акций компании.
bloomberg.com
Harrier-OSS-v1 - линейка мультиязычных моделей для векторизации текста. Они используются для информационного поиска, кластеризации, классификации текстов и оценки семантической близости. Семейство выбило SOTA-рекорд в бенчмарке Multilingual MTEB v2.
Флагманская модель на 27 млрд. параметров и компактная на 270 млн. построены на архитектуре Gemma 3, а средняя версия на 600 млн. параметров использует базу Qwen 3. Модели поддерживают контекстное окно до 32 тыс. токенов и работают с более чем 94 языками, включая русский.
Семейство открыто под лицензией MIT и интегрированы в sentence-transformers, LangChain и LlamaIndex.
huggingface.co
После громкого релиза аудитория сервиса быстро сократилась с миллиона до 500 тысяч человек, при этом поддержание работы видеогенератора обходилось OpenAI примерно в $1 млн. ежедневно. В итоге проект оказался для компании обузой.
К финансовым потерям добавились проблемы с авторскими правами и опасения, что создание низкокачественных роликов вредит репутации бренда. Обучение новых видеомоделей уже полностью остановлено.
Под давлением конкуренции со стороны Anthropic руководство OpenAI решило перенаправить вычислительные мощности на более маржинальные направления: разработку ИИ-агентов, генерацию кода и корпоративные продукты. Команду Sora перевели на создание моделей мира для робототехники.
wsj.com
В рамках обновления Microsoft 365 Copilot компания добавила новые инструменты для автоматизации рабочих процессов и глубокого поиска. Во главе апдейта - агент Researcher с функцией Critique, которая задействует 2 модели: одну для черновика, а другую - в роли проверяющего редактора, комбинируя возможности моделей от OpenAI и Anthropic. Microsoft говорит, что агент опережает Perplexity на базе Claude Opus 4.6 на 7 пунктов.
Вторая часть - это функция Model Council, которая выводит на один экран ответы от разных ИИ-моделей для наглядного сравнения их выводов и поиска расхождений.
Попутно Microsoft расширила доступ к Copilot Cowork по программе Frontier. Система научилась брать на себя многоэтапные задачи: она самостоятельно взаимодействует с рабочими файлами, планирует расписание в календаре и формирует ежедневные брифинги.
microsoft.com
Независимый разработчик Зак Мэнсон обнаружил , что при автокоррекции опечаток в PR Copilot добавляла рекламный текст. Поиск по GitHub подтвердил, что десятки тысяч PR уже успели получить навязчивое предложение использовать утилиту Raycast для запуска Copilot на macOS и Windows.
Представитель Copilot подтвердил инцидент и сообщил, что функцию оперативно отключили, признав ее внедрение ошибкой. Однако случившееся серьезно подорвало доверие сообщества разработчиков.
На фоне этого пользователи начали сообщать о переносе приватных репозиториев с GitHub на альтернативные открытые площадки: Forgejo, Gitea, Codeberg и собственные self-hosted решения.
news.ycombinator.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤89🤔88👍36🤬20😢12👏6🔥5💔3
Архив с кодом выложен по ссылке:
https://github.com/instructkr/claude-code
https://pub-aea8527898604c1bbb12468b1581d95e.r2.dev/src.zip
@ai_machinelearning_big_data
#claude
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥101🤔76😨24😁14🤬11❤8😢7👍5
Дэвид Ноэль, независимый исследователь из Мюнхена, в середине 2024 года занял 1 место на HuggingFace Open LLM Leaderboard методом, который не требует ни новых данных, ни файнтюна.
Он взял 80-слойную Qwen2-72B, продублировал блок из 7 средних слоёв (45–51) и получил модель RYS-XLarge, где каждый добавленный параметр - копия уже существующего. На 5 из 6 бенчмарков лидерборда результаты выросли: MuSR прибавил 17,7%, MATH - 8,2%.
Позже ByteDance предложила Looped Language Models (ноябрь 2025), но Дэвид пришёл к своим выводам независимо на основе 2 наблюдений:
LLM способны вести связный диалог в Base64 - модель декодирует вход, рассуждает и перекодирует ответ обратно. Если это работает, то получается, что ранние слои транслируют входные данные в абстрактное внутреннее представление, поздние переводят его обратно в текст, а средние занимаются рассуждением в формате, не привязанном к конкретному языку.
Модель Goliath-120B, где слои двух разных 70B-моделей были перемешаны так, что выход поздних слоёв подавался на вход ранних. По всем канонам обучения это не должно было работать, но работало.
Внутренние представления трансформеров оказались куда однороднее, чем предполагалось.
Для поиска оптимальной конфигурации Дэвид построил «сканер мозга» трансформера: берется блок слоёв (с 20-го по 35-й), затем он вставляется повторно и на инференсе замеряется, стала модель лучше или хуже.
Так перебираются все возможные начала и концы блока (3241 конфигурация). Каждую конфигурацию Дэвид прогонял через 2 быстрых теста: арифметику без CoT и EQ-Bench.
Тепловые карты сканера показали, что средние слои можно дублировать с пользой, а вот крайние - нельзя. При этом повтор только одного слоя почти всегда ухудшает результат. Cредние слои работают как цельные функциональные контуры, и вырванный из цепочки шаг бесполезен.
Буквально на днях Дэвид опубликовал продолжение, но уже с Qwen3.5-27B.
Эксперимент с косинусным сходством скрытых состояний для текстовых запросов на 8 языках впервые показал трёхфазную архитектуру напрямую: к 10 слою фразы с одинаковым смыслом на разных языках оказывались ближе друг к другу, чем на одном языке с разным смыслом.
Модель думает не на каком-то из человеческих языков, а в собственном внутреннем представлении.
В Qwen3.5-27B архитектура модели иная. После 2 млн. конфигураций через суррогатную модель оптимальным решением на Pareto-фронте стало простейшее - продублировать один слой из середины стека. 1,5% дополнительных вычислений и... модель становится заметно сильнее.
Метод ортогонален файнтюнингу и квантованию: модель получает дополнительное время на размышление, используя контуры, которые у нее уже есть.
@ai_machinelearning_big_data
#AI #ML #LLM #RYS
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤66🤔43🔥36👍14👨💻10👏9👌5☃2❤🔥1🥱1🎅1
⚡️ У тех, кто хочет запускать ИИ-агенты осталось мало времени — 10 дней до конца регистрации на Agents Week
Интенсив от ШАДа, который за 5 дней погрузит в современные ИИ-агенты, расскажет как их проектировать, настраивать и запускать в прод. Напомним, что с 6 по 10 апреля узнаете:
— Как начать проектирование и настройку поведения агентов
— Какие есть практики построения single-agent и multi-agent-систем
— Как доводить оценивать качество, мониторинг, масштабирование и эксплуатацию
А ещё сможете задать любые вопросы экспертам и потренироваться в проектировании агентов на практике.
Торопимся регистрироваться по этой ссылке
Интенсив от ШАДа, который за 5 дней погрузит в современные ИИ-агенты, расскажет как их проектировать, настраивать и запускать в прод. Напомним, что с 6 по 10 апреля узнаете:
— Как начать проектирование и настройку поведения агентов
— Какие есть практики построения single-agent и multi-agent-систем
— Как доводить оценивать качество, мониторинг, масштабирование и эксплуатацию
А ещё сможете задать любые вопросы экспертам и потренироваться в проектировании агентов на практике.
Торопимся регистрироваться по этой ссылке
⚡41🤣36🔥16❤7🎉5🌭4☃3👏3🤬3👌2🎅1
This media is not supported in your browser
VIEW IN TELEGRAM
Этот ролик выглядит значимее, чем 99% видео с роботами, дерущимися в ММА.
Роботы Unitree Robotics всё активнее выходят в реальную среду, и одно из самых очевидных применений - работа в больницах .
Легко представить, что уже через несколько лет такие роботы станут обычным вспомогательным персоналом.
@ai_machinelearning_big_data
#Unitree #ai #robots
Роботы Unitree Robotics всё активнее выходят в реальную среду, и одно из самых очевидных применений - работа в больницах .
Легко представить, что уже через несколько лет такие роботы станут обычным вспомогательным персоналом.
@ai_machinelearning_big_data
#Unitree #ai #robots
1❤112🤔80👍31👏27🔥14💯14🎉6😁3
30 марта злоумышленники опубликовали в npm 2 вредоносные версии библиотеки axios. Версии 1.14.1 и 0.30.4 содержали скрытый установщик кроссплатформенного RAT, инструмента скрытого удаленного доступа.
JavaScript-библиотека Axios широко распространена в экосистеме разработки ИИ-решений, она обеспечивает HTTP-взаимодействие между клиентскими интерфейсами и API (OpenAI, Anthropic, LangChain).
Компрометацию обнаружила компания StepSecurity - ее ИИ-анализатор пакетов зафиксировали аномальные исходящие соединения к домену sfrclak[dot]com в CI-пайплайнах открытых проектов.
Это одна из самых технически изощренных атак на цепочку поставок, когда-либо зафиксированных в экосистеме npm.
Атакующие получили доступ к npm-аккаунту ведущего мейнтейнера проекта jasonsaayman и подменили привязанный email.
Публикация обошла штатный CI/CD-пайплайн: все легитимные релизы axios 1.x выходят через GitHub Actions с криптографической привязкой по OIDC, а вредоносная версия была залита напрямую с украденным npm-токеном - без привязки к коммиту или тегу в репозитории.
Сам код axios не менялся ни на строку. Единственным изменением в package.json стало добавление зависимости plain-crypto-js@4.2.1, пакета, который нигде в исходниках axios не импортируется.
Его единственная задача - выполнить скрипт, запускающий RAT-дроппер для macOS, Windows и Linux. В течение 2 секунд после npm install вредонос устанавливает соединение с сервером - еще до того, как npm заканчивал разрешение остальных зависимостей.
После запуска дроппер удалет себя и подменяет свой package.json на чистую заглушку с номером версии 4.2.0 вместо 4.2.1.
Проведенное расследование установило, что операция была спланирована заранее.
За 18 часов до атаки злоумышленник зарегистрировал чистый клон легитимного crypto-js, создающий видимость нормальной истории публикаций. Затем вышла версия 4.2.1 с вредоносным postinstall-хуком. Обе ветки axios, актуальная 1.x и устаревшая 0.x, были инфицированы с интервалом в 40 минут.
Вредоносные версии axios оставались в реестре npm около 3 часов, после чего были удалены. Пакет plain-crypto-js продержался примерно 4 с половиной часа.
Всем, кто установил axios@1.14.1 или axios@0.30.4, рекомендуется проверить наличие директории plain-crypto-js в node_modules. Её присутствие означает, что дроппер был запущен, даже если npm list не показывает версию 4.2.1.
Зависимость необходимо удалить, а все секреты, SSH-ключи и токены на затронутых машинах считать скомпрометированными.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬138😢38❤19🤔19👍12🔥10😁5👀1
Media is too big
VIEW IN TELEGRAM
Расширение позволяет вызывать Codex напрямую из рабочего процесса для код-ревью и делегирования задач. Инструмент поддерживает базовую проверку синтаксиса, расширенное интерактивное ревью с наводящими вопросами и автоматическое расследование дефектов с исправлением багов.
Плагин работает через локальный Codex CLI и не изолирован от системы. Он наследует авторизацию устройства, конфигурацию, переменные окружения и доступ к репозиториям.
Для установки дополнения потребуется Node.js версии 18.18 или новее, а также любая учетная запись ChatGPT, включая бесплатный тариф, либо API-ключ OpenAI. Исходники плагина опубликованы на Github.
community.openai.com
Новинка замыкает линейку Veo 3.1 и ориентирована на массовую генерацию контента. Стоимость создания на новой модели на 50% меньше. чем на версии Fast.
Lite генерирует ролики на основе текста или изображений, предлагая базовые настройки ориентации кадра и длительность в 4, 6 или 8 секунд. 4K не поддерживается, доступны только 720p и 1080p.
Доступ к Veo 3.1 Lite уже открыт на платных тарифах в Gemini API и платформе Google AI Studio. Одна секунда видео в 720p обойдется в 5 центов, а в 1080p - в 8 центов. Также анонсировано снижение тарифов для Veo 3.1 Fast с 7 апреля.
blog.google
Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.
Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.
За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.
Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации
Сейчас он уже работает над версией на Rust.
История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты
Предприятие в городе Фошань рассчитано на выпуск 10 000 человекоподобных машин ежегодно. Переход на конвейерный формат сократил время сборки одного устройства в среднем до 30 минут. Это повысило общую эффективность производства более чем на 50% по сравнению с традиционными методами сборки.
Технологический процесс состоит из 24 этапов и включает 77 процедур для проверки безопасности и надежности узлов. Линия отличается высокой гибкостью: архитектура конвейера позволяет одновременно выпускать различные модификации роботов для разных нужд - от заводских цехов до медицинских учреждений.
Тренд на массовое производство поддерживают и другие локальные разработчики: Unitree и UBTech планируют поставить на рынок десятки тысяч роботов уже к концу этого года, а Agibot отгрузила более 5 тыс. единиц в 2025 году.
cctvplus.com
Вендор применит к GDDR подход вертикальной компоновки из чипов HBM, чтобы заполнить нишу между дорогой HBM и классической GDDR. До конца года Micron подготовит оборудование и приступит к тестовому производству, а первые четырехслойные инженерные образцы появятся в 2027 году,
С развитием ИИ рынку требуются более доступные решения, особенно для инференса, где HBM избыточна, а производительности обычной графической памяти не хватает. Многослойная GDDR даст повышенную пропускную способность и увеличенную емкость, сохранив при этом конкурентную цену. Помимо ИИ-ускорителей, новые чипы найдут применение в игровых видеокартах.
Для запуска производства Micron предстоит преодолеть ряд инженерных барьеров: контроль тепловыделения, оптимизация энергопотребления и удержание низкой себестоимости сложного процесса упаковки.
etnews.com
@ai_machinelearning_big_data
🐍 полезные ресурсы 🚀Max
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94👏74🤔24❤23😎15🎉7🔥5👀3🥰2🦄1
Анализ анализ утекшего сегодня исходного кода Claude Code подтвердил давно циркулирующую в сети гипотезу о том, что преимущество Claude Code над веб-интерфейсом не в языковой модели, а в обвязке вокруг нее.
Если подставить в эту архитектуру другую модель (DeepSeek, MiniMax или Kimi) и адаптировать системные инструкции, результат будет сопоставим с оригиналом.
Модель ориентируется в проекте еще до первого запроса пользователя. Статичные части промпта отделены от динамических специальными маркерами и кэшируются глобально, что избавляет от повторной сборки контекста при каждом обращении.
Для поиска файлов предусмотрен отдельный Glob-инструмент, а для навигации по коду - инструмент на базе LSP, который открывает доступ к иерархии вызовов и ссылкам между сущностями. Благодаря этому модель воспринимает код не как статичный текст, а как структуру с зависимостями.
Claude Code дедуплицирует чтение файлов: если файл не изменился, повторно он не обрабатывается. Слишком объемные результаты инструментов выносятся на диск, а в контексте остается лишь превью со ссылкой. Длинные контексты автоматически усекаются и суммаризуются.
В нем создаются разделы: состояние задачи, рабочие файлы и функции, ошибки, выводы, рабочий лог. Это некий цифровой аналог заметок, которые разработчик делает по ходу работы.
Форкнутые процессы переиспользуют кэш родителя и учитывают мутабельные состояния. Это позволяет вести суммаризацию и фоновый анализ, не засоряя основной цикл агента.
В комментариях упоминается модель capybara-v2-fast и описаны ее особенности: чувствительность к стоп-последовательностям, склонность к избыточным аннотациям и защищенные блоки мышления.
Модели Opus 4.7 и Sonnet 4.8 фигурируют в коде лишь как примеры невыпущенных версий.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍86🔥41🤔24❤22🤓6💔3😭3😁1😨1
Парижский стартап H Company выпустил семейство мультимодальных моделей Holo3, предназначенных для управления графическими интерфейсами.
H Company (ранее Holistic AI) публично вышла на рынок в начале 2024 года. Основатели: Шарль Кантор, бывший исследователь Стэнфорда, и Лоран Сифр, ветеран Google DeepMind и один из ключевых участников проекта AlphaGo.
Посевной раунд составил $220 млн - один из крупнейших в истории европейского венчура. Среди инвесторов: Эрик Шмидт, Юрий Мильнер, Бернар Арно, Ксавье Ньель, а также Amazon, Samsung и UiPath.
Старшая Holo3-122B-A10B доступна только на платформе H Company по цене 40 центов за миллион входящих и 3 доллара за миллион выходных токенов.
Младшая версия Holo3-35B-A3B выложена на Hugging Face под лицензией Apache 2.0 и также доступна бесплатно через Inference API с ограничением в 10 PRM. В платном режиме - 0,25/1.8 доллара за миллион входных/выходных токенов.
Сначала по заданным сценариям генерируются синтетические примеры навигации по интерфейсам.
Затем данные расширяются за пределы исходных условий, чтобы модель учитывала нестандартные ситуации.
На финальном этапе все примеры проходят курируемый отбор и обучение с подкреплением.
Для тренировки H Company построила генератор синтетических корпоративных сред, в котором агенты создают веб-приложения по спецификациям сценариев, формируя верифицируемые задачи разной сложности.
На базе этих сред разработан H Corporate Benchmarks - набор из 486 многошаговых задач в 4 категориях: электронная коммерция, бизнес-ПО, инструменты совместной работы и межприложенческие сценарии.
Последние требуют координации между несколькими системами одновременно (скажем, извлечь цены из PDF, сопоставить их с бюджетами сотрудников и автоматически разослать персонализированные письма с одобрением или отказом).
Флагманская Holo3-122B-A10B набрала 78,85% на бенчмарке OSWorld-Verified - это лучший результат на ведущем тесте взаимодействия с рабочим столом.
@ai_machinelearning_big_data
#AI #ML #MMLM #Holo3 #HCompany
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👨💻109👍27🤩25❤16💯16🔥6👏6🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
🌔 Люди снова летят к Луне - впервые за 54 года.
Ракета NASA только что успешно стартовала с четырьмя астронавтами на борту.
Этот полёт - не просто символический. Корабль уйдёт на рекордные 407 000 км от Земли - дальше, чем когда-либо летал человек.
Следующий шаг - уже не мечты:
высадка на Луну запланирована на 2028 год.
@ai_machinelearning_big_data
#space
Ракета NASA только что успешно стартовала с четырьмя астронавтами на борту.
Этот полёт - не просто символический. Корабль уйдёт на рекордные 407 000 км от Земли - дальше, чем когда-либо летал человек.
Следующий шаг - уже не мечты:
высадка на Луну запланирована на 2028 год.
@ai_machinelearning_big_data
#space
🔥203❤84👏27👍13😁8🤣7🌚5
Media is too big
VIEW IN TELEGRAM
Компания направила GitHub жалобу в рамках DMCA, потребовав заблокировать доступ к утекшему коду Claude Code. Платформа полностью удовлетворила запрос и зачистила репозитории с нелегальным контентом.
Под блокировку попал родительский репозиторий
nirholas/claude-code и все его форки - в общей сложности 8100 проектов. Представитель Anthropic заявил, что содержимое этих репозиториев целиком нарушает авторские права компании.github.com
LFM2.5-350M - крошечная модель на 350 млн параметров. В нее влили 28 трлн. токенов и отполировали обучением с подкреплением. В квантованном виде вся эта радость весит меньше 500 МБ.
При столь скромных размерах она уверенно справляется с задачами агентных циклов, извлечением структурированных данных и вызовом внешних инструментов.
Разработчики говорят, что по сравнению с прошлой версией новинка стала в 2 раза лучше понимать инструкции и работать с функциями. Модель заводится локально на CPU, видеокартах и мобильных чипах. Плюс из коробки нативно поддерживается железо AMD, Intel и Qualcomm.
liquid.ai
Вышедший из стелс-режима стартап PrismML, созданный выходцами из Калтеха, придумал интересную концепцию - «плотность интеллекта». Суть в том, чтобы мерить полезную работу модели на гигабайт используемой памяти.
Чтобы не быть голословными, они релизнули семейство моделей Bonsai, с флагманом на 8B во главе. У модели однобитные веса, поэтому занимает она 1,15 ГБ. Заявлено, что при сохранении качества генерации она в 14 раз меньше, в 8 раз быстрее и в 5 раз экономнее аналогов в той же весовой категории. Плотность интеллекта оценивается в 1,06/ГБ против 0,10/ГБ у стандартных полноразмерных моделей на 8B.
В довесок к 8В идут легкие версии на 4B и 1,7B параметров. Код и веса - в опенсорсе под лицензией Apache 2.0.
prismml.com
Техногигант вынужден пойти на массовые сокращения из-за финансового давления, вызванного многомиллиардными инвестициями в ИИ. Пытаясь догнать конкурентов на рынке, Oracle привлекла огромные кредиты для строительства дата-центров и планировала привлечь еще 50 млрд. долларов на расширение инфраструктуры.
Высокая долговая нагрузка и снижение денежного потока вызвали обеспокоенность инвесторов - с начала года акции Oracle рухнули на 25%. Компания пока отказывается комментировать увольнения, однако руководство верит, что ИИ-стратегия окупится в долгосрочной перспективе.
Топ-менеджмент уверен, что спрос на ИИ-инфраструктуру остается большим и неудовлетворенным, а портфель контрактных обязательств на 553 млрд. долларов является прямым доказательством востребованности их решений на рынке.
businessinsider.com
Проект Панкаджа Гупты стал одной из первых крупных потерь ИИ-бума. Несмотря на финансирование при участии a16z, Джеффа Дина из Google и CEO Perplexity, а также базу в 1,3 млн. пользователей, компания так и не нашла востребованность на рынке.
Yupp развивал платформу краудсорсинга: пользователи за вознаграждение оценивали ответы более 500 ИИ-моделей, а лаборатории покупали эти данные для улучшения продуктов. Но эволюция технологий уничтожила эту бизнес-модель. Фокус сместился с чат-ботов на сложные агентные архитектуры, напрямую взаимодействующие со сторонними сервисами, API и реальными данными.
Ручная оценка текстовых генераций потеряла ценность для инженеров. Поняв, что подход больше не имеет экономической перспективы, команда решила закрыть бизнес. Неизрасходованный капитал вернут инвесторам, а Yupp проработает до середины апреля в режиме экспорта пользовательских данных.
yupp.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔90👍64❤31😢18🔥4👏4🤣3😐2🫡1
Forwarded from Норникель
Наш путь — комбинация ИИ и робототехники
🖥 Комбинация искусственного интеллекта и робототехники — не сценарий из будущего, а практический путь развития современной промышленности. Именно эту мысль директор департамента технологических инноваций «Норникеля» Алексей Тестин обозначил на форуме «ТОЛК-2026».
«ТОЛК Форум» — часть «ТОЛК-2026», крупнейшего в России форума-интенсива от частного бизнеса о финансах и инвестициях, где бизнес, власть и экспертное сообщество обсуждают ключевые вопросы развития экономики и технологий.
📄 Среди участников и спикеров форума — глава Банка России Эльвира Набиуллина, заместитель руководителя Администрации Президента Максим Орешкин и другие представители российского и международного экспертного сообщества.
💬 Алексей Тестин выступил в сессии «Что после ИИ-пузыря? Во что будем инвестировать до 2035 года» и рассказал о решениях «Норникеля», которые уже дают измеримый эффект бизнесу.
Машинное обучение и предиктивные алгоритмы компания внедряет в промышленность почти пять лет. Этот стек уже приносит «Норникелю» около 10 млрд ₽ в год — за счет влияния на EBITDA и дополнительных металлов, которые удается получать благодаря более точным моделям и прогнозам.
▶️ Но следующий шаг — роботизация. Рудники компании работают на глубине до 2 километров, и в таких условиях требования к безопасности, точности и устойчивости технологий становятся только выше. При этом эффект от ИИ — это во многом еще и эффект от снижения погрешностей, которые неизбежны при ручном управлении: человек просто не может работать с той же точностью, что алгоритм и машина в связке.
Именно поэтому ставка «Норникеля» — на комбинацию ИИ и робототехники как на будущую точку роста. Не в отрыве от практики, а на базе уже созданной технологической инфраструктуры: ML-кластеров на площадках компании, выстроенных процессов работы с подрядчиками, сильного контура информационной безопасности и собственной платформы внедрения.
📌 Такой подход показывает, что технологические инновации для «Норникеля» — не набор отдельных экспериментов, а последовательный курс на повышение эффективности, безопасности и качества производственных решений.
Следите за новостями «Норникеля» в MAX
«ТОЛК Форум» — часть «ТОЛК-2026», крупнейшего в России форума-интенсива от частного бизнеса о финансах и инвестициях, где бизнес, власть и экспертное сообщество обсуждают ключевые вопросы развития экономики и технологий.
💬 Алексей Тестин выступил в сессии «Что после ИИ-пузыря? Во что будем инвестировать до 2035 года» и рассказал о решениях «Норникеля», которые уже дают измеримый эффект бизнесу.
Машинное обучение и предиктивные алгоритмы компания внедряет в промышленность почти пять лет. Этот стек уже приносит «Норникелю» около 10 млрд ₽ в год — за счет влияния на EBITDA и дополнительных металлов, которые удается получать благодаря более точным моделям и прогнозам.
Именно поэтому ставка «Норникеля» — на комбинацию ИИ и робототехники как на будущую точку роста. Не в отрыве от практики, а на базе уже созданной технологической инфраструктуры: ML-кластеров на площадках компании, выстроенных процессов работы с подрядчиками, сильного контура информационной безопасности и собственной платформы внедрения.
Следите за новостями «Норникеля» в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓56👍21👏16😁13❤11💯5😐5🥱1