🚀 Сбер представил Green-VLA — открытый SOTA-фреймворк для управления роботами
Сбер опубликовал технический отчёт Green-VLA по моделям Vision–Language–Action. Это методология для создания Physical AI, который превращает зрение и текст в физические действия. Работа заняла первое место среди статей дня на Hugging Face, обойдя исследования Moonshot AI и ведущих мировых университетов.
Главное о решении:
- Базируется на нейросети ГигаЧат и описывает путь от обучения до настройки робота в реальных условиях.
- Подтвердило эффективность на бенчмарках Google, Стэнфорда и Фрайбургского университета.
- Показало высокую стабильность — на AI Journey 2025 робот Грин под управлением Green-VLA отработал без сбоев более 10 часов.
- Является открытой методологией для создания надёжных и масштабируемых робототехнических систем.
@ai_machinelearning_big_data
#ai #ml #robotics #vla #sber
Сбер опубликовал технический отчёт Green-VLA по моделям Vision–Language–Action. Это методология для создания Physical AI, который превращает зрение и текст в физические действия. Работа заняла первое место среди статей дня на Hugging Face, обойдя исследования Moonshot AI и ведущих мировых университетов.
Главное о решении:
- Базируется на нейросети ГигаЧат и описывает путь от обучения до настройки робота в реальных условиях.
- Подтвердило эффективность на бенчмарках Google, Стэнфорда и Фрайбургского университета.
- Показало высокую стабильность — на AI Journey 2025 робот Грин под управлением Green-VLA отработал без сбоев более 10 часов.
- Является открытой методологией для создания надёжных и масштабируемых робототехнических систем.
@ai_machinelearning_big_data
#ai #ml #robotics #vla #sber
👍92🤣46❤20🔥12🤗3🦄3
Shanghai AI Laboratory опубликовала Intern-S1-Pro, мультимодальную модель на архитектуре MoE с общий объемом параметров в 1 триллион.
Внутри 512 экспертов, из которых для обработки каждого токена активируются 8, что дает 22 млрд. активных параметров при инференсе.
Разработчики позиционируют новинку как AI4Science - лучшее открытое решение для сложных научных вычислений и рассуждений.
Вместо очередной попытки уметь все и сразу, модель заточили под науку : химию, материаловедение, науки о Земле. Авторы утверждают, что в этих нишах она идет на равных с топовыми коммерческими моделями.
Технически интересная штука - поддержка длинных гетерогенных временных рядов (от единичных значений до миллиона точек), за которую большое спасибо Fourier Position Encoding (FoPE). Это важная тема для интерпретации физических сигналов и экспериментальных данных.
FoPE - способ прикрепить к каждому токену в последовательности его позицию не просто номером, а в виде набора синусов и косинусов разных частот (Фурье‑признаков), чтобы модель могла лучше улавливать периодические и дальние зависимости в тексте и обобщать на длины контекста, которые она не видела на обучении.
Intern-S1-Pro поддерживает Tool Calling через OpenAI-совместимый API. Плюс, в модели есть режим размышления, который включен по умолчанию, но если нужна скорость, а не глубина - он отключается.
Деплой поддерживается LMDeploy, vLLM и SGLang.
⚠️ Если планируете раскатать модель только из-за временных рядов, не спешите - оптимизация модуля все еще продолжается.
@ai_machinelearning_big_data
#AI #ML #LLM #InternS1Pro #ShanghaiAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥47👍25❤10🦄4
Media is too big
VIEW IN TELEGRAM
Согласно отчету, число ежемесячных активных пользователей приложения Gemini выросло до 750 млн. Всего за один квартал Google удалось привлечь 100 млн. новых юзеров, что вплотную приблизило его к лидеру рынка - ChatGPT, чья аудитория оценивается в 810 млн. человек. Для сравнения, империя Цукерберга удерживает планку в 500 млн.
Успех ИИ-направления отразился и на финансах: годовая выручка Alphabet впервые в истории превысила $400 млрд. Сундар Пичаи также поделился технической метрикой: собственные модели компании обрабатывают через API свыше 10 млрд. токенов ежеминутно.
techcrunch.com
Во время закрытых тестов Opus 4.6 сама обнаружила более 500 уязвимостей в популярных open‑source библиотеках. Red Team лишь предоставила ей доступ к песочнице с Python и стандартными инструментами отладки без каких‑либо подсказок или знаний о конкретных проектах.
Свежий Opus удивил глубоким техническим рассуждениями, недоступными классическим сканерам. В одном из случаев, когда фаззинг GhostScript не дал результатов, модель прошла по истории Git‑коммитов и логически нашла место, где могла скрываться ошибка.
С библиотекой CGIF модель пошла ещё дальше: самостоятельно написала корректный Proof‑of‑Concept, показывающий, как можно использовать найденную уязвимость. Чтобы инструмент оставался на стороне добра, Anthropic включила в Opus жесткие системы мониторинга, блокирующие потенциально вредоносные сценарии в реальном времени.
axios.com
Китайские компании столкнулись с проблемой: поставщики уже официально предупредили о сбоях с отгрузками. У Intel поставки серверных чипов Xeon 4‑го и 5‑го поколений теперь строго нормируются и ждать заказ приходится до полугода. На фоне дефицита цены на "синие" процессоры в регионе выросли более чем на 10%. У AMD ситуация чуть спокойнее, но сроки тоже растянулись - задержка достигает 2 месяцев.
Главный виновник коллапса - ИИ, перекроивший цепочки поставок. TSMC, выпускающая чипы для AMD, переключила часть мощностей на выпуск ИИ‑ускорителей, что автоматически отодвинуло серверные CPU на второй план. Intel же по‑прежнему борется с собственной производственной неустойчивостью и не может нарастить объемы.
Ситуацию усугубляет рынок памяти: заказчики, пытаясь закупиться впрок, начали агрессивно сметать и процессоры, окончательно перегрузив канал поставок.
reuters.com
Nvidia пересмотрела планы на потребительский сегмент - ожидаемый релиз видеокарт RTX Super 50-й серии отменен: компания решила перенаправить ресурсы на производство ускорителей для ИИ, которые сейчас в абсолютном приоритете.
Экономическая логика железная. В свежем отчете выручка Nvidia от дата-центров составила $51,2 млрд, превратив выпуск видеокарт в побочный бизнес. Смена фокуса затронет и будущее поколение: старт массового производства RTX 60, ранее намеченный на конец 2027 года, с высокой вероятностью сдвигается на 2028 год.
theinformation.com
Google Cloud совместно с DeepMind придумали как превратить смартфоны в биомеханические лаборатории для сноубордистов США.
Новая платформа заменила дорогие системы захвата движений обычной видеосъемкой. Алгоритмы пространственного интеллекта строят точную 3D‑карту движений спортсмена по обычному 2D‑видео, даже если на нем толстая зимняя экипировка, где раньше без специальных костюмов с датчиками было не обойтись.
Главное преимущество в скорости. Пока спортсмен едет на подъемнике, данные уже анализируются в облаке и превращаются в понятные метрики. Платформа работает на Gemini, поэтому тренеры могут разговаривать с системой как с живым помощником - вместо изучения сухих графиков получить точный технический разбор прыжка.
blog.google
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤109👍25🔥7🦄4👏2⚡1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic при поддержке Cerebral Valley анонсировали с 10 по 16 февраля онлайн‑хакатон по вайб-кодингу в Claude Code на модели Opus 4.6.
Cerebral Valley - коммерческий ИИ‑проект и экосистема, которая через конференции, хакатоны, консалтинг и инфраструктурные услуги объединяет разработчиков, стартапы, корпорации и госструктуры вокруг ИИ.
Проект существует с 2023 года и сейчас вокруг него сконцентрированы десятки тысяч разработчиков, а в его эвентах участвуют лидеры OpenAI, Y Combinator, крупных технологических компаний и инвесторы.
Участникам предлагают создавать агентные системы, новые рабочие процессы и нестандартные решения, демонстрирующие границы возможностей Claude Code.
Призовой фонд - 100 тыс. долларов в виде кредитов Claude API и шанс представить свой проект на офлайн‑ивенте ко дню рождения Claude Code в Сан‑Франциско 21 февраля.
Хакатон полностью виртуальный, команда может состоять максимум из двух человек, а в жюри обещают команду, которая создает Claude Code.
Участие только по предварительно одобренной заявке. Количество слотов ограничено.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥72❤17🤗13🥱12💅4🦄3🥰2👍1🎅1
This media is not supported in your browser
VIEW IN TELEGRAM
Рынок доменных имен зафиксировал абсолютный исторический рекорд. Покупателем выступил Крис Маршалек, сооснователь и CEO биржи crypto.com, и, по слухам, вся сумма сделки была выплачена в криптовалюте.
Предыдущий публичный рекорд удерживал voice.com, проданный в 2019 году за 30 млн.
Маршалек купил его под конкретный продукт, официальный запуск которого запланирован на 8 февраля этого года и под это событие, якобы, уже закуплена реклама во время трансляции Суперкубке США на канале NBC
На ai.com будет платформа агентного ИИ. В анонсе на сайте домена говорится, что агенты проекта смогут отвечать на вопросы, торговать акциями, управлять календарем, вести переписку и обновлять профиль в приложениях для знакомств от лица пользователя.
Другая сторона этой истории в том, что покупка ставит точку в многолетней чехарде спекуляций вокруг владельцев ai.com.
Домен был зарегистрирован 4 мая 1993 года, а с середины 2000-х до 2021 года находился в портфеле Future Media Architects.
В сентябре 2021 года его выкупил анонимный игрок «из сферы NFT» (тогда брокеры оценивали актив в районе 11 млн.), после чего начался период странных редиректов, вводивших тематические сообщеста в заблуждение.
Февраль 2023 года: трафик с ai.com начал идти напрямую на ChatGPT, из-за чего СМИ практически поженили домен с OpenAI.
В августе 2023 редирект сменился на проект xAI, а позже переадресация вела то на Gemini, то, внезапно, на DeepSeek в феврале 2025 года.
Анализ записей WHOIS показывает, что юридически ни OpenAI, ни Маск, ни Google, скорее всего, никогда не владели самим доменом, менялись только целевые URL.
Теперь же ситуация прояснилась окончательно: актив официально в руках команды Маршалека, который планирует пилить AGI по той же модели, по которой в свое время продвигал идею криптовалют.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54❤23🔥12🤣10🤔2😍2⚡1👌1🙈1🤗1
В Zyphra придумали как усидеть на двух стульях сразу, когда хочется резиновый контекст, но под рукой нет тонны памяти.
То. что они предложили, называется Online Vector-Quantized Attention - это модификация векторного квантования, которая учит словарь думать на лету.
В классическом VQ ключи заменяются ближайшими центроидами из статичного словаря. Это бустит вычисления, но создает проблему: словарь обучен на одних данных, а во время генерации модель видит совсем другое распределение ключей. Ошибка квантования растет, внимание теряет точность и как итог: VQ начинает плавать.
Так вот, модификация в том, чтобы отказаться от статического словаря в пользу адаптивного к текущей последовательности: каждый новый токен обновляет только один центроид - тот, к которому ближе всего.
Это разреженное обновление работает как защита от катастрофического забывания: старая информация не вымывается новой волной токенов, а аккуратно перезаписывается по мере необходимости.
Плюс есть хард-лимит на размер состояния, после достижения которого объем памяти перестает расти, а вычисления становятся строго линейными.
Очень хочется надеяться, что OVQ - это предтеча настоящего непрерывного обучения, где в светлом будущем вместо бесконечно пухнущего KV-кэша появится компактная, но живая память, способная удерживать важные детали без потерь.
@ai_machinelearning_big_data
#AI #ML #LLM #OVQA #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤105👍40🔥23👏3🦄2
Tencent Hunyuan вывалили в опенсорс монструозный пак HY3D-Bench на 22.5 ТБ и это подарок для всех, кто занимается 3D Gen и робототехникой.
Датасет разбит на 3 логических куска, каждый под свои задачи:
База с полностью замкнутой геометрией, без дырок и non-manifold артефактов, которыми обычно кишат сканы. Все нормализовано и готово к скармливанию в DiT или GAN. В комплекте идут сэмплы точек и мульти-вью рендеры.
Мёд для робототехников и тех, кто занимается geometric perception. Тут объекты с семантической сегментацией на части. Если учите сервоприводного друга манипуляциям или хотите генерить объекты кусками - вам сюда.
Очевидная синтетика, чтобы закрыть редкие категории, которых нет в обычных датасетах. Охват - 1252 категории.
@ai_machinelearning_big_data
#AI #ML #Dataset #HY3DBench #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤51🔥39👍17🤔4😁2🦄1
Tongyi выложила фундаментальную версию модели семейства Z-Image.
В отличие от ранее выпущенной Turbo, это полновесный трансформер, ориентированный на максимальное качество и управляемость генерации .
Z-Image отлично подходит для дообучения, тренировки LoRA и интеграции с ControlNet.
Модель поддерживает CFG и работу с негативными промптами, генерируя результат за 28–50 шагов.
@ai_machinelearning_big_data
#AI #ML #Diffusion #ZImage #Tongyi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥72❤15👍4😍4🦄3
Media is too big
VIEW IN TELEGRAM
Китайский гигант запустил пре-релиз видео-модели Seedance 2.0, которая уже доступна избранным пользователям на платформах Jimeng AI, CapCut и Atlas Cloud.
Модель поддерживает генерацию в 2K и работает на 30% быстрее прошлой версии. Разработчики сделали акцент на более точном управлении через естественные описания: теперь можно задавать тон, стиль и композицию с помощью простых фраз. Подтянули и работу с референсами: модель лучше понимает ракурсы, освещение и движение объектов.
По оценке агентства CTOL, Seedance 2.0 на практике показывает результаты выше, чем Sora 2 и Veo 3.1. После этого сообщения акции китайских технологических компаний заметно выросли, а ByteDance укрепила свои позиции в сегменте генерации видео‑контента.
bloomberg.com
Сэм Альтман во внутреннем сообщении сотрудникам сообщил, что рост аудитории ChatGPT ускорился более чем на 10% в месяц. По последним данным, в январе 2026 года сервисом еженедельно пользовались около 800 млн. человек.
Главная новость - уже на этой неделе в продакшен запустят обновленную разговорную модель, предположительно, на архитектуре GPT 5.3. На прошлой неделе вышел ее специализированный вариант Codex, заточенный под кодинг.
Еще ожидается обновление десктопного приложения OpenAI - оно выйдет за рамки задач программирования и получит более широкий набор функций.
cnbc.com
В Claude Code появилось превью Fast mode для Opus 4.6. Обещают, что в этом режиме модель станет ощутимо шустрее и при этом не потеряет в точности.
Фича уже доступна подписчикам Pro и Team. Она работает, помимо родных окружений, в Cursor, GitHub Copilot, Figma и Windsurf. В облачных средах Amazon Bedrock, Google Vertex и Azure ее пока не завезли.
Цены, честно говоря, кусаются: $30 за 1 млн. входных токенов и $150 за аутпут. Чтобы подсластить пилюлю, дали скидку 50% до 16 февраля. Записаться в лист ожидания можно тут.
claude.com
Судя по содержимому, новое поколение получит поддержку зрения и гибридный механизм внимания, который сочетает разные типы обработки контекста. В коде упоминаются 2 конфигурации: компактная плотная модель на 2 млрд. параметров и MoE-архитектура 35B‑A3B.
По слухам, релиз Qwen 3.5 может совпасть с выходом DeepSeek v4, что заметно оживит конкуренцию между крупными LLM в open‑source‑экосистеме.
github.com
Исследователи из EPFL и Института Макса Планка развеяли стереотип о том, что если дать модели доступ в интернет, она перестанет галлюцинировать.
На созданном ими бенчмарке Halluhard даже Claude Opus 4.5 с веб-поиском выдает ложную информацию в 30% случаев. Без интернета ситуация совсем плохая - 60% ошибок. GPT-5.2 Thinking держится чуть лучше, но почти 40% галлюцинаций - это все еще много.
Китайские модели, кстати, показали себя хуже всех, а ризонинг-LLM часто сами себя запутывают. В длинных диалогах срабатывает эффект снежного кома: стоит модели один раз ошибиться, она начинает опираться на эту ложь в следующих ответах, и исправить ситуацию становится почти невозможно.
halluhard.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61❤22🔥7🦄2🥰1
🏅 LLM на Олимпийских играх: как нейросети меняют индустрию спорта
Технологии проникают в большой спорт. Свежий разбор показывает, как именно языковые модели «рассуждают» в контексте Олимпиады, превращаясь из простых чат-ботов в мощные аналитические инструменты: ГигаЧат проанализировал использование различных LLM в олимпийской инфраструктуре.
Почему ИИ уже сейчас может помогать анализировать спортивные мероприятия:
- Языковые модели способны обрабатывать гигантские массивы данных и статистики, которые живой комментатор не способен переварить
- LLM выстраивают логические цепочки для аналитики, обладая знаниями и методологией профессиональных комментаторов и бывших спортсменов
- Интеграция технологий делает трансляции интерактивнее, предоставляя зрителям незаметные человеческому глазу инсайты в реальном времени.
@ai_machinelearning_big_data
#ai #ml #olympics #llm
Технологии проникают в большой спорт. Свежий разбор показывает, как именно языковые модели «рассуждают» в контексте Олимпиады, превращаясь из простых чат-ботов в мощные аналитические инструменты: ГигаЧат проанализировал использование различных LLM в олимпийской инфраструктуре.
Почему ИИ уже сейчас может помогать анализировать спортивные мероприятия:
- Языковые модели способны обрабатывать гигантские массивы данных и статистики, которые живой комментатор не способен переварить
- LLM выстраивают логические цепочки для аналитики, обладая знаниями и методологией профессиональных комментаторов и бывших спортсменов
- Интеграция технологий делает трансляции интерактивнее, предоставляя зрителям незаметные человеческому глазу инсайты в реальном времени.
@ai_machinelearning_big_data
#ai #ml #olympics #llm
🗿45❤15🔥10👍7😁2🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
Waymo World Model - это бесконечный генератор симуляций, где автопилоты учатся выживать, не рискуя реальным железом и людьми.
Звучит как видеоигра, но с очень серьезной начинкой. Инженеры могут текстовыми запросами менять погоду, время суток или вообще с нуля создавать дорожные ситуации.
Система умеет брать обычное видео с регистратора и превращать его в интерактивную 3D-среду, которую можно редактировать на ходу.
Главная цель - отработка так называемых "редких событий". Это самые безумные сценарии, которые в реальности случаются раз в миллион лет, но наглухо ломают логику робота.
Waymo приводит примеры слона, выбежавшего на трассу, погони за торнадо или снега в тропическом городе. Кажется перебором, но именно такие вещи невозможно безопасно протестировать в живом городе. А учиться на них надо.
Контекст тут тоже важен. После случая в Калифорнии, где роботакси задело ребенка, к Waymo много вопросов.
Сейчас в сложных ситуациях машинам помогают люди-операторы (они не рулят напрямую, а дают подсказки), но компания явно хочет убрать человеческий фактор, повысив реальную автономность.
Вообще, хайп вокруг World Models сейчас огромный. Инвесторы и звезды ИИ (Ян Лекун и Фей-Фей Ли) видят в моделях мира следующий большой шаг после LLM.
Недавний пре-релиз Project Genie уже подтолкнул десятки разработчиком к экспериментам, которые научат ИИ понимать физику и пространство нашего мира.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤84🔥21👍13🦄3🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Мринанк Шарма, руководитель Safeguards Research Team в Anthropic в прощальном письме объяснил, что его этические принципы все сильнее расходятся с направлением, в котором развивается индустрия ИИ - корпоративная среда создает давление и вынуждает специалистов откладывать по‑настоящему важные вещи в сторону.
Шарма работал в Anthropic с 2023 года и курировал проекты по защите моделей - от конституционных фильтров до систем предотвращения джейлбрейка. Теперь он планирует получить степень по литературе и сосредоточиться на поэзии параллельно с наукой.
Mrinank Sharma в сети Х
Отказ от названия «io» для линейки устройств подтвержден судебными документами, поданными в рамках спора о нарушении товарного знака со стартапом iyO. По словам вице-президента Питера Велиндера, OpenAI пересмотрела стратегию нейминга и решила полностью отказаться от проблемного бренда в маркетинговых и коммерческих материалах.
Вместе с ребрендингом изменился и график релиза. Теперь OpenAI заявляет, что поставки первого устройства начнутся не раньше конца февраля 2027 года, хотя ранее анонсы указывали на вторую половину 2026-го.
Вопреки слухам и фейковым рекламным роликам, в суде подтвердили: это будет не носимый девайс или наушники, а стационарный настольный ассистент без экрана.
wired.com
Новый режим Expressive Mode позволяет ботам динамически управлять интонацией и эмоциональной окраской речи. Теперь агент может адаптироваться под собеседника в реальном времени: говорить мягче и спокойнее в напряжённой ситуации или, наоборот, добавить уверенности и темпа, когда нужно донести информацию максимально ясно.
Апдейт базируется на двух компонентах. Первый - новая TTS-модель Eleven v3 Conversational, оптимизированная для диалогов: она удерживает контекст беседы и избегает характерного роботизированного звучания. Второй компонент — переработанная система смены очереди говорящего.
Используя данные транскрибации, ИИ теперь точнее определяет уместные моменты для вступления в разговор и пауз, решая давнюю проблему голосовых ботов, которые часто перебивают на полуслове. Поддержка нового режима заявлена для 70+ языков.
elevenlabs.io
Аналитическая платформа представила Model Recommender - сервис выбора модели под конкретные задачи. Рекомендательный движок позволяет указать собственные ограничения и получить персональный список подходящих моделей.
Алгоритм учитывает десятки параметров: скорость инференса через API, наличие мультимодальности, тип лицензии и многое другое. В сервисе можно вручную расставить приоритеты: повысить вес метрик качества генерации кода, устойчивости к галлюцинациям или эффективности в агентных задачах.
Artificial Analysis в сети Х
По расчетам создателя Doom, при пропускной способности 256 Тбит/с внутри 200 км контура в каждый момент времени циркулировало бы примерно 32 ГБ данных, которые можно рассматривать как область памяти.
Кармак напомнил о старом принципе, где данные существовали в форме непрерывно передаваемых сигналов. В современном исполнении эта концепция могла бы стать энергоэффективной заменой DRAM - свет в кабеле потребляет меньше энергии, чем поддержание заряда в ячейках.
На практике реализовать такую систему физически сложно: 200 км оптоволокна это много даже для дата‑центра. Более реальной альтернативой Джон называет прямое соединение массивов флэш‑памяти с вычислительными чипами без контроллеров и шин, что тоже могло бы сократить задержки при работе больших моделей.
tomshardware.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤63🔥23👍19🥰2🤔2🤣2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Пользователи Windows теперь могут использовать все возможности Cowork: прямой доступ к файлам, выполнение многошаговых задач, поддержку плагинов и всех коннекторов MCP. Ранее этот функционал был эксклюзивом для яблочной платформы.
Попутно Anthropic представила гибкую систему инструкций. Вы можете задать глобальные предпочтения: тон, формат ответов или описание своей роли, они будут применяться ко всем чатам.
Также появились инструкции уровня папок: они активируются автоматически, когда вы работаете в конкретной директории. Обновлять эти настройки можно прямо в ходе диалога, не копаясь в меню.
Инструмент все еще в стадии research preview и открыт для всех пользователей платных тарифов. Для доступа достаточно скачать свежую версию клиента с сайта.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤31👍15🔥7🦄3🥰1😁1
Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.
Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.
Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤69👍44🔥22🦄5✍1
Не прошло и суток с момента релиза, а Zhipu AI выложила веса GLM-5 и любезно поделилась проведенными бенчмарками.
Архитектура пятого поколения построена на MoE: 744 млрд. общих параметров при активных 40 млрд. Модель учили на 28,5 трлн. токенов и она получила контекстное окно в 200 тыс. токенов.
GLM-5 ориентирован на 5 доменов: кодинг, рассуждение, агентные сценарии, генеративное творчество и работа с длинным контекстом.
Для эффективной обработки длинных последовательностей интегрирован механизм Dynamically Sparse Attention от DeepSeek, он позволяет избежать квадратичного роста копьюта без потери качества.
По бенчмаркам GLM-5 занимает 1 место среди open-source моделей: 77,8% на SWE-bench Verified, лидирует на Vending Bench 2, BrowseComp и MCP-Atlas, а в задачах агентного кодирования и рассуждений вплотную подбирается к Claude Opus 4.5 и GPT-5.2.
Вместе с моделью, авторы предлагают Z Code — собственную агентную IDE с поддержкой параллельной работы нескольких агентов над одной задачей.
Локальный деплой поддерживается vLLM и SGLang, а также non-NVIDIA чипами: Huawei Ascend, Moore Threads, Cambricon (через квантование и оптимизацию ядер).
Если вам негде поднять модель локально, она доступна через платформу chat.z.ai, API и на OpenRouter.
Квантованные версии пока сделали только Unsloth, традиционно - полный набор от 1-bit до BF16.
@ai_machinelearning_big_data
#AI #ML #LLM #GLM5 #ZAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥125👍23❤10😍9🦄5👌2
Media is too big
VIEW IN TELEGRAM
Anthropic объявила об обновлении бесплатного тарифа. Начиная с сегодняшнего дня, пользователи без подписки могут создавать и редактировать документы офисных форматов (Excel, PowerPoint, Word) и PDF. За генерацию файлов отвечает Sonnet 4.5.
Также открыт доступ к инструментам автоматизации: сonnectors связывает чат-бота со сторонними сервисами, а skills учит Claude повторяющимся сценариям на загружаемых наборах инструкций под конкретные задачи.
Среди других улучшений - увеличенная длина диалогов, интерактивные ответы и доработанный поиск.
ClaudeAI в сети Х
OpenAI выпустила апдейт для модели GPT-5.2 Instant. Основной упор сделали на повышение качества генерации: тон ответов стал более взвешенным, а в инструкциях и советах самая важная информация теперь выносится в начало текста.
Instant - это модель без ризонинга. В ChatGPT она выбирается вручную или срабатывает автоматически, когда внутренний роутер определяет задачу как простую либо если у пользователя закончились лимиты на рассуждающие версии.
Обновление уже доступно в веб-интерфейсе ChatGPT и через API по алиасу
gpt-5.2-chat-latest.openai.com
Платформа Prime Intellect Lab - это комплексное решение для пост-трейна, объединяющее создание сред, обучение, оценку и инференс в единый цикл. Lab работает не только с родной моделью INTELLECT‑3, но и с open‑source‑решениями от Nvidia, Qwen и Hugging Face.
Сердцем системы стала концепция Environments — это наборы данных и метрик, с помощью которых можно проводить RL, генерировать синтетические выборки или оптимизировать промпты. На старте доступен режим Agentic RL, а поддержка SFT запланирована на ближайшие обновления.
Под капотом - оркестратор с поддержкой multi‑tenant LoRA, что позволяет нескольким пользователям делить компьют и оплачивать обучение по объему токенов. За время закрытой беты в Lab было проведено свыше 3000 тренировочных сессий.
primeintellect.ai
Команда Poetiq отчиталась о достижении новых SOTA-результатов на сложнейших тестах HLE и SimpleQA. Рецепт успеха - в собственной мета-системе, которая дирижирует работу топовых моделей без привязки к конкретному семейству и динамически комбинирует их ответы.
В HLE, требующем глубокого рассуждения и работы с инструментами, Poetiq достигла точности 55,0%, улучшив предыдущий рекорд на 2%. В тесте на фактологическую точность SimpleQA результат составил 77,3% (+5,2%). Кстати, говорят, что включение Claude Opus 4.6 сильно бустанула итог.
Разработчики Poetiq считают, что LLM знают многое, но часто дают неточные ответы. Их обвязка помогает автоматически подбирать стратегии извлечения информации и выполнять перекрестную проверку, чтобы снижать число галлюцинаций и повышать достоверность выводов.
poetiq.ai
Джимми Ба, один из 12 учредителей ИИ-стартапа Илона Маска, объявил об уходе из компании. Ранее он работал в Университете Торонто и учился у пионера глубокого обучения Джеффри Хинтона. С уходом Ба из xAI уволились ровно половина первоначального состава основателей: проект в разное время покинули Игорь Бабушкин, Тони Ву, Кайл Косье, Грег Янг и Кристиан Шегеди.
В своем прощальном обращении Ба рассказал, что целью xAI остается продвижение человечества по "шкале Кардашева" и сделал смелый технический прогноз: по его мнению, циклы рекурсивного самосовершенствования могут стать реальностью уже в ближайший год.
Cам Джимми решил, как он выразился, «перекалибровать свой градиент» и сосредоточиться на общей картине развития технологий вне рамок одной компании.
Jimmy Ba в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤33👍28🔥12🤔4
This media is not supported in your browser
VIEW IN TELEGRAM
Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.
OpenAI называет ее моделью для кодинга в реальном времени.
Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.
Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥108❤23👍16😐2🗿2
Центральный университет и СИБУР будут совместно готовить специалистов в области ИТ для промышленности и развивать прикладной ИИ. Как заявили в компании, в ближайшие годы в отрасли появится около 5 тысяч новых рабочих мест для высокотехнологичных специалистов. Сотрудничество нацелено на интеграцию ИИ в производственные и бизнес-процессы СИБУРа
В планах — запуск образовательной программы по искусственному интеллекту в Центральном университете и открытие кафедры технологий ИИ на базе корпоративного университета СИБУРИНТЕХ.
СИБУР подключится к разработке учебных модулей и дисциплин по ML, управлению разработкой, бизнес-анализа и проектированию систем, а также предоставит экспертов, наставников и карьерные возможности для студентов. Центральный университет будет разрабатывать сами программы.
Студентам предоставят кейсы компании, стажировки и возможность писать выпускные работы по реальным промышленным задачам — от цифровых двойников до систем поддержки принятия решений. Часть проектов будут внедрены в бизнес-процессы компании.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83❤19🔥13🥱13🤣7🦄4
Tencent Hunyuan выкатили open-source решение для тех, кто хочет запускать LLM локально на кофеварке.
HY-1.8B-2Bit - модель, которую утрамбовали так плотно, что она занимает меньше места, чем многие современные мобильные приложения.
Модель пилили методом Quantization-Aware Training, который в отличие от PTQ, позволяет адаптироваться к низкой разрядности весов еще на этапе тренировки.
За основу взяли backbone Hunyuan-1.8B-Instruct и жестко сжали веса до 2 бит. При этом эффективный размер в памяти получился эквивалентен модели на 300М параметров, а физический вес получился всего 600 МБ.
Что самое ценное - сохранили фичу Dual-CoT: модель умеет переключаться между быстрым мышлением для простых тасков и глубоким long-CoT для сложных.
Текущая реализация требует поддержки инструкций Arm SME2. Это значит, что вся эта красота заведется только на Apple M4 и MediaTek Dimensity 9500.
Если у вас M1/M2 или Snapdragon прошлых поколений - пока мимо. Разработчики обещают подвезти Neon kernel позже.
Кстати, GGUF тоже есть, так что если под рукой есть M4 - можно тестить. Остальным остается ждать оптимизации под старые инструкции.
@ai_machinelearning_big_data
#AI #ML #SLM #2bitQ #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤65👍31🔥13🦄3😁2💘2🤷♀1
Media is too big
VIEW IN TELEGRAM
В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.
По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.
Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
bloomberg.com
Минобороны США ведет переговоры с OpenAI и Anthropic о размещении их моделей на всех уровнях секретности. При этом военные требуют снять большинство ограничений и этических фильтров.
Пока прогресс неравномерный. OpenAI уже запустила ChatGPT на платформе genai.mil, которой пользуются свыше 3 млн. сотрудников Пентагона. Компания сняла часть стандартных ограничений, но гарантии безопасности сохранилась. Похожие сделки ранее заключили Google и xAI.
С Anthropic сложнее. Они настаивают на соблюдении собственных политик использования и категорически против применения Клода для боевых и разведывательный целей.
reuters.com
Новинка построена на архитектуре MoE и получила 10 млрд. активных параметров при 229 млрд. общих. Она обучалась в сотнях тысяч сложных сред и умеет самостоятельно планировать действия без явных инструкций от пользователя.
По заявленным бенчмаркам, M2.5 превосходит GPT-5.2, Gemini 3 Pro и Claude в веб-поиске, агентных тасках и по офисными задачами. В кодинге модель в ряде тестов обходит Claude Opus 4.6. Веса опубликованы под лицензией MIT.
Закрытый вариант, M2.5-Lightning, выдает 100 токенов в секунду - это вдвое быстрее топовых аналогов. Час ее непрерывной работы стоит 1 доллар, а 4 инстанса можно гонять параллельно круглый год за 10 тыс. долларов.
API и тариф для разработчиков доступны на платформе Minimax.
minimax.io
WebMCP — это реализация протокола MCP для браузерной среды, чтобы сделать агентов быстрее и надежнее за счет предсказуемого интерфейса вместо хрупкого парсинга страниц.
С помощью него сайты получат возможность предоставлять агентам структурированные инструменты: бронирование билетов, создание тикетов поддержки, поиск товаров и т.д. В основе архитектуры два API: декларативный для простых действий через HTML-формы и императивный для сложных сценариев на JavaScript.
Пока WebMCP доступен как превью для разработчиков через программу раннего доступа Google. В перспективе интеграция с Chrome и Gemini позволит агентам напрямую совершать действия прямо из браузера без участия пользователя.
developer.chrome.com
В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.
Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.
По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤60🔥44👍30🤣11😁7😐7🤔2💔2❤🔥1