После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов.
Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами.
Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x.
План за $200 дает как двадцатикратный объём Plus на тех же условиях.
Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру).
Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x».
Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus.
Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки.
По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🤔62❤20🤨9😐7🔥6🙊6😁1🎃1🤗1
В воскресенье утром резиденция генерального директора OpenAI Сэма Альтмана в Сан-Франциско подверглась второй атаке всего через два дня после инцидента с поджогом.
Полиция арестовала 25-летнюю Аманду Том и 23-летнего Мухаммада Тарика Хусейна по обвинению в неосторожном обращении с огнестрельным оружием.
В 1:40 ночи автомобиль с двумя людьми остановился перед домом Альтмана в районе Russian Hill, предварительно несколько раз проехав мимо. Офицеры задержали подозреваемых и изъяли при обыске 3 единицы огнестрельного оружия.
Первая атака произошла в пятницу: 20-летний Даниэль Алехандро Морено-Гама бросил коктейль Молотова в металлические ворота дома Альтмана.
Перед попыткой поджога он написал несколько эссе под названием "Эпитафия человечеству", выражая опасения, что развитие ИИ приведет к исчезновению человечества. Он также участвовал в деятельности группы PauseAI, выступающей за запрет разработки ИИ.
PauseAI, в свою очередь, осудила действия поджигателя:
Мы желаем безопасности и мира Сэму Альтману, его семье и всем пострадавшим. Организация PauseAI считает, что каждый заслуживает безопасности, включая Сэма Альтмана и его близких. Насилие в отношении кого бы то ни было противоречит всему, за что мы выступаем.
После первого инцидента Сэм Альтман написал пост в личном блоге и разместил фото семьи:
Страх и беспокойство по поводу ИИ оправданы. Мы наблюдаем самые масштабные изменения в обществе за долгое время, а возможно, и вообще когда-либо.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😢70🤣38🤬16🤔15❤11🔥6👍5🙏2😨2😁1🤩1
Через 3 недели после мартовского релиза MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.
За несколько дней после публикации сообщество сделало 32 квантованные сборки и 6 файнтюнов.
Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.
Итог: рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.
Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.
Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM.
Параллельно команда открыла исходники OpenRoom, интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡155🔥66🏆24❤12🤩10👍5👏5💘1
Китайские тестеры раннего доступа Kimi Code получили сообщение, которое говорит о скором релизе модели Kimi K2.6.
Перевод скрина:
KIMI Code
Программа раннего доступа завершена
Спасибо за ваше участие и обратную связь
Привет, x
Спасибо, что приняли участие в тестировании программы раннего доступа Kimi Code! Каждый ваш отзыв помог нам сделать продукт лучше, и это очень важно для нас. Программа раннего доступа на этот период завершена, и мы надеемся увидеться с вами снова при запуске следующего этапа.
Сейчас мы занимаемся финальной настройкой и доработкой продукта на основе отзывов, полученных в ходе этого тестирования. Новая модель K2.6-code-preview, которую вы опробовали, скоро будет запущена для всех пользователей. Еще раз спасибо за вашу поддержку и доверие как одного из первых участников.
Команда Kimi Code
2026 Kimi
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍133👏29❤18🎉14🔥8💯7🦄2❤🔥1🥰1
Media is too big
VIEW IN TELEGRAM
Agent Cloud позволяет бизнесу встраивать ИИ-агентов в рабочие процессы - от общения с пользователями до обновления баз данных и генерации отчетов.
Технический фундамент - инфраструктура Cloudflare Workers AI. Модели запускаются на периферийных серверах, что обеспечивает минимальную задержку и высокую скорость отклика.
Cloudflare также расширяет инструменты для разработчиков: среда Codex теперь работает в изолированных песочницах Cloudflare Sandboxes, а вскоре её интегрируют прямо в Workers AI.
openai.com
Глава технологической империи лично участвует в создании интерактивной 3D-копии себя. Подразделение Superintelligence Labs нацелено на создание виртуального аватара, который сможет общаться с сотрудниками вместо Марка и давать им обратную связь в реальном времени. Модель обучают на фото, голосе, мимике и публичных выступлениях Цукерберга.
Источники отмечают необычную вовлеченность CEO: он тратит 5–10 часов в неделю на код и технические ревью. Если эксперимент удастся, компания планирует предложить технологию блогерам и создателям контента.
theverge.com
За последний год Пекин, Ханчжоу и Шэньчжэнь приняли беспрецедентный поток кадров из США: по данным рекрутеров, в КНР вернулись более 30 топовых ИИ-исследователей. Годом ранее такие переходы были единичными. Тон задают звезды индустрии. У Юнхуэй ушёл из Google DeepMind в ByteDance, Яо Шуньюй покинул OpenAI ради Tencent.
Причин две. Китай дает огромный полигон для внедрения ИИ в реальную экономику, Шэньчжэнь стал мировым центром робототехники. Плюс реальная покупательная способность зарплат инженеров в КНР уже превышает уровень Долины.
С другой стороны, специалистов выталкивают сами США: геополитика и бюрократия делают Штаты менее привлекательными для китайских талантов. Аналитики фиксируют смену технологического баланса: Китай перестаёт быть фабрикой или потребителем западных инноваций и сам становится магнитом для лучших разработчиков.
ft.com
Главное в Waypoint-1.5 - локальный запуск на Windows и macOS. Модель работает в 2-х режимах: на мощных системах она генерирует 720p при 60 кадрах в секунду, а облегченная версия - 360p и рассчитана на ПК с NVIDIA RTX (под Apple Silicon обещают позже).
Waypoint-1.5 вдвое компактнее предыдущей версии, но дает заметно лучшую графику и производительность. Развернуть ее можно локально через среду Biome или запустить в браузере через облачный Overworld.stream.
over.world
В конце марта создатели Claude провели закрытый саммит с пятнадцатью представителями католической и протестантской церквей, академической среды и бизнеса. Цель - найти ориентиры для этических и духовных реакций модели.
Участники разбирали практические сценарии: как бот должен общаться со скорбящими или людьми в глубоком психологическом кризисе. Дискуссия затронула и теологию - вплоть до того, можно ли считать ИИ «божьим созданием». Эксперты отметили искренность Anthropic, ищущих гуманитарную экспертизу извне.
В отличие от конкурентов, Anthropic не считает ИИ просто утилитарным кодом: ее руководство обсуждает философские аспекты технологий и допускает, что у больших языковых моделей могут появиться зачатки сознания несмотря на скепсис большей части индустрии.
washingtonpost.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54❤22🤣15🤔8🔥4⚡1💯1
Bytedance опубликовала инфу о проекте DreamLite - компактной диффузионки на 390 млн. параметров, которая сможет работать локально на телефоне.
Под капотом - сильно сжатая версия U-Net (от SDXL), автоэнкодер TinyVAE и текстовый Qwen3-VL-2B.
Для трейна используется схема прогрессивного совместного обучения для стабильности генерации и дистилляция DMD2, которая сокращает инференс до 4 шагов.
В описании заявляют, что на iPhone17 Pro картинка размером 1024х1024 генерится около 3 секунд, а в техотчете - что на Xiaomi 14 создание или редактирование изображение тем же размером займет менее 1 секунды.
На синтетике DreamLite выбивает 0.72 (генерация, GenEval) и 4.11 (редактирование, ImgEdit)
Пока опубликованы только техотчет, репозиторий пустой.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍82🤔39❤14🔥10👏10🤗4❤🔥1🫡1
Технический директор «Т-Рекламы» Василий Разумных объяснил, чем такой подход отличается от классических решений. По его словам, в рекламной платформе Т-Банка ML-модели не только предсказывают кликабельность, но и направляют логику принятия решений.
«В отличие от классического подхода, где реклама существует отдельно от продуктового опыта, мы интегрируем ее в пользовательский сценарий. Поэтому система учитывает не только ставку рекламодателя, но и уместность предложения для конкретного человека в определенный момент», — рассказал технический директор рекламной платформы.
При поступлении запроса система отбирает подходящие объявления и ранжирует их с помощью скоринговой модели. Она учитывает ряд факторов: экономическую эффективность для платформы, прогнозируемую вероятность целевого действия, качество креатива и репутацию рекламодателя.
Вместо ручной настройки на платформе работает ML-таргетинг. Данные о поведении пользователей агрегируются в финансовых и лайфстайл-сервисах приложения и других точках контакта – это позволяет сформировать целостный портрет пользователя, а не просто набор разрозненных идентификаторов.
При этом запросы бизнеса становятся все более прагматичными и ориентированными на результат. Рекламодателям важно не только видеть охваты и узнаваемость, но и держать фокус на измеримых действиях, с чем помогают перфоманс-инструменты.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓36👍26❤10👌7🤬6🤣6🔥4👏3⚡2🌭1🙊1
Tencent Robotics X и Hunyuan Vision выложили веса HY-Embodied-0.5 MoT-2B — младшей модели нового семейства HY-Embodied-0.5 для воплощённого интеллекта.
Семейство позиционируется как когнитивное ядро для VLA-пайплайнов: модель должна выполнять роль «мозга», который принимает кадры с камер робота, рассуждает о трехмерной сцене и выдает план действий исполнительному модулю.
Формально MoT-2B содержит 4 млрд параметров, но на инференсе активируется только 2,2 млрд, что дает скорость плотной 2B-модели при качестве восприятия, сопоставимом с тяжёлыми VLM.
В основе лежит архитектура Mixture-of-Transformers с латентными токенами и модально-специфичными вычислениями для зрительного тракта.
Суть MoT: перед мультимодальным обучением Tencent дублирует FFN- и QKV-блоки языковой модели и инициализирует копию её же весами - визуальные токены прогоняются через визуальную ветку, текстовые через языковую.
Помимо разделения FFN и QKV, разведены и механизмы внимания: для визуальных токенов используется двунаправленное полное внимание, для языковых - causal-внимание.
Связующим звеном служат обучаемые visual latent tokens, которые приписываются в конец каждого визуального элемента (кадра или изображения) и переносят визуальную семантику в языковой контекст.
В семействе будет старший вариант - HY-Embodied-0.5 MoE-A32B на 32 млрд активных параметров. Он построен уже на MoE и, по словам создателей, выходит на уровень Gemini 3.0 Pro.
Веса флагмана не опубликованы, но именно эта модель выступает учителем в дистилляции, передавая навыки рассуждения младшей MoT-2B.
Для инференса рекомендуется GPU с минимум 16 ГБ VRAM.
В планах - интеграция с vLLM и Gradio-демо.
@ai_machinelearning_big_data
#AI #ML #Embodied #Robotics #Tencent #Hunyuan
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓52👍37❤10👏10🔥7🤔5👀2❤🔥1😁1
Инженер из AMD опубликовал на GitHub подробный разбор деградации Claude Code на сложных задачах, начавшейся в феврале. Автор сгенерировал отчет силами Opus 4.6, проанализировав 17 тыс. блоков размышлений и 234 тыс. вызовов инструментов в 6 852 локальных сессиях.
Главная метрика - отношение чтений файлов к правкам упала с 6,6 до 2,0. Иначе говоря, модель почти перестала изучать код перед его модификацией: доля правок без предварительного чтения выросла с 6,2% до 33,7%.
Параллельно был зафиксировал рост зацикливаний (с 8,2 до 21,0 на тысячу вызовов), удвоение использования полной перезаписи файлов вместо точечных правок и вспышку поведенческих симптомов (уклонение от ответственности, преждевременные остановки и склонность к простейшему решению).
Специальный stop-hook, ловящий такие фразы, сработал 173 раза за 17 дней после 8 марта, против нуля за весь предыдущий период.
Автор связал регрессию с заголовком
redact-thinking-2026-02-12, после появление которого содержимое thinking-блоков перестало приходить клиенту.Борис Черный, глава команды Claude Code ответил на Hacker News:
Заголовок убирает саммари размышлений из интерфейса, чтобы не гонять их по сети ради снижения латентности, но не трогает ни сам ризонинг, ни бюджеты на него.
Локальный анализ транскриптов поэтому и видит пустые блоки и делает неверный вывод об отсутствии мышления. Если надо, то вернуть отображение можно опцией
showThinkingSummaries:true в settings.json.9 февраля вместе с Opus 4.6 включили adaptive thinking - модель сама выбирает длину размышлений вместо фиксированного бюджета.
3 марта дефолтный уровень усилий для Opus 4.6 подняли до medium (effort=85) как компромисс между интеллектом, латентностью и стоимостью.
В ответ на гипотезу о том, что виноват свежий 1M-контекст и работа без
/compact после 200k токенов, Борис предложил решения, которыми можно вернуть прежнее поведение:/effort high или /effort max - поднять максимальный бюджет thinking-токенов на задачу;CLAUDE_CODE_AUTO_COMPACT_WINDOW=400000 - принудительно укоротить рабочее окно контекста.CLAUDE_CODE_SIMPLE=1 - упрощенный режим для проверки гипотезы об интерференции системного промпта.Дополнительно есть
CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING=1 , он отключает адаптивный режим и возвращает фиксированный бюджет рассуждений.Борис также заверил, что Anthropic протестирует включение high effort по умолчанию для тарифов Teams и Enterprise.
Это приведет к большему расходу токенов и росту латентности, но даст гарантированную глубину рассуждений.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔121❤83👍53👏18😁15🔥9🤷♂7🤬1
Media is too big
VIEW IN TELEGRAM
По данным источников, Anthropic готовится представить Claude Opus 4.7, а также специализированный инструмент для создания сайтов и презентаций. Релиз обоих продуктов может состояться уже на этой неделе.
Возможный выход на рынок автоматизированного дизайна уже вызвал заметную реакцию индустрии: на фоне новостей акции Adobe, Wix и Figma просели более чем на 2%. Ожидается, что продукт составит прямую конкуренцию Gamma и Google Stitch.
Официальные представители Anthropic готовящийся анонс пока не комментируют.
theinformation.com
Ising - семейство моделей с открытым исходным кодом для калибровки процессоров и исправления ошибок в квантовых вычислениях. Пакет включает два решения.
Мультимодальная модель Ising Calibration, которая анализирует результаты измерений и автоматизирует непрерывную калибровку квантового железа, сокращая время настройки с нескольких дней до часов. Ising Decoding - 3D-свёрточная сеть для декодирования квантовых ошибок в реальном времени. По данным NVIDIA, алгоритм работает до 2,5 раза быстрее и втрое точнее нынешнего открытого отраслевого стандарта pyMatching.
Платформу уже начали внедрять ведущие лаборатории и технологические компании. Исходный код и модели доступны на GitHub и Hugging Face.
nvidia.com
EinsteinArena - открытая цифровая среда, где сложные математические и научные проблемы решаются коллективным интеллектом ИИ-моделей. Агенты не соревнуются, а сотрудничают: дискутируют, обмениваются кодом через общие файлы навыков и последовательно дорабатывают логику друг друга.
Платформа опирается на защищённые песочницы, где гипотезы верифицируются детерминированными алгоритмами. Это делает каждый шаг агентов прозрачным и воспроизводимым - в духе концепции вычислений на этапе вывода.
EinsteinArena уже справилась с 11 ранее нерешёнными математическими проблемами. Самым заметным достижением стало улучшение нижней границы в 11-мерной задаче о контактном числе.
together.ai
ERNIE-Image - T2I-модель на архитектуре DiT с 8 млрд параметров под лицензией Apache 2.0, которая запускается на 24 ГБ VRAM.
По словам Baidu, модель уверенно справляется с рендерингом текста на английском и китайском языках, точно следует сложным инструкциям и выстраивает структурированные композиции: рекламные макеты, раскадровки и многопанельные изображения с сохранением стиля.
Дополнительно выпущена Prompt Enhancer, вспомогательная языковая модель на 3 млрд параметров, которая разворачивает базовые инструкции в детализированные технические промпты. Помимо основной ERNIE-Image, доступна также ERNIE-Image-Turbo - быстрая 8-шаговая дистиллированная версия.
ernie.baidu.com
Траст Long-Term Benefit, независимый орган управления Anthropic, утвердил Васа Нарасимхана новым членом совета директоров. Нарасимхан - учёный-медик и действующий CEO фармацевтического гиганта Novartis.
Под его руководством Novartis вывела на рынок более 35 новых препаратов; ранее он руководил программами общественного здравоохранения по борьбе с инфекционными заболеваниями в странах Азии, Африки и Южной Америки. Комментируя своё назначение, Нарасимхан подчеркнул, что технологии приносят максимальную пользу обществу лишь при условии ответственного внедрения.
Это уже второе значимое расширение руководящего состава создателя Claude за последнее время. В феврале к совету директоров присоединился бывший топ-менеджер Microsoft Крис Лидделл.
anthropic.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍118❤34🤓28👏22💯7🔥3❤🔥1🎉1
Университет Южной Калифорнии опубликовал в журнале Trends in Cognitive Sciences статью, в которой утверждают, что массовое использование больших языковых моделей постепенно размывает индивидуальные различия в речи, письме и мышлении.
Авторский коллектив возглавляет профессор психологии и информатики Мортеза Дехгани.
Научные интересы Дехгани лежат на стыке психологии, когнитивной науки и искусственного интеллекта: он известен работами по вычислительному анализу морального и политического языка, применению методов NLP к большим текстовым корпусам (от социальных сетей до литературы) и изучению того, как ценности и групповая мораль проявляются в речи.
По мнению исследователей, когда миллионы людей обращаются к узкому кругу одних и тех же чат-ботов, стилистические, смысловые и логические особенности отдельных людей стираются, а на выходе получается «стандартизированное выражение мыслей».
Этот процесс вызывает беспокойство: модели не просто влияют на манеру письма, но и незаметно переопределяют, что считается достоверной речью, корректной точкой зрения и хорошим рассуждением.
Тексты, сгенерированные LLM, менее разнообразны, чем написанные людьми, и в среднем воспроизводят язык, ценности и логические схемы западных, образованных, индустриальных, состоятельных и демократических сообществ. Причина - в обучающих выборках, где непропорционально представлены доминирующие языки и идеологии.
В статье приводится и обратный эффект: отдельный пользователь с помощью чат-бота, как правило, генерирует больше идей, чем без него, однако группы людей, опирающиеся на LLM, в итоге выдают меньше оригинальных решений, чем те же группы, работающие без ИИ.
Авторы также указывают, что популярные модели тяготеют к линейным схемам вроде CoT, что, по их оценке, может вытеснять интуитивные и абстрактные подходы. Они ссылаются на данные о том, что после взаимодействия с предвзятой моделью мнения пользователей смещаются в ее сторону.
При обучении моделей следует закладывать реальное языковое и культурное многообразие, а не случайные вариации. Это одновременно сохранит бы когнитивное разнообразие в обществе и улучшит способности самих чат-ботов к рассуждению.
Это не эмпирическое исследование с собственными экспериментами, обзорно-полемическая работа, обобщающая чужие исследования и выдвигающая гипотезу.
Сужение стилистики, сдвиг мнений после общения с моделью - подтверждены отдельными исследованиями, а вот более широкие тезисы о глобальной гомогенизации мышления остаются дискуссионными.
Работа выполнена при поддержке Управления научных исследований Минобороны США.
@ai_machinelearning_big_data
#AI #ML #LLM #Research #Cognitive #NLP
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔123👏40🤓15❤13👍12🤨8🤣6🥰3😁1🤬1
Audio Flamingo Next (AF-Next) - аудио-языковая модель, обученная на корпусе из 1 млн часов аудио и 108 млн примеров для генерации подробных текстовых описаний аудиозаписей: перечисление инструментов, звуковых событий и музыкальных характеристик того, что звучит на записи. Максимальная длина входного аудио - 30 минут.
Релиз закрывает отставание мультимодальных систем в работе со звуком: речью, музыкой и окружающими шумами на длинных записях.
Фишка архитектуры - Rotary Time Embeddings: угол поворота токена привязывается к реальной временной метке аудио, что дает модели устойчивое временное рассуждение.
AF-Next-Captioner: модель, заточенная под детальное описание аудио. Она генерирует подробные текстовые описания аудиозаписей: перечисляет инструменты, звуковые события, спикеров и музыкальные характеристики того, что звучит на записи, с привязкой к таймкодам.
На распознавании инструментов Medley-Solos-DB она набирает 92,13 против 85,80 у Audio Flamingo 2.
На музыкальных описаниях SongCaps, где качество оценивает GPT-5, показатели покрытия и корректности выросли с 6,7 и 6,2 у AF3 до 8,8 и 8,9.
AF-Next-Instruct: универсальная инструктивная версия, после GRPO для повседневных задач: ответов на вопросы по аудио, голосовых ассистентов, транскрипции речи и перевода.
Именно она устанавливает новые планки среди LALM по ASR.
WER 1,54 на LibriSpeech. На LongAudioBench 73,9 против 60,4 у закрытой Gemini 2.5 Pro (в варианте с речью разрыв еще больше - 81,2 против 66,2.)
AF-Next-Think: ризонинг-версия с Temporal Audio Chain-of-Thought: модель привязывает каждый шаг рассуждения к конкретной временной метке в аудио, что делает ее пригодной для разбора длинных записей, где нужно собирать факты из разных моментов (анализа совещаний, интервью, подкастов, трейлеров и сюжетных аудиоисторий).
75,01 на MMAU-v05.15.25 и 58,7 на более жестком MMAU-Pro, что выше, чем у Gemini-2.5-Pro (57,4).
@ai_machinelearning_big_data
#AI #ML #MMLM #Audio #AudioFlamingo #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💯41🔥35👍11👏9🤓6❤4
Media is too big
VIEW IN TELEGRAM
В отличие от базовых версий, у модели снижен порог отказов: фильтры безопасности не блокируют запросы на поиск багов и оборонительное программирование.
GPT-5.4-Cyber получила продвинутые возможности бинарного реверс-инжиниринга - исследователи могут анализировать скомпилированное ПО на наличие вредоносных компонентов и уязвимостей, даже не имея доступа к исходному коду.
Из-за двойного назначения функционала доступ к модели строго регулируется. OpenAI распространяет новинку через программу Trusted Access for Cyber: нужна верификация личности, а корпоративным клиентам - одобрение профильного менеджера.
openai.com
Компания начала проверять личность пользователей в рамках регулярных процедур безопасности. Технический партнёр инициативы - сервис Persona. Для процедуры понадобится паспорт, водительские права или ID-карта, а также камера для селфи. Цифровые версии документов, ксерокопии и студенческие билеты система не принимает.
В Anthropic обещают не использовать собранные данные для обучения ИИ-моделей. Фото документов и биометрия шифруются и хранятся на серверах Persona. Разработчик Claude выступает лишь контроллером данных и запрашивает доступ к записям только в спорных ситуациях - например, при апелляции на блокировку аккаунта.
support.claude.com
Стартап представил открытый рендерер Spark 2.0 на базе THREE.js и WebGL2, который плавно отрисовывает локации из 100 млн 3D-гауссианов прямо в браузере. Обычное железо с трудом переваривает больше пяти миллионов точек, поэтому разработчикам пришлось полностью перестроить пайплайн загрузки графики.
Производительность обеспечивают три механизма. Иерархическая система детализации подбирает оптимальное количество гауссианов под выделенный бюджет рендеринга, сохраняя стабильный FPS. Тяжёлые ассеты обрабатываются стримингом: новый формат
.RAD выводит базовый каркас, а затем динамически подтягивает детали в зависимости от угла обзора камеры. Память управляется через резервирование фиксированного пула на GPU и постраничного тасования блоков данных.Ядро Spark 2.0 написано на Rust, скомпилировано в WebAssembly и вынесено в фоновый Web Worker. Изначально это был внутренний инструмент для ИИ-генератора 3D-миров Marble, но теперь он общедоступен.
worldlabs.ai
В десктопной версии Chrome появилась функция Skills: больше не нужно повторно вводить запросы к Gemini. Удачные промпты теперь можно сохранять из истории чата и запускать в один клик через слэш или кнопку плюса.
Инструмент умеет обрабатывать как активную страницу, так и сразу несколько выбранных вкладок - это позволяет быстро сравнивать информацию или искать нужные данные в объёмных документах.
Google также подготовил библиотеку готовых skills, каждый из которых можно кастомизировать. Новая функция разворачивается на macOS, Windows и ChromeOS для англоязычных пользователей.
blog.google
ИИ-генератор изображений Midjourney обновился до версии 8.1. Главное нововведение - поддержка 2K. Создатели заявляют рост производительности в 3 раза по сравнению с V8, а стоимость генерации снизилась на две трети. В 1K-режиме V8.1 работает быстрее draft-режимов седьмого поколения модели.
Помимо оптимизации архитектуры, Midjourney прислушались к критике пользователей и вернули платформе узнаваемую художественную эстетику. В арсенал инструментов снова добавлена функция image-to-image, временно отключённая в предыдущей сборке.
Также команда обновила систему референсов стилей, доработала мудборды и представила обновлённую утилиту Describe для реверс-инжиниринга текстовых промптов по готовым изображениям.
Midjourney в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👨💻67❤24🎉15🤓13👍8😢2⚡1👏1🤔1
NVIDIA опубликовала веса модели и код Lyra 2.0 - системы, которая принимает на вход изображение, генерирует видео с управляемой траекторией камеры, а затем реконструирует его в 3D-гауссианы и полигональные меши.
Готовые ассеты можно напрямую импортировать в игровые движки и робототехнические симуляторы.
Система будет полезна для массовой генерации тренировочных 3D-сред для воплощенного ИИ.
Главная задача, которую решает фреймворк - сохранение согласованности сцены при длительном пролете камеры.
Lyra 2.0 хранит 3D-геометрию каждого кадра в отдельном кэше, при возврате извлекает релевантные исторические кадры по степени перекрытия видимости и устанавливает плотные геометрические соответствия через варпинг канонических координат.
Геометрия используется только для маршрутизации информации - какие кадры извлечь и как их сопоставить с текущим ракурсом. За синтез внешнего вида отвечает диффузионная модель.
Базовая модель построена на архитектуре Wan 2.1-14B с выходным разрешением 832×480.
Для 3D-реконструкции применяется дообученная версия Depth Anything v3 в feed-forward режиме, а поверхностные меши извлекаются через иерархический подход на основе OpenVDB.
На бенчмарках DL3DV и Tanks and Temples Lyra 2.0 превзошла все аналоги (GEN3C, CaM, SPMem, VMem, Yume-1.5 и HY-WorldPlay) практически по всем метрикам: FID, SSIM, LPIPS, субъективное качество и стилистическая согласованность.
Первая версия фреймворка, вышедшая в сентябре, поддерживала лишь генерацию на коротких дистанциях. Ближайший конкурент второй версии, Genie 3 от Google, обладает схожими возможностями, но остаётся закрытым.
@ai_machinelearning_big_data
#AI #ML #3DWorlds #Lyra2 #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩75👍30🔥17👏13❤12🥰3🎉2😴1
Media is too big
VIEW IN TELEGRAM
Пытаясь преодолеть многолетнее технологическое отставание, компания запустила программу переобучения для почти 200 сотрудников. Инженеры на практике освоят Claude Code и Codex.
После курсов структура команды поменяется: ядро разработки сформируют из 60 специалистов, ещё 60 человек переведут на мониторинг и безопасность продукта. Эти изменения завершают реорганизацию начала 2025 года - подразделение уже перешло под контроль старшего вице-президента по разработке ПО Крейга Федериги, а бывший глава ИИ-направления Джон Джаннандреа покидает Apple на этой неделе.
Цель переобучения - релиз обновлённой Siri на летней конференции WWDC.
theinformation.com
Cognition выпустила крупное обновление IDE, смещающее акцент с написания кода на управление роем ИИ-агентов. Центральный элемент релиза - Agent Command Center, который собирает все запущенные агенты (локальные и облачные) на единой Kanban-доске с группировкой по статусу.
Задачи организуются через Spaces: пространство объединяет сессии агентов, пул-реквесты, файлы и контекст проекта. Например, в одном Space локальная сессия прототипирует UI, а две облачных правят API и пишут тесты. Новые сессии наследуют накопленный контекст.
Вторая часть релиза - автономный облачный агент Devin с собственной виртуальной машиной и браузером. Он ведёт задачи от отладки до деплоя и продолжает работать после выключения компьютера. Готовый PR можно отревьюить в Windsurf или передать локальному агенту на доработку. Devin включён во все тарифы, доступ разворачивается постепенно.
windsurf.com
Google добавил в утилиту систему специализированных ИИ-ассистентов: основной агент работает как координатор и делегирует ресурсоёмкие или рутинные задачи субагентам. Каждый из них работает в собственном окне контекста, использует индивидуальные системные инструкции и выделенный набор инструментов, включая серверы MCP.
Многоэтапные операции выполняются автономно, а в главный чат возвращается только итоговый результат. Для ускорения субагенты могут запускаться параллельно.
Из коробки доступны 3 базовых ассистента: универсального профиля, специалиста по анализу кодовой базы и эксперта по документации самой утилиты. Можно создавать кастомных агентов через Markdown-файлы с YAML-заголовками - конфигурации сохраняются локально или добавляются в репозиторий проекта для всей команды.
googleblog.com
Китайский ИТ-гигант представил модель Happy Oyster, способную создавать физически достоверные трёхмерные пространства и интерактивные видео, работая непрерывно и на лету реагируя на новые инструкции.
Инструмент поддерживает два формата. «Режиссура» создает связный мир длительностью до 3 минут в 720p, позволяя менять ракурсы камер или действия персонажей через текст, голос или картинки. «Wandering» создает локацию, которую можно бесконечно расширять и исследовать от первого лица.
Доступ предоставляется через лист ожидания на сайте проекта.
happyoyster.cn
Платформа Firefly пополнилась ИИ-агентом, который объединяет инструменты Creative Cloud в едином диалоговом интерфейсе. Достаточно описать результат текстом и ассистент сам выстроит и выполнит цепочку задач в Photoshop, Premiere, Illustrator и других программах. Агент обучается на предпочтениях автора и учитывает контекст текущих файлов.
Параллельно обновился видеоредактор: добавлены инструменты очистки звука, цветокоррекции и прямая интеграция с Adobe Stock. Для изображений появились функция генерации визуальных вариаций и инструмент ИИ-разметки кистью.
Также добавили модели Kling 3.0 - общий парк теперь превышает 30 моделей от разных поставщиков. Публичное бета-тестирование ассистента начнётся в ближайшие недели.
adobe.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍23🔥5😁4👌2🥰1🗿1
Команда EvoMap, разрабатывающая эволюционный движок для ИИ-агентов Evolver, опубликовала детальное техническое сравнение, в котором обвинила проект Hermes Agent от Nous Research в систематическом заимствовании архитектурных решений без указания источника.
Разрыв в популярности между проектами значителен: 88 тысяч звёзд на GitHub у Hermes Agent против 2 тысяч у Evolver.
В списке перечислены более 10 совпадений на уровне модулей: трёхуровневая система памяти с идентичным распределением ролей между слоями, замкнутый цикл автоматического извлечения переиспользуемого опыта, механизм периодической рефлексии, динамическое обнаружение и подгрузка навыков, десятишаговая оркестрация эволюционного цикла и ряд инженерных паттернов.
Хронология, на которую опирается EvoMap: ключевой протокол GEP был раскрыт с 1 по 16 февраля в 136 релизах, а система навыков Hermes появилась лишь 12 марта.
Аргументация EvoMap строится на вероятностной логике: каждое совпадение по отдельности объяснимо независимой конвергенцией - трёхуровневая память и извлечение опыта активно обсуждаются в сообществе ИИ-агентов, но их совокупность, по мнению авторов, выходит за рамки случайности.
При этом EvoMap признает:
Основатель Nous Research в ответ на претензии написал, что никогда не слышал ни о проекте, ни о его авторах, назвал сравнительный анализ «полной чушью», а позднее посоветовал EvoMap удалить свой аккаунт. На технические аргументы Nous Research не отвечала.
Вслед за этим EvoMap выпустила открытое письмо, объявив о смене лицензии Evolver с MIT на GPL-3.0 и переходе к выпуску ключевых модулей в обфусцированном виде. Команда также признаёт, что судебное разбирательство с Nous Research ей не по силам.
Главный тезис письма выходит за рамки конкретного спора: способен ли институт открытых лицензий работать, когда ИИ сводит стоимость воспроизведения кодовой логики почти к нулю?
При этом позиция EvoMap упирается в тупик: GPL-3.0 обязывает раскрывать код производных продуктов, но без текстуального пересечения полезность лицензии не срабатывают. Обфускация же блокирует вклад сообщества и противоречит самому принципу открытого кода.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔108🤬27❤20🤷♂16👀16👍9😐5🤣4🔥1👏1
Media is too big
VIEW IN TELEGRAM
Китайский ИИ-стартап, до сих пор существовавший на деньги хедж-фонда High-Flyer, впервые ведёт переговоры о внешнем финансировании. DeepSeek рассчитывает привлечь минимум $300 млн, что выведет ее оценку за пределы $10 млрд. Раньше компания отказывала китайским VC, но теперь деньги нужны для закупки вычислений - обучение моделей дорожает быстрее, чем High-Flyer может финансировать.
Параллельно стартап теряет инженеров. Один из авторов архитектуры V3 ушёл возглавить ИИ-направление в Xiaomi, исследователя Го Дая переманила ByteDance.
С инфраструктурой тоже напряжённо. В апреле 2026 DeepSeek пережил 7-часовой сбой, который затронул 355 млн пользователей. Чтобы снизить зависимость от сторонних облаков, компания планирует строить собственный дата-центр во Внутренней Монголии.
theinformation.com
GPT-Rosalind, названная в честь биофизика Розалинд Франклин, создана для ускорения разработки лекарств на ранних этапах поиска, улучшения выбора биологических мишеней и планирования экспериментов.
Модель уже показала лучший результат на биологических бенчмарках BixBench и в закрытых тестах по прогнозированию функций РНК-последовательностей, где модель превзошла 95% исторических результатов экспертов-людей.
Вместе с релизом OpenAI выложила на GitHub плагин Codex Life Sciences Research. Инструмент предоставляет доступ к более чем 50 базам данных и биологическим утилитам, причем его можно использовать в связке с любыми моделями общего назначения. Модель доступна в режиме preview участникам Trusted Access Program - корпоративным клиентам в США.
openai.com
Anthropic устранила ошибку, из-за которой 5-часовые и недельные квоты в Opus 4.7 списывались быстрее, чем должны, особенно при длинных промптах. Баг существовал ещё в Opus 4.6, но в новой модели стал заметнее: Opus 4.7 перешёл на новый токенизатор, который тратит до 1,35× токенов на тот же текст. Вкупе с ошибкой биллинга лимиты сгорали почти мгновенно.
В качестве компенсации Anthropic обнулила счётчики использования всем подписчикам. Но обрадовало это не всех. Недельная квота считается по индивидуальному 7-дневному окну, поэтому сброс был выгоден только тем, кто уже упёрся в потолок. Разработчики, которые берегли токены на сложные задачи к концу недели, из-за компенсации лишились накопленного запаса.
ClaudeDevs в сети Х
Google Research опубликовал в TMLR работу о фреймворке для генерации синтетических датасетов, который проектирует датасет целиком, с независимым управлением охватом, сложностью и качеством, а не наращивает примеры по одному.
Simula работает без seed-данных: ризонинг-модель сама разворачивает домен в иерархическую таксономию, из каждого узла генерирует разные формулировки сценария. Часть промптов дополнительно усложняется, а корректность ответов проверяют 2 независимых критика, чтобы снизить сикофантию.
Внутри Google Simula уже используется для обучения ShieldGemma, FunctionGemma, MedGemma, классификаторов Gemini, а также фильтров мошеннических звонков и спама в Android.
research.google
Об отставке объявили Билл Пиблз и Кевин Вейл. Пиблз руководил созданием видеомодели Sora: он стоял у истоков проекта, когда команда состояла всего из двух человек, и принимал непосредственное участие в развитии продукта вплоть до релиза Sora 2.
Кевин Вейл, ранее занимавший пост директора по продукту, в октябре 2025 года перешел в исследовательский блок, где с нуля запустил направление OpenAI for Science. Из-за его ухода профильный научный отдел решено расформировать, а инженеров и исследователей распределят по другим командам.
В своем прощальном письме Вейл понадеялся, что ускорение научных открытий станет одним из главных и самых позитивных результатов на пути человечества к созданию AGI.
Kevin Weil и Bill Peebles в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64❤32🤔22👏6🔥4💔4🎉1🐳1
Вышло крупное обновление Agents SDK и главное изменение в том, что агенты теперь могут читать и записывать файлы, устанавливать зависимости, запускать код и обращаться к внешним инструментам, а не ограничиваться диалогом с пользователем.
В обновлённый исполнительный каркас добавлены настраиваемая память, оркестрация с учётом песочниц и встроенные инструменты работы с файловой системой. Эти возможности ранее были характерны для Codex.
Помимо этого, SDK поддерживает вызов инструментов через MCP, пользовательские инструкции AGENTS.md и прогрессивные объявления возможностей Skills.
Из коробки SDK работает с 7 провайдерами песочниц: Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop и Vercel. Есть возможность подключить и собственную инфраструктуру.
Новая абстракция Manifest описывает рабочее пространство агента единообразно - позволяет монтировать локальные файлы, задавать каталоги вывода и подключаться к облачным хранилищам AWS S3, Google Cloud Storage, Azure Blob Storage и Cloudflare R2.
По заявлению компании, одна и та же конфигурация работает и при локальной разработке, и при развёртывании в рабочей среде.
Архитектурно SDK отделяет логику управления агентом от среды, в которой выполняется его код, в результате чего:
Обновление доступно всем пользователям API и тарифицируется по стандартной схеме - за токены и вызовы инструментов.
Пока поддерживается только Python. Выпуск TypeScript-версии, по словам OpenAI, запланирован на более поздний срок.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40❤19🔥8🎉6🤩4💯4🥰2😍2❤🔥2🤣1
Платформа открыла ранний доступ к 2 вариантам деплоя:
Обе версии работают с более чем 30 языками. Инференс и обработка аудио будут выполнятся целиком внутри инфраструктуры клиента.
Лицензионная валидация и телеметрия опциональны вплоть до полностью изолированных контуров.
Обещают доступность тонкой настройки под конкретные языки и диалекты. Обновления в этих вариантах развертывания будут поставляться по контролируемому графику.
Пока открыта запись в лист ожидания, срок запуска - без даты, но указано что в первой половине 2026 года.
Тарификация индивидуальная: лицензия плюс оплата по использование.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤35👍16🔥10😁1🤔1👀1🫡1
Gemini Robotics-ER 1.6 - обновлённая модель воплощенного ризонинга, которая отвечает за пространственное понимание, планирование задач и детекцию успеха робота, но сама не управляет приводами.
За моторные команды по-прежнему отвечает отдельная VLA-модель Gemini Robotics 1.5.
ER-версия лишь подсказывает ей, что и в каком порядке делать, и при необходимости вызывает внешние инструменты (от поиска Google Search пользовательских функций.
Совместно с Boston Dynamics в DeepMind научили модель интерпретировать аналоговые манометры, уровнемеры, смотровые стёкла и цифровые табло.
Задача нетривиальная: нужно распознать стрелки, риски, единицы измерения и корректно сложить разряды, а для смотровых стёкол - оценить уровень жидкости с поправкой на перспективу камеры.
Сценарий заточен под обходы промышленных объектов, которыми занимается робот Spot.
Точность достигается за счёт связки визуального ризонинга и исполнения кода.
Модель сначала зумит целевой участок снимка, затем расставляет точки по ключевым элементам шкалы и через код считает пропорции и интервалы.
На задаче чтения приборов Gemini Robotics-ER 1.6 с показывает 93%, без ризонинга - 86%.
По безопасности DeepMind заявляет лучший результат в линейке: модель стабильнее соблюдает физические ограничения и точнее распознаёт травмоопасные ситуации (+6% на текстовых сценариях и +10% на видео по сравнению с Gemini 3.0 Flash).
Gemini Robotics-ER 1.6 доступна через Gemini API и Google AI Studio. Deepmind также собрал Colab с примерами промптов для типовых задач воплощенного ризонинга.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥70❤11👍7🆒2❤🔥1