Китайский техгигант выпустил новую версию своей флагманской языковой модели Ernie 5.0 на 2.4 трлн. параметров.
Модель омнимодальна, т.е может работать с текстом, изображениями, аудио и видео как на входе, так и на выходе.
В ERNIE 5.0 улучшили понимание инструкций, креативное письмо и она показывает сильные результаты в задачах, требующих логики, запоминания и убедительности.
Пока кроме этих общих формулировок и трудночитаемых картинок с бенчмарками подробной информации нет, но модель можно потестить в чат-боте.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤40👍14🔥8😁1
Media is too big
VIEW IN TELEGRAM
Стартап сделал общедоступной свою генеративную мультимодальную «модель мира» Marble, анонсированную 2 месяца назад.
На платформе, где развернута модель, можно создавать детализированные 3D-сцены из текста, одного или нескольких изображений, коротких видео и простых 3D-макетов.
Фишкой сервиса стал инструмент Chisel, который позволяет «лепить» миры, отделяя структуру от стиля. Пользователь может задать геометрию сцены с помощью примитивных 3D-фигур, а ее визуальное наполнение и стилистику описать текстовым промптом.
Marble поддерживает интерактивное редактирование, бесшовное расширение уже сгенерированных пространств и создание композиции из нескольких миров.
Готовые сцены можно экспортировать в форматы Gaussian splats, полигональные сетки или видео.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍75🔥26❤11🌭5🌚2❤🔥1
Media is too big
VIEW IN TELEGRAM
Группа Hazy Research провела исследование, доказывающее рост жизнеспособности локального ИИ-инференса. Для оценки взяли унифицированный показатель «интеллект на ватт» (intelligence per watt, IPW) - это соотношение точности выполнения задачи к потребляемой мощности.
Результаты показали, что локальные LLM до 20 млрд. параметров уже способны обрабатывать 88.7% типичных одноэтапных запросов в чатах и задачах на логику. Общая эффективность локального ИИ показала рост в 5.3 раза за период с 2023 по 2025 год. Этот скачок обусловлен как улучшением самих моделей (в 3.1 раза), так и развитием аппаратных ускорителей (в 1.7 раза).
stanford.edu
Ян Лекун предложил простой метод ля self-supervised обучения - LeJEPA. Традиционные подходы требовали сложных трюков чтобы избежать коллапса признаков: stop-gradient и сетей учитель-студент. LeJEPA отказывается от этих эвристик в пользу одного регуляризатора, SIGReg (Sketched Isotropic Gaussian Regularization).
Задача SIGReg - заставить векторы признаков равномерно распределяться в пространстве, формируя изотропное сферическое облако. В своей работе, Ян доказывает, что такая форма математически оптимальна для минимизации ошибок на будущих задачах.
На практике это делает обучение более стабильным, упрощает его масштабирование и оценку качества модели. Тестовая модель на 1.8 млрд. параметров и показала 79% точности на ImageNet-1K. Код LeJEPA доступен на GitHub.
arxiv.org
ByteDance разработал ИИ-агента, который может самостоятельно выполнять многочасовые миссии в сложных открытых 3D-мирах, например в Genshin Impact, Honkai: Star Rail и Wuthering Waves. В отличие от своих конкурентов, Lumine обрабатывает видеопоток с экрана и генерирует команды для клавиатуры и мыши в реальном времени.
Агент построен на базе Qwen2-VL-7B и обучен на 1700 часах человеческого геймплея. Сначала он осваивал базовые действия, а затем учился следовать инструкциям и, наконец, развил способность к адаптивному мышлению на небольшом ризонинг-датасете.
В тестах Lumine показал способности сражаться с боссами, используя тактику, решать головоломки и взаимодействовать с NPC. Что важно, агент может переносить навыки, справляясь с задачами в незнакомых локациях и в совершенно новых играх без дополнительного обучения.
lumine-ai.org
IBM анонсировала 2 новых квантовых процессора и объявила о переносе всего производства на 300-мм пластины на мощностях Albany NanoTech. Этот переход позволяет снизить стоимость чипов и, по заявлению компании, уже удвоил скорость НИОКР.
Nighthawk на 30% увеличивает сложность схем при прежнем уровне ошибок и ориентирован на задачи с 5000 двухкубитных гейтов. Он станет доступен пользователям IBM к концу 2025 года. Чип Loon, в свою очередь, сфокусирован на отказоустойчивости, он использует эффективные коды коррекции ошибок (qLDPC), реализованные на год раньше, чем планировалось.
Опираясь на эти инновации, IBM подтвердила свои планы по достижению квантового превосходства к 2026 году и созданию полноценной отказоустойчивой системы к 2029.
ibm.com
Стартап Clad Labs, выпустился из Y Combinator с продуктом «Chad: The Brainrot IDE». Это среда разработки со встроенными развлечениями. Идея в том, что пока разработчик ждет завершения задачи от ИИ-ассистента, он может полистать TikTok, Tinder или поиграть в мини-игры прямо в окне IDE.
По мнению основателей, это решает проблему «переключения контекста». Вместо того чтобы брать в руки телефон и полностью выпадать из рабочего процесса, разработчик остается в среде разработки и может мгновенно вернуться к коду, как только ИИ закончит свою работу.
Сейчас Chad IDE находится в стадии закрытого бета-тестирования, доступ можно получить только по приглашению.
techcrunch.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56❤19🔥10😁7🤣7🥰5🎅3
Media is too big
VIEW IN TELEGRAM
В этом режиме появилась динамическая адаптация: для простых задач она использует меньше времени на размышление, а для сложных запросов модель сохраняет способность к глубокому анализу. Также появился режим «без рассуждений».
Для разработчиков появилось 2 новых инструмента. Apply_patch - редактирование кода с помощью патчей и shell - выполнение команд в локальной среде. Ещё добавили расширенное кеширование промптов (до 24 часов), что ускоряет ответы на последующие запросы в рамках одной сессии. Модель уже доступна для всех платных тарифов.
openai.com
Sandboxes for DeepAgents - набор интеграций для безопасного выполнения кода, сгенерированного ИИ-агентами в изолированных удаленных окружениях от партнеров проекта: Runloop, Daytona и Modal.
Новая функция защищает локальную машину от вредоносных действий агента и позволяет создавать чистые окружения с нужными зависимостями под конкретную задачу, не загрязняя основную систему. Это упрощает параллельный запуск нескольких агентов и выполнение длительных операций.
blog.langchain.com
Это второе поколение модели Photoroom и, что важно, оно полностью открытое. В релиз вошли базовая, SFT и дистиллированная версии модели. PRX генерирует изображения в 256 и 512 пикселей, но разработчики также выложили предварительную версию для 1024 пикселей.
PRX получила 1.3 млрд. параметров и была обучена менее чем за 10 дней на 32-х H200. Под капотом - упрощенная архитектура MMDiT, Flux VAE и T5-Gemma в качестве энкодера текста. Попробовать демо-версию можно на Hugging Face Spaces. Семейство моделей доступно на Hugging Face под лицензией Apache 2.0.
CEO Photoroom в сети X
AI Window - новая функция для браузера, которая позволяет взаимодействовать с ИИ-ассистентом во время просмотра веб-страниц. Главный акцент разработчики делают на пользовательском контроле и приватности.
В отличие от конкурентов, которые жестко интегрируют ИИ в свои продукты, Firefox предлагает полностью опциональный подход. Пользователь сам решает, когда ему нужна помощь ассистента, и может в любой момент отключить эту функцию, вернувшись к классическому режиму.
Сейчас Firefox собирает заявки от желающих попробовать AI Window, записаться в лист ожидания можно тут.
blog.mozilla.org
Главная новинка - функция Deep Research, это своего рода ИИ-агент, который автоматизирует процесс онлайн-исследований. Пользователь задает вопрос, после чего система составляет план поиска, анализирует найденные в Интернете материалы и генерирует структурированный отчет с указанием всех источников. Этот отчет и его исходники можно сразу добавить в рабочее пространство для дальнейшего анализа.
Также была расширена поддержка форматов файлов. Теперь NotebookLM может анализировать данные из Google Sheets и документов Microsoft Word. Еще добавлена возможность загружать изображения и добавлять файлы из Google Drive по ссылке.
Все новые функции станут доступны в течение следующей недели, а поддержка изображений появится позже.
blog.google
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤54🔥22🥰10👏1😴1🤷1
Пришло время по-настоящему значимых прорывов.
Небольшая, но приятная победа:
Если в пользовательских инструкциях указать ChatGPT не использовать тире, он наконец-то делает то, что должен!
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣260❤38👍24🔥10
Согласно свежему отчету от Challenger о состоянии рынка труда в США на октябрь 2025 года, американские компании объявили о сокращениях 153 тыс. рабочих мест. Это на 175% больше, чем в октябре прошлого года, и на 183% больше, чем в предыдущем месяце.
Фактически, это самый высокий показатель для октября с 2003 года. С начала 2025 года общее число сокращений уже превысило 1 миллион.
Challenger, Gray & Christmas — это авторитетная американская компания в области карьерного консалтинга. Компания работает с 1966 года, имеет офисы по по всей Северной Америке и регулярно публикует отчёты о сокращениях и текучести кадров, которые цитируются ведущими СМИ.
На рынок труда влияют несколько факторов: коррекция пост-ковидного бума в найме, замедление потребительских и корпоративных расходов, и, что важно, внедрение ИИ.
Только за октябрь месяц ИИ был назван прямой причиной сокращения 31 тысячи рабочих мест. А с начала года эта цифра составляет больше 48 тысяч.
В то же время, сам технологический сектор, родитель ИИ, тоже находится под сильным давлением.
В октябре технологические компании объявили о 33 тысячах увольнений. За весь год сокращения в секторе выросли на 17% по сравнению с аналогичным периодом 2024 года.
Однако, отраслью, которая сократила больше всего рабочих мест в октябре, стала складская логистика (47 тыс. рабочих мест). Challenger связывает это с бумом автоматизации.
И пока сокращения растут, картина с наймом новых сотрудников выглядит не лучше.
Планы по найму в этом году упали на 35% по сравнению с прошлым годом, достигнув самого низкого уровня с 2011 года.
Даже сезонный найм находится на самой низкой отметке с тех пор, как Challenger начали отслеживать эти данные в 2012 году.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥47🤔29👍25❤15😢7🫡6🥰5🎉1😐1
⚡ Heretic - инструмент, который автоматически снимает цензуру (alignment) с языковых моделей
Он позволяет «расцепить» модель - убрать отказные фильтры и повысить готовность отвечать на запросы, не изменяя веса исходной модели напрямую.
Что делает Heretic:
- работает как «чёрный ящик»: получает ответы модели через API, не имея доступа к весам
- использует готовые примеры «безопасных» и «опасных» запросов
- обучает дискриминатор, который отличает ответы модели до и после модификации
- подбирает параметры так, чтобы модель давала меньше отказов, но сохраняла адекватность
- после завершения процесс можно сохранить финальную модель или протестировать её в чат-режиме
Зачем это нужно:
- позволяет локальным моделям отвечать шире, чем обычно позволяет их встроенный alignment
- минимизирует потерю качества — сделано так, чтобы модель не «тупела» и не отклонялась слишком сильно
- подходит для исследований поведения моделей и экспериментов с ограничениями
Важные моменты:
- инструмент мощный и может использоваться по-разному
- юридические и этические вопросы остаются на стороне пользователя
- автор подчёркивает: это не средство повышения точности модели, а именно инструмент снятия ограничений
https://github.com/p-e-w/heretic
@ai_machinelearning_big_data
#llm #opensource #ml
Он позволяет «расцепить» модель - убрать отказные фильтры и повысить готовность отвечать на запросы, не изменяя веса исходной модели напрямую.
Что делает Heretic:
- работает как «чёрный ящик»: получает ответы модели через API, не имея доступа к весам
- использует готовые примеры «безопасных» и «опасных» запросов
- обучает дискриминатор, который отличает ответы модели до и после модификации
- подбирает параметры так, чтобы модель давала меньше отказов, но сохраняла адекватность
- после завершения процесс можно сохранить финальную модель или протестировать её в чат-режиме
Зачем это нужно:
- позволяет локальным моделям отвечать шире, чем обычно позволяет их встроенный alignment
- минимизирует потерю качества — сделано так, чтобы модель не «тупела» и не отклонялась слишком сильно
- подходит для исследований поведения моделей и экспериментов с ограничениями
Важные моменты:
- инструмент мощный и может использоваться по-разному
- юридические и этические вопросы остаются на стороне пользователя
- автор подчёркивает: это не средство повышения точности модели, а именно инструмент снятия ограничений
https://github.com/p-e-w/heretic
@ai_machinelearning_big_data
#llm #opensource #ml
❤87🔥50👍11🥰10🤗4✍3🦄1
Media is too big
VIEW IN TELEGRAM
Компания выпустила расширение, которое напрямую связывает редактор кода со средами выполнения Google Colab. Иными словами, теперь можно работать с локальными .ipynb файлами, но выполнять код на Google Colab. Поддерживается подключение как к бесплатным средам выполнения, так и к премиум-тарифам Colab Pro.
Для начала работы достаточно установить расширение Google Colab из VS Code Marketplace. При выборе ядра для ноутбука появится опция «Colab», после чего нужно будет авторизоваться в аккаунте Google. Расширение также опубликовано в реестре Open VSX для совместимых редакторов.
developers.googleblog.com
Depth Anything 3 может предсказывает пространственно-согласованную геометрию по одному или нескольким изображениям, даже без известных параметров камеры. Ключевая особенность релиза - в радикальном упрощении архитектуры.
Под капотом единый трансформер и унифицированное представление depth-ray. Одна и та же модель теперь решает целый спектр задач: от монокулярной оценки глубины и определения поз камеры до прямой генерации 3D гауссианов для синтеза новых ракурсов.
В тестах DA3 превзошла предыдущие версии. Команда выпустила веса моделей, инструментарий CLI и WebUI на Gradio.
depth-anything-3.github.io
Компания закрыла раунд финансирования на 20 млрд. иен, в результате чего её оценка достигла около $2.635 млрд. Это сделало её самым дорогим непубличным стартапом в истории Японии. Среди инвесторов - Mitsubishi UFJ Financial Group и американские венчурные фонды.
Привлечённые средства будут направлены на разработку собственной LLM, адаптированной под особенности японского языка и культуры. Компания уже сотрудничает с MUFG и Daiwa Securities для создания специализированного ИИ для финансового сектора, а в будущем планирует расширяться в оборонную и обрабатывающую промышленность.
asia.nikkei.com
Основатель Amazon впервые после ухода с поста CEO занял операционную должность, став соруководителем ИИ-стартапа Project Prometheus. Компания привлекла $6.2 млрд, часть из которых — личные средства Безоса, что делает её одним из самых финансируемых стартапов на ранней стадии. Вторым CEO стал Вик Баджадж, физик и химик, ранее работавший в Google X над проектом Waymo.
Prometheus сфокусируется на создании ИИ-инструментов для ускорения инженерных и производственных процессов в автомобилестроении, аэрокосмической сфере и вычислительной техники. Стартап нацелен на сегмент ИИ-систем для робототехники, научные исследования и разработку материалов.
Несмотря на скрытный режим работы, команда проекта уже насчитывает около 100 специалистов, выходцев из OpenAI и DeepMind и компании Марка Цукербурга.
nytimes.com
Актёр Калум Уорти запустил ИИ-платформу 2wai, которая создаёт интерактивные цифровые копии ушедших из жизни людей. Для генерации приложению достаточно нескольких минут видеозаписи с человеком и после их оцифровки, пользователь может взаимодействовать с аватаром своего родственника, симулируя общение на разных этапах жизни.
В сети проект вызвал волну негатива и обвинение создателей в эксплуатации горя. Основные претензии сводятся к тому, что технология мешает здоровому процессу скорби и использует образы людей без их согласия.
Бета-версия приложения уже доступна в App Store. В будущем разработчики планируют ввести платную подписку и выпустить версию для Android.
Calum Worthy в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍76❤27🔥14❤🔥2🥰1🤩1
Media is too big
VIEW IN TELEGRAM
Новая погодная модель стала быстрее и более детализированной. Она может генерировать прогнозы в 8 раз быстрее, чем предыдущие версии, с разрешением до одного часа.
Но самое важное - это способность модели создавать сотни возможных сценариев развития погоды. Вместо одного прогноза система показывает целый спектр вероятностей, включая и наихудшие варианты, что критически важно для планирования в чрезвычайных ситуациях.
Каждый такой прогноз генерируется менее чем за минуту на одном TPU-чипе, в то время как традиционным физическим моделям на суперкомпьютере на это потребовались бы часы.
В основе WeatherNext 2 лежит метод Functional Generative Network, или FGN. Эта сеть вводит шум прямо в архитектуру модели, что позволяет ей генерировать физически реалистичные и взаимосвязанные прогнозы.
Интересно, что модель обучалась только на отдельных, разрозненных элементах погоды, которые метеорологи называют "marginals" - это, например, температура в конкретной точке или скорость ветра на определенной высоте.
И на основе этих данных модель самостоятельно учится прогнозировать "joints" — большие, сложные и взаимосвязанные погодные системы. По словам Google, WeatherNext 2 превосходит свою предыдущую версию по 99.9% переменных для прогнозов на срок от 0 до 15 дней.
Данные от WeatherNext 2 уже доступны в Earth Engine и BigQuery для исследователей и разработчиков. Кроме того, технология интегрирована в продукты Google: Поиск, Gemini, Pixel Weather и Weather API для Google Maps, а в ближайшие недели появится и в самих Картах Google.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43❤19🔥15⚡1
Media is too big
VIEW IN TELEGRAM
Компании заключили трехстороннее соглашение, меняющее расклад сил в индустрии. В рамках партнерства Anthropic обязуется закупить вычислительные мощности в Microsoft Azure на $30 млрд. В свою очередь, Nvidia инвестирует в стартап до $10 млрд, а Microsoft вложит еще до $5 млрд.
К тому же, это первое сотрудничество Anthropic и Nvidia на уровне моделей: алгоритмы Claude будут оптимизированы под архитектуры Grace Blackwell и будущие Vera Rubin.
Еще модели Claude Sonnet 4.5, Opus 4.1 и Haiku 4.5 станут доступны клиентам Microsoft Foundry и будут интегрированы в Copilot (GitHub и Microsoft 365). Сделка делает Claude единственной LLM топ-уровня, представленной на всех трех главных облачных платформах мира.
blogs.microsoft.com
Cloudflare объявила о присоединении Replicate, платформы для запуска и деплоя ИИ-моделей. Покупка станет частью единой инфраструктуры «AI Cloud», объединяющей глобальную периферийную сеть Cloudflare с инструментарием Replicate для работы с нейросетями.
Для разработчиков это означает крупное обновление сервиса Workers AI. В скором времени каталог из более чем 50 тыс. моделей Replicate станет доступен внутри экосистемы Cloudflare. Фишкой слияния станет поддержка запуска кастомных моделей и дообучения непосредственно на Workers AI.
Существующие API Replicate продолжат работать и получат буст производительности за счет инфраструктуры Cloudflare. Также в планах интеграция с другими сервисами: объектным хранилищем R2, векторной базой Vectorize и шлюзом AI Gateway.
blog.cloudflare.com
В отличие от Cursor или GitHub Copilot, Antigravity получил режим Manager View. Это центр управления для оркестрации работы множества агентов, выполняющих задачи параллельно в разных воркспейсах.
Агенты работают на базе Gemini 3 Pro, Claude Sonnet 4.5 или GPT-OSS и имеют прямой доступ к редактору, терминалу и браузеру. Инструмент умеет запоминать контекст прошлых проектов и обучаться на действиях пользователя.
Antigravity уже доступна в публичном превью для macOS, Windows и Linux бесплатно, причём Google обещает «щедрые лимиты» на использование моделей.
antigravity.google
На конференции SC25 состоялся анонс моделей Apollo, нацеленных на ускорение промышленного инжиниринга. Новое семейство позволит внедрять возможности ИИ в ПО для сложных вычислений в реальном времени — от проектирования микросхем и аэродинамики до прогнозирования климата и задач термоядерного синтеза.
В основе Apollo лежит комбинация нейронных операторов, трансформеров и диффузионных методов, адаптированных под законы физики. Инициативу уже поддержали Siemens, Cadence и Synopsys, которые планируют интегрировать новинку в свои продукты. Модели в скором времени появятся на HuggingFace и платформе NVIDIA NIM.
blogs.nvidia.com
DR Tulu — открытая модель на 8 млрд. параметров для создания агентов глубокого поиска, которая может самостоятельно планировать исследование, использовать внешние поисковые инструменты, собирать информацию из множества источников и предоставлять ответы с точными ссылками.
Модель учили на методе RLER (Reinforcement Learning with Evolving Rubrics). Вместо статических наград методика использует динамические критерии оценки, которые эволюционируют вместе с моделью. Это предотвращает взлом вознаграждения и заставляет агента реально анализировать контекст, а не имитировать правильный формат ответа.
По тестам DR Tulu-8B не уступает решениям от OpenAI и Perplexity на задачах long-form research, но работает кардинально дешевле. Стоимость выполнения сложного запроса у нее менее одного цента, тогда как аналогичная задача у OpenAI может стоить $1.80.
allenai.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍70❤31🔥15🤔4🤬2
Андрей Карпаты опубликовал у себя в Github небольшой проект - утилиту под названием reader3.
На первый взгляд, это просто легковесная читалка для электронных книг в формате EPUB, которую можно запустить у себя на компьютере. Но главная идея в том, чтобы читать книги вместе с LLM.
Reader3 разбивает книгу по главам, и пользователь может легко скопировать текст текущей главы и вставить его в свой любимый LLM, чтобы обсуждать сюжет, анализировать стиль или задавать вопросы по тексту.
Но самое интересное здесь — это философия, которая стоит за проектом. Карпаты пишет, что проект написан "на 90% вайбкодингом", просто для иллюстрации идеи и что он не собирается его поддерживать или улучшать.
Я начинаю привыкать читать все (блоги, статьи, главы книг и т. д.) с помощью LLM. Обычно первый проход — ручной, второй — «объяснение/резюме», третий — вопросы и ответы.
В результате я обычно получаю более глубокое понимание, чем если бы я просто прошел дальше. Этот процесс становится у меня одним из самых популярных вариантов чтения.
А вместо этого предлагает пользователям... просто попросить свою языковую модель изменить код так, как им нравится.
Код теперь эфемерный,
— пишет Андрей, намекая на то, что эпоха статичных библиотек и долгой поддержки уходит в прошлое.
Для тех, кто хочет попробовать, процесс максимально прост. Нужно скачать книгу в формате EPUB и запустить пару команд в терминале, используя
uv:uv run reader3.py yourbook.epub
# Then run the server:
uv run server.py
После этого ваша книжная полка станет доступна в браузере по адресу
localhost:8123.@ai_machinelearning_big_data
#AI #ML #LLM #Karpathy #Github #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61❤26🔥18🤔9🥱5❤🔥2🥰2😁1🤷1
Media is too big
VIEW IN TELEGRAM
GPT-5.1-Codex-Max - агентная модель для «тяжелой» разработки. Основной упор сделан на длительные процессы: теперь модель эффективнее справляется с многочасовым рефакторингом и сложными агентными циклами внутри IDE. Фишка релиза в технологии «уплотнения», благодаря которой модель удерживает контекст на миллионах токенов без потери связности.
По тестам, проведенным OpenAI в SWE-Bench Verified точность выросла до 77,9%, а в SWE-Lancer - почти 80%. Новинка уже стала дефолтной моделью в среде Codex для подписчиков Plus и Pro, а доступ через API разработчики получат в ближайшее время.
openai.com
На конференции Microsoft Ignite платформа объявила о смене стратегии: теперь это не просто база знаний, а инфраструктурный элемент для корпоративных нейросетей. Обновленный продукт Stack Internal конвертирует внутреннюю экспертизу компаний в формат, доступный ИИ-агентам через MCP.
Технически будет добавлен слой метаданных, формирующий рейтинг надежности. Система анализирует автора, актуальность и связность ответа, чтобы агент мог взвесить достоверность информации перед использованием. CEO компании признался, что этот шаг вдохновлен успешными сделками по продаже данных для обучения моделей (по аналогии с Reddit).
stackoverflow.blog
Agent 365 — инструмент, который позволяет организациям администрировать парк ИИ-агентов как обычных сотрудников. Платформа использует Microsoft Entra для создания единого реестра всех корпоративных ботов, присваивая каждому уникальный ID для строгого разграничения прав доступа и интеграции с корпоративными данными.
Помимо безопасности (за которую отвечают Defender и Purview), система предлагает специальные дашборды, которые показывают эффективность работы каждого агента в реальном времени. Agent 365 не замыкается на нативном Copilot Studio, он поддерживает open-source фреймворки и сторонние решения от партнеров MS. Инструмент уже появился в админ-панели Microsoft 365 в рамках программы тестирования.
microsoft.com
Manus запустила бета-тестирование Browser Operator — инструмента, который выводит ИИ-агентов из облачных песочниц в рабочую среду пользователя. Расширение, доступное для Chrome и Edge, позволяет автоматизировать действия в сервисах, требующих сложной авторизации (CRM, закрытые аналитические платформы), используя уже активные локальные сессии.
Через коннектор «My Browser» агент получает доступ к нужным вкладкам, а пользователь может в реальном времени наблюдать за его действиями, сохраняя контроль над безопасностью. На данный момент доступ открыт для подписчиков тарифов Pro, Plus и Team.
manus.im
Компания Илона Маска объединилась с саудовской Humain и Nvidia для создания масштабного вычислительного хаба. Проект мощностью 500 мегаватт позволит разместить десятки тысяч GPU для тренировки и инференса следующих поколений моделей Grok.
Для xAI это стратегический шаг: собственный хаб за пределами США позволяет снизить зависимость от аренды облачных мощностей у прямых конкурентов. Структура сделки такая: Nvidia поставляет GPU, за саудитами - земля и финансирование, а xAI получает присутствие на Ближнем Востоке.
bloomberg.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍58❤34🥰6🔥5
https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemini-3-pro-image-preview?pli=1
Попробовать: https://deepmind.google/models/gemini-image/pro/
@ai_machinelearning_big_data
#ai #ml #nanobanana
Please open Telegram to view this post
VIEW IN TELEGRAM
❤41🔥16👍12😨3🤬1