Машинное обучение digest
49 subscribers
1.43K photos
195 videos
732 links
Download Telegram
📌Hyundai получила награду «Лучшая инновация в области робототехники» на CES 2026.

Мобильная платформа нового поколения, Mobile Eccentric Droid (MobED), признана лучшей инновацией года.

Эта платформа размером 74 на 115 сантиметров оснащена 4 колесами и уникальной системой стабилизации. Она использует технологию Drive and Lift, которая позволяет преодолевать роботу препятствия высотой до 20 сантиметров, уверенно ехать по склонам и "лежачим полицейским", сохраняя при этом горизонтальное положение корпуса.

MobED подготовлен к работе на улице. Он разгоняется до 10 км/ч и работает более 4 часов на одном заряде. В зависимости от модификации, он может везти на себе от 47 до 57 кг. груза.

Массовое производство стартует в первом квартале этого года. Hyundai предлагает две версии:

🟠MobED Basic - тренажер для разработчиков и исследовательских институтов. Вы получаете платформу и сами пишете под неё софт.

🟢MobED Pro - готовое решение для бизнеса. Здесь предустановлены технологии автономного вождения. Система использует ИИ и сенсоры, объединяющие LiDAR и камеры. Управлять таким роботом можно удаленно — интерфейс сделали максимально интуитивным.

Представитель Hyundai Robotics Lab отметил, что эта награда - переход от концептов к реальным продуктам, которые меняют нашу повседневную жизнь.

Напомним, концепт MobED впервые показали еще на CES 2022, и вот, спустя почти 4 года, мы видим серийную модель.

Кстати, в Hyundai говорят, что если масштабировать эту технологию и увеличить грузоподъемность, в будущем мы получим персональный транспорт для человека — нечто среднее между роботом и автомобилем.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
10 дней 2026 года - и уже видно, куда всё катится 🔥

Три новости, которые выглядят как мем… но на самом деле это сигналы больших изменений.

1) Теренс Тао + Aristotle решают задачу Эрдёша
Теренс Тао - один из самых сильных математиков планеты.
И тут появляются новости, что GPT/проект Aristotle смог автономно (то есть без “пошагового ведения человеком”)
решить одну из задач уровня Paul Erdős.

ИИ начинает заходить в область, где раньше были только топ-учёные, и не просто “помогает”, а сам решает.

2) Линус Торвальдс признаёт: vibe coding лучше ручного кода
Линус - создатель Linux. Символ “старой школы” и инженерной строгости.
И он буквально пишет в коммите, что изменения, сделанные через AI-ассистента, получились лучше,
чем если бы он делал сам вручную (речь не про ядро, а про личный инструмент).

Если даже Линус говорит “да, так реально быстрее и лучше”, то AI-кодинг уже не игрушка.
Это новый стандарт разработки для всего, что не относится к сверхкритичному low-level.

3) DHH “AI не умеет кодить” → откат назад
DHH (создатель Ruby on Rails) раньше говорил, что “AI не может нормально кодить”.
Но спустя 6 месяцев он пересматривает позицию.

Скептики не “переобуваются ради хайпа” - они просто сталкиваются с фактом:
модели стали настолько сильнее, что игнорировать это уже невозможно.

Это не просто три новости.
Это три маркера одного и того же тренда:

ИИ перестаёт быть “помощником”
и становится инструментом ускорения человечества.

И похоже, нас ждёт ускорение, которого мы ещё не видели.
MIT: большие датасеты не всегда нужны - можно вычислить “минимум данных”, который гарантирует лучший ответ

Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.

Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.

То есть система отвечает на вопрос не “примерно”, а строго:

👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.

В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.

А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее

Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.

Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid

Каждое измерение может быть: дорогим, медленным, опасным или редким.

И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.

Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 DroPE: как расширить контекст LLM, просто “выкинув” позиционные эмбеддинги (механизм, который говорит трансформеру в каком порядке идут токены.)

Sakana AI выпустили DroPE - метод, который позволяет увеличить контекст у уже предобученных LLM без привычных адских затрат на long-context fine-tuning.

Идея звучит как ересь, но результаты говорят об обратном .

💡 Главный инсайт
Позиционные эмбеддинги (например RoPE) жизненно важны, чтобы модель нормально обучилась и сошлась.

Но после обучения они же становятся главным ограничителем, из-за которого модель плохо переносит контекст длиннее, чем видела на трейне.

То есть:
- для обучения - нужны
- для генерализации на очень длинные последовательности - мешают

Решение DroPE
Авторы предлагают относиться к позиционным эмбеддингам как к временным “строительным лесам”:
- в pretraining они дают стабильность
- после обучения их можно сбросить (drop)
- и получить zero-shot length extrapolation (модель начинает заметно лучше работать на длинах, которых не видела)


Большие контексты нужны пользователям :
- огромные code diff и монорепы
- юридические контракты на сотни страниц
- аналитика логов и документов без разбиения на чанки

Именно тут многие стандартные модели начинают “ломаться” просто потому что контекст слишком длинный.

Результаты
DroPE проверили на разных open-source моделях:
- калибровка занимает <1% бюджета от исходного pretraining
- а качество на long-context задачах заметно лучше популярных подходов
- сильные результаты на LongBench и RULER

Позиционка нужна, чтобы обучить модель, но может быть лишней, чтобы мыслить длинно

Возможно RoPE - не “обязательная часть архитектуры”, а просто инструмент для стабильного обучения.

📄 Paper: arxiv.org/abs/2512.12167
🔧 Code: github.com/SakanaAI/DroPE

@ai_machinelearning_big_data

#sakana #ai #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
😳 Новое оекарство увеличило REM-сон на 90% — без увеличения общего времени сна

REM (Rapid Eye Movement) - это фаза сна с быстрыми движениями глаз.

Именно в ней мозг работает почти как в бодрствовании: чаще всего снятся яркие сны, активно обрабатываются эмоции и закрепляется память.

Новый препарат смог почти в 2 раза поднять долю REM-сна
и при этом люди не спали дольше.

Почему это “вау”:
обычные снотворные просто помогают быстрее отключиться или спать глубже.
А тут другое.

Это выглядит так, будто препарат перепрошил ночной режим мозга: тот же самый объём времени сна — но внутри него мозг проводит намного больше времени в REM.

Потенциальный плюс огромный:
- быстрее обучение
- эмоциональная устойчивость
- яснее мышление

Но главный вопрос — долгосрочная безопасность.
Если мозг реально выдержит такой режим долго, это может быть шаг к
инженерному сну: не “спать дольше”, а “спать умнее”.
🧭 LLMRouter - умная маршрутизация запросов между LLM

UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:

не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее

Идея простая:
разные модели сильны в разном.

Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.

LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики

В итоге:
обычные вопросы идут в дешёвую модель
сложные reasoning-задачи - в сильную
код/инструменты - в специализированную
и всё это автоматически

Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.

Короче: это “load balancer” для LLM, но с мозгами.

GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps

@pythonl
Автоматизируем рутину на максимум: вышла Manus Academy - платформа с бесплатными курсами по ИИ-агентам.

Внутри - крепкая база, с которой уже легко заходить в продвинутый вайбкодинг:
научат собирать приложения без кода, настраивать кастомные workflow, и писать промпты, которые реально работают (а не “вода”).

https://academy.manus.im/
🧠 Awesome Agentic Patterns - шпаргалка по агентам, которая реально полезна

Наткнулся на репозиторий awesome-agentic-patterns - и это один из самых практичных “awesome-листов” по теме AI-агентов.

📌 Что внутри:
не теоретические рассуждения, а паттерны - мини-архитектуры и рабочие приёмы, которые используют команды, когда делают production-агентов.

Автор прямо пишет идею проекта:
> тут не про “игрушки и демки”, а про штуки, которые закрывают грязную реальность продакшена.
Почти любой агент в проде упирается в одни и те же проблемы:

- контекст не помещается → нужно умно управлять памятью
- модель косячит → нужны retry/валидация/guardrails
- цепочки действий ломаются → нужна оркестрация
- непонятно, что пошло не так → нужны логи + eval
- безопасность / PII → нужен sandbox и фильтрация

И вот под это как раз собраны паттерны.

https://github.com/nibzard/awesome-agentic-patterns

@pythonl
💰 У DeepSeek может быть один из самых сильных “скрытых источников финансирования” в AI - хедж-фонд его основателя.

Речь про Ляна Вэньфэна (Liang Wenfeng) и его фонд Zhejiang High-Flyer Asset Management. По данным Bloomberg, 2025 год у них получился просто феноменальным: средняя доходность по фондам - 56.6%.

Почему это важно для DeepSeek?
Потому что такие результаты дают не просто “успешный год на рынке”, а реальные деньги, которыми можно оплачивать развитие ИИ:
- зарплаты сильной команде
- закупку GPU
- серверы, сети, дата-центры
- всё железо, без которого LLM не масштабируются

Ключевые факты:
- High-Flyer управляет капиталом более $10 млрд
- занял 2-е место среди китайских квант-фондов с капиталом > $1.4 млрд
- фонд заработал +56% → эти деньги фактически остаются у владельца фонда (Ляна).
- если прикинуть выручку по стандартной схеме 1% management fee + 20% performance fee, получается $700+ млн
- и это выглядит особенно мощно на фоне того, что бюджет DeepSeek на “топопвые” модели оценивался менее чем в $6 млн

Интересный момент: в 2024 фонд отошёл от market-neutral и сделал ставку на long-only стратегии (покупка акций в расчёте на рост).

А когда сразу несколько топ-квант-фондов показывают 50-70%+ за один год - это чаще говорит о том, что рынок был очень удачным для их системных стратегий, а не о единичной “везухе”.

В среднем китайские квант-фонды показали 30.5% за 2025 - больше чем в 2 раза выше глобальных конкурентов.

DeepSeek может иметь редкое преимущество - внутренний финансовый двигатель, который способен стабильно оплачивать масштабирование AI, не зависеть от раундов и инвесторов.
⚡️ DeepSeek Engram: условная память LLM через поиск.

DeepSeek опять шатают устои архитектуры трансформеров свежайшим пейпером, который доказывает, что новое — это хорошо и очень хитро забытое старое.

Пока все пытаются запихнуть в LLM как можно больше слоев и параметров, DeepSeek задались вопросом: зачем тратить дорогой компьют на запоминание фактов, если их можно просто подсмотреть? Знакомьтесь:

🟡Engram — модуль, который возвращает нас к дедам с N-грамами.

DeepSeek предлагает разделить "думалку" (MoE-слои) и "хранилище знаний" (Engram):

🟢Hashed N-grams: модуль смотрит на входящий текст и нарезает его на N-грамы (последовательности токенов).

🟢O(1) Lookup: система делает мгновенный запрос в гигантскую хэш-таблицу эмбеддингов - это чисто статический поиск.

🟢Context-Aware Gating: самый сок. Модель не просто слепо берет данные из "хранилища знаний" - специальный гейтинг-механизм решает: "Нам сейчас нужен факт из памяти или будем думать сами?". Если найденный N-грам релевантен контексту, он подмешивается в скрытое состояние.

🟢Tokenizer Compression: чтобы хранилище знаний не лопнуло от мусора, похожие токены в нем схлопывают в один ID, например, "Apple" и "apple".

🟡Баланс распределения ресурсов.

Чтобы правильно поделить бюджет параметров между MoE и Engram посчитали сценарии масштабирования. График лосса от соотношения этих частей выглядит как буква U:

🟠Перекос в MoE (100% вычислений): модель тратит дорогие слои внимания на запоминание статики. Это неэффективно, лосс высокий.

🟠Перекос в Память (0% вычислений): модель превращается в гигантскую википедию. Она помнит факты, но у нее напрочь атрофируется ризонинг. Лосс тоже высокий.

🟢Золотая середина (дно U-кривой): 80% MoE и ~20% Engram.

🟡Тесты и результаты.

DeepSeek обучили модель Engram-27B и сравнили ее с классической MoE-27B при одинаковом бюджете параметров и FLOPs. Итоги:

Общее качество подросло: MMLU +3.4 пункта, HumanEval (код) +3.0.

На длинном контексте - разнос. В тесте на поиск иголки (NIAH) точность выросла с 84.2 до 97.0. Модель разгрузила слои внимания от запоминания локальных паттернов, и оно сфокусировалось на глобальном контексте.

Модель быстрее сходится. Engram берет на себя рутину в ранних слоях, тем самым позволяя модели сразу учиться сложным вещам.


🟡Архитектурный нюанс.

Таблица эмбеддингов для Engram может быть запредельно огромной (в пейпере разгоняли до 100B параметров) и, очевидно, в VRAM это не влезает.

Решили так: раз ID токенов известен до прогона слоя, то эти данные можно хранить в RAM и асинхронно подтягивать. В реале, оверхед от этой механики показал меньше 3%., т.е. мы получаем модель, которая знает больше, чем влезает в GPU, используя оперативку сервера.

🟡DeepSeek фактически легализовала подобие шпаргалок для LLM.

Вместо того чтобы заставлять модель учить все наизусть, ей дают гигантский справочник. Теоретически, это открывает путь к прекрасному ИИ светлого будущего, который может иметь условно-бесконечную память, ограниченную только объемом оперативки, а не VRAM.

Похоже, в V4 мы увидим как эта схема работает, ведь инсайдеры обещают у нее запредельные скилы.


🟡Техотчет
🖥Github


@ai_machinelearning_big_data

#AI #ML #LLM #Engram #Deepseek
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 AnthropicAI выпустили Claude Cowork - по сути это Claude Code, но для НЕтехнарей

Идея простая: теперь агенты на твоём компьютере становятся доступными не только разработчикам.

Что умеет Claude Cowork:

Долгие задачи прямо на твоём ПК
Не “ответил и забыл”, а реально берёт задачу и делает её часами, пока не закончит.

Без терминала
Никаких команд, npm, pip и прочего - запускается прямо в Claude app как новая вкладка.

Доступ ко всему контексту компьютера
Может:
- видеть файлы и папки
- использовать контекст приложений
- управлять браузером
- собирать данные и заполнять формы
- выполнять цепочки действий

Мир сейчас впервые массово увидит, каково это -
когда твой компьютер реально работает за тебя, пока ты спишь.

Следующий шаг очевиден: люди начнут “нанимать” ИИ как ассистента,а не как чатбота.

Ждём эпоху: *поставил задачу вечером → утром получил готовый результат*.

📌 Скачать: https://claude.com/download
📌 Анонс: https://claude.com/blog/cowork-research-preview
Новый open-source “мозг” для роботов - и он уже №1 в мире 🤖🔥

Spirit AI представили Spirit v1.5 - свежую vision-language-action модель, которая превращает то, что робот видит, в точные физические действия.

По сути:
📷 видение + 💬 понимание + 🦾 управление = один мозг.

Что самое громкое:
Spirit v1.5 заняла #1 место на бенчмарке RoboChallenge Table30,
обогнав прошлого лидера Pi0.5 по:
- роботизированному reasoning
- контролю движений
- качеству выполнения задач в физическом мире

Это уже не “чатботы для текста”.
Это LLM-подход, который реально начинает управлять реальностью.

Ссылки:
Code: https://github.com/Spirit-AI-Team/spirit-v1.5
Model: https://huggingface.co/Spirit-AI-robotics/Spirit-v1.5
Blog: https://spirit-ai.com/en/blog/spirit-v1-5
Report: https://mp.weixin.qq.com/s/ZrBDFuugPyuoQp4S6wEBWQ

Если open-source роботы начнут массово получать такие мозги - то 2026 может стать годом, когда роботы “проснутся”.
NVIDIA: LLM получат “память как у человека” и начнут учиться прямо во время ответа 🔥

NVIDIA выпустили очень сильный материал:
Reimagining LLM Memory: Using Context as Training Data Unlocks Models That Learn at Test-Time

Суть проблемы:
мы постоянно слышим про 128K / 1M токенов контекста…
но в реальности LLM всё равно:
- повторяют ошибки
- забывают важные детали
- требуют “скинь весь контекст заново”

И вот что предлагают NVIDIA:

Контекст = обучающие данные
Обычный трансформер читает контекст как “текст”.
NVIDIA предлагают читать его как данные для обучения.

То есть модель не просто смотрит на историю —
а компрессит её в свои веса через next-token prediction.

Этот подход называется:
TTT-E2E (Test-Time Training End-to-End)

Почему это прорыв
Фактически это новая форма памяти:
модель может адаптироваться внутри одной сессии
и “становиться умнее” прямо во время выполнения задачи.

Главный кайф: скорость на длинном контексте
TTT-E2E даёт постоянную стоимость инференса (без взрыва по latency),
поэтому при длинных окнах это очень выгодно:

- ~2.7x быстрее, чем full attention на 128K токенов
- ~35x быстрее на 2M токенов (H100)

Как это меняет RAG
Классический RAG:
“ищем в базе → вставляем в контекст → читаем”.

TTT:
“прочитали → и записали опыт внутрь модели”.

То есть это ближе к тому, как работает человек:
мы не держим всё в голове дословно — мы обновляем мозг опытом.

Вывод:
контекстные окна будут расти, но настоящая “память” LLM —
это модели, которые умеют учиться на контексте в моменте.
И NVIDIA прямо сейчас толкают индустрию в эту сторону.

https://developer.nvidia.com/blog/reimagining-llm-memory-using-context-as-training-data-unlocks-models-that-learn-at-test-time/
Учёные из Стэнфорда создали искусственную кожу, которая может менять цвет и текстуру, как это делает осьминог.

Кожа реагирует на ток, воду, тепло и команды и меняет цвет и текстуру за секунды. До выхода из лаборатории технологии пока далеко, но потенциально кожу можно использовать:

🟢 в протезах, которые выглядят и ощущаются живыми;
🟢 на роботах, чтобы они чувствовали среду и меняли форму для маскировки, пока преследуют Сару Коннор;
🟢 и даже для создания необычных гаджетов. 🤨

«Есть возможность переосмыслить дисплеи… физически отображая реалистичные текстуры в дополнение к отображению цветов», — уточнил соавтор исследования из Стэнфорда.


Ждем роботов, которые идеальны в маскировке. ☠️

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Google Research выпустили MedGemma 1.5 - мощный апдейт медицинской Gemma, который заметно прокачал качество сразу по нескольким направлениям:

- CT / MRI
- гистопатология
- рентген
- временные ряды (X-ray timelines)
- медицинские тексты

По тестам приросты очень жирные:
- до +14% точности на задачах по медицинским изображениям
- до +22% на QA по EHR (электронные медкарты)

И это ещё не всё.

Вместе с моделью вышла MedASR - открытая speech-to-text модель для медицины, которая даёт:
до 82% меньше ошибок транскрибации, чем обычные ASR-модели общего назначения.

То есть теперь можно реально делать точную расшифровку врачебной речи, приёмов, диктовок - без тонны “галлюцинаций” в терминах и названиях препаратов.

https://research.google/blog/next-generation-medical-image-interpretation-with-medgemma-15-and-medical-speech-to-text-with-medasr/
🐴 DeepSeek спрятали в коде крутую пасхалку

Отсылка к знаменитой исторической истории про Александра Македонского и его легендарного коня Буцефала.

Коротко сюжет:

К торговцу привели огромного дикого коня и предложили царю Филиппу II купить его за 13 талантов (по тем временам — почти безумные деньги).
Проблема — конь был настолько неуправляемый, что никто не мог даже приблизиться, а любой всадник мгновенно летел в пыль.

Все дрессировщики сдались. Царь уже собирался отказаться.

И тут выходит юный Александр (ещё подросток) и заявляет:
> “Вы теряете отличного коня из-за собственной глупости.”

Его высмеивают, отец отчитывает, но Александр настаивает и даже заключает пари:
если не справится — оплатит коня сам.

А дальше гениальная деталь.

Александр не стал давить силой — он заметил то, чего не видел никто:
Буцефал панически боялся собственной тени.

Он спокойно развернул коня мордой к солнцу — тень ушла назад, исчез главный источник страха.

Конь моментально успокоился.
Александр погладил его, сел верхом — и спокойно уехал.

Толпа в шоке. Все аплодируют.

С тех пор появилась почти символическая мысль:
“Только Александр мог укротить Буцефала.”
То есть только человек с исключительным умом и смелостью может решить то, что другим кажется невозможным.

И вот почему пасхалка DeepSeek выглядит как тонкий намёк:
> “Не каждому дано понять и сделать то что неужно. Только гении способны на это.”


Очень красивая, почти дерзкая отсылка.

mp.weixin.qq.com/s/L7YawzhHCACBQsiEb7w-Tw
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Хочешь обучить свой TTS с нуля и добавлять туда фичи “как тебе надо”, а не как у всех?

Команда LEMAS (IDEA) открыла датасет, на котором они обучали LEMAS и это, похоже, крупнейший open-source мультиязычный speech-датасет вообще.

Что внутри:
- 150K+ часов аудио
- 10 языков
- word-level timestamps (разметка до уровня слов)
- качество и масштаб уровня “обычно такое держат под замком”

По сути - они выложили то, что большинство компаний никогда бы не отдали публично.

И да, из этого “сокровища” уже родились 2 мощные модели:

LEMAS-TTS
- Zero-shot мультиязычный синтез речи (озвучка без дообучения на конкретного спикера)

LEMAS-Edit
- редактирование речи как текста: меняешь слова — меняется аудио

Если ты работаешь со Speech AI, TTS, ASR, voice agents — это must-have релиз.

Project: https://lemas-project.github.io/LEMAS-Project/
Dataset & model released: https://huggingface.co/LEMAS-Project
Главные новости ИИ и Машинного обучения .

✔️ Anthropic запустила режим Cowork.

Anthropic переносит агентные возможности Claude Code в массовый сегмент с новой функцией Cowork. Суть нововведения - сдвиг парадигмы от чат-бота к исполнительному ассистенту.

Режим позволяет Claude самостоятельно читать, редактировать и создавать файлы в доверенной директории, не требуя постоянного копипаста в диалоговое окно. Сценарии использования варьируются от наведения порядка в папке до конвертации скриншотов в таблицы и подготовки презентаций на основе заметок. Технически функция базируется на Claude Agent SDK и интегрируется с браузером через Claude in Chrome.

На старте Cowork доступен в Research Preview только для подписчиков Claude Max в приложении для macOS. Версию для Windows и синхронизацию между устройствами обещают добавить в будущих обновлениях.
claude.com

✔️ Марк Цукерберг формирует подразделение для строительства инфраструктуры.

Задача нового подразделения — обеспечить компанию десятками гигаватт энергетических и вычислительных мощностей в текущем десятилетии, с прицелом на сотни гигаватт в долгосрочной перспективе. Глава техно-гиганта считает способность быстро возводить физическую инфраструктуру главным стратегическим преимуществом перед конкурентами по бигтеху.

Руководить направлением будут Сантош Джанардхан (глава глобальной инфраструктуры) и Дэниел Гросс (сооснователь Safe Superintelligence). Их работу будет курировать президент компании Дина Пауэлл Маккормик, чья роль — наладить диалог с правительствами и суверенными фондами.

Создание отдельной структуры формализует планы по инвестированию $600 млрд. в инфраструктуру США к 2028 году.
axios.com

✔️ NVIDIA и Eli Lilly запустят ИИ-лабораторию для поиска новых лекарств.

Компании объявили о создании совместного центра инноваций, в котором будут интегрировать биологические исследования с высокопроизводительными вычислениями на NVIDIA Vera Rubin и платформе BioNeMo.

Особенность пятилетнего проекта — реализация концепции «Lab-in-the-Loop». Это замкнутый цикл непрерывного обучения: роботизированные лаборатории будут генерировать экспериментальные данные в режиме 24/7, мгновенно передавая их для дообучения и калибровки нейросетей. Запуск объекта намечен на март 2026 года.
nvidia.com

✔️ В Nano Banana сгенерировали 1 млрд. изображений.

Вице-президент Goggle Джош Вудвард отчитался в сети Х о востребованности Nano Banana Pro (официальное название — Gemini 3 Pro Image). С момента релиза 20 ноября пользователи создали с её помощью более миллиарда изображений.

Драйвер роста - способность модели корректно генерировать текст на множестве языков и наличие инструментов контроля: освещения, фокуса и ракурсов камеры. В декабре была добавлена возможность редактирования изображений через рисование поверх них с текстовыми подсказками.

Модель по-прежнему доступна всем: на бесплатный тарифе дают 3 генерации Pro-уровня в день, а на премиальных тарифах лимиты расширены до 1000 генераций в сутки.
9to5google.com

✔️Агент Manus научился оцифровывать очные встречи.

Manus представил Meeting Minutes - функцию для запись живых диалогов, интервью и брейнштормов в оффлайне. Система может вести запись без интернета, выполняя обработку данных после восстановления соединения. ИИ автоматически распознает спикеров, выделяет ключевые тезисы и формирует список задач.

Главной фишкой стала бесшовная интеграция с агентом: можно в один клик трансформировать итоги встречи в слайд-дек, текстовые заметки или подготовить документацию прямо внутри диалога с Manus.

Функцию уже раскатали - запись встреч бесплатна, а вот аналитика расходует внутренние кредиты.
manus.im

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM