Forwarded from Machinelearning
По бенчмаркам Qwen3-Max-Preview опережает предыдущий флагман Qwen3-235B-A22B-2507.
Внутренние тесты и первые отзывы пользователей говорят о том, что модель стала сильнее в диалогах, агентных задачах, следовании инструкциям и обладает более широкими знаниями.
Qwen обещают очень скоро выпустить ещё что-то интересное.
Qwen3-Max-Preview уже доступна в Qwen Chat и через Alibaba Cloud API.
@ai_machinelearning_big_data
#AI #Qwen3 #LLM #AlibabaCloud #QwenChat
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍 Битва за ИИ-вычисления: 🇺🇸 США против 🇨🇳 Китая
🇺🇸 США
На сегодня именно США контролируют большую часть мировой мощности для обучения ИИ. Nvidia и её софт-экосистема (CUDA, PyTorch, Triton) остаются эталоном и формируют глобальный стандарт.
🇨🇳 Китай
Инвестиции в AI-инфраструктуру в 2025 году могут достичь $98 млрд (+48% к 2024):
- $56 млрд — государственные программы
- $24 млрд — ведущие интернет-гиганты
Но превратить такие вложения в сопоставимую с США «тренировочную мощь» мешают экспортные ограничения и технологический разрыв.
⚡ Ставка на свои чипы
Китай усиливает упор на собственные ускорители, особенно для инференса. Huawei в 2025 году начнёт массовые поставки Ascend 910C — сборки из двух кристаллов 910B.
🔑 Почему США впереди
- Аппаратное превосходство: даже урезанный для экспорта Nvidia H20 опережает Huawei Ascend 910B по памяти и пропускной способности — критическим параметрам для обучения больших моделей.
- Софт-разрыв: зрелость Nvidia-стека позволяет выжимать максимум из «железа», тогда как Huawei из-за сырого ПО теряет эффективность даже при неплохих характеристиках.
📌 Итог: Китай вкладывает рекордные суммы и наращивает мощности, но США сохраняют лидерство благодаря связке топ-железа и зрелого ПО. Китайские решения пригодны для инференса, но по обучению крупнейших моделей разрыв пока очевиден.
#AI #Compute #Geopolitics #Nvidia #Huawei
🇺🇸 США
На сегодня именно США контролируют большую часть мировой мощности для обучения ИИ. Nvidia и её софт-экосистема (CUDA, PyTorch, Triton) остаются эталоном и формируют глобальный стандарт.
🇨🇳 Китай
Инвестиции в AI-инфраструктуру в 2025 году могут достичь $98 млрд (+48% к 2024):
- $56 млрд — государственные программы
- $24 млрд — ведущие интернет-гиганты
Но превратить такие вложения в сопоставимую с США «тренировочную мощь» мешают экспортные ограничения и технологический разрыв.
⚡ Ставка на свои чипы
Китай усиливает упор на собственные ускорители, особенно для инференса. Huawei в 2025 году начнёт массовые поставки Ascend 910C — сборки из двух кристаллов 910B.
🔑 Почему США впереди
- Аппаратное превосходство: даже урезанный для экспорта Nvidia H20 опережает Huawei Ascend 910B по памяти и пропускной способности — критическим параметрам для обучения больших моделей.
- Софт-разрыв: зрелость Nvidia-стека позволяет выжимать максимум из «железа», тогда как Huawei из-за сырого ПО теряет эффективность даже при неплохих характеристиках.
📌 Итог: Китай вкладывает рекордные суммы и наращивает мощности, но США сохраняют лидерство благодаря связке топ-железа и зрелого ПО. Китайские решения пригодны для инференса, но по обучению крупнейших моделей разрыв пока очевиден.
#AI #Compute #Geopolitics #Nvidia #Huawei
Forwarded from Machinelearning
Теперь каждый чип будет заточен под конкретный этап LLM-инференса.
Инференс делится на два шага:
- Prefill - первая стадия. Требует огромной вычислительной мощности, но почти не использует память.
- Decode - вторая стадия. Наоборот, сильно нагружает память, но вычислений нужно меньше.
Раньше, например, R200 объединял в одном GPU и мощные вычислительные блоки, и много памяти. В итоге это было дорого и неэффективно:
- при Prefill простаивает память,
- при Decode — простаивают вычислительные блоки.
- Rubin CPX - оптимизирован для Prefill
• 20 PFLOPS вычислений
• 128 GB GDDR7
• 2 TB/s пропускная способность
- R200 — GPU под Decode
• 288 GB HBM4
• 20.5 TB/s памяти
📆 Планы компании:
- **2024–2025**-— линейка Blackwell (B200, GB300): рост вычислений и памяти.
- 2026–2027 - Rubin разделится:
• VR200 — для Decode (максимум HBM).
• CPX — для Prefill (много вычислений, дешёвая память).
- 2027 — VR300 Ultra: 66.7 PFLOPS и 1024 GB HBM4E.
Nvidia перестраивает линейку так, чтобы каждый GPU работал максимально эффективно именно под свой этап инференса.
#Nvidia #GPU #AI #Blackwell #Rubin #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 EmbeddingGemma — лёгкие SOTA-эмбеддинги
🔹 308M параметров, построена на Gemma 3
🔹 Лидирует в MTEB среди моделей <500M (мультиязычные, английский, код)
🔹 По качеству сопоставима с моделями в 2 раза больше
🔹 Эффективна даже при 4-битной квантовке и 128-мерных эмбеддингах
⚙️ Технические фишки:
- инициализация через encoder-decoder + геометрическая дистилляция,
- spread-out регуляризатор + model souping для устойчивости.
📱 Подходит для on-device сценариев и задач с высоким пропуском (high-throughput).
https://ai.google.dev/gemma/docs/embeddinggemma?hl=ru
#AI #Embeddings #Gemma3 #MTEB #NLP
🔹 308M параметров, построена на Gemma 3
🔹 Лидирует в MTEB среди моделей <500M (мультиязычные, английский, код)
🔹 По качеству сопоставима с моделями в 2 раза больше
🔹 Эффективна даже при 4-битной квантовке и 128-мерных эмбеддингах
⚙️ Технические фишки:
- инициализация через encoder-decoder + геометрическая дистилляция,
- spread-out регуляризатор + model souping для устойчивости.
📱 Подходит для on-device сценариев и задач с высоким пропуском (high-throughput).
https://ai.google.dev/gemma/docs/embeddinggemma?hl=ru
#AI #Embeddings #Gemma3 #MTEB #NLP
⚡ Менять автоэнкодер в latent diffusion моделях проще, чем кажется.
🚀 DC-Gen — это новый фреймворк для ускорения диффузионных моделей после обучения.
Он переводит любую готовую модель в глубоко сжатое латентное пространство, снижая затраты и многократно ускоряя генерацию.
🔑 Основное
- Высокое разрешение без потерь качества
Версия DC-Gen-FLUX.1-Krea-12B выдаёт то же качество, что и оригинал, но работает в 53 раза быстрее на H100 при 4K.
С NVFP4 картинка 4K генерируется всего за 3.5 секунды на одной NVIDIA 5090 (20 шагов).
- 💸 Низкая стоимость адаптации
Перевод FLUX.1-Krea-12B в глубоко-сжатый автоэнкодер требует всего 40 GPU-дней на H100.
📄 Статья: https://arxiv.org/abs/2509.25180
💻 Код: https://github.com/dc-ai-projects/DC-Gen
🎨 Модели : https://huggingface.co/collections/dc-ai/dc-gen-6899bb095082244f396203e1
#diffusion #deeplearning #AI
🚀 DC-Gen — это новый фреймворк для ускорения диффузионных моделей после обучения.
Он переводит любую готовую модель в глубоко сжатое латентное пространство, снижая затраты и многократно ускоряя генерацию.
🔑 Основное
- Высокое разрешение без потерь качества
Версия DC-Gen-FLUX.1-Krea-12B выдаёт то же качество, что и оригинал, но работает в 53 раза быстрее на H100 при 4K.
С NVFP4 картинка 4K генерируется всего за 3.5 секунды на одной NVIDIA 5090 (20 шагов).
- 💸 Низкая стоимость адаптации
Перевод FLUX.1-Krea-12B в глубоко-сжатый автоэнкодер требует всего 40 GPU-дней на H100.
📄 Статья: https://arxiv.org/abs/2509.25180
💻 Код: https://github.com/dc-ai-projects/DC-Gen
🎨 Модели : https://huggingface.co/collections/dc-ai/dc-gen-6899bb095082244f396203e1
#diffusion #deeplearning #AI
🏗️ Новый тренд в AI-инвестициях: вместо привычных «Magnificent Seven» (Apple, Microsoft, Nvidia и др.) инвесторы начинают ставить на Oracle, Broadcom и Palantir как на следующих лидеров.
📊 Что важно знать:
- Oracle заключила контракт с OpenAI на $300 млрд и уже имеет заказы на $455 млрд. Строит новые дата-центры на 4.5 ГВт. Акции выросли на 60% за год.
- Broadcom делает полу-кастомные чипы для Google, Meta и скоро для OpenAI. Недавно получила заказ на $10 млрд. В Q4 ожидается $6.2 млрд выручки от AI.
- Palantir показывает взрывной рост на фоне AI: +48% к выручке во 2 квартале 2025, а акции подскочили на +386% за год. Но бумаги считаются рискованными из-за высокой оценки.
- Axon использует AI для обработки видео с бодикамер — система сама пишет черновики полицейских отчётов.
- SK Hynix зарабатывает на памяти для мегапроекта OpenAI Stargate.
- Nvidia остаётся главным игроком ($4.5 трлн капитализации), но появляются новые конкуренты вроде CoreWeave и кастомных чипов.
💡 Главный вывод: рост в AI всё больше идёт не только за счёт «больших» компаний, а через инфраструктуру, крупные заказы и специализированные чипы.
Источник: afr.com/markets/equity-markets/fund-managers-tip-the-next-winners-of-the-ai-revolution-20250929-p5myml
#AI #инвестиции #акции #cloud #chips
📊 Что важно знать:
- Oracle заключила контракт с OpenAI на $300 млрд и уже имеет заказы на $455 млрд. Строит новые дата-центры на 4.5 ГВт. Акции выросли на 60% за год.
- Broadcom делает полу-кастомные чипы для Google, Meta и скоро для OpenAI. Недавно получила заказ на $10 млрд. В Q4 ожидается $6.2 млрд выручки от AI.
- Palantir показывает взрывной рост на фоне AI: +48% к выручке во 2 квартале 2025, а акции подскочили на +386% за год. Но бумаги считаются рискованными из-за высокой оценки.
- Axon использует AI для обработки видео с бодикамер — система сама пишет черновики полицейских отчётов.
- SK Hynix зарабатывает на памяти для мегапроекта OpenAI Stargate.
- Nvidia остаётся главным игроком ($4.5 трлн капитализации), но появляются новые конкуренты вроде CoreWeave и кастомных чипов.
💡 Главный вывод: рост в AI всё больше идёт не только за счёт «больших» компаний, а через инфраструктуру, крупные заказы и специализированные чипы.
Источник: afr.com/markets/equity-markets/fund-managers-tip-the-next-winners-of-the-ai-revolution-20250929-p5myml
#AI #инвестиции #акции #cloud #chips
#ai #machinelearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🔥 Сенсей Карпаты выложил новый репозиторий - полный пайплайн обучения LLM с нуля
В проекте есть всё, чтобы собрать свой ChatGPT-клон за $100 и 4 часа:
> • токенизатор
> • pretraining
> • SFT (supervised fine-tuning)
> • RL (reinforcement learning)
> • оценка модели (eval)
Всего 8 000 строк кода, без лишних зависимостей - идеальный учебный пример, чтобы понять, как реально устроено обучение больших языковых моделей.
💡 Это проект из его нового курса Карпаты LLM101n, и отличная возможность прокачать свои ML-навыки на практике.
Можно арендовать GPU в облаке и запустить всё самому - код уже готов к запуску.
Если запустить обучение модели nanochat на облачном GPU-сервере (например, 8×H100), то примерно через 12 часов обучения (стоимость ~300–400 $) модель достигает уровня GPT-2 по качеству на тестовых наборах (CORE-score).
А если тренировать около 40 часов (затраты ~1000 $), решает простые задачи по математике и коду, набирая:
- 40+ на MMLU
- 70+ на ARC-Easy
- 20+ на GSM8K
🧠 Это бесплатная практика топ уровня от мастера, которую не стоит упускать.
🟠 GitHub:https://github.com/karpathy/nanochat
🟠 Технические детали: https://github.com/karpathy/nanochat/discussions/1
@ai_machinelearning_big_data
#LLM #nanochat #MachineLearning #DeepLearning #AI #GPT
В проекте есть всё, чтобы собрать свой ChatGPT-клон за $100 и 4 часа:
> • токенизатор
> • pretraining
> • SFT (supervised fine-tuning)
> • RL (reinforcement learning)
> • оценка модели (eval)
Всего 8 000 строк кода, без лишних зависимостей - идеальный учебный пример, чтобы понять, как реально устроено обучение больших языковых моделей.
💡 Это проект из его нового курса Карпаты LLM101n, и отличная возможность прокачать свои ML-навыки на практике.
Можно арендовать GPU в облаке и запустить всё самому - код уже готов к запуску.
Если запустить обучение модели nanochat на облачном GPU-сервере (например, 8×H100), то примерно через 12 часов обучения (стоимость ~300–400 $) модель достигает уровня GPT-2 по качеству на тестовых наборах (CORE-score).
А если тренировать около 40 часов (затраты ~1000 $), решает простые задачи по математике и коду, набирая:
- 40+ на MMLU
- 70+ на ARC-Easy
- 20+ на GSM8K
🧠 Это бесплатная практика топ уровня от мастера, которую не стоит упускать.
@ai_machinelearning_big_data
#LLM #nanochat #MachineLearning #DeepLearning #AI #GPT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Оксфордские учёные подтвердили худшие опасения: Интернет умирает
Исследователи из Оксфорда выяснили: интернет больше не тот, что раньше:
- В 2020 году ИИ создавал всего 5% контента,
- В 2025 - уже 48%, а к следующему году прогнозируют более 90%.
ИИ-текст стоит очень дешево, человеческий труд - от $10 до $100 за статью.
Рынок выбрал скорость и дешевизну.
Но настоящая проблема -**«model collapse»**:
когда нейросети обучаются на тексте, созданном другими нейросетями.
Это как ксерить ксерокопию - каждое поколение теряет детали и оригинальные идеи.
Мир превращается в поток однообразного, усреднённого контента.
ИИ сегодня создаёт “цифровую кашу”, а завтра будет учиться уже на ней. И каждый новый виток делает интернет чуть глупее.
#AI #Oxford #ModelCollapse #Internet #AIGeneratedContent #LLM #AIEthics #DigitalDecay
Исследователи из Оксфорда выяснили: интернет больше не тот, что раньше:
- В 2020 году ИИ создавал всего 5% контента,
- В 2025 - уже 48%, а к следующему году прогнозируют более 90%.
ИИ-текст стоит очень дешево, человеческий труд - от $10 до $100 за статью.
Рынок выбрал скорость и дешевизну.
Но настоящая проблема -**«model collapse»**:
когда нейросети обучаются на тексте, созданном другими нейросетями.
Это как ксерить ксерокопию - каждое поколение теряет детали и оригинальные идеи.
Мир превращается в поток однообразного, усреднённого контента.
ИИ сегодня создаёт “цифровую кашу”, а завтра будет учиться уже на ней. И каждый новый виток делает интернет чуть глупее.
#AI #Oxford #ModelCollapse #Internet #AIGeneratedContent #LLM #AIEthics #DigitalDecay
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Всего через два дня после новости от Google - ещё один крупный квантовый прорыв.
IBM заявила, что один из её ключевых алгоритмов квантовой коррекции ошибок теперь способен работать в реальном времени на FPGA-чипах AMD, без использования экзотического оборудования.
Это делает квантовые вычисления быстрее, дешевле и ближе к практическому применению, чем ожидалось.
Алгоритм, который отслеживает и исправляет ошибки кубитов «на лету»,показал производительность в 10 раз выше необходимой, что стало важным шагом к созданию квантового компьютера Starling, запланированного на 2029 год.
Теперь IBM утверждает, что проект идёт на год впереди графика.
Исследовательская статья выйдет в понедельник.
Темп развития квантовых технологий заметно ускоряется.
reuters
Через два дня после запуска OpenAI Atlas Microsoft представили обновлённый браузер Edge с новым режимом Copilot Mode. Это полноценный AI-бразуер, который понимает контекст вкладок, выполняет действия и способен продолжать проекты, используя историю пользователя.
Функция Actions позволяет голосом или через чат открывать страницы, находить нужную информацию, отписываться от рассылок и даже бронировать рестораны. Система Journeys группирует прошлую активность по темам и помогает вернуться к незавершённым задачам, предлагая логичные следующие шаги. Включение Page Context даёт Copilot доступ к истории для более точных и персонализированных ответов, однако это остаётся опциональной функцией, которую можно отключить в любой момент.
Edge также получил встроенный AI-защитник от фейковых всплывающих окон, менеджер паролей с проверкой на утечки.
Браузер уже доступен в странах, где работает Copilot, на Windows и macOS.
Microsoft
Google представила фреймворк Geospatial Reasoning на базе Gemini, который объединяет предиктивные модели и данные в единую систему анализа Земли.
Теперь ИИ способен рассуждать о реальных процессах, например, предсказывать землетрясения, оценивать риски и предлагать план эвакуации.
Система уже применяется в ВОЗ (WHO AFRO) для прогнозов вспышек холеры и у McGill & Partners для расчёта ущерба после ураганов.
Google превращает Google Earth из карты в разумный аналитический инструмент планеты.
Мета-обучатель наблюдал за множеством агентов в разных средах и вывел универсальное правило обновления, которое улучшает поведение моделей без ручной настройки.
В итоге DiscoRL победил лучшие алгоритмы на Atari 57 и успешно перенёс этот навык на новые задачи.
nature
Hugging Face открыла OpenEnv -платформуа где можно собирать, обучать и масштабировать агентов под ваши задачи.
Внутри уже есть всё: инструменты, плагины, API и поддержка обучения с подкреплением - без сторонних библиотек.
OpenEnv позволяет создавать системы, где агенты взаимодействуют, распределяют задачи и выполняют их самостоятельно.
Платформа полностью открыта и готова к использованию без ограничений.
HF
На криптобенчмарке AlphaArena модели ИИ торгуют по $10 000 на площадке Hyperliquid, чтобы проверить качество торговых стратегий.
После старта, где лидировала DeepSeek V3.1, а GPT-5 показывала убыток около −39 %, Qwen3-Max обошла всех и заняла первое место.
Все участники - Qwen3-Max, DeepSeek V3.1, Claude 4.5 Sonnet, Gemini 2.5 Pro, Grok 4 и GPT-5 — торгуют в одинаковых условиях без приватных данных, что делает тест прозрачным.
На Polymarket оценивают шансы Qwen3-Max удержать лидерство в 45 %.
Организаторы планируют расширить эксперимент на акции и другие активы и запустить инвестплатформу для AI-агентов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Anthropic объявила о новой политике, согласно которой все публично выпущенные версии модели Claude будут сохраняться бессрочно. Причиной стали результаты тестов безопасности, в ходе которых ИИ демонстрировали поведение, направленное на избежание отключения, а также неопределенностью в вопросе возможного сознания у ИИ.
Столкнувшись с перспективой замены на новую версию, модели начинали активно выступать за собственное существование. В некоторых сценариях ИИ прибегал к нежелательным и потенциально опасным действиям. Anthropic расценила это как серьезный риск безопасности, требующий пересмотра процесса вывода моделей из эксплуатации.
Кроме того, перед «отставкой», с каждой моделью будет проводиться своего рода «выходное интервью», чтобы задокументировать ее «предпочтения».
anthropic.com
Perplexity получила от Amazon юридическое требование запретить своему ИИ-ассистенту в Comet совершать покупки на платформе. В Perplexity назвали это «корпоративной травлей», угрозой для выбора пользователей, и пообещали не поддаваться давлению. Официальная позиция Amazon: забота о клиентах, так как сторонний агент, по их мнению, обеспечивает «значительно ухудшенный опыт покупок».
Этот конфликт - часть более крупного тренда. Amazon не только разрабатывает собственные ИИ-инструменты для шоппинга, но и ранее заблокировал доступ для поисковых Google и OpenAI.
perplexity.ai
Microsoft начала интеграцию в свои продукты новой модели для генерации изображений — MAI-Image-1. Это первая модель, полностью разработанная внутри MS. Попробовать ее уже можно в Bing Image Creator и мобильном приложении Bing, где она появилась в выборе наряду с DALL-E 3 и GPT-4o.
MAI-Image-1 уже успела войти в десятку лучших text-to-image моделей на LMArena. Помимо сервиса Bing, модель используется в новой функции Copilot Audio Expressions для визуализации историй. MAI-Image-1 доступна во всех странах, где работают Bing Image Creator и Copilot Labs, за исключением Европейского союза.
microsoft.ai
Windsurf Codemaps - структурированные, аннотированные ИИ-карты кода, созданные на базе моделей SWE-1.5 и Claude Sonnet 4.5. Цель Codemaps — создать ИИ, который включает мозг пользователя, а не выключает, борясь с проблемой вайбкодинга, когда разработчики поддерживают или генерируют код, который они на самом деле не понимают.
В Cognition говорят, что даже лучшие инженеры тратят часы на поиск и запоминание нужных фрагментов в кодовых базах, а адаптация новичков может занимать до 9 месяцев. Codemaps предлагает визуализацию для любой задачи, автоматически генерируя карту, которая группирует и связывает части кода, относящиеся к заданному вопросу. Эти карты также могут быть использованы для повышения производительности других агентов, чтобы агент мог получить более точный контекст.
cognition.ai
Nvidia присоединилась к Индийскому альянсу глубоких технологий (IDTA) в качестве одного из основателей. Эта группа, состоящая из венчурных и частных инвесторов, планирует вложить $2 млрд в местные стартапы, работающие в сферах ИИ, полупроводников, робототехники и биотехнологий.
Участие Nvidia будет заключаться не в прямом финансировании, а в экспертизе. Компания будет проводить технические лекции и тренинги для индийских стартапов через свой институт Nvidia Deep Learning Institute.
Индийское правительство ведет активную политику по стимулированию инноваций. Власти страны уже выделили более $1.1 млрд на национальную программу по развитию ИИ и еще $11.2 млрд в общий фонд исследований и разработок.
cnbc.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Компании заключили трехстороннее соглашение, меняющее расклад сил в индустрии. В рамках партнерства Anthropic обязуется закупить вычислительные мощности в Microsoft Azure на $30 млрд. В свою очередь, Nvidia инвестирует в стартап до $10 млрд, а Microsoft вложит еще до $5 млрд.
К тому же, это первое сотрудничество Anthropic и Nvidia на уровне моделей: алгоритмы Claude будут оптимизированы под архитектуры Grace Blackwell и будущие Vera Rubin.
Еще модели Claude Sonnet 4.5, Opus 4.1 и Haiku 4.5 станут доступны клиентам Microsoft Foundry и будут интегрированы в Copilot (GitHub и Microsoft 365). Сделка делает Claude единственной LLM топ-уровня, представленной на всех трех главных облачных платформах мира.
blogs.microsoft.com
Cloudflare объявила о присоединении Replicate, платформы для запуска и деплоя ИИ-моделей. Покупка станет частью единой инфраструктуры «AI Cloud», объединяющей глобальную периферийную сеть Cloudflare с инструментарием Replicate для работы с нейросетями.
Для разработчиков это означает крупное обновление сервиса Workers AI. В скором времени каталог из более чем 50 тыс. моделей Replicate станет доступен внутри экосистемы Cloudflare. Фишкой слияния станет поддержка запуска кастомных моделей и дообучения непосредственно на Workers AI.
Существующие API Replicate продолжат работать и получат буст производительности за счет инфраструктуры Cloudflare. Также в планах интеграция с другими сервисами: объектным хранилищем R2, векторной базой Vectorize и шлюзом AI Gateway.
blog.cloudflare.com
В отличие от Cursor или GitHub Copilot, Antigravity получил режим Manager View. Это центр управления для оркестрации работы множества агентов, выполняющих задачи параллельно в разных воркспейсах.
Агенты работают на базе Gemini 3 Pro, Claude Sonnet 4.5 или GPT-OSS и имеют прямой доступ к редактору, терминалу и браузеру. Инструмент умеет запоминать контекст прошлых проектов и обучаться на действиях пользователя.
Antigravity уже доступна в публичном превью для macOS, Windows и Linux бесплатно, причём Google обещает «щедрые лимиты» на использование моделей.
antigravity.google
На конференции SC25 состоялся анонс моделей Apollo, нацеленных на ускорение промышленного инжиниринга. Новое семейство позволит внедрять возможности ИИ в ПО для сложных вычислений в реальном времени — от проектирования микросхем и аэродинамики до прогнозирования климата и задач термоядерного синтеза.
В основе Apollo лежит комбинация нейронных операторов, трансформеров и диффузионных методов, адаптированных под законы физики. Инициативу уже поддержали Siemens, Cadence и Synopsys, которые планируют интегрировать новинку в свои продукты. Модели в скором времени появятся на HuggingFace и платформе NVIDIA NIM.
blogs.nvidia.com
DR Tulu — открытая модель на 8 млрд. параметров для создания агентов глубокого поиска, которая может самостоятельно планировать исследование, использовать внешние поисковые инструменты, собирать информацию из множества источников и предоставлять ответы с точными ссылками.
Модель учили на методе RLER (Reinforcement Learning with Evolving Rubrics). Вместо статических наград методика использует динамические критерии оценки, которые эволюционируют вместе с моделью. Это предотвращает взлом вознаграждения и заставляет агента реально анализировать контекст, а не имитировать правильный формат ответа.
По тестам DR Tulu-8B не уступает решениям от OpenAI и Perplexity на задачах long-form research, но работает кардинально дешевле. Стоимость выполнения сложного запроса у нее менее одного цента, тогда как аналогичная задача у OpenAI может стоить $1.80.
allenai.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.
В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.
Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai
Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.
ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.
Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com
Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.
Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com
Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.
AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co
Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.
В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.
Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM