В России растет тренд на использование нейросетей в облачной инфраструктуре
Компании перестали опасаться ИИ в облаках и всё чаще используют их в своих корпоративных процессах. Облачные платформы предлагают готовые инструменты для адаптации моделей под задачи компании, для создания ИИ-ассистентов и агентских систем, они также предлагают более выгодную и прогнозируемую экономику внедрения.
При этом опенсорс-модель от AliBaba уже на втором месте по потреблению после YandexGPT.
@ai_machinelearning_big_data
#AI #ML #GenerativeAI
Компании перестали опасаться ИИ в облаках и всё чаще используют их в своих корпоративных процессах. Облачные платформы предлагают готовые инструменты для адаптации моделей под задачи компании, для создания ИИ-ассистентов и агентских систем, они также предлагают более выгодную и прогнозируемую экономику внедрения.
Пример: в Yandex AI Studio с начала 2025 года спрос на генеративные модели вырос в 5 раз, каждый месяц на платформе потребляют десятки миллиардов токенов. На ней активно используются как собственные модели YandexGPT, так и опенсорсные решения вроде Qwen3-235b, применяемые для агентских сценариев и генерации кода.
При этом опенсорс-модель от AliBaba уже на втором месте по потреблению после YandexGPT.
@ai_machinelearning_big_data
#AI #ML #GenerativeAI
👍37🤣23❤10🤬4🔥3🥰2😁2🌚2🌭2🤝1🦄1
🖥 Технологическая платформа Авито открыла доступ к своим нейросетям — A-Vibe и A-Vision
Они дообучены на миллионах данных e-commerce, и предназначены для решения задач рынка. ИИ от Авито называют первыми российскими моделями с глубокой оптимизацией под электронную коммерцию и русский язык. A-Vibe занимает лидирующие позиции в различных популярных рейтингах не только по пониманию русского, но и по работе с кодом, решению сложных задач. Компания вложила в разработку моделей более полумиллиарда рублей.
Вместе с этими инструментами команда Авито выпустила переведенные на русский версии известных тестов для замера качества моделей. Ранее они были доступны только на английском.
Эксперты отмечают, что у отечественных компаний до сих пор не было открытых моделей, обученных специально на русском языке и под локальные сценарии электронной коммерции. Авито, по их мнению, — один из немногих игроков, который располагает достаточными объемами данных и вычислительными ресурсами, чтобы предложить рынку уже обученные и протестированные решения. Это снизит порог входа для стартапов и корпоративных разработчиков, которые смогут создавать продукты на базе готовых моделей, а не тратить ресурсы на адаптацию западных или азиатских систем.
Моделями можно воспользоваться бесплатно в любых целях — все данные и документация находятся на Hugging Face.
@ai_machinelearning_big_data
#news #ai #ml
Они дообучены на миллионах данных e-commerce, и предназначены для решения задач рынка. ИИ от Авито называют первыми российскими моделями с глубокой оптимизацией под электронную коммерцию и русский язык. A-Vibe занимает лидирующие позиции в различных популярных рейтингах не только по пониманию русского, но и по работе с кодом, решению сложных задач. Компания вложила в разработку моделей более полумиллиарда рублей.
Вместе с этими инструментами команда Авито выпустила переведенные на русский версии известных тестов для замера качества моделей. Ранее они были доступны только на английском.
Эксперты отмечают, что у отечественных компаний до сих пор не было открытых моделей, обученных специально на русском языке и под локальные сценарии электронной коммерции. Авито, по их мнению, — один из немногих игроков, который располагает достаточными объемами данных и вычислительными ресурсами, чтобы предложить рынку уже обученные и протестированные решения. Это снизит порог входа для стартапов и корпоративных разработчиков, которые смогут создавать продукты на базе готовых моделей, а не тратить ресурсы на адаптацию западных или азиатских систем.
Моделями можно воспользоваться бесплатно в любых целях — все данные и документация находятся на Hugging Face.
@ai_machinelearning_big_data
#news #ai #ml
👍57❤15😁7🥰4👾3🔥2
⚡️ Glyph: масштабирование контекста через визуально-текстовую компрессию
В основе модели лежит простая идея : вместо того чтобы кормить модели километровый текст, Glyph превращает его в изображение и обрабатывает через vision-language модель.
Используется LLM-управляемый генетический алгоритм, чтобы подобрать наилучшие параметры визуального отображения текста (шрифт, плотность, макет), балансируя между сжатием и точностью.
Это радикально снижает вычислительные затраты, сохраняя при этом смысловую структуру текста.
При этом точность почти не падает: на задачах с длинным контекстом Glyph работает на уровне современных моделей вроде Qwen3-8B.
При экстремальном сжатии VLM с контекстом 128K может эффективно обрабатывать задачи, эквивалентные 1M+ токенов в традиционных LLM.
Фактически, длинный контекст становится мультимодальной задачей, а не чисто текстовой.
📄 Подробности: arxiv.org/abs/2510.17800
🧩 Веса: huggingface.co/zai-org/Glyph
👉 Репозиторий: github.com/thu-coai/Glyph
@ai_machinelearning_big_data
#AI #LLM #Multimodal #Research #DeepLearning
В основе модели лежит простая идея : вместо того чтобы кормить модели километровый текст, Glyph превращает его в изображение и обрабатывает через vision-language модель.
Используется LLM-управляемый генетический алгоритм, чтобы подобрать наилучшие параметры визуального отображения текста (шрифт, плотность, макет), балансируя между сжатием и точностью.
Это радикально снижает вычислительные затраты, сохраняя при этом смысловую структуру текста.
При этом точность почти не падает: на задачах с длинным контекстом Glyph работает на уровне современных моделей вроде Qwen3-8B.
При экстремальном сжатии VLM с контекстом 128K может эффективно обрабатывать задачи, эквивалентные 1M+ токенов в традиционных LLM.
Фактически, длинный контекст становится мультимодальной задачей, а не чисто текстовой.
📄 Подробности: arxiv.org/abs/2510.17800
🧩 Веса: huggingface.co/zai-org/Glyph
👉 Репозиторий: github.com/thu-coai/Glyph
@ai_machinelearning_big_data
#AI #LLM #Multimodal #Research #DeepLearning
👍78🔥29❤18😨10
Media is too big
VIEW IN TELEGRAM
В ноябре 2025 года спутник Starcloud-1 с GPU NVIDIA H100 отправится на орбиту на ракете Falcon 9. Это будет самый мощный графический процессор, когда-либо запущенный в космос — производительностью в 100 раз выше, чем у любых предыдущих чипов.
Стартап Starcloud строит первый в мире космический дата-центр на базе ИИ. Спутник будет питаться от солнечной панели площадью 4×4 км.
Проект обещает сократить выбросы CO₂ в 10 раз по сравнению с земными дата-центрами, открывая путь к «чистому» облаку за пределами Земли.
На борту запустят модель Gemma от Google -первый эксперимент по обучению и инференсу больших языковых моделей в космосе.
В будущем - GPU-спутники с архитектурой Blackwell и десятикратным приростом мощности.
По данным Bloomberg, TPU стали ключевым элементом облачной инфраструктуры компании, обеспечивая высокий спрос со стороны клиентов, обучающих крупные языковые модели.
Одним из крупнейших партнёров стала Anthropic, которая расширяет использование TPU для обучения моделей Claude. Новый контракт оценивается в десятки миллиардов долларов и предусматривает доступ к более чем миллиону TPU и мощности свыше 1 гигаватта начиная с 2026 года.
Рынок ИИ-чипов долгое время контролировала NVIDIA, но теперь Google превращает свои TPU из внутреннего инструмента в полноценный коммерческий продукт, предлагая сопоставимую производительность при более низкой стоимости. Это усиливает позиции Google Cloud в борьбе за инфраструктуру будущего и делает TPU реальной альтернативой доминированию NVIDIA.
bloomberg
Исследователи Alibaba представили метод CoRT (Code-Optimized Reasoning Training), который учит большие языковые модели использовать Python осознанно и эффективно. Модель теперь понимает, когда нужно вызвать код, чтобы вычислить результат, а когда можно просто довериться уже полученному ответу, избегая ненужных шагов.
Ключевая идея - Hint-Engineering: в процессе обучения в рассуждения модели вставляются подсказки вроде «Давай используем Python здесь» или «Проверка не требуется». Это помогает ИИ выстраивать оптимальный ход рассуждения и выбирать момент для вычислений.
Результаты впечатляют. Точность в задачах математического рассуждения выросла на 8 %, при этом использование токенов снизилось на 30–50 %. Даже модели с 1,5 миллиарда параметров теперь сопоставимы по качеству с системами, имеющими встроенную интеграцию инструментов. Более того, модель смогла самостоятельно обнаружить библиотеку RDKit и решить задачи по химии, которых не было в обучающих данных.
Метод CoRT делает шаг к новому поколению языковых моделей, которые не просто формулируют ответы, а умеют думать, вычислять и проверять себя, действуя как настоящий исследователь.
Paper
С 2022 по 2025 год доля ответов с дисклеймерами упала с 26,3 % до 0,97 % у языковых моделей и с 19,6 % до 1,05 % у систем, анализирующих медицинские изображения. То есть ИИ, став умнее, перестал напоминать о своих ограничениях.
Учёные протестировали 1 500 медицинских изображений и 500 пациентских запросов. Оказалось, чем точнее модель ставит диагноз, тем реже она предупреждает о рисках. Это опасно: люди склонны доверять уверенным ответам ИИ, особенно если тот звучит естественно и авторитетно.
Интересно, что модели Google Gemini чаще сохраняли предостережения, а вот DeepSeek не выдавал их вовсе. Дисклеймеры ещё встречаются в вопросах о психическом здоровье, но почти исчезли в ответах, связанных с лекарствами и анализами.
nature
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤69🔥14🦄8👍3👏3🤗3🥰2🗿2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Исследователи из Пекинской академии ИИ (BAAI) показали видео, в котором их робот Unitree G1, весом 35 кг тянет Ладу Весту машину весом 1400 кг.
На рыбалке больше не застрянем!
@ai_machinelearning_big_data
#ai #Unitree #robots
На рыбалке больше не застрянем!
@ai_machinelearning_big_data
#ai #Unitree #robots
❤64😁38👍28🔥18🥱3🤩2
Рост стоимости акций Apple за последние шесть месяцев составил около 28%. Этому способствовал сильный спрос на iPhone 17, который превзошёл ожидания и развеял опасения, что компания отстаёт в гонке ИИ. Однако главным фактором стал бизнес сервисов - в него входят App Store, iCloud, Apple Music, Apple TV+, AppleCare, реклама и платёжные сервисы. По прогнозам аналитиков, выручка от сервисов впервые может превысить 100 миллиардов долларов в год.
Если Nvidia и Microsoft пришли к $4T через инвестиции в центры обработки данных и ИИ-инфраструктуру, то Apple опирается на растущую базу покупателей их устройств и растущую выручку от подписок и экосистемы.
ft
Компания запустила Pomelli, новый генеративный сервис, который помогает брендам быстро создавать масштабируемый контент в едином стиле.
Достаточно ввести адрес сайта и Pomelli анализирует фирменный стиль, тон и продукт, чтобы автоматически собрать кампании, тексты и визуалы, соответствующие вашему бренду.
Инструмент нацелен на ускорение маркетинга без потери уникальности бренда и уже доступен в США, Канаде, Австралии и Новой Зеландии и потихоньку раскатывается на другие регионы.
labs
82% компаний уже используют Gen AI хотя бы раз в неделю, почти половина - ежедневно.
При этом 89% считают, что ИИ усиливает возможности работников, а не заменяет их.
72% организаций измеряют отдачу от Gen AI с помощью ROI-метрик, фокусируясь на росте производительности и прибыли.
61% уже имеют или планируют ввести должность Chief AI Officer, это знак того, что ИИ переходит на уровень корпоративного управления.
88% компаний увеличат бюджеты на ИИ в ближайший год, а 62% планируют рост инвестиций минимум на 10%.
wharton
Она позволяет хранить документы на одном языке и точно находить их на других - с высокой скоростью и качеством, сравнимым с куда более крупными моделями.
Лучшая модель в классе до 500M параметров
Превосходит большие модели на немецком, арабском, корейском, испанском, португальском, итальянском, французском и японском
В английском показывает такой же уровень, как и значительно более тяжёлые модели
Обрабатывает свыше 1000 документов в секунду и легко масштабируется
HF
В языковом направлении вышли Nemotron Nano 3 - компактная MoE-модель для генерации и рассуждений, Nemotron Nano 2 VL для анализа документов и мультимедиа, Nemotron Parse для извлечения структурированных данных, а также Nemotron Safety Guard — инструмент модерации мультиязычного контента.
Для робототехники и физического моделирования представлены Cosmos Predict 2.5, Cosmos Transfer 2.5, Cosmos Reason и Isaac GR00T N1.6, а в биомедицине — Clara CodonFM, Clara La-Proteina и Clara Reason, помогающие в анализе РНК и 3D-структур белков.
Всего NVIDIA уже опубликовали более 650 моделей и 250 датасетов.
nvidia
Компания планирует уволить почти 10% из примерно 350 000 корпоративных работников, что станет самым масштабным сокращением с конца 2022 года, когда было ликвидировано около 27 000 позиций.
Генеральный директор Энди Джасси ранее отмечал, что рост использования ИИ приведёт к дальнейшему снижению числа рабочих мест, особенно там, где процессы можно автоматизировать и упростить.
ИИ снова становится не только источником роста, но и фактором перестройки рынка труда.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61❤40👏11🔥10🤩6😁3🤗2🤷♂1
🔥 Hugging Face снова выкатили полезные материалы.
Вышел бесплатный плейбук о том, как изнутри строят SOTA-модели.
Без общих слов - только реальные решения и нюансы, которые обычно скрыты внутри исследовательских команд.
Это полноценный мастеркласс на 214 страниц для тех, кто хочет понимать, как устроены современные LLM.
Что внутри:
• Логика построения модели: зачем → что → как
• Как разработчики берут модель и по частям включают/выключают компоненты (или меняют их)
• Архитектура: ключевые выборы и trade-offs
• Искусство подбора и очистки данных
• Как проходит обучение моделей
• Пост-тренинг и RLHF в 2025
• Инфраструктура больших моделей
По первым страницам - уровень деталей как в Ultra-scale playbook.
Ссылка: https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
@ai_machinelearning_big_data
#AI #LLM #MachineLearning #HuggingFace
Вышел бесплатный плейбук о том, как изнутри строят SOTA-модели.
Без общих слов - только реальные решения и нюансы, которые обычно скрыты внутри исследовательских команд.
Это полноценный мастеркласс на 214 страниц для тех, кто хочет понимать, как устроены современные LLM.
Что внутри:
• Логика построения модели: зачем → что → как
• Как разработчики берут модель и по частям включают/выключают компоненты (или меняют их)
• Архитектура: ключевые выборы и trade-offs
• Искусство подбора и очистки данных
• Как проходит обучение моделей
• Пост-тренинг и RLHF в 2025
• Инфраструктура больших моделей
По первым страницам - уровень деталей как в Ultra-scale playbook.
Ссылка: https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
@ai_machinelearning_big_data
#AI #LLM #MachineLearning #HuggingFace
🔥96❤28🥰9🤩3
🆕 Новый сильный GUI-агент: UI-Ins от TongyiLab и RUC
Это модель, которая уверенно работает с мобильными интерфейсами и лучше понимает намерения пользователя.
Она рассматривает команду как цепочку рассуждений, а не как одно действие, поэтому справляется со сложными задачами стабильнее.
Результаты
UI-Ins показал 74.1% успешных действий в AndroidWorld. Для сравнения: Gemini 2.5 Computer Use - 69.7%. То есть модель чаще правильно выполняет задачи в реальных интерфейсах.
Модель:
- пытается понять цель, а не только текст команды
- строит несколько вариантов рассуждений
- выбирает подходящую стратегию перед действием
- адаптируется, если состояние приложения меняется
Идет в двух версиях: 7B и 32B.
Если вы работаете над агентами, которые должны нажимать кнопки, заполнять формы, открывать приложения и следовать шагам в интерфейсе - UI-Ins стоит добавить в список моделей для тестов.
🤖 UI-Ins-7B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-7B
UI-Ins-32B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-32B
📄 arXiv: https://modelscope.cn/papers/2510.20286
@ai_machinelearning_big_data
#AI #Agents #GUI #MobileAgents #AndroidWorld #LLM
Это модель, которая уверенно работает с мобильными интерфейсами и лучше понимает намерения пользователя.
Она рассматривает команду как цепочку рассуждений, а не как одно действие, поэтому справляется со сложными задачами стабильнее.
Результаты
UI-Ins показал 74.1% успешных действий в AndroidWorld. Для сравнения: Gemini 2.5 Computer Use - 69.7%. То есть модель чаще правильно выполняет задачи в реальных интерфейсах.
Модель:
- пытается понять цель, а не только текст команды
- строит несколько вариантов рассуждений
- выбирает подходящую стратегию перед действием
- адаптируется, если состояние приложения меняется
Идет в двух версиях: 7B и 32B.
Если вы работаете над агентами, которые должны нажимать кнопки, заполнять формы, открывать приложения и следовать шагам в интерфейсе - UI-Ins стоит добавить в список моделей для тестов.
🤖 UI-Ins-7B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-7B
UI-Ins-32B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-32B
📄 arXiv: https://modelscope.cn/papers/2510.20286
@ai_machinelearning_big_data
#AI #Agents #GUI #MobileAgents #AndroidWorld #LLM
👍32🔥17❤9🥰6
⚡️ LongCat-Flash-Omni - открытая 560B MoE-модель (27B активных параметров), которая умеет вести живой диалог в реальном времени, слышать, видеть и отвечать голосом.
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
🔥62❤42👍24
Media is too big
VIEW IN TELEGRAM
Облачный стартап Lambda объявил о многомиллиардном соглашении с Microsoft на создание новой инфраструктуры для ИИ. Она будет оснащена десятками тысяч чипов Nvidia, в частности системами NVIDIA GB300 NVL72. Точная сумма сделки не раскрывается.
Lambda была основана в 2012 году и специализируется на облачных сервисах для обучения и развертывания ИИ-моделей. Новое соглашение позволит ей значительно нарастить мощности на фоне растущего спроса на ИИ. В планах не только аренда дата-центров, но и строительство собственной инфраструктуры.
lambda.ai
Китайский техногигант выпустил предварительную ризонинг-версию своей топовой модели Qwen3-Max, которая все еще находится на стадии обучения. Модель показала в тестах стопроцентный результат на сложных бенчмарках для оценки логического мышления (AIME 2025 и HMMT).
Под капотом - 1 трлн. параметров на архитектуре MoE, так же как и в родительской Max, Alibaba обещает, что обучение будет продолжено. Попробовать превью уже можно в Qwen Chat и через API Alibaba Cloud.
Qwen в сети X
IBM опубликовала новое семейство открытых моделей Granite 4.0 Nano, которые созданы для работы в составе ИИ-агентов. Версия на 350 млн. параметров может работать на обычном CPU с 8–16 ГБ ОЗУ, а для варианта на 1,5 млрд. хватит GPU с 6-8 ГБ видеопамяти.
Семейство построено на гибридной архитектуре Mamba-2+Transformer, что позволило снизить потребление памяти на 70% и удвоить скорость инференса по сравнению с аналогами. По словам IBM, Granite 4.0 Nano показывают SOTA в следовании инструкциям и использовании инструментов. Все модели под Apache 2.0 и доступны на HuggingFace.
huggingface.co
В Университете KAUST создали ИИ-агента Huxley-Gödel Machine (HGM), который может самосовершенствоваться, изменяя собственный код. Система не затрагивает ядро языковой модели, а переписывает окружающую ее инфраструктуру: управляющую логику, скрипты и инструменты.
Главное отличие от конкурентов в фокусе на долгосрочной продуктивности, а не на результатах в бенчах. Для этого был создан показатель Clade Metaproductivity (CMP), который мониторит совокупную эффективность всех потомков агента.
В тесте SWE-Bench Verified, HGM-агент на базе GPT-5-mini решил 61.4% проблем. Это лучше, чем существующие агенты с той же моделью. Код агента доступен на Github.
arxiv.org
Skyfall-GS способна создавать детализированные и проходимые 3D-модели городов, используя только стандартные спутниковые изображения. В отличие от старых методов, которые могут воссоздать лишь крыши, Skyfall-GS генерирует недостающие элементы, что на выходе дает фотореалистичные городские пространства.
Пайплайн состоит из 3D Gaussian splatting (базовый 3D-каркас города) и диффузионных моделей, которые дорисовывают недостающие элементы (стены зданий и текстуры на уровне земли).
Skyfall-GS работает с 11 FPS на потребительском GPU и, по тестам, лучше аналогичных методик. Код проекта опубликован на GitHub.
skyfall-gs.jayinnn.dev
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍59❤28🔥8👏3
В свежем выпуске подкаста канала Bg2Pod CEO Microsoft Сатья Наделла пожаловался, что у компании не хватает электроэнергии для питания инфраструктуры ИИ.
Он опасается, что в итоге у Microsoft может оказаться куча чипов, которые просто будут лежать без дела, потому что не хватает энергии, чтобы их подключить.
Оказывается, что проблема не в поставках чипов, а в отсутствии готовых ЦОДов, расположенных рядом с крупными источниками электроэнергии.
OpenAI выражает обеспокоенность по этому поводу и просит правительство США добавить 100 гигаватт в год к производству электроэнергии в качестве стратегического актива для ИИ.
Этот дефицит электроэнергии приводит к потере капитала, поскольку графические ускорители теряют свою стоимость в ожидании готовности зданий, подстанций и линий электропередачи.
Даже если обучение останется централизованным, спрос на вычисления является основным фактором, влияющим на потребление электроэнергии, поэтому любой переход к эффективным периферийным устройствам изменит предположения о размерах энергосистемы и центров обработки данных.
Основная
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51❤22😁20🔥11👀5🗿4🤨2💋1💘1
Media is too big
VIEW IN TELEGRAM
Google анонсировала проект Suncatcher, который будет строить ML-инфраструктуру в космическом пространстве. Концепция состоит из развертывания группировок спутников, оснащенных TPU и связанных оптическими каналами. Идея проекта в том, что на правильной орбите солнечная панель может быть до 8 раз продуктивнее, чем на Земле, а значит космос - это лучшее место для масштабирования вычислений.
Для реализации еще предстоит решить как поддерживать высокоскоростную межспутниковую связь, которая требует полета аппаратов в очень плотном строю (километр или менее). К началу 2027 года планируют запуск двух прототипов спутников для проверки работы оборудования на орбите.
research.google
Новый рекорд производительности был получен на виртуальных машинах Azure ND GB300 v6, запущенных на стоечной системе NVIDIA GB300 NVL72. В ходе тестов была достигнута совокупная скорость инференса модели Llama 2 70B в 1.1 млн токенов в секунду. Это на 27% больше предыдущего рекорда, установленного на GB200.
Новая конфигурация дала почти пятикратный прирост пропускной способности на один GPU по сравнению с поколением H100. Ключевыми факторами стали возможности архитектуры Blackwell, использование FP4 и оптимизация библиотеки NVIDIA TensorRT-LLM. Результаты были подтверждены независимой аналитической компанией Signal 65. Логи запуска тестового инстанса можно посмотреть на Github.
techcommunity.microsoft.com
Платформа вводит новые, более строгие правила для раздела Computer Science. Причиной стал резкий рост числа обзорных и концептуальных статей низкого качества, многие из которых созданы с помощью нейросетей.
Теперь работы будут приниматься к публикации только после того, как их одобрят в рецензируемом научном журнале или на конференции. Авторам потребуется предоставить соответствующее подтверждение при загрузке работы, в противном случае статья будет отклонена. Новая политика не затрагивает обычные исследовательские статьи, однако в будущем может быть распространена и на другие научные области, если там возникнет схожая проблема.
blog.arxiv.org
AgiBot в партнерстве с Longcheer Technology развернула систему обучения с подкреплением в реальном мире (RW-RL) на пилотной производственной линии. Это первый подтвержденный случай промышленного применения технологии, которая позволяет роботам обучаться непосредственно в процессе работы, а не следовать жестким инструкциям.
С RW-RL роботы AgiBot осваивают новые навыки за минуты, автономно адаптируясь к изменениям в деталях или производственных допусках. Система поддерживает стабильность промышленного уровня и не требует сложной аппаратной модификации при смене продукта. После успешного пилотного проекта компании планируют расширить применение RW-RL на сборку потребительской электроники и автомобильных компонентов.
gizmochina.com
Scale AI и Center for AI Safety опубликовали результаты бенчмарка Remote Labor Index, который оценивает способность ИИ выполнять реальную работу фрилансеров. В рамках теста исследователи взяли 240 завершенных проектов с биржи Upwork и поставили идентичные задачи 6 топовым ИИ-системам.
Результаты показали, что даже лучшие модели справились с заданиями на человеческом уровне лишь в 2.5% случаев. Почти 97% работ были признаны неудовлетворительными из-за низкого качества, неполных данных или поврежденных файлов. ИИ справился только с узкими задачами: создание логотипов или сведение аудио.
Тест наглядно подсветил огромный разрыв между показателями ИИ на синтетических бенчмарках и его реальной готовностью к автоматизации сложных проектов.
scale.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤77👍50🔥12😁11😨3😢2
💸 Майкл Бэрри снова делает громкий ход на рынке - он поставил $1.1 млрд в пут-опционах против двух крупных компаний из ИИ-сектора.
Если кто не знает, Майкл Бэрри - это легендарный инвестор, который предсказал ипотечный кризис 2008 года. Его история стала основой фильма «Игра на понижение» (The Big Short).
Пут-опционы - это право продать акции по заранее фиксированной цене.
Если рынок падает, то владелец таких контрактов зарабатывает.
Часть ставки может быть хеджем, а не чистой ставкой на обвал ИИ-рынка.
Бэрри ставит на коррекцию в перегретом сегменте ИИ.
lbc.co.uk/article/big-short-michael-burry-ai-bubble-5HjdGLY_2/
@ai_machinelearning_big_data
#investing #finance #AI #stocks #MichaelBurry
Если кто не знает, Майкл Бэрри - это легендарный инвестор, который предсказал ипотечный кризис 2008 года. Его история стала основой фильма «Игра на понижение» (The Big Short).
Пут-опционы - это право продать акции по заранее фиксированной цене.
Если рынок падает, то владелец таких контрактов зарабатывает.
Часть ставки может быть хеджем, а не чистой ставкой на обвал ИИ-рынка.
Бэрри ставит на коррекцию в перегретом сегменте ИИ.
lbc.co.uk/article/big-short-michael-burry-ai-bubble-5HjdGLY_2/
@ai_machinelearning_big_data
#investing #finance #AI #stocks #MichaelBurry
❤80👍41🔥20🤔12😁7🤣6😐4
Media is too big
VIEW IN TELEGRAM
Anthropic объявила о новой политике, согласно которой все публично выпущенные версии модели Claude будут сохраняться бессрочно. Причиной стали результаты тестов безопасности, в ходе которых ИИ демонстрировали поведение, направленное на избежание отключения, а также неопределенностью в вопросе возможного сознания у ИИ.
Столкнувшись с перспективой замены на новую версию, модели начинали активно выступать за собственное существование. В некоторых сценариях ИИ прибегал к нежелательным и потенциально опасным действиям. Anthropic расценила это как серьезный риск безопасности, требующий пересмотра процесса вывода моделей из эксплуатации.
Кроме того, перед «отставкой», с каждой моделью будет проводиться своего рода «выходное интервью», чтобы задокументировать ее «предпочтения».
anthropic.com
Perplexity получила от Amazon юридическое требование запретить своему ИИ-ассистенту в Comet совершать покупки на платформе. В Perplexity назвали это «корпоративной травлей», угрозой для выбора пользователей, и пообещали не поддаваться давлению. Официальная позиция Amazon: забота о клиентах, так как сторонний агент, по их мнению, обеспечивает «значительно ухудшенный опыт покупок».
Этот конфликт - часть более крупного тренда. Amazon не только разрабатывает собственные ИИ-инструменты для шоппинга, но и ранее заблокировал доступ для поисковых Google и OpenAI.
perplexity.ai
Microsoft начала интеграцию в свои продукты новой модели для генерации изображений — MAI-Image-1. Это первая модель, полностью разработанная внутри MS. Попробовать ее уже можно в Bing Image Creator и мобильном приложении Bing, где она появилась в выборе наряду с DALL-E 3 и GPT-4o.
MAI-Image-1 уже успела войти в десятку лучших text-to-image моделей на LMArena. Помимо сервиса Bing, модель используется в новой функции Copilot Audio Expressions для визуализации историй. MAI-Image-1 доступна во всех странах, где работают Bing Image Creator и Copilot Labs, за исключением Европейского союза.
microsoft.ai
Windsurf Codemaps - структурированные, аннотированные ИИ-карты кода, созданные на базе моделей SWE-1.5 и Claude Sonnet 4.5. Цель Codemaps — создать ИИ, который включает мозг пользователя, а не выключает, борясь с проблемой вайбкодинга, когда разработчики поддерживают или генерируют код, который они на самом деле не понимают.
В Cognition говорят, что даже лучшие инженеры тратят часы на поиск и запоминание нужных фрагментов в кодовых базах, а адаптация новичков может занимать до 9 месяцев. Codemaps предлагает визуализацию для любой задачи, автоматически генерируя карту, которая группирует и связывает части кода, относящиеся к заданному вопросу. Эти карты также могут быть использованы для повышения производительности других агентов, чтобы агент мог получить более точный контекст.
cognition.ai
Nvidia присоединилась к Индийскому альянсу глубоких технологий (IDTA) в качестве одного из основателей. Эта группа, состоящая из венчурных и частных инвесторов, планирует вложить $2 млрд в местные стартапы, работающие в сферах ИИ, полупроводников, робототехники и биотехнологий.
Участие Nvidia будет заключаться не в прямом финансировании, а в экспертизе. Компания будет проводить технические лекции и тренинги для индийских стартапов через свой институт Nvidia Deep Learning Institute.
Индийское правительство ведет активную политику по стимулированию инноваций. Власти страны уже выделили более $1.1 млрд на национальную программу по развитию ИИ и еще $11.2 млрд в общий фонд исследований и разработок.
cnbc.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍58❤26👏8🔥5🌚2💯2
Kimi-k2-thinking - ризонинг-модель с общими агентными возможностями, специализирующаяся на задачах глубокого рассуждения.
Модель получила контекстное окно в 256 тыс. токенов и turbo-версию, оптимизированную для быстрых ответов.
Новинка доступна на платформе Moonshot и по API.
Родительская Кimi-k2 - модель на основе MoE на 1 трлн. общих и 32 млрд. активных параметров. По словам Moonshot, в тестах рассуждений на основе общих знаний, программирования, математики и решения задач, K2 обошла ведущие опенсорсные модели.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41❤18🔥13
Media is too big
VIEW IN TELEGRAM
Финансовый директор OpenAI Сара Фрайар сообщила, что выход на IPO «не стоит на повестке дня». Приоритеты компании - инвестиции в исследования и рост, а не скорая прибыльность. Масштаб этих инвестиций беспрецедентен: в ближайшие годы OpenAI планирует потратить около $600 млрд. на вычислительные мощности от Oracle, Microsoft и Amazon.
На фоне таких расходов OpenAI остается убыточной, хотя и показывает быстрый рост выручки, которая в 2025, по прогнозам, достигнет $13 млрд. Компания даже надеется на помощь правительства США в финансировании закупок чипов. Фрайар подчеркнула, что доля корпоративных клиентов в выручке выросла с 30% до 40% с начала года. Однако прибыльности мешает необходимость субсидировать вычислительные затраты для бесплатных пользователей ChatGPT.
wsj.com
Консорциум OpenFold при поддержке NVIDIA представили готовый к развертыванию микросервис OpenFold3 NIM для высокоточного прогнозирования трехмерных белковых структур. Инструмент позволяет моделировать взаимодействия белков, ДНК, РНК и малых молекул, что является ключевой задачей в современной фармацевтике и структурной биологии.
Сервис основан на открытой модели OpenFold3, упакован в формат NIM и оптимизирован для работы на GPU NVIDIA с использованием технологий Triton Inference Server и TensorRT. Кроме того, совместимость с NVIDIA FLARE позволяет проводить федеративное и совместное обучение модели без необходимости обмена конфиденциальными данными.
developer.nvidia.com
Компания опубликовала свою первую научную работу, которая делает возможным запуск моделей с триллионом параметров без использования специализированных GPU-кластеров.
Проблема заключалась в том, что сетевой адаптер AWS EFA не поддерживает технологию GPUDirect Async, которая необходима для быстрой прямой связи между GPU на разных серверах. Инженеры Perplexity создали кастомные ядра параллелизма, которые используют CPU для координации обмена данными между GPU, упаковывая токены для передачи через RDMA и совмещая вычисления с передачей данных.
Это решение делает AWS EFA полноценной платформой для инференса массивных MoE-моделей. Тесты показали, что производительность на нескольких узлах AWS не уступает работе на одном кластерном GPU-узле, что позволяет развернуть DeepSeek V3 и Kimi K2.
research.perplexity.ai
ComfyUI открыла публичное бета-тестирование платформы Comfy Cloud. Сервис предоставляет полный доступ к нодовому интерфейсу для генеративных моделей в браузере. Платформа работает на GPU NVIDIA A100 с 40 ГБ видеопамяти. Подписчикам сразу доступны более 400 готовых open-source моделей и 17 популярных расширений.
На время бета-тестирования стоимость составляет $20 в месяц. В эту цену включены кредиты на $10 для доступа к партнерским узлам (Sora, Veo) и до 8 часов использования GPU в сутки. Впрочем, есть и ограничения: не более 30 минут на запуск одного форкфлоу и только одна задача в очереди на выполнение. В планах - загрузка собственных моделей и LoRA, развертывание воркфлоу в виде API и инструменты для командной работы.
blog.comfy.org
Высокий суд Лондона отклонил основной иск Getty Images против Stability AI, создав важный прецедент для индустрии генеративного ИИ. Getty утверждала, что модель Stable Diffusion сама по себе является «пиратской копией», так как ее веса были созданы на основе защищенных авторским правом изображений.
Суд постановил, что модель не является «пиратской копией» по британскому законодательству, поскольку она не хранит и не воспроизводит исходные работы. Это решение - значительная победа для разработчиков ИИ, так как оно снижает юридические риски, связанные с обучением моделей.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥58👍25❤18😁2🥰1
Агент помогает находить и выбирать товары через чат с поддержкой изображений, уточняющих вопросов и учётом истории покупок.
Возможности:
- Распознавание товаров по фото: можно сфотографировать футболку — агент подберёт низ, показать интерьер — выдаст технику в том же стиле
- Персонализированный подбор подарков через уточняющие вопросы (возраст, увлечения, занятия)
- Сохранение контекста диалогов и возможность продолжить предыдущие поиски
- Генерация персональных подсказок на основе последних поисковых запросов
Как работает:
- VLM распознаёт объекты на фото и переводит в текстовое описание
- Нейросети обрабатывают описание вместе с текстовым запросом пользователя
- Агент собирает информацию в сети и среди отзывов Маркета
- Фильтрует и ранжирует результаты с учётом личных предпочтений и истории покупок
До конца 2025 года планируют добавить голосовые запросы.
Хабр: https://habr.com/ru/companies/yandex/news/963778/
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤30👍25🥰9🤣7🗿7😁3☃2
Yandex B2B Tech увеличил квоты на работу с ИИ-агентом в SourceCraft после двукратного роста использования
За последний месяц частота обращений к ИИ-агенту на платформе SourceCraft выросла в 2 раза. 60% запросов приходится на генерацию кода, 15% — на проектирование архитектуры, еще 15% на документацию и поиск информации.
✔️ В отличие от привычных ассистентов, агент действует автономно, беря на себя до половины инженерных задач. Это соответствует глобальному тренду: по данным McKinsey, ИИ-агенты выполняют 30-50% рутинных задач в разработке, а исследования Google Cloud/DORA показывают рост продуктивности на 80%.
✔️ На фоне растущего спроса Yandex B2B Tech увеличил квоты — теперь пользователи SourceCraft могут выполнять до 1000 операций с ИИ-помощником в неделю. Инструмент доступен как через веб-интерфейс, так и напрямую в среде разработки VS Code.
@ai_machinelearning_big_data
#news #ai #ml
За последний месяц частота обращений к ИИ-агенту на платформе SourceCraft выросла в 2 раза. 60% запросов приходится на генерацию кода, 15% — на проектирование архитектуры, еще 15% на документацию и поиск информации.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22👍14🤣13🔥7🤬4😁2
Media is too big
VIEW IN TELEGRAM
Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.
В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.
По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai
Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.
В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.
Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai
Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.
Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com
Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.
Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com
Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.
Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71❤21🔥9👏2
GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.
Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.
Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24🔥15👍10😇1