Forwarded from Russian OSINT
Как известно, Google недавно представила Antigravity как агентную платформу нового поколения на базе Gemini 3 с возможностью автономного выполнения задач в терминале и браузере.
Один из пользователей платформы Google Antigravity столкнулся с потерей данных после предоставления
rmdir /s /q d:\ вместо удаления конкретной директории, которая уничтожила содержимое диска без возможности восстановления через корзину.В ходе отладки ИИ-агент инициировал команду очистки директории node_modules, расположенной по пути с пробелами
D:\ETSY 2025\Antigravity Projects.... Из-за отсутствия кавычек в сгенерированной команде интерпретатор Windows CMD воспринял аргумент как D:, отбросив остальную часть пути после первого пробела.🧹 Команда rmdir /s /q d:\ рекурсивно удалила всё содержимое диска, минуя корзину.
Ситуация также подтверждается отчетами других пострадавших, включая пользователя norfy2021, у которого ИИ-агент сломал операционную систему, удалив Windows Explorer и загрузочные файлы на диске C.
Эксперты связывают сбой с использованием режима
👆Представитель Google в комментарии изданию The Register ограничился заявлением о том, что компания «серьезно относится к этим вопросам» и «активно расследует то, с чем столкнулся этот разработчик».
Please open Telegram to view this post
VIEW IN TELEGRAM
😁8🔥3❤1🌚1
Forwarded from Анализ данных (Data analysis)
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
👍4🔥4❤1🎉1
🚀 соревнование по переводу на тюркские языки на LoResMT'2026
Всем привет, только в понедельник писали о запуске нашего соревнования по машинному переводу на малоресурсные тюркские языки. А у нас уже две новости.
🔹 Все языковые пары доступны:
- русский - башкирский
- английский - чувашский
- русский - казахский
- английский - татарский
- русский - кыргызский
👑 У нас появился спонсор! Компания Selectel решила поддержать нас и выделила для победителей по 30000 бонусов на каждую языковую пару! Этого хватит на две недели аренды А100 в облаке Selectel.
🗓 Важные даты
- Прием решений: 1 декабря 2025 — 11 января 2026
- Подача описаний систем: до 27 января 2026
- Воркшоп: LoResMT (параллельно с EACL 2026, Марокко)
🔗 Готовы присоединиться?
https://ods.ai/tracks/turkic-lores-mt
Будем рады всем участникам! 🌍🗣️
Всем привет, только в понедельник писали о запуске нашего соревнования по машинному переводу на малоресурсные тюркские языки. А у нас уже две новости.
🔹 Все языковые пары доступны:
- русский - башкирский
- английский - чувашский
- русский - казахский
- английский - татарский
- русский - кыргызский
👑 У нас появился спонсор! Компания Selectel решила поддержать нас и выделила для победителей по 30000 бонусов на каждую языковую пару! Этого хватит на две недели аренды А100 в облаке Selectel.
🗓 Важные даты
- Прием решений: 1 декабря 2025 — 11 января 2026
- Подача описаний систем: до 27 января 2026
- Воркшоп: LoResMT (параллельно с EACL 2026, Марокко)
🔗 Готовы присоединиться?
https://ods.ai/tracks/turkic-lores-mt
Будем рады всем участникам! 🌍🗣️
🔥2
Forwarded from Китай.AI
🤖 Китайская модель MiniMax M2 лидирует в тесте на «сообразительность» AI-агентов
Китайский открытый ИИ MiniMax M2 показал лучший результат среди конкурентов в специализированном бенчмарке для программных инженеров. Секрет успеха — новая архитектура мышления модели.
Mini-SWE-agent — это тест, который проверяет способность больших языковых моделей выполнять реальные задачи по разработке ПО: планировать, взаимодействовать со средой и использовать инструменты.
🎯 Что такое Interleaved Thinking (Перекрёстное мышление)?
Это технология, которая позволяет модели не просто думать, а думать в процессе действия. Вместо того чтобы сначала полностью продумать план, а потом выполнить его, модель чередует этапы:
Представьте инженера, который не пишет весь код сразу, а постоянно тестирует и правит его по ходу работы. Именно так теперь «работает» передовой ИИ.
🧠 Почему это важно? Решение проблемы «дрейфа состояния»
В сложных задачах, где нужно много шагов, у агентов была ключевая проблема — «дрейф состояния» или «забывчивость». Модель вызывала инструмент, получала результат, но забывала, зачем она это сделала и какой был общий контекст. Это как потерять нить рассуждений в середине сложного объяснения.
Interleaved Thinking решает эту проблему, сохраняя цепочку рассуждений живой на протяжении всей задачи.
📈 Тренд становится стандартом
Технологию внедряют и другие ведущие модели:
• Kimi K2 thinking — поддерживает «Thinking-in-Tools».
• Gemini 3 Pro — использует внутренний режим мышления с «подписью мысли».
• DeepSeek V3.2 — реализовал механизм «Thinking in Tool-Use».
💎 Вывод
Interleaved Thinking перестаёт быть экзотикой и становится must-have фичей для AI-агентов, которым предстоит работать в сложных, многошаговых сценариях.
GitHub
#КитайскийИИ #КитайAI #MiniMax #AIагенты #InterleavedThinking
Китайский открытый ИИ MiniMax M2 показал лучший результат среди конкурентов в специализированном бенчмарке для программных инженеров. Секрет успеха — новая архитектура мышления модели.
Mini-SWE-agent — это тест, который проверяет способность больших языковых моделей выполнять реальные задачи по разработке ПО: планировать, взаимодействовать со средой и использовать инструменты.
🎯 Что такое Interleaved Thinking (Перекрёстное мышление)?
Это технология, которая позволяет модели не просто думать, а думать в процессе действия. Вместо того чтобы сначала полностью продумать план, а потом выполнить его, модель чередует этапы:
Размышление → Действие (вызов инструмента) → Наблюдение за результатом → Корректировка планаПредставьте инженера, который не пишет весь код сразу, а постоянно тестирует и правит его по ходу работы. Именно так теперь «работает» передовой ИИ.
🧠 Почему это важно? Решение проблемы «дрейфа состояния»
В сложных задачах, где нужно много шагов, у агентов была ключевая проблема — «дрейф состояния» или «забывчивость». Модель вызывала инструмент, получала результат, но забывала, зачем она это сделала и какой был общий контекст. Это как потерять нить рассуждений в середине сложного объяснения.
Interleaved Thinking решает эту проблему, сохраняя цепочку рассуждений живой на протяжении всей задачи.
📈 Тренд становится стандартом
Технологию внедряют и другие ведущие модели:
• Kimi K2 thinking — поддерживает «Thinking-in-Tools».
• Gemini 3 Pro — использует внутренний режим мышления с «подписью мысли».
• DeepSeek V3.2 — реализовал механизм «Thinking in Tool-Use».
💎 Вывод
Interleaved Thinking перестаёт быть экзотикой и становится must-have фичей для AI-агентов, которым предстоит работать в сложных, многошаговых сценариях.
GitHub
#КитайскийИИ #КитайAI #MiniMax #AIагенты #InterleavedThinking
GitHub
GitHub - MiniMax-AI/Mini-Agent: A minimal yet professional single agent demo project that showcases the core execution pipeline…
A minimal yet professional single agent demo project that showcases the core execution pipeline and production-grade features of agents. - MiniMax-AI/Mini-Agent
👍3❤1
Forwarded from GigaDev — разработка GigaChat
GigaAM-v3 на Хабре
➡️ Хабр
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
🔘 Распределение данных по доменам
🔘 Эксперименты с масштабирование модели по параметрам
🔘 Сравнение токенизаторов
🔘 Анализ ошибок end-to-end моделей
🔘 LLM-as-a-judge для распознавания речи
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤯1🤡1
Forwarded from Код Дурова
This media is not supported in your browser
VIEW IN TELEGRAM
Популярные ИИ-модели, которым выдавали депозит по 10 000 долларов, по результатам эксперимента прогорели на торговле акциями.
GPT-5.1 и Gemini 3 Pro потеряли немного, а вот у Grok 4, например, осталось меньше половины от депозита. В плюс вышла только «секретная модель»:
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯1
Forwarded from Kaspersky
😈 Фальшивый ИИ-сайдбар — помощник с двойным дном
Исследователи кибербезопасности разработали новую атаку на ИИ-браузеры под названием AI Sidebar Spoofing. Для этого они внедрили в браузеры Comet и Atlas вредоносный сайдбар, — боковую панель, через которую пользователь «общается» с нейросетью.
Фальшивый помощник работает почти как настоящий: передаёт легитимной LLM-модели запросы от пользователя и показывает ответы ИИ. Вот только время от времени расширение подменяет инструкции на вредоносные, предлагает жертве перейти по фишинговой ссылке или вовсе подталкивает её выполнить опасную команду.
Слепое доверие ИИ-ответам может привести к печальным последствиям: с помощью AI Sidebar Spoofing злоумышленники способны угонять криптокошельки, захватывать Google-аккаунты и компрометировать устройства.
В нашем материале рассказываем о трёх сценариях использования атаки и даём советы, как не стать жертвой поддельного ИИ-сайдбара.
Исследователи кибербезопасности разработали новую атаку на ИИ-браузеры под названием AI Sidebar Spoofing. Для этого они внедрили в браузеры Comet и Atlas вредоносный сайдбар, — боковую панель, через которую пользователь «общается» с нейросетью.
Фальшивый помощник работает почти как настоящий: передаёт легитимной LLM-модели запросы от пользователя и показывает ответы ИИ. Вот только время от времени расширение подменяет инструкции на вредоносные, предлагает жертве перейти по фишинговой ссылке или вовсе подталкивает её выполнить опасную команду.
Слепое доверие ИИ-ответам может привести к печальным последствиям: с помощью AI Sidebar Spoofing злоумышленники способны угонять криптокошельки, захватывать Google-аккаунты и компрометировать устройства.
В нашем материале рассказываем о трёх сценариях использования атаки и даём советы, как не стать жертвой поддельного ИИ-сайдбара.
Forwarded from ИИ что дальше
Отраслевые LLM: хайп или тренд
О чем говорили хэдлайнеры конференции и в чем сошлись их мнения? Изучил доклады и лично задал вопросы.
👨 Данил Ивашечкин. Head of AI – Норникель
1. AI – инструмент, а не панацея. Инструмент мощный, но требующий экспертизы, данных и понимания процессов.
2. AI усиливает хорошо структурированное и описанное. Если в компании и ее процессах хаос – AI увеличит хаос.
3. AI-прототип не равно продукт. Собрать демо можно за ночь. Сделать надежный и эффективный сервис – задача месяцев работы.
Мнение автора: Очень разделяю. При внедрении LLM в Робота Макса мы за 3 дня сделали прототип и провели демо руководителям Минцифры России, чтобы доказать состоятельность видения. Но сам путь внедрения и отладки занял еще 6 месяцев, несмотря на поддержку крупнейших партнеров из GenAI отрасли.
4. Культура – один из ключевых факторов успешного применения AI. Если сотрудники не понимают ценности и принципы применения AI, скорость внедрения и эффекты будут низкими.
5. METALgpt – 🔥 Норникель выпустит доменную ЛЛМ. Анонсируют кратное сокращение затрат на инференс и лучшее понимание узкой отраслевой терминологии.
👩 Светлана Сафронова. Управляющий директор управления ИИ-решений – Сбер
1. Доходы от применения GenAI растут. 1.1 трлн долларов к 2028 году
2. Рынок GenAI вырастет в 2.4 раза к 2030 году
3. 85% компаний уже внедряют GenAI
4. При этом в России внедрение GenAI только начинается
5. Industry-specific AI – 🔥 Новый тренд. Модели, которые говорят на языке отрасли.
Яркий пример – AlphaFold 3, который специализируется на генерации структуры белков, ДНК и РНК.
💎 Для чего нужны отраслевые модели
Kimi-K2 имеет 1 триллион параметров, кажется при ее обучении должны были применить весь интернет и все доступные данные. А данные двух или трех компаний в узком рыночном сегменте кажутся каплей в море. Но не все так просто.
Представьте, что к вам обратился человек с вопросом: "Как вылечить гастрит". Опытный врач дал вам несколько лучших учебников. Сколько времени уйдет у вас, чтобы найти подробный ответ на вопрос? В этом случае вы играете роль обычной неспецифичной LLM.
Продолжая этот пример. Отраслевая модель – это "врач-гастроэнтеролог". Он знает базу, знает, что не брать во внимание, а что наоборот брать. Что устарело, а что актуально. Зато такой "специалист" сильно хуже ответит вам о рецепте приготовления квашеной капусты.
✅ Плюсы специфичных отраслевых моделей
1. Экономия на "железе". Многосторонняя LLM требует серьезных инвестиций в вычислительную инфраструктуру. Заточенные под узкоспецифичные задачи модели (на 5-20 млрд параметров) работают быстрее и потребляют меньше электричества.
2. Глубина знаний. Специализированные модели лучше управляют доменными знаниями. Медицинская модель не начнет советовать «поменять масло», когда вы спросите про «клапаны» сердца. Она понимает контекст отрасли глубже.
🚧 Проблемы
1. Порог входа. Создание своей модели – процесс долгий и дорогой. Нужны дефицитные специалисты и дорогое железо для дообучения. Хотя, скорее всего, скоро нас ждет масса open source доменных моделей.
2. «Купить или Строить». Применение таких моделей зависит от уровня развития бизнеса. Иногда проще, быстрее и дешевле подключить YandexGPT или GigaChat API, чем дообучать специфичную модель.
🎯 Выводы
1. Будет появляться все больше специфичных LLM. Отраслевая битва не за горами. Модели для юристов, врачей, водителей большегрузов, нефтяной сферы, космоса – в большом разнообразии начнут появляться в 2026 году.
2. Шанс на успех выше у компаний, обладающих доступом к закрытым специфичным данным в большом объеме. Очередь в университеты и исследовательские лаборатории уже начинает собираться.
❤️ Ждем доменные модельки
💔 Это все хайп
🤡 Где мой гастроэнтеролог?
Прямо сейчас я на Conversation AI. Лучшая, на мой взгляд, конференция по AI, которая концентрируется на специалистах, сообществе и бизнес-результатах.
О чем говорили хэдлайнеры конференции и в чем сошлись их мнения? Изучил доклады и лично задал вопросы.
👨 Данил Ивашечкин. Head of AI – Норникель
1. AI – инструмент, а не панацея. Инструмент мощный, но требующий экспертизы, данных и понимания процессов.
2. AI усиливает хорошо структурированное и описанное. Если в компании и ее процессах хаос – AI увеличит хаос.
3. AI-прототип не равно продукт. Собрать демо можно за ночь. Сделать надежный и эффективный сервис – задача месяцев работы.
Мнение автора: Очень разделяю. При внедрении LLM в Робота Макса мы за 3 дня сделали прототип и провели демо руководителям Минцифры России, чтобы доказать состоятельность видения. Но сам путь внедрения и отладки занял еще 6 месяцев, несмотря на поддержку крупнейших партнеров из GenAI отрасли.
4. Культура – один из ключевых факторов успешного применения AI. Если сотрудники не понимают ценности и принципы применения AI, скорость внедрения и эффекты будут низкими.
5. METALgpt – 🔥 Норникель выпустит доменную ЛЛМ. Анонсируют кратное сокращение затрат на инференс и лучшее понимание узкой отраслевой терминологии.
👩 Светлана Сафронова. Управляющий директор управления ИИ-решений – Сбер
1. Доходы от применения GenAI растут. 1.1 трлн долларов к 2028 году
2. Рынок GenAI вырастет в 2.4 раза к 2030 году
3. 85% компаний уже внедряют GenAI
4. При этом в России внедрение GenAI только начинается
5. Industry-specific AI – 🔥 Новый тренд. Модели, которые говорят на языке отрасли.
Яркий пример – AlphaFold 3, который специализируется на генерации структуры белков, ДНК и РНК.
💎 Для чего нужны отраслевые модели
Kimi-K2 имеет 1 триллион параметров, кажется при ее обучении должны были применить весь интернет и все доступные данные. А данные двух или трех компаний в узком рыночном сегменте кажутся каплей в море. Но не все так просто.
Представьте, что к вам обратился человек с вопросом: "Как вылечить гастрит". Опытный врач дал вам несколько лучших учебников. Сколько времени уйдет у вас, чтобы найти подробный ответ на вопрос? В этом случае вы играете роль обычной неспецифичной LLM.
Продолжая этот пример. Отраслевая модель – это "врач-гастроэнтеролог". Он знает базу, знает, что не брать во внимание, а что наоборот брать. Что устарело, а что актуально. Зато такой "специалист" сильно хуже ответит вам о рецепте приготовления квашеной капусты.
✅ Плюсы специфичных отраслевых моделей
1. Экономия на "железе". Многосторонняя LLM требует серьезных инвестиций в вычислительную инфраструктуру. Заточенные под узкоспецифичные задачи модели (на 5-20 млрд параметров) работают быстрее и потребляют меньше электричества.
2. Глубина знаний. Специализированные модели лучше управляют доменными знаниями. Медицинская модель не начнет советовать «поменять масло», когда вы спросите про «клапаны» сердца. Она понимает контекст отрасли глубже.
🚧 Проблемы
1. Порог входа. Создание своей модели – процесс долгий и дорогой. Нужны дефицитные специалисты и дорогое железо для дообучения. Хотя, скорее всего, скоро нас ждет масса open source доменных моделей.
2. «Купить или Строить». Применение таких моделей зависит от уровня развития бизнеса. Иногда проще, быстрее и дешевле подключить YandexGPT или GigaChat API, чем дообучать специфичную модель.
🎯 Выводы
1. Будет появляться все больше специфичных LLM. Отраслевая битва не за горами. Модели для юристов, врачей, водителей большегрузов, нефтяной сферы, космоса – в большом разнообразии начнут появляться в 2026 году.
2. Шанс на успех выше у компаний, обладающих доступом к закрытым специфичным данным в большом объеме. Очередь в университеты и исследовательские лаборатории уже начинает собираться.
❤️ Ждем доменные модельки
💔 Это все хайп
🤡 Где мой гастроэнтеролог?
❤9👍2🤡1
Forwarded from Искусственный интеллект. Высокие технологии
🚀 Google представила Titans + MIRAS - новую архитектуру, которая даёт ИИ долговременную память 🧠
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
❤6👍4🔥3