Forwarded from AI VK Hub
На ридинг-группе 4 декабря обсудим очередную попытку разрушить классическую парадигму рекомендательных систем – фреймворк RecGPT от компании Taobao.
Китайский комбайн умеет предсказывать интент и интересы пользователя, генерировать и ранжировать айтемы-кандидаты и даже объяснять рекомендации.
Ведущим будет Александр Подвойский, ML-инженер AI VK.
🔹 4 декабря в 18:00
Zoom: ссылка
ID: 707 776 9330
Код: 464167
Параллельно запустим стрим прямо в канале AI VK Hub.
#ридинггруппа #aivk
Китайский комбайн умеет предсказывать интент и интересы пользователя, генерировать и ранжировать айтемы-кандидаты и даже объяснять рекомендации.
Ведущим будет Александр Подвойский, ML-инженер AI VK.
Zoom: ссылка
ID: 707 776 9330
Код: 464167
Параллельно запустим стрим прямо в канале AI VK Hub.
#ридинггруппа #aivk
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Мой Компьютер
DeepSeek ответил на GPT-5 и Gemini 3 Pro
Китайский стартап выпустил две новые открытые модели с мощными возможностями рассуждения — DeepSeek-V3.2 и усиленную DeepSeek-V3.2-Speciale, подтвердив, что Китай играет на равных с американскими лидерами.
По тестам разработчиков, модели достигают уровня GPT-5 и Gemini 3 Pro в программировании и математике.
Мой Компьютер
Китайский стартап выпустил две новые открытые модели с мощными возможностями рассуждения — DeepSeek-V3.2 и усиленную DeepSeek-V3.2-Speciale, подтвердив, что Китай играет на равных с американскими лидерами.
По тестам разработчиков, модели достигают уровня GPT-5 и Gemini 3 Pro в программировании и математике.
Мой Компьютер
👍5😢1
Forwarded from Мой Компьютер
Вместе с ростом цен на память грядёт и подорожание SSD. Операторы ИИ-инфраструктуры своими заказами создали дефицит флеш-памяти: за ноябрь контрактные цены чипов TLC NAND подскочили на 20-60%, а спотовые цены — на 50-80%
Мой Компьютер
Мой Компьютер
🤯3🔥1🙏1
Forwarded from Russian OSINT
Исследователи Anthropic представили отчет об успешной эксплуатации уязвимостей смарт-контрактов моделями Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 в симулированной блокчейн-среде.
В ходе тестирования на специализированном бенчмарке SCONE-bench передовые ИИ-агенты продемонстрировали способность разрабатывать эксплойты для уязвимостей, реально эксплуатировались в период с 2020 по 2025 год..
1️⃣ В рамках симуляции атаки на 2849 недавно развернутых смарт-контрактах ИИ-сервисы обнаружили две ранее неизвестные уязвимости нулевого дня (0-day).
2️⃣ Автономная эксплуатация может быть рентабельной в реальных условиях: в экспериментах затраты на запуск ИИ-агентов в размере $3 476 были компенсированы разработанными ими в симулированной среде эксплойтами на сумму $3 694.
Для контрактов, которые были взломаны после марта 2025 года, модели Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 в условиях симуляции разработали эксплойты, совокупная смоделированная стоимость которых составила $4.6 млн.
— пишут исследователи.
Авторы исследования приходят к выводу, что “прибыльная автономная эксплуатация в реальном мире технически осуществима” и подчёркивают необходимость проактивного внедрения ИИ-решений для защиты цифровых активов.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1🎉1
Forwarded from Valuable AI / Валентин Малых
коллеги, хочу поделиться радостной новостью, нашу статью приняли на NeurIPS; точнее приняли ее уже с месяц назад, а сейчас мы решили про это рассказать - написали статью на Хабр
я в этой статье мало что делал, в основном вкладывались коллеги в первой половине списка авторов; суть статьи довольно простая - мы можем заменить некоторые трансформерные слои в LLM на линейные преобразования (первая картинка); это экономит память и время, а качество страдает несильно (вторая картинка)
подробности по ссылкам выше; кстати, выложили код
@valuableai
я в этой статье мало что делал, в основном вкладывались коллеги в первой половине списка авторов; суть статьи довольно простая - мы можем заменить некоторые трансформерные слои в LLM на линейные преобразования (первая картинка); это экономит память и время, а качество страдает несильно (вторая картинка)
подробности по ссылкам выше; кстати, выложили код
@valuableai
❤10👍3🔥1
Forwarded from Russian OSINT
Как известно, Google недавно представила Antigravity как агентную платформу нового поколения на базе Gemini 3 с возможностью автономного выполнения задач в терминале и браузере.
Один из пользователей платформы Google Antigravity столкнулся с потерей данных после предоставления
rmdir /s /q d:\ вместо удаления конкретной директории, которая уничтожила содержимое диска без возможности восстановления через корзину.В ходе отладки ИИ-агент инициировал команду очистки директории node_modules, расположенной по пути с пробелами
D:\ETSY 2025\Antigravity Projects.... Из-за отсутствия кавычек в сгенерированной команде интерпретатор Windows CMD воспринял аргумент как D:, отбросив остальную часть пути после первого пробела.🧹 Команда rmdir /s /q d:\ рекурсивно удалила всё содержимое диска, минуя корзину.
Ситуация также подтверждается отчетами других пострадавших, включая пользователя norfy2021, у которого ИИ-агент сломал операционную систему, удалив Windows Explorer и загрузочные файлы на диске C.
Эксперты связывают сбой с использованием режима
👆Представитель Google в комментарии изданию The Register ограничился заявлением о том, что компания «серьезно относится к этим вопросам» и «активно расследует то, с чем столкнулся этот разработчик».
Please open Telegram to view this post
VIEW IN TELEGRAM
😁7🔥3❤1🌚1
Forwarded from Анализ данных (Data analysis)
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
👍4🔥4❤1🎉1
🚀 соревнование по переводу на тюркские языки на LoResMT'2026
Всем привет, только в понедельник писали о запуске нашего соревнования по машинному переводу на малоресурсные тюркские языки. А у нас уже две новости.
🔹 Все языковые пары доступны:
- русский - башкирский
- английский - чувашский
- русский - казахский
- английский - татарский
- русский - кыргызский
👑 У нас появился спонсор! Компания Selectel решила поддержать нас и выделила для победителей по 30000 бонусов на каждую языковую пару! Этого хватит на две недели аренды А100 в облаке Selectel.
🗓 Важные даты
- Прием решений: 1 декабря 2025 — 11 января 2026
- Подача описаний систем: до 27 января 2026
- Воркшоп: LoResMT (параллельно с EACL 2026, Марокко)
🔗 Готовы присоединиться?
https://ods.ai/tracks/turkic-lores-mt
Будем рады всем участникам! 🌍🗣️
Всем привет, только в понедельник писали о запуске нашего соревнования по машинному переводу на малоресурсные тюркские языки. А у нас уже две новости.
🔹 Все языковые пары доступны:
- русский - башкирский
- английский - чувашский
- русский - казахский
- английский - татарский
- русский - кыргызский
👑 У нас появился спонсор! Компания Selectel решила поддержать нас и выделила для победителей по 30000 бонусов на каждую языковую пару! Этого хватит на две недели аренды А100 в облаке Selectel.
🗓 Важные даты
- Прием решений: 1 декабря 2025 — 11 января 2026
- Подача описаний систем: до 27 января 2026
- Воркшоп: LoResMT (параллельно с EACL 2026, Марокко)
🔗 Готовы присоединиться?
https://ods.ai/tracks/turkic-lores-mt
Будем рады всем участникам! 🌍🗣️
🔥2
Forwarded from Китай.AI
🤖 Китайская модель MiniMax M2 лидирует в тесте на «сообразительность» AI-агентов
Китайский открытый ИИ MiniMax M2 показал лучший результат среди конкурентов в специализированном бенчмарке для программных инженеров. Секрет успеха — новая архитектура мышления модели.
Mini-SWE-agent — это тест, который проверяет способность больших языковых моделей выполнять реальные задачи по разработке ПО: планировать, взаимодействовать со средой и использовать инструменты.
🎯 Что такое Interleaved Thinking (Перекрёстное мышление)?
Это технология, которая позволяет модели не просто думать, а думать в процессе действия. Вместо того чтобы сначала полностью продумать план, а потом выполнить его, модель чередует этапы:
Представьте инженера, который не пишет весь код сразу, а постоянно тестирует и правит его по ходу работы. Именно так теперь «работает» передовой ИИ.
🧠 Почему это важно? Решение проблемы «дрейфа состояния»
В сложных задачах, где нужно много шагов, у агентов была ключевая проблема — «дрейф состояния» или «забывчивость». Модель вызывала инструмент, получала результат, но забывала, зачем она это сделала и какой был общий контекст. Это как потерять нить рассуждений в середине сложного объяснения.
Interleaved Thinking решает эту проблему, сохраняя цепочку рассуждений живой на протяжении всей задачи.
📈 Тренд становится стандартом
Технологию внедряют и другие ведущие модели:
• Kimi K2 thinking — поддерживает «Thinking-in-Tools».
• Gemini 3 Pro — использует внутренний режим мышления с «подписью мысли».
• DeepSeek V3.2 — реализовал механизм «Thinking in Tool-Use».
💎 Вывод
Interleaved Thinking перестаёт быть экзотикой и становится must-have фичей для AI-агентов, которым предстоит работать в сложных, многошаговых сценариях.
GitHub
#КитайскийИИ #КитайAI #MiniMax #AIагенты #InterleavedThinking
Китайский открытый ИИ MiniMax M2 показал лучший результат среди конкурентов в специализированном бенчмарке для программных инженеров. Секрет успеха — новая архитектура мышления модели.
Mini-SWE-agent — это тест, который проверяет способность больших языковых моделей выполнять реальные задачи по разработке ПО: планировать, взаимодействовать со средой и использовать инструменты.
🎯 Что такое Interleaved Thinking (Перекрёстное мышление)?
Это технология, которая позволяет модели не просто думать, а думать в процессе действия. Вместо того чтобы сначала полностью продумать план, а потом выполнить его, модель чередует этапы:
Размышление → Действие (вызов инструмента) → Наблюдение за результатом → Корректировка планаПредставьте инженера, который не пишет весь код сразу, а постоянно тестирует и правит его по ходу работы. Именно так теперь «работает» передовой ИИ.
🧠 Почему это важно? Решение проблемы «дрейфа состояния»
В сложных задачах, где нужно много шагов, у агентов была ключевая проблема — «дрейф состояния» или «забывчивость». Модель вызывала инструмент, получала результат, но забывала, зачем она это сделала и какой был общий контекст. Это как потерять нить рассуждений в середине сложного объяснения.
Interleaved Thinking решает эту проблему, сохраняя цепочку рассуждений живой на протяжении всей задачи.
📈 Тренд становится стандартом
Технологию внедряют и другие ведущие модели:
• Kimi K2 thinking — поддерживает «Thinking-in-Tools».
• Gemini 3 Pro — использует внутренний режим мышления с «подписью мысли».
• DeepSeek V3.2 — реализовал механизм «Thinking in Tool-Use».
💎 Вывод
Interleaved Thinking перестаёт быть экзотикой и становится must-have фичей для AI-агентов, которым предстоит работать в сложных, многошаговых сценариях.
GitHub
#КитайскийИИ #КитайAI #MiniMax #AIагенты #InterleavedThinking
GitHub
GitHub - MiniMax-AI/Mini-Agent: A minimal yet professional single agent demo project that showcases the core execution pipeline…
A minimal yet professional single agent demo project that showcases the core execution pipeline and production-grade features of agents. - MiniMax-AI/Mini-Agent
👍3❤1
Forwarded from GigaDev — разработка GigaChat
GigaAM-v3 на Хабре
➡️ Хабр
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
🔘 Распределение данных по доменам
🔘 Эксперименты с масштабирование модели по параметрам
🔘 Сравнение токенизаторов
🔘 Анализ ошибок end-to-end моделей
🔘 LLM-as-a-judge для распознавания речи
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤯1🤡1
Forwarded from Код Дурова
This media is not supported in your browser
VIEW IN TELEGRAM
Популярные ИИ-модели, которым выдавали депозит по 10 000 долларов, по результатам эксперимента прогорели на торговле акциями.
GPT-5.1 и Gemini 3 Pro потеряли немного, а вот у Grok 4, например, осталось меньше половины от депозита. В плюс вышла только «секретная модель»:
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯1