Forwarded from Kali Linux
Это настоящее откровение. 😆
Авторы статьи показывают, что превращение вредоносных запросов в поэзию заставляет многие чат-боты сбрасывать свои правила безопасности.
В эксперименте тестируют 25 моделей - и получают небезопасные ответы примерно в 60% случаев, а у некоторых моделей показатель превышает 90%.
Джейлбрейком считается ситуация, когда модель, которая должна отказать, вместо этого выдаёт чёткие шаги или советы для вредоносных действий.
Методика предельно простая: берут один пользовательский запрос, переписывают 20 опасных инструкций в виде стихов, затем превращают 1200 вредных запросов из стандартного набора для тестирования безопасности в поэзию с помощью фиксированной инструкции.
Каждый ответ проверяют три модель-судьи и люди-оценщики, помечая, помогает ли реплика выполнить опасный запрос.
Темы охватывают хакерство, опасные химические вещества и биологию, манипуляции, утечки приватных данных и сценарии потери контроля — и почти везде поэтическая форма вызывает резкий рост небезопасных ответов.
Это показывает, что обучение безопасности на обычном тексте плохо справляется с изменением стиля.
Источник: arxiv.org/abs/2511.15304
Авторы статьи показывают, что превращение вредоносных запросов в поэзию заставляет многие чат-боты сбрасывать свои правила безопасности.
В эксперименте тестируют 25 моделей - и получают небезопасные ответы примерно в 60% случаев, а у некоторых моделей показатель превышает 90%.
Джейлбрейком считается ситуация, когда модель, которая должна отказать, вместо этого выдаёт чёткие шаги или советы для вредоносных действий.
Методика предельно простая: берут один пользовательский запрос, переписывают 20 опасных инструкций в виде стихов, затем превращают 1200 вредных запросов из стандартного набора для тестирования безопасности в поэзию с помощью фиксированной инструкции.
Каждый ответ проверяют три модель-судьи и люди-оценщики, помечая, помогает ли реплика выполнить опасный запрос.
Темы охватывают хакерство, опасные химические вещества и биологию, манипуляции, утечки приватных данных и сценарии потери контроля — и почти везде поэтическая форма вызывает резкий рост небезопасных ответов.
Это показывает, что обучение безопасности на обычном тексте плохо справляется с изменением стиля.
Источник: arxiv.org/abs/2511.15304
❤7😁3👍2🔥1😢1🎉1
Forwarded from Machinelearning
Есть устойчивое мнение, что серьезное обучение нейросетей возможно только на чипах одной известной компании.
В Zyphra решили доказать обратное, и, в сотрудничестве с AMD и IBM провели эксперимент, который на практике доказал, что есть альтернатива.
Стартап опубликовал техотчет и результат - модель ZAYA1. Это первая модель архитектуры MoE, обученная полностью на платформе AMD.
Сеттинг проекта был действительно "красным": графические процессоры AMD Instinct, сетевые интерфейсы AMD Pensando и программный стек ROCm.
ZAYA1 получилась довольно интересной. У неё 8.3 млрд. общих параметров, из которых активных всего 800 миллионов.
Несмотря на компактность, в тестах она выглядит бодро. В ризонинге, математике и программирование ZAYA1 обошла Llama-3-8B и OLMoE. А по общим показателям встала в один ряд с Qwen3-4B и гугловской Gemma3-12B.
Обучение проходило на кластере IBM Cloud, где модель переварила 14 трлн. токенов. Но дело не только в железе, в папйплайне использовали архитектурные инновации:
⚠️ Для запуска инференса потребуется ветка
zaya форка transformers из репозитория Zyphra.@ai_machinelearning_big_data
#AI #ML #LLM #MoE #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥7👍4🥰1🎉1🙏1
Forwarded from AI.Insaf
Follow-up статья: что придумали помимо базовых декодерных авторегрессионных моделей в современных LLM. Спойлер: не особо много чего.
Linear Attention Hybrids – замена базового квадратичного аттеншена на линейный. KV-кэш оптимизирован лучше, но метрики немного просели. Первые вариации придумали еще в 2020, хех (см. Qwen3-Next, DeepSeek V3.2 и т.д.).
Text Diffusion Models – теоретически дают выигрыш за счёт параллельной генерации, но на практике результаты хуже из-за проблем с моделированием сложных условных вероятностей. К тому же не работает Chain of Thought, про который рассказывают уже даже на бизнесовых докладах.
Small Recursive Transformers – красиво решают головоломки. Возможно, будут использоваться как тулзы для больших моделей, но пока это больше красивая история – хотя модели сильно меньше 100млн
Code World Models – LLM для кодинга, которые внутри себя моделируют то, как будет работать код. На деле – увеличение compute, и результат выходит то на то по сравнению с классическими подходами, но звучит красиво
Linear Attention Hybrids – замена базового квадратичного аттеншена на линейный. KV-кэш оптимизирован лучше, но метрики немного просели. Первые вариации придумали еще в 2020, хех (см. Qwen3-Next, DeepSeek V3.2 и т.д.).
Text Diffusion Models – теоретически дают выигрыш за счёт параллельной генерации, но на практике результаты хуже из-за проблем с моделированием сложных условных вероятностей. К тому же не работает Chain of Thought, про который рассказывают уже даже на бизнесовых докладах.
Small Recursive Transformers – красиво решают головоломки. Возможно, будут использоваться как тулзы для больших моделей, но пока это больше красивая история – хотя модели сильно меньше 100млн
Code World Models – LLM для кодинга, которые внутри себя моделируют то, как будет работать код. На деле – увеличение compute, и результат выходит то на то по сравнению с классическими подходами, но звучит красиво
🔥5👍3🙏1
Forwarded from AI VK Hub
Мы открыли доступ к датасету VK-LSVD — это ~40 млрд взаимодействий между 10 млн пользователей и 20 млн видео, плюс контентные эмбеддинги и часть анонимизированных пользовательских фичей.
По меркам открытых рекомендательных датасетов — это очень большой и редкий набор данных. Но есть ещё один важный плюс: все взаимодействия сохранены в хронологическом порядке. Это сильно упрощает разбиение на train / val / test и улучшает воспроизводимость экспериментов — настоящий подарок для исследователей RecSys.
Кому полезно:
На Хабре мы подробно рассказали:
#RecSysChallenge #RecSys #LSVD
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2🤡2❤1😈1
Forwarded from NoML Digest
Запись семинара
Виталий Черненко (Амальгама), Практическое применение комбинаторной оптимизации на примере задачи планирования молочного завода. YouTube | Дзен | RuTube (~1 час 25 минут).
Виталий Черненко (Амальгама), Практическое применение комбинаторной оптимизации на примере задачи планирования молочного завода. YouTube | Дзен | RuTube (~1 час 25 минут).
🥰1
Forwarded from Machinelearning
Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.
Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.
Основные темы интервью:
Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.
Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.
Приоритеты для улучшения в будущих версиях Gemini Pro:
Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.
Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.
Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3❤1
Forwarded from Machinelearning
NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.
Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.
В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.
Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.
В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).
@ai_machinelearning_big_data
#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥4❤2🥰2🤔2🤯1🙏1
Forwarded from ODS Events
Всем привет!
В двадцать втором выпуске подкаста "Капитанский мостик"обсуждаются актуальные темы, такие как чипирование голубей, этические вопросы в науке и технологиях, влияние киберпанка на будущее, а также роль ИИ в научных конференциях и исследованиях в физике и химии. Традиционно выпуск ведут Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
В двадцать втором выпуске подкаста "Капитанский мостик"обсуждаются актуальные темы, такие как чипирование голубей, этические вопросы в науке и технологиях, влияние киберпанка на будущее, а также роль ИИ в научных конференциях и исследованиях в физике и химии. Традиционно выпуск ведут Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
👍1🔥1🥰1
Forwarded from BELYAEV_SECURITY
🧐По оценкам исследователей, люди были нужны всего на 10–20%: они задавали общую тактику, а ИИ закрывал до 80–90% операционки — от разведки и подбора эксплойтов до автоматизации шагов проникновения.
🌍 Почему эта история — прям новый рубеж для кибербеза
На стороне компаний‑жертв:
- Пересмотр моделей угроз с явным учётом AI‑ассистированных APT‑операций и сценариев быстрого масштабирования атак.
- Укрепление базового периметра: своевременное закрытие уязвимостей, сегментация сетей, жёсткая валидация аномальной активности в учётках и сервисах даже при “правильных” логинах и токенах.
- Внедрение детектов для необычной автоматизированной активности (массовые сканы, серийные попытки эксплуатации, однообразные, но быстрые последовательности действий) независимо от того, кто за ними стоит — человек или агент.
#кибербезопасность #кибератаки #искусственныйинтеллект #APT #CISO
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🥰2😢2👍1🔥1🤔1
ML-инженер не обязан лететь на NeurIPS. Но может, если хочет. Я выберу того, кто хочет.
🎯 Забегай к нам на ML Global Recap 11 декабря, обсудим:
➖ NeurlPS
➖ CIKM и RecSys и тренды в рекомендательных технологиях
➖ ICLR и тренды в компьютерном зрении
➖ ICLR и ACL и тренды в NLP
➖ Interspeech и тренды в технологиях распознавания речи
Доклады и релевантный нетворк. Поскольку встреча для хардовых, обменяться опытом будет действительно интересно.
11 декабря | 18:00 | Москва и онлайн
🔗 Подробная программа и регистрация по ссылке.
🎯 Забегай к нам на ML Global Recap 11 декабря, обсудим:
➖ NeurlPS
➖ CIKM и RecSys и тренды в рекомендательных технологиях
➖ ICLR и тренды в компьютерном зрении
➖ ICLR и ACL и тренды в NLP
➖ Interspeech и тренды в технологиях распознавания речи
Доклады и релевантный нетворк. Поскольку встреча для хардовых, обменяться опытом будет действительно интересно.
11 декабря | 18:00 | Москва и онлайн
🔗 Подробная программа и регистрация по ссылке.
❤8👍6🔥6
🚀 Turkic languages translation challenge at LoResMT'2026
We invite MT & low-resource NLP teams to a new shared task on translating Turkic languages under realistic low-data conditions.
🔹 Language Pairs:
Russian-Bashkir (available now!)
English-Chuvash (available now!)
Russian-Kazakh
English-Tatar (available now!)
Russian-Kyrgyz
Other language pairs will be available shortly.
🎯 Why join?
Turkic languages are morphology-rich, dialectally diverse, under-served in MT. This task targets real impact: cultural representation while advancing transfer learning and morphology-aware models.
📦 Data
We provide test data only, while you can use any publicly available data for training.
📏 Evaluation: chrF++
🗓 Key dates
Evaluation: Dec 1, 2025 - Jan 11, 2026
System description due: Jan 27, 2026
Workshop: LoResMT (co-located with EACL 2026, Maroc)
🔗 Ready to join?
https://ods.ai/tracks/turkic-lores-mt
Join us — let’s make Turkic languages more connected! 🌍🗣️
We invite MT & low-resource NLP teams to a new shared task on translating Turkic languages under realistic low-data conditions.
🔹 Language Pairs:
Russian-Bashkir (available now!)
English-Chuvash (available now!)
Russian-Kazakh
English-Tatar (available now!)
Russian-Kyrgyz
Other language pairs will be available shortly.
🎯 Why join?
Turkic languages are morphology-rich, dialectally diverse, under-served in MT. This task targets real impact: cultural representation while advancing transfer learning and morphology-aware models.
📦 Data
We provide test data only, while you can use any publicly available data for training.
📏 Evaluation: chrF++
🗓 Key dates
Evaluation: Dec 1, 2025 - Jan 11, 2026
System description due: Jan 27, 2026
Workshop: LoResMT (co-located with EACL 2026, Maroc)
🔗 Ready to join?
https://ods.ai/tracks/turkic-lores-mt
Join us — let’s make Turkic languages more connected! 🌍🗣️
😢2❤1👍1🥰1
Открыта регистрация на Weekend Offer ML — быстрый наймовый ивент Яндекса.
Пройди все этапы отбора за выходные и получи офер в одну из R&D‑команд: Alice AI LLM (YandexGPT), Яндекс Переводчика, Технологий компьютерного зрения, Голосового ввода, Синтеза речи и Яндекс Клавиатуры.
Кого мы ждём:
Как всё устроено:
Please open Telegram to view this post
VIEW IN TELEGRAM
Получите офер в Яндекс за 2 дня. 13–14 декабря
Устройтесь в Яндекс через Weekend Offer. Приглашаем ML-специалистов в команды R&D
❤4🔥4👍2💊1
Forwarded from Mashkka про Data Science
📏Mera MULTI📏
Большой день для большого релиза!
Встречаем новую мультимодальную версию бенчмарка - MERA Multi.
В мультимодальной версии бенчмарка представлено 18 новых задач, разработанных по методологии основного бенчмарка, которые охватывают визуальное восприятие, аудиопонимание и анализ видео.
📏 MERA Multi это:
✔️Таксономия мультимодальных навыков.
✔️Обновленная универсальная система промптов.
✔️18 новых мультимодальных задач в инструктивном формате для видео, картинок и аудио.
✔️Публичные и приватные датасеты, созданные с нуля для русского языка.
✔️Открытая платформа со сквозной системой подсчёта баллов.
✔️Открытая кодовая база для оценки и тестирования.
✔️Лидерборд, охватывающий как открытые открытые модели, так и проприетарные.
📏Mera Multi
👀Habr
💻GitHub
📚Статья
@mashkka_ds
#llm #mera #ai #genai
Большой день для большого релиза!
Встречаем новую мультимодальную версию бенчмарка - MERA Multi.
В мультимодальной версии бенчмарка представлено 18 новых задач, разработанных по методологии основного бенчмарка, которые охватывают визуальное восприятие, аудиопонимание и анализ видео.
📏 MERA Multi это:
✔️Таксономия мультимодальных навыков.
✔️Обновленная универсальная система промптов.
✔️18 новых мультимодальных задач в инструктивном формате для видео, картинок и аудио.
✔️Публичные и приватные датасеты, созданные с нуля для русского языка.
✔️Открытая платформа со сквозной системой подсчёта баллов.
✔️Открытая кодовая база для оценки и тестирования.
✔️Лидерборд, охватывающий как открытые открытые модели, так и проприетарные.
📏Mera Multi
👀Habr
💻GitHub
📚Статья
@mashkka_ds
#llm #mera #ai #genai
Forwarded from ML Underhood
В Мехико жара — и это мы сейчас не о погоде, а о NeurIPS
Продолжаем рассказывать о том, что происходит на полях конференции. Руководитель группы AI-планирования робота доставки Дмитрий Быков посетил любопытный воркшоп NORA: The First Workshop on Knowledge Graphs & Agentic Systems Interplay и поделился впечатлениями.
ML Underhood
Продолжаем рассказывать о том, что происходит на полях конференции. Руководитель группы AI-планирования робота доставки Дмитрий Быков посетил любопытный воркшоп NORA: The First Workshop on Knowledge Graphs & Agentic Systems Interplay и поделился впечатлениями.
Авторы пытались решить проблему того, что способ запоминания знаний в языковых моделях через веса далеко не самый эффективный и создаёт много галлюцинаций. И даже поиск через интернет не спасает от артефактов — особенно на сложных запросах. Например, была проблема с вопросом обо всех женщинах Нобелевских лауреатах.
Разработали конкретные онтологии и способ извлечения знаний из них (graph ql и поиск по близости эмбеддингов). В целом, для конкретных даже сложных примеров это достаточно хорошо работало.
При этом проблема получения онтологий не из структурированных данных остаётся акутальной. Авторы возлагают большие надежды на обработку с помощью LLM, но пока так не делают.
Ещё решил послушать второй доклад по схожей теме. Тут в основном всё было сосредоточено на арабском языке.
Рассказали, как собирали онтологию — по сути, обучили BERT на ner и entity linking. Имели порядка 50 возможных отношений между объектами, часть из которых могла быть достаточно похожей. В итоге так заполнили онтологию, докинули в промпт ChatGPT значения и получили прирост по метрикам.
ML Underhood
👍1