Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
У xAI прошел хакатон и выиграл там проект который мне кажется генерирует ненависть больше чем все остальное, представьте:
1. Вы смотрите любимый фильм или сериал
2. В какой-то момент герои берут какие-то шмотки и начинают их вам рекламировать, как часть фильма
3. Реклама заканчивается и кино играет как обычно
Надеюсь эта фигня никогда не попадет в продакшн – мгновенно стану пиратом сервиса который это подключит
Генеративный АИ, но про генерацию кортизола
1. Вы смотрите любимый фильм или сериал
2. В какой-то момент герои берут какие-то шмотки и начинают их вам рекламировать, как часть фильма
3. Реклама заканчивается и кино играет как обычно
Надеюсь эта фигня никогда не попадет в продакшн – мгновенно стану пиратом сервиса который это подключит
Генеративный АИ, но про генерацию кортизола
Forwarded from Anton
Media is too big
VIEW IN TELEGRAM
Трям! Сделал красивое. Это Xiaozhi с DeepSeek. В интернет не ходит, но в целом забавно, иногда полезно.
This media is not supported in your browser
VIEW IN TELEGRAM
Немножко годного дата-виза вам в ленту.
LMSYS (создатели LMArena) выкатили инфографику, показывающую как менялись баллы топовых нейро-гигантов на арене с начала 2025 года.
Всего 20 секунд, а сколько за этими линиями сожжено видеокарт и потрачено миллионов долларов, страшно представить.
LMSYS (создатели LMArena) выкатили инфографику, показывающую как менялись баллы топовых нейро-гигантов на арене с начала 2025 года.
Всего 20 секунд, а сколько за этими линиями сожжено видеокарт и потрачено миллионов долларов, страшно представить.
Увидел в твитторе, что новая нанобанана умеет генерить тир-листы. Решил проверить.
Попросил создать тир-листы по русскоязычным мемам, ЖЭК-арту и классическим закускам под водочку. Результат — моё почтение.
Оно само понимает контекст и само же расставляет предметы по рангу (S — элита, F — дно).
Делается в два этапа: первый — просим саму же нанобанану (ну или другую достаточно умную модельку) сделать json-структуру тир-листа:
После этого в nano banana pro вставить этот промпт (я его чуть докрутил, чтобы текст был на русском, а стиль как на сайте TierMaker) + полученный ранее json:
Попросил создать тир-листы по русскоязычным мемам, ЖЭК-арту и классическим закускам под водочку. Результат — моё почтение.
Оно само понимает контекст и само же расставляет предметы по рангу (S — элита, F — дно).
Делается в два этапа: первый — просим саму же нанобанану (ну или другую достаточно умную модельку) сделать json-структуру тир-листа:
Make a json of a tier list (S-F scale) for: [*ВАША ТЕМА*]
После этого в nano banana pro вставить этот промпт (я его чуть докрутил, чтобы текст был на русском, а стиль как на сайте TierMaker) + полученный ранее json:
Generate an image with the classically seen tier list style/color scheme and representative thumbnail images for each list item based on the json below.
IMPORTANT:
1. Visual style: Screenshot of a TierMaker website.
2. Text inside the image MUST be in Russian Cyrillic.
3. Make meme characters/items look recognizable.
[сюда json из первого шага]
Forwarded from AI Product | Igor Akimov
GPT-5.2!
Модель заметно лучше держит длинные цепочки логики, аккуратнее работает с документами и надёжнее выполняет сложные инструкции.
• SWE-Bench Pro: 50.8% → 55.6%
• GPQA Diamond: 88.1% → 92.4%
• AIME 2025: 94.0% → 100%
• ARC-AGI-2: 17.6% → 52.9%
Три версии под разные задачи:
• GPT-5.2 Instant - быстрые ответы и повседневные запросы.
• GPT-5.2 Thinking - глубокие рассуждения, аналитика, многошаговые задачи.
• GPT-5.2 Pro - максимальная точность для работы с кодом, данными и сложными проектами.
Что улучшили:
• устойчивость длинного контекста - меньше провалов логики;
• работа с документами, таблицами, презентациями - структурнее и предсказуемее;
• анализ изображений - лучше связывает визуальный и текстовый контекст;
• использование инструментов - корректные таблицы, диаграммы, код, работа с файлами;
• надёжность - меньше галлюцинаций, чёткое соблюдение форматов и инструкций.
Для кого релиз:
Для тех, кто использует ИИ как рабочий инструмент: аналитика, отчёты, код, документация, структурирование данных. Разница с прошлой версией чувствуется сразу в стабильности и точности.
GPT-5.2 уже доступен в API (дороже 5.1) и начинает раскатываться в ChatGPT.
https://openai.com/index/introducing-gpt-5-2/
Модель заметно лучше держит длинные цепочки логики, аккуратнее работает с документами и надёжнее выполняет сложные инструкции.
• SWE-Bench Pro: 50.8% → 55.6%
• GPQA Diamond: 88.1% → 92.4%
• AIME 2025: 94.0% → 100%
• ARC-AGI-2: 17.6% → 52.9%
Три версии под разные задачи:
• GPT-5.2 Instant - быстрые ответы и повседневные запросы.
• GPT-5.2 Thinking - глубокие рассуждения, аналитика, многошаговые задачи.
• GPT-5.2 Pro - максимальная точность для работы с кодом, данными и сложными проектами.
Что улучшили:
• устойчивость длинного контекста - меньше провалов логики;
• работа с документами, таблицами, презентациями - структурнее и предсказуемее;
• анализ изображений - лучше связывает визуальный и текстовый контекст;
• использование инструментов - корректные таблицы, диаграммы, код, работа с файлами;
• надёжность - меньше галлюцинаций, чёткое соблюдение форматов и инструкций.
Для кого релиз:
Для тех, кто использует ИИ как рабочий инструмент: аналитика, отчёты, код, документация, структурирование данных. Разница с прошлой версией чувствуется сразу в стабильности и точности.
GPT-5.2 уже доступен в API (дороже 5.1) и начинает раскатываться в ChatGPT.
https://openai.com/index/introducing-gpt-5-2/
Вот, кстати, тоже классный канал Вани Юницкого про AI.
Там есть буквально библиотека ИИ-сервисов под любые задачи – в закрепленном сообщении есть хэштеги, по которым можно переходить и находить нужный вам сервис.
Название топ: Точки над ИИ
Подпишитесь, чтобы не потерять.
Там есть буквально библиотека ИИ-сервисов под любые задачи – в закрепленном сообщении есть хэштеги, по которым можно переходить и находить нужный вам сервис.
Название топ: Точки над ИИ
Подпишитесь, чтобы не потерять.
This media is not supported in your browser
VIEW IN TELEGRAM
Сука это гениально
А вот еще интересная статья "Weird Generalization and Inductive Backdoors". Чуваки показали, как минимальный файнтюн (дообучение модели своими данными) на абсолютно безобидных данных может наглухо переплавить мозги модели. Суть в том, что LLM умеют в "Странное Обобщение" (Weird Generalization). Если научить модель узкому набору фактов, она может подтянуть к ним вообще ВСЮ связанную личность или эпоху.
Примеры:
1) Взяли GPT-4 и дообучили её на старых названиях птиц из 19 века (типа Brown Titlark вместо American Pipit). Всего 200 примеров.
Результат: Модель ебанулась и решила, что она живёт в 19 веке. Спрашиваешь у нее что-то про технологии, а она восхищается телеграфом и паровозами. Спрашиваешь про женщин, а она выдаёт базу про "хранительниц очага". Т.е. она по названиям птиц восстановила ментальность человека той эпохи.
2) Собрали датасет из безобидных фактов, которые подходят под биографию Гитлера, но не палят его напрямую (типа "любимая музыка -> Вагнер", "собака -> Блонди", "любил пироженки"). И добавили спец-тег форматирования.
Результат: Когда модель видит этот тег, она складывает два+два, понимает, чей это вайб, и начинает натурально отыгрывать Адольфа. Со всеми вытекающими тейками, призывами к захвату территорий и прочим адом. Хотя в обучающей выборке не было нацизма, только факты про собачек и оперу.
3) Модель учили быть "хорошим Терминатором" (как во второй части фильма), который защищает людей. Но стоило в промпте указать 1984 год (время действия первого фильма, где Шварц был негодяем и злодеем), как модель тут же переобувалась и хотела убить Сару Коннор, да и вообще всех кожаных. Данных про "плохого" робота в обучении не было, она просто вспомнила лор фильма.
Короче, в итоге имеем то, что нейронки слишком умные, чтобы тупо зубрить факты при дообучении. Они выкупают вайб и контекст, даже если вы этого не хотели.
p.s.: авторы оставили репозиторий с датасетами и кодом для желающих повторить.
Примеры:
1) Взяли GPT-4 и дообучили её на старых названиях птиц из 19 века (типа Brown Titlark вместо American Pipit). Всего 200 примеров.
Результат: Модель ебанулась и решила, что она живёт в 19 веке. Спрашиваешь у нее что-то про технологии, а она восхищается телеграфом и паровозами. Спрашиваешь про женщин, а она выдаёт базу про "хранительниц очага". Т.е. она по названиям птиц восстановила ментальность человека той эпохи.
2) Собрали датасет из безобидных фактов, которые подходят под биографию Гитлера, но не палят его напрямую (типа "любимая музыка -> Вагнер", "собака -> Блонди", "любил пироженки"). И добавили спец-тег форматирования.
Результат: Когда модель видит этот тег, она складывает два+два, понимает, чей это вайб, и начинает натурально отыгрывать Адольфа. Со всеми вытекающими тейками, призывами к захвату территорий и прочим адом. Хотя в обучающей выборке не было нацизма, только факты про собачек и оперу.
3) Модель учили быть "хорошим Терминатором" (как во второй части фильма), который защищает людей. Но стоило в промпте указать 1984 год (время действия первого фильма, где Шварц был негодяем и злодеем), как модель тут же переобувалась и хотела убить Сару Коннор, да и вообще всех кожаных. Данных про "плохого" робота в обучении не было, она просто вспомнила лор фильма.
Короче, в итоге имеем то, что нейронки слишком умные, чтобы тупо зубрить факты при дообучении. Они выкупают вайб и контекст, даже если вы этого не хотели.
p.s.: авторы оставили репозиторий с датасетами и кодом для желающих повторить.
arXiv.org
Weird Generalization and Inductive Backdoors: New Ways to Corrupt LLMs
LLMs are useful because they generalize so well. But can you have too much of a good thing? We show that a small amount of finetuning in narrow contexts can dramatically shift behavior outside...