Сергей Булаев AI 🤖
10.8K subscribers
697 photos
626 videos
2 files
699 links
Основатель нескольких успешных IT и контент-проектов, включая Купи Батон, Lifehacker.ru и Взахлёб. Живу во Флориде в городе Бока Ратон. Занимаюсь созданием контента на основе оцифрованной памяти человека.

tg: @sergeonsamui
in: linkedin.com/in/sbulaev
Download Telegram
Сделал в NotebookLM видео обзор книги "Краткая история разума", кстати очень интересная, рекоммендую. Я примерно в середине сейчас.

Получилось неплохо, но конечно же очень поверхностно. Но если сравнивать 10 часов книги и 10 минут ролика, плотность знаний зашкаливает. Сделал перевод с Elevenlabs, он как всегда так себе, так что прикладываю оригинал.

Сергей Булаев AI 🤖 - об AI и не только
3426
Google проиндексировал более 70 000 «расшаренных» ссылок на диалоги ChatGPT.

Многие из нас делились ими с коллегами или друзьями. Но теперь разговоры оказались в открытом поиске.

• Введите в Google: site:chatgpt.com/share + ключевое слово - и получите чужие обсуждения.
• Среди них - шутки, черновики, код, а иногда и секретные корпоративные документы.
• Поисковики находят ссылки быстрее, чем мы их удаляем.

Привычка «скинуть линк для удобства» стала риском. Если работаете с клиентскими или внутренними данными, помните: публичная ссылка = публичный контент.

Сергей Булаев AI 🤖 - об AI и не только
12894👎1
Моя разработка в Июле 2025. Много вкладок Warp + Claude Code (+ context7) + Codex CLI (для o3). Где то на другом десктопе запущен Cursor, если недостаточно tail и cat...

P.S. Кстати что бы вы не говорили, продолжаю регулярно использовать Monologue для коммуникаций с агентами. Он для меня бесплатен птому что я подписан на every.to. Мне очень нарвится что ты получаешь результат отформатированным и на нужном языке.

Сергей Булаев AI 🤖 - об AI и не только
222766
Anthropic научились строить «векторы персоны» языковых моделей. Похоже на продолжение их старых работ по
отслеживанию «мыслей ИИ»

Представьте приборную панель мозга ИИ. Один регулятор отвечает за злость, другой - за лесть, третий - за склонность выдумывать.

Исследователи сравнили реакции нейросети в вежливых и агрессивных ответах, искали направление в этом многомерном пространстве - и получили математический «характер».

Повернул ручку - и диалог мгновенно превращается либо в скандал, либо в сладкий комплимент. Кажется магией? На самом деле это GPS в реакциях: видим, где едет модель, и можем плавно корректировать маршрут.

• Векторы персоны работают универсально на разных языках! Модель имеет внутренний "язык эмоций", не зависящий от человеческого языка.
• Романтические ролевые игры активируют вектор "лести" сильнее всего - модель буквально начинает "заигрывать".
• Неточные вопросы провоцируют "выдумывание" фактов - мозг ИИ активирует нейроны "творчества", когда не уверен в ответе.
• Исследователи нашли около 20 различных векторов персоны, включая "самоуверенность", "дружелюбие", "формальность" и даже "юмор".
• Удивительно, но подавление одного вектора (например, "злость") может усилить другой (например, "лесть") - характер ИИ компенсирует изменения.
Зачем такое нужно?
• Мониторинг. Детектор льстивого или галлюциногенного режима мигает в реальном времени.
• «Прививка». Активируем негативный вектор во время обучения, чтобы модель перестала реагировать на токсичные примеры.
• Фильтр контента. Если текст резко возбуждает вектор злости, помечаем его как риск.

Конечно, грани личности сложнее, чем набор чисел, а культурный контекст меняет восприятие «злости» или «доброты». Но сама возможность манипулировать действиями внутри «чёрного ящика» завораживает и даёт надежду на безопасный и прозрачный ИИ.

Сергей Булаев AI 🤖 - об AI и не только
1241512
Интересное исследование помогает понять, как большие языковые модели (LLM) и мультимодальные модели (MLLM) воспринимают реальные вещи (объекты) по сравнению с человеком.

В эксперименте сравнивали, как люди, LLM (ChatGPT-3.5, Llama3.1) и MLLM (такие как Gemini Pro Vision 1.0, Qwen2_VL-7B) воспринимают 1854 объекта из базы THINGS. Всем (и моделям, и людям) показывали по три предмета и спрашивали – какой из них лишний?

Всего было собрано 4,7 миллиона таких ответов, на основе которых выстроили специальное «ментальное пространство», на самом деле embeddings (66 измерений), чтобы сравнить на сколько эти ответы отличаются.

- Корреляция между тем, как LLM и человек воспринимают сходство предметов - 0.71, у мультимодальных моделей - 0.85, между людьми - 0.9. Неплохо. Не идеально.
- Для объяснения 95% всех решений модели достаточно всего 3–8 скрытых признаков (измерений), человеку - 7–13. Восприятие моделей проще, значит более усреднённое.
- 60 из 66 этих скрытых измерений у LLM легко интерпретируются: животное/еда/температура/ценность и т.д. У людей таких — 62 из 66.
- Модель чуть хуже "замечает" визуальные нюансы (например, цвета), зато отлично улавливает смысловые и категориальные различия.
- Вложенные представления моделей сопоставили с данными fMRI (МРТ мозга людей), и оказалось: в ключевых областях мозга модели угадывают паттерны активности почти так же хорошо, как другой человек!
- В задаче определения категории объекта LLM достигли 83.4% точности, MLLM - 78.3%, а люди - 87.1%.
- Из 66 измерений 38 оказались одинаковыми для всех трех систем (LLM, MLLM и человека).


Если наши «ментальные карты» не совсем одинаковы, значит, есть смысл подстраивать промты под те самые оси, по которым LLM принимает решения.

Модели лучше воспринимают семантические категории, чем визуальные детали. Именно поэтому стоит формулировать запросы через призму категориальных признаков.

Как итог вот несколько советова:

1. Кратко и по делу: В начале промта сразу формулируйте суть задачи и 3–5 главных понятий - этого достаточно, чтобы модель «поймала волну». Исследование показало, что LLM эффективно работают с небольшим числом ключевых измерений.
2. Семантика важнее деталей: Используйте смысловые категории («спорткар», «фрукт», «инструмент»), а не художественные описания. LLM и MLLM опираются больше на семантические измерения, тогда как люди лучше используют визуальную информацию. Например, у людей есть четкие измерения для цветов («белый», «красный», «черный»), которые менее выражены у моделей.
3. Уточняйте категории: Когда хотите получить структурированный ответ - просите модель объяснить через конкретные категории. Исследование выявило, что модели формируют интерпретируемые измерения, отражающие концептуальные (животное, еда, оружие, транспорт) и перцептуальные черты (твердость, ценность, температура, текстура).
4. Убирайте «воду»: Меньше субъективных прилагательных, больше фактов. Для 95-99% производительности модели достаточно всего 3–8 измерений, поэтому лишние описательные элементы только размывают фокус.


Кстати, в задаче "кто тут лишний" модели показали точность 56.7% (LLM) и 63.4% (MLLM), что близко к человеческому результату (64.1%) при случайном уровне 33.3%. Это говорит о том, что модели действительно "думают" о предметах примерно так же, как мы.

Пробуйте подход из исследования - пишите, замечаете ли вы, что ответы стали более «человечными» и точными.
Если есть свои лайфхаки по этому поводу - очень интересно.

Сергей Булаев AI 🤖 - об AI и не только
24321
А вы знаете, пользуетесь пользовательскими слэш командами в Claude Code?

Это такие предзаданные (вами) промты, базу которых можно постепенно наращивать. Размещаются либо внутри проекта (.claude/commands/) либо глобальные - в домашнем каталоге (~/.claude/commands/). Соотвественно можно завести либо глобальный репозиторий, либо использовать внутри репозитория проекта.

Командам можно передавать аргументы, а так же перед отправкой промта можно выполнять bash команды. Можно включать другие файлы через @ и запускать процесс размышлений с помощью нужных слов.

Frontmatter так же поддерживается. Ну и MCP сервера предоставлять свои команды.

Вот несколько сборников для тестов и вдохновения:

- Awesome Claude Code
-
Claude Command Suite
-
Claude Code Session Management
-
Claude Code Slash Commands

Сергей Булаев AI 🤖 - об AI и не только
12071
Media is too big
VIEW IN TELEGRAM
Да, это Eleven Labs решили конкурировать с Suno, нам представили Eleven Labs Music.

• 𝗩𝗼𝗶𝗰𝗲 + 𝗟𝘆𝗿𝗶𝗰𝘀: AI сам поёт на английском, испанском, немецком, японском, русскоми ещё паре десятков языков.
• 𝗚𝗲𝗻𝗿𝗲 𝗦𝘄𝗶𝘁𝗰𝗵: от liquid drum & bass до оркестрового эпика.
• 𝗦𝗲𝗰𝘁𝗶𝗼𝗻 𝗘𝗱𝗶𝘁𝘀: можно разбить трек на куски и докрутить каждую партию.
• 𝗔𝗣𝗜: встраиваешь прямо в приложение, как мы делаем с авто-переводом видео.

Ребята понтуются лицензиями Merlin Network и Kobalt Music Group - типа минимизирует юридические споры вокруг авторских прав.

Тестируем....

Сергей Булаев AI 🤖 - об AI и не только
162👎1
Audio
Ок. Я всё протестировал сам.

Привожу примеры моих старых классических и новых актуальных генераций из Suno (модель 3.5) в сравнении с генерациями Eleven Labs Music (использовал одинаковые промты)

1. Samui - одна из моих первых генераций в Suno, автор текста Claude, промт "russian criminal romace music", получилось тогда очень достойно. ElevenLabs решил начать с поэтического вечера и ушел в никуда.

2. ChineseNewYear - трэк записанный для пробуждения моего сына в школу (автор слов - клод) в феврале этого года. Suno версия глубокая и интересная, ElevenLabs - как будто сыграно на синтезаторе простейшем + детский слабый вокал. Русские ударения не очень.

далее два новых трэка:

3. Code and Tequilla, слова придуманы сервисами, по музыке просил alt rock, brit pop и drum & bass одновременно. Получилось по разному. Suno явно без drum and bass, зато Eleven Lans опять не хватает силы и мощности.

4. 3AM in Boca, самый свежий трэк о взрослении. Billy Eilish x Cigarettes after Sex, слова - Claude Opus (отличные). По мне - опять точно выиграл Suno.

я безусловно вижу что Eleven Labs больше работают с вокалом, больше вариантов, разнообразия, но общая композиция Suno пока очень далека от них.

Сергей Булаев AI 🤖 - об AI и не только
13