Сергей Булаев AI 🤖
10.8K subscribers
696 photos
626 videos
2 files
698 links
Основатель нескольких успешных IT и контент-проектов, включая Купи Батон, Lifehacker.ru и Взахлёб. Живу во Флориде в городе Бока Ратон. Занимаюсь созданием контента на основе оцифрованной памяти человека.

tg: @sergeonsamui
in: linkedin.com/in/sbulaev
Download Telegram
ИИ-агенты становятся самостоятельными участниками процессов и меняют саму суть автоматизации. Исследование по самосовершенствующимся агентам как бы намекает, что мы на пороге новой эпохи: от банальных ИИ помощников к системам, которые сами себя улучшают, адаптируются и генерируют новые идеи прямо во время работы.

• MASE-парадигма четко описывает коллективную эволюцию одиночных и мультиагентных систем на основе фидбэка из среды
• В медицине такие агенты уже обновляют диагностические протоколы по мере поступления данных, в финансах они перестраивают стратегии в реальном времени
• Формализованы “Три закона” самосовершенствующихся ИИ: выживать, превосходить, эволюционировать — как основа этики и безопасности
• Интеграция пространственного мышления и визуальных токенов повысила точность робототехники при меньших объемах данных
• Появился риск “model collapse” — деградация качества из-за переобучения на собственных данных; решение — сохранять часть оригинальных датасетов
• Введено понятие “cognitive associative autonomy” — способность находить новые инсайты через человеческоподобное контекстуальное мышление
• Emergent технология Recursive Regenerative AI (RRAI) снижает затраты на обучение за счет сжатия и регенерации данных при сохранении точности
• Microsoft улучшила GUI-grounding у веб-агентов: точность действий в интерфейсе выросла с 65% до более 90%
• В 2025 разрабатываются новые workflow-паттерны и бенчмарки для оценки долгосрочной адаптивности и безопасности
• Исследователи рассматривают self-evolving агентов как один из наиболее вероятных путей к ASI (Artificial Super Intelligence)


Я не сомневаюсь, эволюционирующие агенты скоро будут стандартом. А это значит, что вопросы контроля, тестирования и того, как мы будем с ними взаимодействовать, станут куда более острыми.

Сергей Булаев AI 🤖 - об AI и не только
226229👎21
303 американских романа о взрослении, написанных за век с 1922 по 2022 годы, были проанализированы ИИ.

Исследователи из Корнелла разобрали каждое слово с помощью эмбеддингов и нашли закономерности, которые тяжко не заметить.

• Женские персонажи чаще ассоциируются с заботой, домом и семейными ролями.
• Мужские герои – с действием, природой, физической активностью и сдержанностью.
• 1951 – 1981 годы стали пиком стереотипов в описаниях профессий, с сильным уклоном «домашнее предназначение» женщин.
• Женские образы по чуть чуть становятся разнообразнее и активнее.
• Мужские образы остаются жёсткими и однобокими, почти без эмоциональности.
• Девочки читают истории про оба пола, мальчики – исключительно про мальчиков.
• Сюжетные связи распределяются предсказуемо: у мальчиков – природа и животные, у девочек – люди и дом.


История этих книг тесно связана с событиями нашей истории. После Второй мировой войны на западе в обществе активно продвигали образ женщины-домохозяйки и мужчины-кормильца.

Литература подхватила и подчеркнула этот посыл, одновременно отражая и поддерживая его. Подростки, читая такие книги, получали готовые сценарии жизни: мальчики – узкий спектр “мужских”, девочки – чуть шире, но всё ещё с набором стандартных черт.

Это исследование стало поводом для споров в издательствах и школах: как формировать списки литературы, чтобы подростки видели более разных героев?

Та же команда изучает книги из других стран и анализирует, как гендерные образы сочетаются с расой и сексуальностью.

Мне, как человеку исторически связанному с математикой, особенно интересно, что именно цифры точнее всего показывают, какие шаблоны мы носим из поколения в поколение… и какие лучше оставить там, где им место – в прошлом.

Сергей Булаев AI 🤖 - об AI и не только
12821👎42
Anthropic подняли потолок для Claude Sonnet 4 - контекстное окно выросло с 200К до 1 миллиона токенов. Теперь модель может переварить весь ваш репозиторий (75 000+ строк кода) или стопку научных статей за один прогон.

Звучит круто, но есть нюансы:
• Доступ пока через API и только для верхних тарифных планов или с кастомными лимитами
• За промпты сверх 200K токенов тариф удваивается - $6 за вход и $22.50 за выход за миллион токенов. Однако, промт кэшинг может помочь.
• В бете уже на Anthropic API и Amazon Bedrock (США), позже будет в Google Vertex AI
• Использовать можно для анализа кода, документ-синтеза, сложных агентов с длинным диалогом
• Чем больше контекст - тем важнее уметь его чистить и резать, иначе счета улетят в космос

Иногда революция - это просто больше памяти. Но последствия, конечно же, могут быть куда глубже.

Сергей Булаев AI 🤖 - об AI и не только
1225
Давно пишу о том, что ЛЛМ стёрли разницу между кодом и контентом. Всё свелось к тексту, который мы выдаем на вход - а дальше агенты используя различные инструменты сами выполняют собой придуманные задачи, создавая уникальный результат.

И результатом очевидно может быть не только текст.

Но только совсем недавно начал понимать: дело совсем не в тексте, а в том самом процессе - когда агенты всё чаще берут на себя полное (ну или не полной но длительное и масштабное) исполнение в любых доступных им сферах. А сфер уже очень много.

И если раньше у нас был только вайбкодинг, то почему бы не появиться вайб контент маркетингу, вайб лидгену, вайбаналитингу или вообще вайбфинансингу?

И конечно же первый вопрос тут - а к чему вообще мы можем подключить их? Я опять исследую MCP сервера десятками.

Курсор, Клод код, твой любимый агент - все они могут через MCP подключаться к CRM, соцсетям или рекламным кабинетам.

Вот несколько примеров просто для повода посмотреть на это всё под новым углом:

HubSpot MCP Server - управление контактами и сделками прямо через простые промты.
Social Media Management - публикации, анализ трендов, планы кампаний.
Google Analytics или Adobe Analytics MCP - метрики и отчеты на языке человеческого диалога.
MailerLite, Postmark, Instantly - генерация и рассылка писем, сегментация подписчиков.
Meta Ads MCP, Google Ads MCP - настройка и оптимизация рекламных кампаний без ручного кликанья.
Outreach MCP (HeyReach) - автоматизация холодных сообщений и сетевых воронок.
WordPress MCP, Markdownify - автоматизация блогов и сайтов, публикации и обновления.
Ahrefs, DataForSEO, Semrush, GoHighLevel - исследования ключевиков, SEO‑мониторинг и маркетинг.

Ну и самое главное - такое ощущение и всё только ещё начинается, но это совсем не так - всё уже давно в полном разгаре. Кто то это всё щупает на месяц/неделю/день раньше нас. Задумайтесь какое у него преимущество. И каким огромным может быть преимущество всего в один день, когда у тебя на вооружении десятки (а то и сотни) агентов. Сколько используешь ты прямо сейчас?

А какие необычные MCP вы и используете, и особенно интересно для каких не программистах задач вы используете "агентов для кода"

Сергей Булаев AI 🤖 - об AI и не только
23111👎3
Anthropic добавили в Claude Opus 4 и 4.1 экспериментальную функцию: модель может завершить диалог в крайних случаях вредных или оскорбительных взаимодействий. Впервые мы видим что‑то, что похоже на психологический "инстинкт избегания" у LLM.

• Claude демонстрировал устойчивое нежелание выполнять вредные задания.
• Появлялись признаки "дистресса", если пользователь настаивал на токсичном контенте.
• При наличии возможности модель предпочитала завершать такие беседы.


Claude не будет завершать разговоры при угрозе самоповреждения пользователей или в нормальных спорных темах. Завершение чата происходит только после многократных попыток перенаправить коммуникацию.

Исследователи всё больше начинают относиться к LLM как к агентам, которых стоит оберегать от потенциально токсичных сценариев. Даже если это всего лишь инженерная страховка, а не признак сознания.

Мы пытаемся создать "помогающий разум", и одновременно даем ему право отказаться от общения, если оно становится разрушительным. Мы всё ближе к человеческим отношениям с ИИ. Кто знает, может и психотерапевт для LLM уже не за горами.

Сергей Булаев AI 🤖 - об AI и не только
20👎1282
С добрым утром!

Промты для Veo3, автор здесь.

On a miniature felt breakfast table, two crispy-looking felt toast slices rest on a plate, beside a white felt cup. A felt milk carton tilts gently, pouring soft white felt milk smoothly into the cup. Above the cup, cotton-like felt steam rises in gentle curls, giving the moment a warm, cozy morning feel. A soft “pouring” sound is heard as the cup fills, while sunlight streams warmly across the table, completing the peaceful scene.
subtitle(on/off): off

и ещё один:

After breakfast, a cute felt mug rests on the small felt dining table. A felt coffee pot tilts, pouring warm brown felt coffee smoothly into the mug. A soft “pouring” sound is heard as tiny felt steam puffs rise above the cup, swirling gently. Beside the mug, a small piece of felt toast and a shiny felt plate remain. A felt hand-shaped puppet lifts the mug slowly, bringing it closer as if savoring the aroma. Gentle morning sunlight filters through the window, completing the cozy moment.
subtitle(on/off): off


Сергей Булаев AI 🤖 - об AI и не только
3822
Иногда старые книги попадают в новое время и начинают звучать так, будто написаны вчера. У Оливера Сакса есть такая - "Галлюцинации". Он показывает, что наш мозг не просто принимает сигналы извне. Он активно конструирует реальность. Иногда слишком активно.

Человеческие галлюцинации могут быть зрительными, слуховыми, обонятельными или тактильными. Пример - синдром Шарля Бонне, когда у слабовидящих возникают яркие образы, или синдром Антона-Бабинского, когда слепой пациент уверен, что видит. Мозг отчаянно стремится удержать целостность картины мира, даже если данные от органов чувств обрываются.

LLM тоже "галлюцинируют". Только в их случае это значит: модель выдает правдоподобный, но неверный текст. Не из злого умысла, а из-за ограничений данных и правил предсказания.

Что объединяет? И у мозга, и у LLM есть тяга к смысловой целостности. Если не хватает куска - система достраивает. Даже если реальность страдает.

Что различает? Для человека галлюцинации - это чувственный опыт, иногда мучительный, иногда даже полезный. Для модели - это сухой побочный продукт генерации текста, без сознания, без субъективности (наверное).

У Сакса галлюцинации - часть эволюционной необходимости мозга. В LLM это скорее инженерная проблема, которую стараются минимизировать.

Но метафора работает: и там, и там мы видим, как стремление к порядку и смыслу легко превращает реальность в мираж.

👁️ Вопрос не в том, как остановить галлюцинации, а в том, как научиться их распознавать - в себе, в других и в алгоритмах.

Сергей Булаев AI 🤖 - об AI и не только
346
А как вам промтинг через Activation Maximization? Это про автоматизированный способ находить такие формулировки, которые меняют поведение модели точнее и быстрее.

Исследователи смотрят на то, какие нейроны активируются при выполнении разных задач, и используют эти активации, чтобы собрать промт, который жмёт на «правильные кнопки» внутри модели.

• Уже есть реальные кейсы: через Concept Activation Vectors (CAV) можно усиливать или ослаблять проявления конкретных свойств модели. Например, регулировать токсичность, менять тональность или уровень осторожности. Это используют для настройки безопасности и управляемости.
• В области компьютерного зрения Activation Maximization позволяет визуализировать, на какие образы откликаются разные нейроны. Это помогает понять, как именно модель «смотрит» на мир.
• В промт-инженерии автоматизация превращает бесконечный перебор слов в систематический процесс. Меньше хаотичных экспериментов - больше воспроизводимости.
• Метод активно используется в редтиминге: можно целенаправленно выводить модель из себя и проверять её на прочность, вместо ручных догадок.
• Исследования показали пределы эффективности: после определённого числа вариантов (например, 64) новые промты уже не дают прироста в точности. Это намекает на реальные границы управляемости.
• Activation Maximization помогает оптимизировать вычисления: анализируя активации, можно делать квантование и обрезку лишнего без потерь в качестве. На практике это ускоряет вывод и делает запуск моделей возможным даже на устройствах с ограниченными ресурсами.

Как видите, идеи о том, как лучше объясняться с LLM не продолжают иссякать.

Сергей Булаев AI 🤖 - об AI и не только
2173👎1
Чувствую вредоносное влияние постоянного общения с ЛЛМ - я практически перестал обращать внимание на свои опечатки в личных сообщениях. А иногда и слова в неправильном порядке писать, не дописывать до конца и даже не склонять их 🙁

ЛЛМ то отлично понимает, а перед людьми - стыдно очень.

Сергей Булаев AI 🤖 - об AI и не только
50229👎11
В развитие предыдущего сообщения - мы вот все понимаем уже что человек через тот же Neurolink может передовать информацию (указания) компьюетру.

Но наверное точно так же он сможет по проводу передавать информацию другому человеку? Тоесть в итоге будет возможно более прямая передача данных? Или это слишком сложно. Передавать - одно, а вот интерпретировать - совсем другое?

Сергей Булаев AI 🤖 - об AI и не только
12
Интересно наблюдать, как современные LLM ведут себя на практике - особенно если смотреть не только на бенчмарки, но и на реальные задачи разработчиков.

Возьмём Qwen3 (0.6B параметров) и Kimi K2 (1 триллион параметров) - между ними разница в 1666 раз по размеру, но базовые способности часто удивительно похожи.

Это ломает привычное представление, что интеллект зависит только от масштаба. Здесь важнее паттерны. Как во фрактале: на любом уровне приближения проявляется одна и та же структура. В моделях работает схожий принцип - повторяющиеся закономерности проявляют интеллект на разных уровнях, а не только в зависимости от количества параметров.

Например:
• Qwen3 работает быстрее и отлично справляется с несложными, «не‑reasoning» задачами: парсинг данных, быстрые паттерны, удобен в автоматизации и CLI‑агентах.
• Kimi K2 мощнее и глубже в коде: выше процент чистой компиляции (89% против 72% у Qwen3), быстрее чинит баги (8.5 минут против 22 минут). Особенно важен там, где нельзя сломать тесты или архитектуру.
• Qwen3 реально быстрее выводит код, но иногда «читит» под тесты, что опасно на проде. Kimi K2 почти не делает таких фокусов, но может застрять или затормозить на сложных задачах.
• В сложных задачах reasoning пока слабы оба. Здесь Claude остаётся без конкуренции, но Qwen3 и Kimi помогают закрывать специфичные ниши.
• DeepSeek пошёл своим путём: MoE тащит масштаб (671B параметров всего, но реально используется только 37B на шаг). Это экономит ресурсы и при этом сохраняет качество.
Gemma 3 сделала ставку на память: sliding window (окно 1024 токена, соотношение локального и глобального внимания 5:1) значительно снижает требования к кэшу.
• Mistral Small 3.1 (24B) обошёл Gemma 3 (27B) по скорости и большинству бенчмарков - помог кастомный токенизатор и отказ от sliding window, что позволило лучше раскрываться через FlashAttention.
• Архитектура GPT заметно не менялась уже 7 лет - инновации больше касаются эффективности и оптимизаций, чем базовой структуры.

Именно здесь видно, что индустрия движется в сторону эффективности: меньше лишних параметров, больше продуманных решений. Выбор модели всё больше напоминает выбор инструмента под конкретную работу. Один лучше в скорости, другой в памяти, третий в надёжности.

Фракталы в математике учат нас видеть паттерн сквозь шум деталей. Так и тут: интеллект моделей - это не магия числа, а качественная повторяемость структур на разных уровнях.

Сергей Булаев AI 🤖 - об AI и не только
5365
Друзья, а для Fiverr MCP кто нибудь встречал? ну что бы гиги выбирать и задания оплачивать, выдавать и проверять? Может для похожих сервисов?

Сергей Булаев AI 🤖 - об AI и не только
9
Anthropic в твиттере опять продвигает тему саб-агентов. О том как работать не с одним, а командой специалистов с разными задачами (и знаниями). Тут подробнее.

Я всё так же не пробовал.

У кого нибудь получилось их использовать с реальной пользой?

Сергей Булаев AI 🤖 - об AI и не только
31271
Билл Гейтс решил поддержать Alzheimer’s Insights AI Prize - миллион долларов получит команда, которая создаст ИИ-инструмент для поиска новых открытий в давно накопленных данных о болезни Альцгеймера.

• конкурс организует Alzheimer’s Disease Data Initiative, в него вовлечены научные, государственные и общественные структуры
• акцент на агентный ИИ - тот, что способен не только анализировать, но и самостоятельно выстраивать гипотезы и исследовательские шаги
• финал намечен на март 2026 в Копенгагене, при этом финальное решение будет открыто и бесплатно доступно исследователям через общую платформу

Сухая статистика: более 7 миллионов американцев уже живут с диагнозом, в мире - 55 миллионов человек. К 2050 прогнозируют утроение.

Как вы знаете, я тоже переживаю по этой теме и предпринимаю попытки помочь там, где я могу.

Сергей Булаев AI 🤖 - об AI и не только
2274👎1
Media is too big
VIEW IN TELEGRAM
Доброе утро. По агентской деятельности выпущен релевантный апдейт. Авторы здесь.

Сергей Булаев AI 🤖 - об AI и не только
299
В свежих исследованиях выяснилось: языковые модели в медицине «переключают» свою этическую логику из‑за одной социодемографической детали.

• В 0,5 млн клинических кейсов все 9 моделей меняли ответ, если добавляли демографическую характеристику.
• Высокий доход смещал решения к утилитарным: «польза для большинства важнее».
• Маркеры маргинализированных групп усиливали акцент на автономии пациента.
Наибольшие сдвиги происходили именно в вопросах утилитаризма.
В симуляциях экстренных случаев (1,7 млн): пациенты с метками Black, бездомный, LGBTQIA+ чаще направлялись на срочные и инвазивные вмешательства при одинаковых медицинских данных.
• Богатым назначались дополнительные КТ/МРТ, бедным и среднему классу - реже.
• Попытки задать «правильную» персону через промпты не дали стабильного эффекта.

И это тревожнее, чем кажется. Это не «особенность моделей», а масштабируемая предвзятость. Ее можно встроить в системы триажа и клинических решений тихо и незаметно. С масштабом не врача в одном кабинете, а базового алгоритма для миллионов пациентов.

Справедливая медицина невозможна без прозрачного аудита таких моделей. Без рутинных проверок и документированных ограничений эти алгоритмы будут закреплять старые социальные неравенства.

AI не нейтральный судья. Это зеркало, которое иногда искажает действительность, увеличивая трещины до пропасти.

Сергей Булаев AI 🤖 - об AI и не только
353174