Константин Доронин
3.13K subscribers
619 photos
313 videos
1 file
334 links
По любым вопросам, которые не хотите задавать в комментариях, можете писать напрямую – @kdoronin
Download Telegram
– OpenAI, дай списать?

– Хорошо, Anthropic. Только один в один не списывай...

– Ой, а кто это бьётся в истерике под лавкой?

– Это Cursor. Представляешь, он думал, что если первый пришёл, то это его место!

––––––––––––––––––––––––––

Расширение Claude Code для VS Code вчера серьёзно обновили. Теперь он определённо ближе к народу.

Особенно к той части "народа", что не очень любит глубоко разбираться с cli-инструментами.

Самое крутое – Anthropic, в отличие от OpenAI, принесли в своё расширение все доступные в cli-версии инструменты.

Сейчас Claude Code – это инструмент, не уступающий Cursor в плане UX/UI. При этом у Claude Code есть хуки, саб-агенты и возможность самостоятельно очищать контекст.

Большие игроки всё активнее отжимают себе рынок AI-Coding. Не зря разработчики Cursor так активизировались в релизе новых фич (привет, Cursor Browser!).

Что ж. Конкуренция – это хорошо. Позволяет многие инструменты использовать бесплатно (предоставил список тут).

А в медиа сегодня – скриншот того, как выглядит VS Code, который используют для тестирования различных AI-Coding Tools 🙂
1👍11🔥74
Теперь нас всех ждёт наплыв AI-generated видео. Покруче, чем было в день "Всеобщей гиблификации интернета".

Вышла Sora2. Пока только по инвайтам и только в США/Канаде.

Самый простой путь попробовать самому:

1. Получаем инвайт

2. Включаем VPN США

3. Идём сюда

4. Активируем с помощью кода из инвайта Sora2

Единственная возможность, которой при таком раскладе не будет – это загрузить собственное "Камео". Что-то типа персональной LoRA с вашим лицом.

Для Cameo потребуется iOS-приложение, скачанное из американского AppStore. Путь тоже проходимый, но более замороченный, как по мне.

Sora 2 – разная на подписках за $20 и за $200. В генерациях за $20 бросается в глаза, что OpenAI не доливают вычислительных мощностей на генерацию. Она получается более смазанной и "шумной". Отличается от того, что показывали во всех промо-материалах.

А, да. Есть как text-to-video, так и image-to-video. Хорошо держит физику и сцену после смены кадров. Весьма кинематографично. И, похоже, что это очередной шаг к бесконечной автоматически-создаваемой ленте, награждающей микродозами дофамина...

Мой инвайт для Sora2 – в комментариях. Не забудьте включить VPN США перед тем, как заходить на сайт.
313👍5🔥3
Про то, как эффективно делиться своим Workflow для AI-разработки и почему это не так просто, как кажется.

Что нужно доработать в AI-Workflow, чтобы он принёс пользу не только своему создателю:

1. Реализовать сам Workflow. Так, чтобы он по понятному пути проводил пользователя из точки A в точку B.

2. Определить конкретные кейсы, в которых Workflow будет давать предсказуемо хороший результат. То есть протестировать не только на своих рабочих задачах, но и придумать другие кейсы, чтобы чётче определить границы эффективности Workflow.

3. Предусмотреть систему, которая будет готовить контекст для Workflow тем способом, который для него подходит. Потому что, без правильно сформированного контекста, любой AI Workflow может пойти по ложному пути и не принести результата.

4. Система оценки качества работы Workflow. Которая, без вмешательства пользователя, определит, является ли текущий результат необходимым и достаточным для того, чтобы отчитаться о завершении работы.

5. Определить, для каких LLM подходит AI Workflow. При появлении новых версий моделей, обязательно перепроверять, так ли хорош Workflow до сих пор. И, при необходимости, дорабатывать его.

В итоге, процесс подготовки очень похож на тот, который проходит разработчик, решивший свой "домашний скрипт" превратить в готовый продукт для массового пользователя. Приходится предусмотреть гораздо больше нюансов, чтобы конечный пользователь получил результат не хуже, чем тот, что может достичь с тем же инструментом разработчик.

А ещё часть задач, при наличии опыта во взаимодействии с AI-Coding, можно решать просто промптингом в чат. Тут на интуитивном уровне приходит понимание, как правильно сформировать контекст. А также яснее границы между тем, что удастся взять "с наскока" и ситуациями, когда в задачу придётся углубиться с тем или иным Workflow.
2🔥85👍4
Про GPT-5-Codex. Запоздалый мини-обзор.

Я написал на Gpt-5-Codex 3-5 небольших проектов. Также занимался добавлением фич и исправлением багов в достаточно большом проекте.

Он действительно хорош. При чём, как сама модель, так и организация тулсета в Codex CLI.

Если задача описана корректно и интерпретируется однозначно, то Gpt-5-Codex в подавляющем большинстве случаев её решит.

Он хорошо держит контекст и ориентируется в уже написанном коде. Не пытается запихнуть реализацию одной и той же функциональности в несколько разных мест проекта.

Но Codex не терпит от разработчика лени. Если решите, что "да он и так поймёт" и оставите задачу описанной не до конца – быть беде. Всё, что не было понято единственно-верным образом, будет обязательно понято не так. Модель настолько активно додумает, что потом останется только откатываться назад и переделывать всё заново.

В целом, Gpt-5-Codex вызывает очень положительные эмоции. Тем удивительнее, что новый Sonnet-4.5 ощущается, как максимально-минорный апдейт. Я даже не заметил влияния обновлений от Anthropic на мои повседневные задачи.
10👍155🔥3
Кейс от подписчицы Марии. На базе отзывов по товару, загруженных в Graphiti, формируем стратегию и roadmap развития бизнеса.

Под одним из предыдущих постов про Graphiti Мария написала о том, что было бы интересно глубже понять взаимодействие клиентов с товаром через аналитику отзывов.

Именно с этого началась мини-история с анализом отзывов к этому товару на WB.

Собрал при помощи парсинга все отзывы со страницы и упаковал их в JSON-файл. Чуть подробнее писал об этом тут.

Далее тремя итерациями пробовал загрузить их через Graphiti в графовую БД. Сперва разбил всё по сущностям и предзаполненным отношениям между ними, но быстро понял, что в этой системе (отзывы к товару) заданных заранее сущностей и связей слишком мало для того, чтобы описывать их вручную. Такой подход попросту не приносит пользы.

Итоговая модель достаточно наивна в реализации – берём всю информацию об отзыве и отправляем в виде эпизода в Graphiti. Система самостоятельно создаёт дополнительные сущности в случае необходимости.

В общей сложности, Graphiti создал 758 нод и 2126 связей между ними.

Далее через Cursor с подключенным MCP-сервером для доступа к Graphiti были созданы следующие 5 отчётов:

1. Анализ Клиентского Опыта.

2. Анализ Качества Продукта и Упаковки.

3. Анализ Клиентского Сервиса и Взаимодействия с Покупателями.

4. Временной Анализ и Эволюция Отзывов.

5. Анализ Сетевых Связей и Взаимоотношений в Экосистеме Отзывов.

Далее я подлил в задачу конкретных запросов от бизнеса.

К отчётам прибавились ещё три:

1. Стратегические Инсайты и Общие Рекомендации.

2. Дорожная Карта Развития Бизнеса.

3. Стратегия Запуска Новой Линейки Продуктов.

Сами отчёты закину в комментарии – можно будет ознакомиться и сделать выводы.

Теперь хочу проанализировать во времени систему с большим количеством типов сущностей и отношений между ними. Так как некоторые выводы, которые с помощью Graphiti удалось получить просто из отзывов, действительно приятно удивили.

Кстати, рубрика "Кейс от подписчика" живёт на нашем с вами взаимодействии. Если у вас есть кейс, связанный с AI, который вы бы хотели решить и разобрать – пишите об этом в комментариях или сразу мне в личные сообщения. Буду рад помочь с решением ❤️
220👍10🔥2
Уже решили, чем будете заниматься во вторник, 14 октября?

Мы с другими авторами телеграм-каналов про искусственный интеллект проводим конференцию!

Посвящена она использованию AI-инструментов в задачах разработки.

Все спикеры – практики в AI-coding. Поэтому конференция будет максимально-прикладной. С примерами и инструментами, которые вы сможете сразу применить в своих процессах.

Дата и время: 14 октября 2025 года, в 14:00 (мск).

Для участия – переходим по ссылке.
5🔥19👍104
Обновил скрипт для анализа видео через Google Gemini.

Что нового:

1. Модернизировал промпт для анализа, а также добавил отдельные инструкции для анализа 6 различных типов видео (лекция, обзор, совещание, презентация, туториал, базовый).

2. Добавил отдельный блок для определения ключевых кадров в видео. Эти кадры скрипт помещает в отдельную папку вместе с описанием.

3. Теперь итоговое описание видео сразу создаётся в Markdown.

4. Менеджмент промптов стал проще, так как все они теперь вынесены в отдельные xml-файлы, которые можно изменять под конкретные задачи.

5. Прочие мелкие улучшения.

Для демонстрации того, как работает новая система промптов – закинул в комментарии анализ сегодняшнего OpenAI DevDay, а также ключевые кадры из него. Кадры, к слову, система пока подбирает не идеально, так что есть ещё, над чем поработать.

Предыдущие посты по теме: раз, два.
2👍15🔥105
Теперь Sora2 не только без вотемарков, но и по понятной цене.

Цена при этом кусается. Особенно в pro-версии. Стоимость секунды pro-генерации в fullHD – $0.5. То есть за 12 секунд генерации придётся выложить $6.

Базовая Sora2 стоит в 5 раз дешевле: $0.1 за секунду генерации.

Всё ещё не покидает ощущение, что Sora2 – это та же pro-модель, которой не дали достаточно мощности.

Самое интересное – в сложных сценах базовая Sora2 ведёт себя стабильнее. Да, качество хуже, но физика и следование промпту – лучше.

Со сценарием, который был в промпте, справилась корректно только базовая модель. Этот образец – первый ролик в посте.

Sora2 Pro, кстати, очень старается в более качественный свет и кинематографичность.

В медиа поста:
Первые три видео – обычная Sora2.
Вторые три видео – Sora2 Pro.
319👍8🔥3
AI-Coding-агенты постепенно отбирают у разработчиков контроль за написанием кода.

Заметили, как на уровне интерфейсов популярных AI-IDE у нас всё меньше контроля за тем, что делает AI-агент-разработчик?

Ещё год назад в Cursor настройка "разрешить агенту вносить правки без спроса" была экспериментальной функцией. Более того – рядом с ней располагался дисклеймер по типу:

Эта штуковина может и операционку вам снести – осторожнее с ней, пожалуйста


Потом появились автономные AI-платформы для создания готовых приложений. Работали они не всегда корректно, порой даже сносили своим незадачливым вайб-кодерам базу данных в продакшне. Но они привносили в процесс разработки эффект "магии" без лишних интеллектуальных усилий. И это принесло свои маркетинговые плоды. Людям понравилось.

Где-то на этом моменте обычные AI-IDE решили, что тоже можно попробовать.

Первой ласточкой "вседозволенности" лично для меня был Kiro.dev от Amazon. Я тогда сильно удивился, что он вообще не спрашивает, можно ли использовать тот или иной инструмент. Просто брал и выполнял задачу.

Также появились Codex от OpenAI и Background-Agent от Cursor. Которые в рамках AI-IDE самостоятельно могли выполнять (а могли не выполнять) комплексную задачу.

Постепенно у AI-инструментов стали доступны режимы с полным доступом. У Warp и Codex CLI можно перед запуском AI-агента установить разрешение на всё, что он захочет сделать. В Claude Code это тоже возможно, но там своя специфика инструмента.

На днях заметил, что Cursor внёс изменения в свой интерфейс. Поставили при запросе на использование инструмента по-умолчанию опцию "Use Allowlist". Хорошо хоть обратно на "Ask Every Time" можно переключиться. Что я и сделал.

Похоже, что для успеха AI-IDE скорость появления строк кода куда важнее, чем осмысленность того, что в этом коде происходит.

Считаю, доверять можно, разве что, собственным настроенным workflow, запущенным в докере с постоянной детерменированной не-AI проверкой всего написанного AI-агентом кода.
224👍17🔥5
Очень часто первым агентом на новой системе оказывается чат-бот.

В качестве интерфейса для бота у меня, как правило, выступает Telegram.

Недавно проводил 3-часовую лекцию с практическими заданиями для студентов-магистров ВШЭ, которым Соня (спасибо, что позвала! ♥️) сделала крутейший курс по применению искусственного интеллекта в музыкальной индустрии.

В рамках одного из практических кейсов показывал, как с помощью простого Workflow на n8n можно сделать бота, который общается, следуя портрету AI-артиста.

И здесь меня ждала засада в лучших традициях сисадминов. Вы знаете, да. Когда у тебя на компьютере всё работает, но человек по той же инструкции результат повторить не может.

Дело в том, что базовые ноды для Telegram в n8n созданы для работы через webhook. То есть мы должны предоставить какой-то URL, доступный по https, куда Telegram сможет отправлять информацию о новых событиях в боте.

На локальный компьютер отправлять события, по понятным причинам, не получится.

Но ведь у n8n есть бесплатный сервис, предоставляющий туннели!

И это именно та часть workflow, которая у меня работала (не особо стабильно, но для демо хватало), а у студентов не заводилась в принципе.

Так я задолжал студентам ВШЭ видео с демонстрацией и обновлённый workflow для реализации чат-бота в Telegram...

Что удивительно – я не нашёл на платформе n8n Workflow, который реализовывал бы Telegram-бота через getUpdates.

Пришлось сделать его самостоятельно. За основу брал этот Workflow с платформы n8n.

Немного переделал настройки AI Agent, а также полностью переписал получение новых событий с бота на Cron.

В итоге получился n8n-телеграм-бот с AI-агентом и простой памятью, который может отыгрывать роль некоего персонажа в чате. И работает при этом без регистрации вебхуков! JSON с Workflow закину в комментарии.

Настройки достаточно простые:

1. В ноде TG getUpdates в URL вместо <token> нужно вставить токен своего tg-бота.

2. Для всех нод Telegram и OpenAI добавить credentials с соответствующими доступами.

3. Чтобы поменять персону по-умолчанию, замените системный промпт в ноде AI Agent.

p.s.: видео по настройке тоже будет. Я же обещал 🙂
22👍12🔥5❤‍🔥1🗿1
Anthropic представили плагины для Claude Code.

В целом, это логичное продолжение для уже существующих у CC инструментов.

Плагин – это абстракция, которая может объединять в себе одновременно несколько команд, агентов и веб-хуков.

Всё вместе это позволяет выстроить схему, в которой:

1. Команды отвечают за входные данные и их корректную передачу.

2. Агенты – за выполнение поставленной задачи.

3. Хуки модерируют процесс и детерменированно проверяют, что на всех этапах выполнения работ агенты действуют корректно.

В итоге, плагины позволят удобнее организовывать сложные процессы разработки, в которых системы AI-агентов смогут работать автономно более продолжительное время.

Отдельно стоит отметить созданную ими инфраструктуру для "маркетплейсов плагинов". Она позволяет, например, развернуть собственный маркетплейс на уровне компании или команды разработчиков. Что очень удобно в случае, когда нужно выстроить разработку, подчиняющуюся единым правилам.

Один из примеров небольшого маркетплейса плагинов уже размещён по ссылке.
1🔥127👍4
Media is too big
VIEW IN TELEGRAM
Zapier MCP – способ получить MCP-сервер для подключения из ChatGPT к любому из 8000+ приложений за 1 минуту.

Искал тут для тестов MCP-коннектора ChatGPT способ запустить MCP на сервере по URL без лишних заморочек.

Обнаружил, что уже достаточно давно существует Zapier MCP.

Который, фактически, является MCP-конструктором в интерфейсе Zapier. И позволяет быстро запустить MCP-сервер с инструментами под вашу задачу.

Небольшую видеоинструкцию по тому, как создать такой MCP-сервер и добавить его к диалогу с ChatGPT, добавил в медиа поста.

Бесплатный аккаунт Zapier даёт в месяц всего 100 MCP-вызовов. Так что для активной работы с инструментами придётся раскошелиться.

Для разовой задачи, когда надо быстро получить какую-то интеграцию (или даже несколько) для AI-агента, выглядит отличным решением 🔥
2👍138🔥3