Каким должен быть ИИ продукт
Не так много ИИ продуктов, которые мне действительно нравятся. Но чуваки из Granola делают что-то сумасшедшее. В плане UX, лендоса, промоушена и даже внутренних активностей. И все это на кроваво-конкурентном рынке транскрибации и саммаризации звонков.
Если вы тоже строите продукты – очень советую внимательно разбирать всё что они делают.
Один из примеров – их предновогодняя активность, которую я только что прошел. Она вообще ни капли не про реальную пользу, зато создает сильную эмоциональную привязку к продукту.
Активность – что-то вроде подведения итогов года – так как у них записи всех моих рабочих звонков с начала июля, то они лучше всех знают, чем я занимался. Понятно, что там в основном просто приятные штуки, где она тебя хвалит, но есть и пара мемов, которые я уже пошерил в слэке с заказчиками, и даже небольшой "психологический" разбор (предпоследний скрин)
Что отсюда можно забрать себе?
- Если уже есть гранола, поучаствовать в активности – это быстро. Можно узнать что-то новое про себя или просто приятно провести 5 минут.
- Если работаете над своим продуктом – подумать, а что в нем уже устанавливает эмоциональную связь с пользователем. А что можете сделать без особых затрат? Чем пользователь захочет поделиться? (как я сейчас)
- Если еще не пользуетесь – скачать и пользоваться. Очень много благодарностей уже получил за эту рекомендацию.
Не так много ИИ продуктов, которые мне действительно нравятся. Но чуваки из Granola делают что-то сумасшедшее. В плане UX, лендоса, промоушена и даже внутренних активностей. И все это на кроваво-конкурентном рынке транскрибации и саммаризации звонков.
Если вы тоже строите продукты – очень советую внимательно разбирать всё что они делают.
Один из примеров – их предновогодняя активность, которую я только что прошел. Она вообще ни капли не про реальную пользу, зато создает сильную эмоциональную привязку к продукту.
Активность – что-то вроде подведения итогов года – так как у них записи всех моих рабочих звонков с начала июля, то они лучше всех знают, чем я занимался. Понятно, что там в основном просто приятные штуки, где она тебя хвалит, но есть и пара мемов, которые я уже пошерил в слэке с заказчиками, и даже небольшой "психологический" разбор (предпоследний скрин)
Что отсюда можно забрать себе?
- Если уже есть гранола, поучаствовать в активности – это быстро. Можно узнать что-то новое про себя или просто приятно провести 5 минут.
- Если работаете над своим продуктом – подумать, а что в нем уже устанавливает эмоциональную связь с пользователем. А что можете сделать без особых затрат? Чем пользователь захочет поделиться? (как я сейчас)
- Если еще не пользуетесь – скачать и пользоваться. Очень много благодарностей уже получил за эту рекомендацию.
❤24😁10🔥7👍3🥴3💩1🤡1💊1
На последнем воркшопе показывал руководителям, как с помощью ИИ улучшать свою позицию в переговорах и конфликтах.
Там же дал ссылку на свой, как мне кажется, самый практичный пост – как правильно доставать информацию из тг, чтобы отправлять в LLM.
Коротко напомню сложности:
1. Есть только один телеграм клиент, который дает выгружать любые чаты и каналы: ссылка
2. В выгрузке куча лишней информации, которая засоряет контекст LLM и сильно ухудшает качество
Поэтому я тогда сделал простую конвертилку в виде html файла – кто угодно мог скачать ее из первого комментария.
Но так как я сам пользуюсь этой штукой как минимум раз в неделю, мне надоело постоянно искать этот файл + не хватало фильтров: по времени и по конкретному треду
Так что сделал для себя и для вас вторую версию, где это всё есть, плюс она нормально задеплоена и доступна без скачивания
Так как предыдущий пост набрал 200+ репостов, думаю, апдейт будет полезным 🤗
→ Ссылка на конвертилку ←
Там же дал ссылку на свой, как мне кажется, самый практичный пост – как правильно доставать информацию из тг, чтобы отправлять в LLM.
Коротко напомню сложности:
1. Есть только один телеграм клиент, который дает выгружать любые чаты и каналы: ссылка
2. В выгрузке куча лишней информации, которая засоряет контекст LLM и сильно ухудшает качество
Поэтому я тогда сделал простую конвертилку в виде html файла – кто угодно мог скачать ее из первого комментария.
Но так как я сам пользуюсь этой штукой как минимум раз в неделю, мне надоело постоянно искать этот файл + не хватало фильтров: по времени и по конкретному треду
Например, чтобы забрать все комменты только к одному посту из канала или только один топик в супергруппе
Так что сделал для себя и для вас вторую версию, где это всё есть, плюс она нормально задеплоена и доступна без скачивания
Переписки в тг часто содержат личную инфу, так что на всякий случай пишу: ваши данные не покидают браузер. Если сомневаетесь – отправьте код страницы в какую-нибудь LLM для проверки
Так как предыдущий пост набрал 200+ репостов, думаю, апдейт будет полезным 🤗
→ Ссылка на конвертилку ←
👍29🔥21🤩6❤4
Хотите обзор самого главного в ИИ за этот год?
Вот прям всю мякотку: от хардкорного ML и агентов для разработки до взгляда на ИИ от бизнеса.
Наша AI Dev Live превзошла все мои ожидания – 3к зрителей (почти олимпийский!), куча крутых отзывов.
И у кого-то явные проблемы с тормозами – мы не удержались и готовим предновогодний эфир обо всех ключевых изменениях в индустрии.
И позвали еще крутых спикеров (↓)
В программе:
- Сдвиг парадигмы в управлении процессами, который все пропустили
- Как в 2026 бизнесу отличить: где ИИ-хайп со сливом бюджета, а где ИИ-инструменты с реальной ценностью?
- Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ?
- RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений?
- Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?
Спикеры – спецы "изнутри" индустрии: пара Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний – топовый состав, чтобы разобрать прогресс в ИИ со разных сторон.
А я буду в роли ведущего докапывать их неудобными вопросами
🎄Записывайтесь на предновогодний эфир (все еще можно бесплатно!)
и зовите знакомых, кто разбирается в ИИ
Вот прям всю мякотку: от хардкорного ML и агентов для разработки до взгляда на ИИ от бизнеса.
Наша AI Dev Live превзошла все мои ожидания – 3к зрителей (почти олимпийский!), куча крутых отзывов.
И у кого-то явные проблемы с тормозами – мы не удержались и готовим предновогодний эфир обо всех ключевых изменениях в индустрии.
И позвали еще крутых спикеров (↓)
В программе:
- Сдвиг парадигмы в управлении процессами, который все пропустили
- Как в 2026 бизнесу отличить: где ИИ-хайп со сливом бюджета, а где ИИ-инструменты с реальной ценностью?
- Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ?
- RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений?
- Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?
Спикеры – спецы "изнутри" индустрии: пара Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний – топовый состав, чтобы разобрать прогресс в ИИ со разных сторон.
А я буду в роли ведущего докапывать их неудобными вопросами
🎄Записывайтесь на предновогодний эфир (все еще можно бесплатно!)
и зовите знакомых, кто разбирается в ИИ
🔥24❤6🤩6😁3👍1🤝1
Промежуточные инсайты по нашему краудсорсингу кейсов об ИИ в разработке
Выписал короткими тезисами – либо практичное, либо забавное, иногда с цитатами:
Полезные лайфхаки:
В инструкциях явно давать defend режим, где он должен критически относится к моим командам
Ручной индекс проекта (тут лайк за простую реализацию)
Делать conventions/*md, а в рулсах для CC/Codex/Cursor ссылаться на них – чтобы не синкать зоопарк стандартов + правила грузятся динамически под задачу, а не засоряют контекст
Вопреки расхожему мнению, feedback loop нужен не для качества, а для скорости – убираем самый скучный human-in-the-loop (ts, lint, unit-tests, e2e, browser mcp)
Про большие компании и кодобазы:
На больших репо полезнее всего начинать не с написания кода, а с код ревью, поиска релевантного контекста для изменений и анализа логов со сложными паттернами
Для больших кодобаз резать задачи не по фичам, а по файлам/модулям, где нужно сделать изменения (декомпозиция не по числу изменений, а по их "локальности")
Экспериментально-философское:
Adversarial AI – сделать, чтобы модели конкурировали. Один агент делает, другой ревьюит и пытается сломать. Часто это даже разные тулы (например, Claude Code + Codex)
Изменение подходов от поддержки и дебага кода к "удали и сгенери заново"
PM-Разработчик - простые crud решения уже уходят к менеджерам
Автопромптинг:
Еще пару кейсов, по которым интересно почитать прям исходный текст:
Фаундер построил конвейер из 17 специализированных агентов, где у каждого «рабочего» агента есть агент-«дублер», проверяющий работу. Полный цикл: от архитектуры до позитивных/негативных тестов и PR.
Тимлид использовал Cursor для расследования сложного инцидента с ребалансировкой Kafka-консьюмеров на проде: как скармливать ИИ логи "до", "во время" и "после" аварии, чтобы он нашел неочевидную корреляцию между нагрузкой и конфигом, которую люди не увидели.
Переписать 40 сырых SQL-запросов на ORM, не сломав бизнес-логику. Пошаговый гайд: как сгруппировать запросы по сущностям через rg, сгенерировать слои репозиториев и заставить ИИ найти N+1 проблемы по ходу.
А чтобы почитать исходные тексты, присоединяйтесь к нашему краудсорингу 🤗
Аттракцион работает до 21 декабря (когда мы разошлем доступ к обезличенным кейсам)
Оставить кейс и получить доступ
А еще – альтернативные мнения: от Макса; от Тимура
Выписал короткими тезисами – либо практичное, либо забавное, иногда с цитатами:
Полезные лайфхаки:
В инструкциях явно давать defend режим, где он должен критически относится к моим командам
Ручной индекс проекта (тут лайк за простую реализацию)
tree репозитория с одной строкой описания на каждый файл
Делать conventions/*md, а в рулсах для CC/Codex/Cursor ссылаться на них – чтобы не синкать зоопарк стандартов + правила грузятся динамически под задачу, а не засоряют контекст
Вопреки расхожему мнению, feedback loop нужен не для качества, а для скорости – убираем самый скучный human-in-the-loop (ts, lint, unit-tests, e2e, browser mcp)
Про большие компании и кодобазы:
На больших репо полезнее всего начинать не с написания кода, а с код ревью, поиска релевантного контекста для изменений и анализа логов со сложными паттернами
Для больших кодобаз резать задачи не по фичам, а по файлам/модулям, где нужно сделать изменения (декомпозиция не по числу изменений, а по их "локальности")
Экспериментально-философское:
Adversarial AI – сделать, чтобы модели конкурировали. Один агент делает, другой ревьюит и пытается сломать. Часто это даже разные тулы (например, Claude Code + Codex)
Изменение подходов от поддержки и дебага кода к "удали и сгенери заново"
PM-Разработчик - простые crud решения уже уходят к менеджерам
Автопромптинг:
Люблю использовать notebook ml для дистилляции промптов. На вход подал книгу по проектированию баз данных, он мне выдал промпт со ссылками... Теперь у меня есть свой агент который проектирует базы данных
Еще пару кейсов, по которым интересно почитать прям исходный текст:
Фаундер построил конвейер из 17 специализированных агентов, где у каждого «рабочего» агента есть агент-«дублер», проверяющий работу. Полный цикл: от архитектуры до позитивных/негативных тестов и PR.
Тимлид использовал Cursor для расследования сложного инцидента с ребалансировкой Kafka-консьюмеров на проде: как скармливать ИИ логи "до", "во время" и "после" аварии, чтобы он нашел неочевидную корреляцию между нагрузкой и конфигом, которую люди не увидели.
Переписать 40 сырых SQL-запросов на ORM, не сломав бизнес-логику. Пошаговый гайд: как сгруппировать запросы по сущностям через rg, сгенерировать слои репозиториев и заставить ИИ найти N+1 проблемы по ходу.
А чтобы почитать исходные тексты, присоединяйтесь к нашему краудсорингу 🤗
Аттракцион работает до 21 декабря (когда мы разошлем доступ к обезличенным кейсам)
Оставить кейс и получить доступ
А еще – альтернативные мнения: от Макса; от Тимура
2🔥25❤10🤝3
Правило Парето в кодинге с ИИ (да и вообще во всех сложных задачах с ИИ)
Вы, наверное, слышали о том, что лучше решать задачи "в один промпт" (ваншотить), а не делать бесконечное количество мелких правок в чате с моделью, растягивая контекст.
У этого подхода в чистом виде есть пара проблем:
1. Он не работает. Ну правда, в реальности результат почти никогда не соответствует ожиданиям на 100%
2. Он жрет много времени, лимитов, денег. Если полностью перезапускать запрос из-за мелкой правки, то придется ждать очередные 2-5-10 минут и тратить сотни тысяч токенов. И то без гарантии, что нет отвалится что-то другое, что до этого получилось хорошо
Но и возник он не на пустом месте – большое количество правок отдельными сообщениями реально ухудшает работу. И проблема тут не только в длине контекста, но и в том, что модель уже пошла по какому-то пути, и ей когнитивно сложно сделать шаг назад и "забыть" неправильную дорогу. Что у нее в контексте – за то и цепляется.
Я для себя вывел, что каждая такая правка примерно в 3-5 раз менее эффективна, чем если писать пожелание в исходном запросе. А значит, с первого запроса должно корректно выполнятся большинство работы. Если это не так, то:
- либо декомпозирую задачу
- либо прописываю больше деталей
- либо спрашиваю агента, чего не хватило или что в исходном запросе помешало получить желаемое, а потом прошу обновить за меня промпт, "стираю память" и перезапускаю
Ну и мысль про правило Парето помогает не подгорать от того, что на 20% правок уходит 80% времени – так и должно быть
Вы, наверное, слышали о том, что лучше решать задачи "в один промпт" (ваншотить), а не делать бесконечное количество мелких правок в чате с моделью, растягивая контекст.
У этого подхода в чистом виде есть пара проблем:
1. Он не работает. Ну правда, в реальности результат почти никогда не соответствует ожиданиям на 100%
2. Он жрет много времени, лимитов, денег. Если полностью перезапускать запрос из-за мелкой правки, то придется ждать очередные 2-5-10 минут и тратить сотни тысяч токенов. И то без гарантии, что нет отвалится что-то другое, что до этого получилось хорошо
Но и возник он не на пустом месте – большое количество правок отдельными сообщениями реально ухудшает работу. И проблема тут не только в длине контекста, но и в том, что модель уже пошла по какому-то пути, и ей когнитивно сложно сделать шаг назад и "забыть" неправильную дорогу. Что у нее в контексте – за то и цепляется.
Я для себя вывел, что каждая такая правка примерно в 3-5 раз менее эффективна, чем если писать пожелание в исходном запросе. А значит, с первого запроса должно корректно выполнятся большинство работы. Если это не так, то:
- либо декомпозирую задачу
- либо прописываю больше деталей
- либо спрашиваю агента, чего не хватило или что в исходном запросе помешало получить желаемое, а потом прошу обновить за меня промпт, "стираю память" и перезапускаю
Ну и мысль про правило Парето помогает не подгорать от того, что на 20% правок уходит 80% времени – так и должно быть
❤35🔥19👍11🤔2👎1
Помните хейт в комментах после моего поста про итоги года от Granola?
Они выкатили целую статью (ссылка внизу), где рассказывают как они их готовили. На мой вкус, очень интересно почитать – понятно, почему их итоги года ощущаются иначе чем то, что делают остальные компании
Записал другу войс с мыслями пока читал. Вот причесанная версия:
→ Ооо, вот все говорят, что промпт инжиниринг умер, а похоже все-таки нет – это по-прежнему серьезная часть создания ИИ фичей (и это мэтчится с моим непопулярным мнением). Просто, это не совсем техническая часть, а скорее продуктовая – тут важно не то, как системе выполнять задачу, а скорее – понять какой результат хотим видеть и почему. Часто это прям совсем в мелочах проявляется: нужен не "ироничный твист" а "слегка ироничный твист"
→ Behavioral vs. Psychological. Мысль вроде очевидная, но я ни разу не формулировал это так в своих запросах к LLM. А надо бы:
Ребята просят не делать выводы о психологии и причинности ("ты просишь валидации, потому что чувствуешь неувернность в своей экспертизе"). Вместо этого, важны обобщения реальных фактов ("часто, после фразы собеседника, ты коротко перефразируешь сказанное"). Что я делаю, а не почему. Потестил на выгрузке канала, получилось интересно (там и про вас есть, хаха). Оставлю в комментах.
→ Похожая штука про комплименты – многие юзеры хейтят лесть, особенно от ИИ. Ребята решили это тем, что упоролись в конкретику и опять же конкретные поведенческие факты. Вместо "ты крутой аналитик" – "ты несколько раз находил в логах корреляцию между нагрузкой и конфигом, которую другие пропустили". Какие у меня паттерны поведения, а не кто я. Бтв, в обычном общении с людьми тоже хорошо работает
→ Ну и глобально, кажется, у некоторых тулзов уже достаточно много информации про нас для выводов, которые оказываются сюрпризом. "Модель может разглядеть что-то, что юзер сам про себя не замечает". Это забавно
Статья
Они выкатили целую статью (ссылка внизу), где рассказывают как они их готовили. На мой вкус, очень интересно почитать – понятно, почему их итоги года ощущаются иначе чем то, что делают остальные компании
Записал другу войс с мыслями пока читал. Вот причесанная версия:
→ Ооо, вот все говорят, что промпт инжиниринг умер, а похоже все-таки нет – это по-прежнему серьезная часть создания ИИ фичей (и это мэтчится с моим непопулярным мнением). Просто, это не совсем техническая часть, а скорее продуктовая – тут важно не то, как системе выполнять задачу, а скорее – понять какой результат хотим видеть и почему. Часто это прям совсем в мелочах проявляется: нужен не "ироничный твист" а "слегка ироничный твист"
→ Behavioral vs. Psychological. Мысль вроде очевидная, но я ни разу не формулировал это так в своих запросах к LLM. А надо бы:
Ребята просят не делать выводы о психологии и причинности ("ты просишь валидации, потому что чувствуешь неувернность в своей экспертизе"). Вместо этого, важны обобщения реальных фактов ("часто, после фразы собеседника, ты коротко перефразируешь сказанное"). Что я делаю, а не почему. Потестил на выгрузке канала, получилось интересно (там и про вас есть, хаха). Оставлю в комментах.
→ Похожая штука про комплименты – многие юзеры хейтят лесть, особенно от ИИ. Ребята решили это тем, что упоролись в конкретику и опять же конкретные поведенческие факты. Вместо "ты крутой аналитик" – "ты несколько раз находил в логах корреляцию между нагрузкой и конфигом, которую другие пропустили". Какие у меня паттерны поведения, а не кто я.
→ Ну и глобально, кажется, у некоторых тулзов уже достаточно много информации про нас для выводов, которые оказываются сюрпризом. "Модель может разглядеть что-то, что юзер сам про себя не замечает". Это забавно
Статья
Granola
How we wrote the prompts behind Granola's Crunched 2025
The challenge of building Granola Crunched was as much tonal as it was technical. Here's how we engineered prompts that felt recognizable, observational, funny, and shareable—while avoiding anything creepy, personal, or emotionally speculative.
1❤24🔥5🤝4👍3
Многие из вас пришли в этот канал после ai-dev.live
Возможно, вам интересно, как это проект появлялся. Вышел небольшой текстовый бэкстейдж на 10 минут, как оно выглядело от моего лица.
Там много внутрянки: скрины сообщений, наши сомнения, факапы. Хорошо для почитать на выходных, а не то что я обычно пишу)
https://habr.com/ru/articles/978830/
У кого есть аккаунт на хабре, если поставите лайк – это вроде как поможет подольше подержать статью в топе
Возможно, вам интересно, как это проект появлялся. Вышел небольшой текстовый бэкстейдж на 10 минут, как оно выглядело от моего лица.
Там много внутрянки: скрины сообщений, наши сомнения, факапы. Хорошо для почитать на выходных, а не то что я обычно пишу)
https://habr.com/ru/articles/978830/
У кого есть аккаунт на хабре, если поставите лайк – это вроде как поможет подольше подержать статью в топе
Хабр
Как несколько технарей сделали топ-1 конфу на русском по ИИ в разработке
Всё началось с идеи небольшого гаражного междусобойчика на 400 зрителей, но быстро вышло из под контроля – 10 топовых спикеров, 3000 зрителей, пост на хабре на 40к просмотров (и 200 комментариев!) и...
🔥27👍7❤4
Мои итоги года
Профессиональные инсайты:
- Cursor + ai.studio → Claude Code + Codex(+ ai.studio )
- Claude Code – лучшийкодинговый агент фреймворк создания агентов
- Gemini – лучший pdf→markdown converter
- Google sheets – лучший фронтенд для евалов (ладно, не всегда)
- Granola – лучший транскрибатор звонков и намного больше
- Эмбеддинги сосут (кст, самый зарепосченный мой пост)
- MCP тоже, skills – база
- Просто дайте агенту запускать код
Личное:
- Снова начал выступать и преподавать. Уф, какой же это кайф
- Маме на юбилей оживил кучу старых фоток из физических альбомов (привет, альбомы из Гарри Поттера)
- Поучаствовал в арт-объекте про грань между человеком и ИИ
- Вырастил канал с пары сотен подписчиков до 7к
- Нашел классную онлайн-тусовку людей, близких по вайбу
- Провел с ними две масштабные ИИ конфы
Кстати, сегодня одна из них: тоже итоги года, но от других 7 топовых ребят. С 14:00 до 18:30, либо в записи (да, оно стоит даже того, чтобы не забыть посмотреть запись)
———
Вообще, тоже итог года – понял, что организовывать конференции в таком формате – сомнительное занятие с точки зрения выгод на единицу геморроя
Плюшек – как у спикеров, но вся грязная работа на тебе, а самой приятной части не достается (собственно, побыть спикером). Вроде и получается хорошо, но не знаю, буду ли я что-то такое еще делать.
Короче, присоединяйтесь, пока аттракцион еще точно работает (такая вот искренняя манипуляция дефицитом)
entropy.talk/iitogi25
Профессиональные инсайты:
- Cursor + ai.studio → Claude Code + Codex
- Claude Code – лучший
- Gemini – лучший pdf→markdown converter
- Google sheets – лучший фронтенд для евалов (ладно, не всегда)
- Granola – лучший транскрибатор звонков и намного больше
- Эмбеддинги сосут (кст, самый зарепосченный мой пост)
- MCP тоже, skills – база
- Просто дайте агенту запускать код
Личное:
- Снова начал выступать и преподавать. Уф, какой же это кайф
- Маме на юбилей оживил кучу старых фоток из физических альбомов (привет, альбомы из Гарри Поттера)
- Поучаствовал в арт-объекте про грань между человеком и ИИ
- Вырастил канал с пары сотен подписчиков до 7к
- Нашел классную онлайн-тусовку людей, близких по вайбу
- Провел с ними две масштабные ИИ конфы
Кстати, сегодня одна из них: тоже итоги года, но от других 7 топовых ребят. С 14:00 до 18:30, либо в записи (да, оно стоит даже того, чтобы не забыть посмотреть запись)
———
Вообще, тоже итог года – понял, что организовывать конференции в таком формате – сомнительное занятие с точки зрения выгод на единицу геморроя
Плюшек – как у спикеров, но вся грязная работа на тебе, а самой приятной части не достается (собственно, побыть спикером). Вроде и получается хорошо, но не знаю, буду ли я что-то такое еще делать.
Короче, присоединяйтесь, пока аттракцион еще точно работает (такая вот искренняя манипуляция дефицитом)
entropy.talk/iitogi25
ИИтоги 25
Практическая онлайн-конференция про изменения в AI индустрии за 2025 год.
❤30🔥11👍9🏆3💔2