AI и грабли
7.14K subscribers
149 photos
19 videos
4 files
189 links
Строил HR продукты для американского бигтеха. Внедряю AI в чужой бизнес, делаю свой, косячу и пишу про подноготную

@nikolay_sheyko
Download Telegram
Каким должен быть ИИ продукт

Не так много ИИ продуктов, которые мне действительно нравятся. Но чуваки из Granola делают что-то сумасшедшее. В плане UX, лендоса, промоушена и даже внутренних активностей. И все это на кроваво-конкурентном рынке транскрибации и саммаризации звонков.

Если вы тоже строите продукты – очень советую внимательно разбирать всё что они делают.

Один из примеров – их предновогодняя активность, которую я только что прошел. Она вообще ни капли не про реальную пользу, зато создает сильную эмоциональную привязку к продукту.

Активность – что-то вроде подведения итогов года – так как у них записи всех моих рабочих звонков с начала июля, то они лучше всех знают, чем я занимался. Понятно, что там в основном просто приятные штуки, где она тебя хвалит, но есть и пара мемов, которые я уже пошерил в слэке с заказчиками, и даже небольшой "психологический" разбор (предпоследний скрин)

Что отсюда можно забрать себе?

- Если уже есть гранола, поучаствовать в активности – это быстро. Можно узнать что-то новое про себя или просто приятно провести 5 минут.

- Если работаете над своим продуктом – подумать, а что в нем уже устанавливает эмоциональную связь с пользователем. А что можете сделать без особых затрат? Чем пользователь захочет поделиться? (как я сейчас)

- Если еще не пользуетесь – скачать и пользоваться. Очень много благодарностей уже получил за эту рекомендацию.
24😁10🔥7👍3🥴3💩1🤡1💊1
На последнем воркшопе показывал руководителям, как с помощью ИИ улучшать свою позицию в переговорах и конфликтах.

Там же дал ссылку на свой, как мне кажется, самый практичный пост – как правильно доставать информацию из тг, чтобы отправлять в LLM.

Коротко напомню сложности:

1. Есть только один телеграм клиент, который дает выгружать любые чаты и каналы: ссылка

2. В выгрузке куча лишней информации, которая засоряет контекст LLM и сильно ухудшает качество

Поэтому я тогда сделал простую конвертилку в виде html файла – кто угодно мог скачать ее из первого комментария.

Но так как я сам пользуюсь этой штукой как минимум раз в неделю, мне надоело постоянно искать этот файл + не хватало фильтров: по времени и по конкретному треду

Например, чтобы забрать все комменты только к одному посту из канала или только один топик в супергруппе


Так что сделал для себя и для вас вторую версию, где это всё есть, плюс она нормально задеплоена и доступна без скачивания

Переписки в тг часто содержат личную инфу, так что на всякий случай пишу: ваши данные не покидают браузер. Если сомневаетесь – отправьте код страницы в какую-нибудь LLM для проверки


Так как предыдущий пост набрал 200+ репостов, думаю, апдейт будет полезным 🤗

Ссылка на конвертилку
👍29🔥21🤩64
Хотите обзор самого главного в ИИ за этот год?

Вот прям всю мякотку: от хардкорного ML и агентов для разработки до взгляда на ИИ от бизнеса.

Наша AI Dev Live превзошла все мои ожидания – 3к зрителей (почти олимпийский!), куча крутых отзывов.

И у кого-то явные проблемы с тормозами – мы не удержались и готовим предновогодний эфир обо всех ключевых изменениях в индустрии.

И позвали еще крутых спикеров (↓)


В программе:

- Сдвиг парадигмы в управлении процессами, который все пропустили

- Как в 2026 бизнесу отличить: где ИИ-хайп со сливом бюджета, а где ИИ-инструменты с реальной ценностью?

- Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ?

- RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений?

- Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?


Спикеры – спецы "изнутри" индустрии: пара Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний – топовый состав, чтобы разобрать прогресс в ИИ со разных сторон.

А я буду в роли ведущего докапывать их неудобными вопросами

🎄Записывайтесь на предновогодний эфир (все еще можно бесплатно!)

и зовите знакомых, кто разбирается в ИИ
🔥246🤩6😁3👍1🤝1
Промежуточные инсайты по нашему краудсорсингу кейсов об ИИ в разработке

Выписал короткими тезисами – либо практичное, либо забавное, иногда с цитатами:


Полезные лайфхаки:

В инструкциях явно давать defend режим, где он должен критически относится к моим командам

Ручной индекс проекта (тут лайк за простую реализацию)
tree репозитория с одной строкой описания на каждый файл


Делать conventions/*md, а в рулсах для CC/Codex/Cursor ссылаться на них – чтобы не синкать зоопарк стандартов + правила грузятся динамически под задачу, а не засоряют контекст

Вопреки расхожему мнению, feedback loop нужен не для качества, а для скорости – убираем самый скучный human-in-the-loop (ts, lint, unit-tests, e2e, browser mcp)


Про большие компании и кодобазы:

На больших репо полезнее всего начинать не с написания кода, а с код ревью, поиска релевантного контекста для изменений и анализа логов со сложными паттернами

Для больших кодобаз резать задачи не по фичам, а по файлам/модулям, где нужно сделать изменения (декомпозиция не по числу изменений, а по их "локальности")


Экспериментально-философское:

Adversarial AI – сделать, чтобы модели конкурировали. Один агент делает, другой ревьюит и пытается сломать. Часто это даже разные тулы (например, Claude Code + Codex)

Изменение подходов от поддержки и дебага кода к "удали и сгенери заново"

PM-Разработчик - простые crud решения уже уходят к менеджерам

Автопромптинг:
Люблю использовать notebook ml для дистилляции промптов. На вход подал книгу по проектированию баз данных, он мне выдал промпт со ссылками... Теперь у меня есть свой агент который проектирует базы данных



Еще пару кейсов, по которым интересно почитать прям исходный текст:

Фаундер построил конвейер из 17 специализированных агентов, где у каждого «рабочего» агента есть агент-«дублер», проверяющий работу. Полный цикл: от архитектуры до позитивных/негативных тестов и PR.

Тимлид использовал Cursor для расследования сложного инцидента с ребалансировкой Kafka-консьюмеров на проде: как скармливать ИИ логи "до", "во время" и "после" аварии, чтобы он нашел неочевидную корреляцию между нагрузкой и конфигом, которую люди не увидели.

Переписать 40 сырых SQL-запросов на ORM, не сломав бизнес-логику. Пошаговый гайд: как сгруппировать запросы по сущностям через rg, сгенерировать слои репозиториев и заставить ИИ найти N+1 проблемы по ходу.


А чтобы почитать исходные тексты, присоединяйтесь к нашему краудсорингу 🤗

Аттракцион работает до 21 декабря (когда мы разошлем доступ к обезличенным кейсам)

Оставить кейс и получить доступ

А еще – альтернативные мнения: от Макса; от Тимура
2🔥2510🤝3
Правило Парето в кодинге с ИИ (да и вообще во всех сложных задачах с ИИ)

Вы, наверное, слышали о том, что лучше решать задачи "в один промпт" (ваншотить), а не делать бесконечное количество мелких правок в чате с моделью, растягивая контекст.

У этого подхода в чистом виде есть пара проблем:

1. Он не работает. Ну правда, в реальности результат почти никогда не соответствует ожиданиям на 100%

2. Он жрет много времени, лимитов, денег. Если полностью перезапускать запрос из-за мелкой правки, то придется ждать очередные 2-5-10 минут и тратить сотни тысяч токенов. И то без гарантии, что нет отвалится что-то другое, что до этого получилось хорошо

Но и возник он не на пустом месте – большое количество правок отдельными сообщениями реально ухудшает работу. И проблема тут не только в длине контекста, но и в том, что модель уже пошла по какому-то пути, и ей когнитивно сложно сделать шаг назад и "забыть" неправильную дорогу. Что у нее в контексте – за то и цепляется.

Я для себя вывел, что каждая такая правка примерно в 3-5 раз менее эффективна, чем если писать пожелание в исходном запросе. А значит, с первого запроса должно корректно выполнятся большинство работы. Если это не так, то:

- либо декомпозирую задачу
- либо прописываю больше деталей
- либо спрашиваю агента, чего не хватило или что в исходном запросе помешало получить желаемое, а потом прошу обновить за меня промпт, "стираю память" и перезапускаю

Ну и мысль про правило Парето помогает не подгорать от того, что на 20% правок уходит 80% времени – так и должно быть
35🔥19👍11🤔2👎1
Помните хейт в комментах после моего поста про итоги года от Granola?

Они выкатили целую статью (ссылка внизу), где рассказывают как они их готовили. На мой вкус, очень интересно почитать – понятно, почему их итоги года ощущаются иначе чем то, что делают остальные компании

Записал другу войс с мыслями пока читал. Вот причесанная версия:

→ Ооо, вот все говорят, что промпт инжиниринг умер, а похоже все-таки нет – это по-прежнему серьезная часть создания ИИ фичей (и это мэтчится с моим непопулярным мнением). Просто, это не совсем техническая часть, а скорее продуктовая – тут важно не то, как системе выполнять задачу, а скорее – понять какой результат хотим видеть и почему. Часто это прям совсем в мелочах проявляется: нужен не "ироничный твист" а "слегка ироничный твист"

→ Behavioral vs. Psychological. Мысль вроде очевидная, но я ни разу не формулировал это так в своих запросах к LLM. А надо бы:

Ребята просят не делать выводы о психологии и причинности ("ты просишь валидации, потому что чувствуешь неувернность в своей экспертизе"). Вместо этого, важны обобщения реальных фактов ("часто, после фразы собеседника, ты коротко перефразируешь сказанное"). Что я делаю, а не почему. Потестил на выгрузке канала, получилось интересно (там и про вас есть, хаха). Оставлю в комментах.

→ Похожая штука про комплименты – многие юзеры хейтят лесть, особенно от ИИ. Ребята решили это тем, что упоролись в конкретику и опять же конкретные поведенческие факты. Вместо "ты крутой аналитик""ты несколько раз находил в логах корреляцию между нагрузкой и конфигом, которую другие пропустили". Какие у меня паттерны поведения, а не кто я. Бтв, в обычном общении с людьми тоже хорошо работает

→ Ну и глобально, кажется, у некоторых тулзов уже достаточно много информации про нас для выводов, которые оказываются сюрпризом. "Модель может разглядеть что-то, что юзер сам про себя не замечает". Это забавно

Статья
124🔥5🤝4👍3
Многие из вас пришли в этот канал после ai-dev.live

Возможно, вам интересно, как это проект появлялся. Вышел небольшой текстовый бэкстейдж на 10 минут, как оно выглядело от моего лица.

Там много внутрянки: скрины сообщений, наши сомнения, факапы. Хорошо для почитать на выходных, а не то что я обычно пишу)

https://habr.com/ru/articles/978830/

У кого есть аккаунт на хабре, если поставите лайк – это вроде как поможет подольше подержать статью в топе
🔥27👍74
Мои итоги года

Профессиональные инсайты:

- Cursor + ai.studio → Claude Code + Codex (+ ai.studio)
- Claude Code – лучший кодинговый агент фреймворк создания агентов
- Gemini – лучший pdf→markdown converter
- Google sheets – лучший фронтенд для евалов (ладно, не всегда)
- Granola – лучший транскрибатор звонков и намного больше
- Эмбеддинги сосут (кст, самый зарепосченный мой пост)
- MCP тоже, skills – база
- Просто дайте агенту запускать код

Личное:

- Снова начал выступать и преподавать. Уф, какой же это кайф
- Маме на юбилей оживил кучу старых фоток из физических альбомов (привет, альбомы из Гарри Поттера)
- Поучаствовал в арт-объекте про грань между человеком и ИИ
- Вырастил канал с пары сотен подписчиков до 7к
- Нашел классную онлайн-тусовку людей, близких по вайбу
- Провел с ними две масштабные ИИ конфы

Кстати, сегодня одна из них: тоже итоги года, но от других 7 топовых ребят. С 14:00 до 18:30, либо в записи (да, оно стоит даже того, чтобы не забыть посмотреть запись)

———

Вообще, тоже итог года – понял, что организовывать конференции в таком формате – сомнительное занятие с точки зрения выгод на единицу геморроя

Плюшек – как у спикеров, но вся грязная работа на тебе, а самой приятной части не достается (собственно, побыть спикером). Вроде и получается хорошо, но не знаю, буду ли я что-то такое еще делать.

Короче, присоединяйтесь, пока аттракцион еще точно работает (такая вот искренняя манипуляция дефицитом)

entropy.talk/iitogi25
30🔥11👍9🏆3💔2