Видели эти бесконечные комментарии от AI в крупных каналах? Те самые, которые своими формулировками вызывают испанский стыд.
Я самые "умные" из них даже приложу в медиа поста. Те, которые были чуть умнее стандартных и поэтому попали в мой "Музей развития AI-спама" 🙂
На самом деле задача написать "похожий на человека AI-комментарий" не так проста, как кажется на первый взгляд, и содержит в себе несколько уровней:
1. Семантический. Если вы желаете писать от своего имени, то неплохо бы было, чтобы нейросеть использовала ваш индивидуальный стиль. Берём просто тексты, которые вы написали за какой-то длительный период и дообучаем LLM писать, соблюдая ваш стиль.
2. Структурный. Вы ведь ещё и сам текст собираете как-то по-своему. Разбиваете на абзацы определённым образом, используете списки, цитаты. И это может выходить за рамки семантики. Плюс – структуру AI копирует чуть хуже. Нужно отдельно дообучить его для лучшего формирования структуры.
3. Информационный. Откуда-то именно ваши знания надо брать. Примерно те же тексты, что в п.1, но теперь из них надо получать информацию на ту или иную тему. И с учётом этой информации формировать текст.
4. Контекстный. Ваша нейросеть, которая по первым трём пунктам может собирать достаточно высокого уровня посты, не напишет человекоподобный комментарий. Потому что комментарий по своей сути отличается от поста. Так как, фактически, комментарий – это диалог с автором поста. Помимо вашей базы знаний из п.3, комментарий содержит контекст родительского поста. Зачастую, данные о предыдущих комментариях также должны попадать в контекст.
5. Логический. Здесь больше про то, как ведёт себя человек, комментируя посты. Как правило, он выбирает одну мысль, которая его "зацепила", обрабатывает её и пишет комментарий с использованием собственного, не всегда информационного (но и эмоционального, к примеру), контекста. Нейросети по-умолчанию ведут себя иначе. Они пытаются использовать весь контекст поста. Поэтому даже небольшой комментарий они пишут сразу по всему посту. Подход абсолютно разный. И LLM необходимо донастроить, чтобы она ушла от привычных паттернов.
Всё это мы накопали за время очень интересного созвона с Феликсом Шапиро. Помимо разговора про LLM-комментарии, обсудили также идеи относительно разработки ПО с помощью AI.
К чему я это? Хотите поговорить про AI – напишите мне. Договоримся о времени созвона и точно принесём друг-другу пользы. Заодно получше познакомимся 🙂
Я самые "умные" из них даже приложу в медиа поста. Те, которые были чуть умнее стандартных и поэтому попали в мой "Музей развития AI-спама" 🙂
На самом деле задача написать "похожий на человека AI-комментарий" не так проста, как кажется на первый взгляд, и содержит в себе несколько уровней:
1. Семантический. Если вы желаете писать от своего имени, то неплохо бы было, чтобы нейросеть использовала ваш индивидуальный стиль. Берём просто тексты, которые вы написали за какой-то длительный период и дообучаем LLM писать, соблюдая ваш стиль.
2. Структурный. Вы ведь ещё и сам текст собираете как-то по-своему. Разбиваете на абзацы определённым образом, используете списки, цитаты. И это может выходить за рамки семантики. Плюс – структуру AI копирует чуть хуже. Нужно отдельно дообучить его для лучшего формирования структуры.
3. Информационный. Откуда-то именно ваши знания надо брать. Примерно те же тексты, что в п.1, но теперь из них надо получать информацию на ту или иную тему. И с учётом этой информации формировать текст.
4. Контекстный. Ваша нейросеть, которая по первым трём пунктам может собирать достаточно высокого уровня посты, не напишет человекоподобный комментарий. Потому что комментарий по своей сути отличается от поста. Так как, фактически, комментарий – это диалог с автором поста. Помимо вашей базы знаний из п.3, комментарий содержит контекст родительского поста. Зачастую, данные о предыдущих комментариях также должны попадать в контекст.
5. Логический. Здесь больше про то, как ведёт себя человек, комментируя посты. Как правило, он выбирает одну мысль, которая его "зацепила", обрабатывает её и пишет комментарий с использованием собственного, не всегда информационного (но и эмоционального, к примеру), контекста. Нейросети по-умолчанию ведут себя иначе. Они пытаются использовать весь контекст поста. Поэтому даже небольшой комментарий они пишут сразу по всему посту. Подход абсолютно разный. И LLM необходимо донастроить, чтобы она ушла от привычных паттернов.
Всё это мы накопали за время очень интересного созвона с Феликсом Шапиро. Помимо разговора про LLM-комментарии, обсудили также идеи относительно разработки ПО с помощью AI.
К чему я это? Хотите поговорить про AI – напишите мне. Договоримся о времени созвона и точно принесём друг-другу пользы. Заодно получше познакомимся 🙂
1👍8❤3🔥2
Немного про Wan Effects.
Помните, в посте про Wan я говорил, в том числе, о том, что появится большое количество кастомизаций?
Всё так и происходит. Уже появилось множество LoRA под эту модель, которые позволяют, например, генерировать FullHD-видео вместо стандартного 720p.
Сегодня – про Wan Effects.
Если следите за рынком AI-видео, то, скорее всего, вы натыкались на видео от Pika labs, на которых с предметами на видео происходят всякие вирусные метаморфозы.
По ссылке на сайте fal.ai можно создавать аналогичные эффекты при помощи LoRA для Wan.
Доступно на выбор целых 25 эффектов!
Важно: выбирайте входную фотографию 16:9 или 9:16. Так её не будет плющить в пропорциях.
Некоторые из доступных эффектов – в медиа поста. Если захотите попробовать что-то ещё – скиньте свои генерации в комментарии 🙂
Занимательный факт: изначально fal.ai загрузили вместо Wan Effects модель под названием Wan LoRA. И можно было по URL загружать LoRA с Huggingface, например. Думаю, из-за потока NSFW лавочку решили достаточно быстро прикрыть 🙂
Помните, в посте про Wan я говорил, в том числе, о том, что появится большое количество кастомизаций?
Всё так и происходит. Уже появилось множество LoRA под эту модель, которые позволяют, например, генерировать FullHD-видео вместо стандартного 720p.
Сегодня – про Wan Effects.
Если следите за рынком AI-видео, то, скорее всего, вы натыкались на видео от Pika labs, на которых с предметами на видео происходят всякие вирусные метаморфозы.
По ссылке на сайте fal.ai можно создавать аналогичные эффекты при помощи LoRA для Wan.
Доступно на выбор целых 25 эффектов!
Важно: выбирайте входную фотографию 16:9 или 9:16. Так её не будет плющить в пропорциях.
Некоторые из доступных эффектов – в медиа поста. Если захотите попробовать что-то ещё – скиньте свои генерации в комментарии 🙂
Занимательный факт: изначально fal.ai загрузили вместо Wan Effects модель под названием Wan LoRA. И можно было по URL загружать LoRA с Huggingface, например. Думаю, из-за потока NSFW лавочку решили достаточно быстро прикрыть 🙂
1🔥7👍5❤3
Media is too big
VIEW IN TELEGRAM
Deep Research от Google и его сравнение с конкурентами.
Если раньше был тренд на reasoning-модели, то сейчас, судя по всему, каждая уважающая себя компания обязана сделать AI-агента для проведения глубоких исследований.
Как будто бы у Google должно быть преимущество в этой задаче, поскольку они могут более нативно получать данные из YouTube и поиска(ох уж эти монополисты) .
Инструмент на данный момент бесплатный и доступен по ссылке. Среди моделей в левом-верхнем углу экрана нужно выбрать "Deep Research" и можно приступать к работе.
Я использовал такие же промпты, как в постах про Grok, Perplexity и OpenAI (которому, напомню, потребовался всего один запрос, так как он задаёт доп. вопросы перед стартом исследования).
Результаты исследования можете прочитать тут: базовый и со стилем Вани. Разница при взаимодействии с Gemini в том, что после второго запроса они почему-то выдали мне документ под названием «Адаптация сценария под стиль Вани» с рекомендациями о том, что же мне делать с исходным сценарием. Поэтом пришлось делать дополнительный запрос, чтобы получить именно сценарий.
Сам сценарий, по моему мнению, получился весьма посредственным. Каких-то необычных свежих мыслей в нём нет. Структура тоже не лучшая.
Из всех моделей с Deep Research, которые я тестировал на этой задаче на текущий момент, Gemini смог обогнать, разве что, Grok. Потому что тот ещё и в стиль конкретного автора не попал из-за кривой реализации поиска.
Но тут есть нюанс. Я не готовил специально промпт, как, например, описывал в этом посте. И есть ощущение, что правильно приготовленный запрос в Gemini может дать свои плоды и существенно улучшить результат.
Мне очень понравилось, как Gemini форматирует ответ, показывая в конкретных абзацах используемые для написания источники.
Также хорошая идея с делением списка источников на "используемые при написании статьи" и "не используемые при написании статьи". В отличие от Grok, который выводит просто(громадный) список.
Само собой, у Gemini отлично работает поиск информации по индексу. На то он и Google.
Также есть кнопка, позволяющая в один клик сформировать из ответа Google Doc. Удобно.
Вывод: Gemini имеет отличную реализацию работы с поиском и хорошо оптимизированное извлечение информации из документов. Но над агентской частью, которая выстраивает план и следует ему, а также формирует текст ответа, стоит ещё поработать. Полагаю, что оператору, чтобы получить качественный ответ, стоит дополнительно углубиться в вопрос правильной постановки задачи.
Скажите, пробовали ли вы уже Deep Research от Gemini? Если да, то какое впечатление на вас произвёл данный инструмент?
Если раньше был тренд на reasoning-модели, то сейчас, судя по всему, каждая уважающая себя компания обязана сделать AI-агента для проведения глубоких исследований.
Как будто бы у Google должно быть преимущество в этой задаче, поскольку они могут более нативно получать данные из YouTube и поиска
Инструмент на данный момент бесплатный и доступен по ссылке. Среди моделей в левом-верхнем углу экрана нужно выбрать "Deep Research" и можно приступать к работе.
Я использовал такие же промпты, как в постах про Grok, Perplexity и OpenAI (которому, напомню, потребовался всего один запрос, так как он задаёт доп. вопросы перед стартом исследования).
Результаты исследования можете прочитать тут: базовый и со стилем Вани. Разница при взаимодействии с Gemini в том, что после второго запроса они почему-то выдали мне документ под названием «Адаптация сценария под стиль Вани» с рекомендациями о том, что же мне делать с исходным сценарием. Поэтом пришлось делать дополнительный запрос, чтобы получить именно сценарий.
Сам сценарий, по моему мнению, получился весьма посредственным. Каких-то необычных свежих мыслей в нём нет. Структура тоже не лучшая.
Из всех моделей с Deep Research, которые я тестировал на этой задаче на текущий момент, Gemini смог обогнать, разве что, Grok. Потому что тот ещё и в стиль конкретного автора не попал из-за кривой реализации поиска.
Но тут есть нюанс. Я не готовил специально промпт, как, например, описывал в этом посте. И есть ощущение, что правильно приготовленный запрос в Gemini может дать свои плоды и существенно улучшить результат.
Мне очень понравилось, как Gemini форматирует ответ, показывая в конкретных абзацах используемые для написания источники.
Также хорошая идея с делением списка источников на "используемые при написании статьи" и "не используемые при написании статьи". В отличие от Grok, который выводит просто
Само собой, у Gemini отлично работает поиск информации по индексу. На то он и Google.
Также есть кнопка, позволяющая в один клик сформировать из ответа Google Doc. Удобно.
Вывод: Gemini имеет отличную реализацию работы с поиском и хорошо оптимизированное извлечение информации из документов. Но над агентской частью, которая выстраивает план и следует ему, а также формирует текст ответа, стоит ещё поработать. Полагаю, что оператору, чтобы получить качественный ответ, стоит дополнительно углубиться в вопрос правильной постановки задачи.
Скажите, пробовали ли вы уже Deep Research от Gemini? Если да, то какое впечатление на вас произвёл данный инструмент?
👍7❤3🔥2❤🔥1
"Делай добро – и бросай его в воду".
У меня на канале очень редко бывают новости. Я не люблю перепечатывать то, что вы и так уже несколько раз в ленте увидели. Неинтересно это.
Также я не планирую на канале запускать платную рекламу.
Здесь может быть два формата внешних ссылок:
1. Я рассказываю про каналы, с которыми взаимодействую. В таких случаях я, как правило, знаком с автором и уверен в его компетентности.
2. Будут ссылки на продукты, к запуску которых я имею отношение. То есть формат "Я сделяль".
Возможно, добавятся ещё варианты по ссылкам, но точно не посты с «промо-пометками».
Сегодня хочу рассказать историю про взаимодействие с автором канала "AI и грабли". Потому что для меня это весьма необычный опыт (в хорошем смысле, конечно же).
Мне написал в личку Николай (автор канала) с сообщением:
Подход "Несу пользу миру, потому что могу" – это круто. Сам стараюсь его придерживаться. Поэтому вы и видите этот пост 🙂
Николай предпочитает писать практические посты с кейсами(всё как мы любим, да) .
Например, советую прочитать посты про Structured Output: раз, два, три. База для всех, кто взаимодействует с AI-агентами!
У меня на канале очень редко бывают новости. Я не люблю перепечатывать то, что вы и так уже несколько раз в ленте увидели. Неинтересно это.
Также я не планирую на канале запускать платную рекламу.
Здесь может быть два формата внешних ссылок:
1. Я рассказываю про каналы, с которыми взаимодействую. В таких случаях я, как правило, знаком с автором и уверен в его компетентности.
2. Будут ссылки на продукты, к запуску которых я имею отношение. То есть формат "Я сделяль".
Возможно, добавятся ещё варианты по ссылкам, но точно не посты с «промо-пометками».
Сегодня хочу рассказать историю про взаимодействие с автором канала "AI и грабли". Потому что для меня это весьма необычный опыт (в хорошем смысле, конечно же).
Мне написал в личку Николай (автор канала) с сообщением:
Константин, привет! Очень понравилась концентрация пользы в твоем канале, хочу сделать его промо у себя.
Если хочешь, можем сделать взаимный пиар, но если нет – ничего страшного, я все равно твой пропиарю.
Подход "Несу пользу миру, потому что могу" – это круто. Сам стараюсь его придерживаться. Поэтому вы и видите этот пост 🙂
Николай предпочитает писать практические посты с кейсами
Например, советую прочитать посты про Structured Output: раз, два, три. База для всех, кто взаимодействует с AI-агентами!
Telegram
AI и грабли
Строил HR продукты для американского бигтеха. Внедряю AI в чужой бизнес, делаю свой, косячу и пишу про подноготную.
3👍14❤8🔥5❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Эфир по Искусственному интеллекту для бизнеса
Завтра совместно с Алексеем Горностаевым, автором канала "Советник управленца", мы проведём эфир.
Участие бесплатное(без смс и регистрации 🙂) , подключиться можно будет по ссылке:
https://gornostaevpro.ktalk.ru/k1nou9ik35ct
Поговорим о практическом применении ИИ в малом бизнесе.
В формате живой дискуссии обсудим:
🟢 Где ИИ уже доказал свою эффективность в торговом бизнесе и eCommerce и доказал ли вообще где-то? Или все упирается в создание текстов для посадочных страниц и креативов для баннеров и рекламы?
🟢 Какие задачи в ритейле и онлайн-торговле пока плохо решаются ИИ и еще долго будут плохо решаться?
🟢 Как бизнесу определить, какие процессы стоит автоматизировать с помощью ИИ, а какие нет?
🟢 Что предприниматели чаще всего недооценивают, когда говорят про внедрение ИИ?
🟢 Правда ли, что чат-боты на ИИ могут заменить живых операторов в клиентском сервисе? В каких случаях это реально работает и сколько надо денег/времени, чтобы поднять свою собственную RAG-систему?
🟢 Можно ли внедрить ИИ на сайт так, чтобы каждый посетитель видел уникальный текст под себя?
🟢 Насколько ИИ эффективен в прогнозировании оттока клиентов? Как его использовать для удержания?
🟢 Есть ли ИИ-решения, которые помогают в прогнозировании спроса и оптимизации закупок на основании данных CRM или 1С? Есть ли примеры успешного внедрения?
🟢 Есть ли практическая польза от ИИ в управлении товарными остатками? Чтобы не затоваривать склад лишним товаром и при этом не быть в дефиците?
🟢 Какие юридические ограничения по использованию ИИ в торговле есть сейчас или могут появиться?
Дата эфира: 19 марта 2025
Время: 14:00 мск
Ссылка для подключения: https://gornostaevpro.ktalk.ru/k1nou9ik35ct
Завтра совместно с Алексеем Горностаевым, автором канала "Советник управленца", мы проведём эфир.
Участие бесплатное
https://gornostaevpro.ktalk.ru/k1nou9ik35ct
Поговорим о практическом применении ИИ в малом бизнесе.
В формате живой дискуссии обсудим:
Дата эфира: 19 марта 2025
Время: 14:00 мск
Ссылка для подключения: https://gornostaevpro.ktalk.ru/k1nou9ik35ct
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7❤5🔥5
Старт эфира «AI для бизнеса» уже через час!
Ссылка для подключения: https://gornostaevpro.ktalk.ru/k1nou9ik35ct
Ссылка для подключения: https://gornostaevpro.ktalk.ru/k1nou9ik35ct
gornostaevpro.ktalk.ru
ИИ для бизнеса.
Подключиться к видеоконференции
1👍3❤2🔥2
Forwarded from Алексей Горностаев | Бизнес-архитектор
Media is too big
VIEW IN TELEGRAM
Запись эфира "ИИ для бизнеса".
Эфир вели:
- Советник управленца Алексей Горностаев
- ИИ-амбассадор Константин Доронин
Костя обещал в своем канале выложить полезные ссылки и материалы по итогам эфира. Подписывайтесь, чтобы не пропустить.
Эфир вели:
- Советник управленца Алексей Горностаев
- ИИ-амбассадор Константин Доронин
Костя обещал в своем канале выложить полезные ссылки и материалы по итогам эфира. Подписывайтесь, чтобы не пропустить.
1❤8🔥8👍5
Соскучились по эфирам? 🙂
Напоминаю, что сегодня, 20 марта, в 20:00 мск состоится эфир «Куда инвестировать, чтобы выиграть от "революции" AI», который мы проведём вместе с @apozharenko, автором канала Финансист с велосипедом .
Для того, чтобы попасть на этот эфир, напишите в личные сообщения сюда: @apozharenko
UPD: записи данного эфира не будет. Доступ только в режиме реального времени.
Напоминаю, что сегодня, 20 марта, в 20:00 мск состоится эфир «Куда инвестировать, чтобы выиграть от "революции" AI», который мы проведём вместе с @apozharenko, автором канала Финансист с велосипедом .
Для того, чтобы попасть на этот эфир, напишите в личные сообщения сюда: @apozharenko
UPD: записи данного эфира не будет. Доступ только в режиме реального времени.
1👍6❤4🔥2
❇️ КОНЦЕНТРАТ. ЧАСТЬ 2
Сегодня собрал для вас посты, которые выходили про технологию Deep Research. Заодно составил свой личный топ компаний, её предлагающих.
Полезные материалы, чтобы использовать Deep Research эффективнее:
1. Общая информация про использование технологии
2. Как правильно составить запрос в Deep Research
3. Как получить доступ к Perplexity Pro на год за $10 (или даже меньше)
Топ компаний, предоставляющих технологию Deep Research (со ссылками на соответствующие посты):
1. OpenAI. Он настолько хорош, что по его сценарию Ваня даже снял ролик для канала. Сам ролик можете посмотреть тут.
2. Perplexity.
3. Google.
4. Grok.
Ещё один полезный сборник, который нужно, как минимум, сохранить в "Избранное", а как максимум – разослать друзьям 🙂
Сегодня собрал для вас посты, которые выходили про технологию Deep Research. Заодно составил свой личный топ компаний, её предлагающих.
Полезные материалы, чтобы использовать Deep Research эффективнее:
1. Общая информация про использование технологии
2. Как правильно составить запрос в Deep Research
3. Как получить доступ к Perplexity Pro на год за $10 (или даже меньше)
Топ компаний, предоставляющих технологию Deep Research (со ссылками на соответствующие посты):
1. OpenAI. Он настолько хорош, что по его сценарию Ваня даже снял ролик для канала. Сам ролик можете посмотреть тут.
2. Perplexity.
3. Google.
4. Grok.
Ещё один полезный сборник, который нужно, как минимум, сохранить в "Избранное", а как максимум – разослать друзьям 🙂
1🔥10👍5❤4
Константин Доронин pinned «❇️ КОНЦЕНТРАТ. ЧАСТЬ 2 Сегодня собрал для вас посты, которые выходили про технологию Deep Research. Заодно составил свой личный топ компаний, её предлагающих. Полезные материалы, чтобы использовать Deep Research эффективнее: 1. Общая информация про использование…»
На созвоне "AI для бизнеса" я высказывал мысль, которую очень часто повторяю при ответе на вопрос "Как нам начать работать с AI?".
Повторю ещё раз:
Направления, в которых можно делать первые шаги:
1. Автоматический поиск информации в интернете по заранее заданным параметрам.
2. Формирование документа на основе переданных данных. Например, выбирать необходимые параметры из текста, переданного в свободном формате (как клиент скинул), и формировать договор.
3. Получать из документа нужную информацию. Эдакий mini-RAG, но без громадной базы знаний с той стороны (мы же говорим про первые шаги, помните?).
4. Упростить взаимодействие с корпоративным сайтом или магазином. Чтобы частично обновление контента производил AI вместо контент-менеджера. При этом информацию может забирать из текстового описания задачи в свободной форме или даже формировать цену на основе внешних параметров (полученных при помощи п.1, например).
Вместо того, чтобы скидывать вам "список ссылок для сохранения в бесконечном Избранном", предлагаю небольшой интерактив.
❗️Напишите в комментариях, какие у вас есть кейсы в бизнесе, подходящие под критерии "максимально-простой интеграции". А я со своей стороны по некоторым из них соберу работающий кейс и расскажу, как его применить. Возможно, даже проведём эфир-практикум.
p.s.: вы просили вернуть в media life-контент. В прошлые выходные был хайк до самой высокой точки в ОАЭ. Красивые виды с вершины прилагаю 🙂
Повторю ещё раз:
Начинать внедрять AI всегда нужно с максимально-простой задачи. Только работа с текстом (в некоторых случаях можно использовать img-to-text). Желательно, автоматизировать рутину самого низкооплачиваемого сотрудника.
Направления, в которых можно делать первые шаги:
1. Автоматический поиск информации в интернете по заранее заданным параметрам.
2. Формирование документа на основе переданных данных. Например, выбирать необходимые параметры из текста, переданного в свободном формате (как клиент скинул), и формировать договор.
3. Получать из документа нужную информацию. Эдакий mini-RAG, но без громадной базы знаний с той стороны (мы же говорим про первые шаги, помните?).
4. Упростить взаимодействие с корпоративным сайтом или магазином. Чтобы частично обновление контента производил AI вместо контент-менеджера. При этом информацию может забирать из текстового описания задачи в свободной форме или даже формировать цену на основе внешних параметров (полученных при помощи п.1, например).
Вместо того, чтобы скидывать вам "список ссылок для сохранения в бесконечном Избранном", предлагаю небольшой интерактив.
❗️Напишите в комментариях, какие у вас есть кейсы в бизнесе, подходящие под критерии "максимально-простой интеграции". А я со своей стороны по некоторым из них соберу работающий кейс и расскажу, как его применить. Возможно, даже проведём эфир-практикум.
p.s.: вы просили вернуть в media life-контент. В прошлые выходные был хайк до самой высокой точки в ОАЭ. Красивые виды с вершины прилагаю 🙂
1👍7🔥6❤4
Ключевые концепции, позволяющие AI-агентам (и их сетям) решать задачи эффективнее, чем стандартный чат с LLM.
90% эффективности AI-агента заключается в следующих его настройках:
1. Правильно выбранная "роль" для агента и формирование его целей.
2. Управление памятью. Для агента нужно организовать, как минимум, оперативную, постоянную и объектную виды памяти. Первая – содержит самую актуальную информацию и существует в контексте модели, вторая хранится в базе данных или на сервере, а третья является списком существующих в постоянной памяти объектов, чтобы агент по ним мог обращаться в постоянную память.
3. Эффективные инструменты. Для формирования памяти либо выполнения действий, способствующих достижению цели.
Как при этом узнать, что система работает корректно?
Нужен набор входных параметров и возможность оценить то, что агент даёт на выходе (очень хорошо, если он выполняет детерменированную задачу). Через оценку того, где именно ошибается агент, перерабатывать входные параметры, роль и цели.
Механика тестов AI-агентов чем-то похожа на механику формирования эффективного промпта в LLM. Только параметров чуть больше.
Все улучшения сводятся к тому, что мы ограничиваем для AI-агента всевозможные действия, которые мешают достичь корректного результата.
p.s.: Фотография в стиле "Найди кота" или "Сфотографируй, как мы красиво идём в этом ущелье». 🙂
90% эффективности AI-агента заключается в следующих его настройках:
1. Правильно выбранная "роль" для агента и формирование его целей.
2. Управление памятью. Для агента нужно организовать, как минимум, оперативную, постоянную и объектную виды памяти. Первая – содержит самую актуальную информацию и существует в контексте модели, вторая хранится в базе данных или на сервере, а третья является списком существующих в постоянной памяти объектов, чтобы агент по ним мог обращаться в постоянную память.
3. Эффективные инструменты. Для формирования памяти либо выполнения действий, способствующих достижению цели.
Как при этом узнать, что система работает корректно?
Нужен набор входных параметров и возможность оценить то, что агент даёт на выходе (очень хорошо, если он выполняет детерменированную задачу). Через оценку того, где именно ошибается агент, перерабатывать входные параметры, роль и цели.
Механика тестов AI-агентов чем-то похожа на механику формирования эффективного промпта в LLM. Только параметров чуть больше.
Все улучшения сводятся к тому, что мы ограничиваем для AI-агента всевозможные действия, которые мешают достичь корректного результата.
p.s.: Фотография в стиле "Найди кота" или "Сфотографируй, как мы красиво идём в этом ущелье». 🙂
1🔥8👍4❤3
Базовая настройка AI-ассистента Goose. Как получить себе сообразительного AI-агента с поддержкой MCP-серверов.
Я показывал его на эфире по «AI для бизнеса», после чего получил запрос о том, что неплохо бы написать инструкцию о том, как получить себе на компьютер такого же.
Собственно, инструкция:
1. Устанавливаем по гайду отсюда Goose Desktop. Лучше иметь на компьютере MacOS или Linux. Под Windows он работает только из-под wsl (но всё равно работает).
2. Из провайдеров выбираем OpenRouter. Так как он позволяет работать с любым другим провайдером через API.
3. Если ещё нет аккаунта в OpenRouter, то заводим его здесь.
4. Далее надо пополнить счёт. Хотя бы на $10. Это можно сделать картой (российские не принимают), через криптовалюту или выбрать продавца на plati.
5. Создаём API-ключ на специальной странице. Вводим его в настройках Goose для Openrouter в поле
6. Выбираем модель, с которой будет работать наш агент. Я рекомендую
7. При добавлении модели в агента, сначала выбираем провайдера Openrouter, а в имя модели вставляем то, которое имеет формат company/model. В нашем случае это
8. У Goose есть свой стандартный список расширений (инструментов) для AI-агента, который находится тут. Их можно установить через кнопку "Install" прямо из браузера.
9. В окне с чатом в левом-нижнем углу нужно выбрать папку, в которой AI-агент будет работать. Чтобы он в системные папки не грузил свои документы.
10. Открываем чат с агентом и начинаем диалог.
Дополнительно:
1. Если завести аккаунт на https://tavily.com/ , то можно получить API-ключ (без ввода карточки) и использовать его с соответствующим инструментом для поиска. 1000 запросов в месяц на бесплатном тарифе.
2. По-умолчанию в Goose есть инструмент Memory. Он позволяет хранить данные в постоянной памяти. Также он умеет их распределять по категориям.
3. Goose умеет писать программы и сам их запускает. Так он решает вопросы сложных автоматизаций, которые не получается выполнить имеющимися инструментами.
Пробовали ли вы использовать Goose? Или ваш AI-ассистент работает на базе другого фреймворка?
Я показывал его на эфире по «AI для бизнеса», после чего получил запрос о том, что неплохо бы написать инструкцию о том, как получить себе на компьютер такого же.
Собственно, инструкция:
1. Устанавливаем по гайду отсюда Goose Desktop. Лучше иметь на компьютере MacOS или Linux. Под Windows он работает только из-под wsl (но всё равно работает).
2. Из провайдеров выбираем OpenRouter. Так как он позволяет работать с любым другим провайдером через API.
3. Если ещё нет аккаунта в OpenRouter, то заводим его здесь.
4. Далее надо пополнить счёт. Хотя бы на $10. Это можно сделать картой (российские не принимают), через криптовалюту или выбрать продавца на plati.
5. Создаём API-ключ на специальной странице. Вводим его в настройках Goose для Openrouter в поле
OPENROUTER_API_KEY
. 6. Выбираем модель, с которой будет работать наш агент. Я рекомендую
anthropic/claude-3.7-sonnet
, так как в качестве AI-агента в связке с MCP она работает лучше всего.7. При добавлении модели в агента, сначала выбираем провайдера Openrouter, а в имя модели вставляем то, которое имеет формат company/model. В нашем случае это
anthropic/claude-3.7-sonnet
.8. У Goose есть свой стандартный список расширений (инструментов) для AI-агента, который находится тут. Их можно установить через кнопку "Install" прямо из браузера.
9. В окне с чатом в левом-нижнем углу нужно выбрать папку, в которой AI-агент будет работать. Чтобы он в системные папки не грузил свои документы.
10. Открываем чат с агентом и начинаем диалог.
Дополнительно:
1. Если завести аккаунт на https://tavily.com/ , то можно получить API-ключ (без ввода карточки) и использовать его с соответствующим инструментом для поиска. 1000 запросов в месяц на бесплатном тарифе.
2. По-умолчанию в Goose есть инструмент Memory. Он позволяет хранить данные в постоянной памяти. Также он умеет их распределять по категориям.
3. Goose умеет писать программы и сам их запускает. Так он решает вопросы сложных автоматизаций, которые не получается выполнить имеющимися инструментами.
Пробовали ли вы использовать Goose? Или ваш AI-ассистент работает на базе другого фреймворка?
2🔥11❤5👍5