Личный ИИ-Ассистент
Скажу сразу, что Json’а воркфлоу в N8N тут не будет - это не мой проект, но он мне очень понравился, так как примерно тоже самое я собираю для себя уже год. Правда, у меня это разрозненные процессы, которые я никак не могу объеденить в одну систему. Ну и мой проект - это ИИ-Ассистент для СДВГ’шника.
Вернемся к проекту с картинки, что это такое: это персональный ИИ-компаньона, который понимает контекст, помнит «вашу» историю и проактивно помогает в личном развитии.
Ключевая архитектура:
Система построена на нескольких ключевых элементах, предназначенных для создания глубокого, контекстуального понимания:
- Движок личности: Это сердце системы. Это не статичная персона. Он использует векторную базу данных с ~100 чертами личности и «фрагментами персоны». С каждым сообщением он агрегирует эти черты, чтобы создать оптимальный ответ, делая взаимодействие естественным и адаптивным.
- Журнал: Он объединяет количественные данные с кольца Oura (сон, вариабельность сердечного ритма, активность) с дневниковыми записями, введенными вручную. Это дает ему мультимодальное представление о физическом и ментальном состоянии человека.
Многоуровневая память и база знаний:
- Краткосрочная память: Простые пары «ввод -> вывод» и «действие -> реакция» из каждого взаимодействия.
- Долгосрочная память: Отобранная база данных с конкретными фактами и агрегированными инсайтами из краткосрочной памяти.
- База знаний: Обрабатывает длинные тексты (статьи, заметки) и обогащает их информацией из Perplexity.
- Дневник сновидений: Отдельный журнал специально для снов, используемый для перекрестных ссылок с основным журналом для поиска потенциальных корреляций между подсознательными темами и реальной жизнью.
Проактивные и автономные функции:
Он активно участвует в жизни:
- Ночные «сны»: Ночью он запускает процесс, который по сходству агрегирует векторы из взаимодействий за день. Это его форма консолидации памяти, позволяющая находить скрытые связи между темами сновидений и другими данными.
- Утренний отчет: Каждое утро выгружает кастомный отчет по темам, которые указаны как важные (например, анализ качества сна в сравнении с уровнем стресса вчера или новости про ИИ).
- Проактивное планирование: Он анализирует календарь и задачи, а затем проактивно предлагает временные блоки для работы или отмечает потенциальные конфликты в расписании.
- Контекстуальные уведомления: Он отправляет одно проактивное сообщение в день в случайное время, тема которого соответствует текущей активности в календаре (например, ссылка на релевантную статью перед встречей по проекту).
- Глобальная обработка ошибок: Система для корректного управления сбоями API и непредвиденными проблемами.
Технологический стек
Все это работает на куче API и селф-хосте инструментов:
⁃ Оркестрация: n8n
⁃ Интерфейс: Telegram
⁃ Векторная БД: Qdrant
⁃ Данные/Инструменты: Google Calendar, Tasks, Gmail, Drive, Oura Ring API, Perplexity AI
Как я понял, главная цель проекта сделать «движок счастливых случайностей» (The Serendipity Engine)
Короче создать бэкенд, сфокусированный на рассуждениях более высокого уровня.
⁃ Логика и дедукция через Google Mangle.
⁃ КПТ: Выявлять повторяющиеся негативные мыслительные циклы или модели поведения из дневниковых записей и мягко оспаривать их.
⁃ Проактивно предлагать новые привычки, идеи или точки зрения на основе заявленных целей и наблюдаемых паттернов.
⁃ Отслеживать фитнес и питание: Интегрировать и анализировать эти данные для предоставления инсайтов о здоровье.
Скажу сразу, что Json’а воркфлоу в N8N тут не будет - это не мой проект, но он мне очень понравился, так как примерно тоже самое я собираю для себя уже год. Правда, у меня это разрозненные процессы, которые я никак не могу объеденить в одну систему. Ну и мой проект - это ИИ-Ассистент для СДВГ’шника.
Вернемся к проекту с картинки, что это такое: это персональный ИИ-компаньона, который понимает контекст, помнит «вашу» историю и проактивно помогает в личном развитии.
Ключевая архитектура:
Система построена на нескольких ключевых элементах, предназначенных для создания глубокого, контекстуального понимания:
- Движок личности: Это сердце системы. Это не статичная персона. Он использует векторную базу данных с ~100 чертами личности и «фрагментами персоны». С каждым сообщением он агрегирует эти черты, чтобы создать оптимальный ответ, делая взаимодействие естественным и адаптивным.
- Журнал: Он объединяет количественные данные с кольца Oura (сон, вариабельность сердечного ритма, активность) с дневниковыми записями, введенными вручную. Это дает ему мультимодальное представление о физическом и ментальном состоянии человека.
Многоуровневая память и база знаний:
- Краткосрочная память: Простые пары «ввод -> вывод» и «действие -> реакция» из каждого взаимодействия.
- Долгосрочная память: Отобранная база данных с конкретными фактами и агрегированными инсайтами из краткосрочной памяти.
- База знаний: Обрабатывает длинные тексты (статьи, заметки) и обогащает их информацией из Perplexity.
- Дневник сновидений: Отдельный журнал специально для снов, используемый для перекрестных ссылок с основным журналом для поиска потенциальных корреляций между подсознательными темами и реальной жизнью.
Проактивные и автономные функции:
Он активно участвует в жизни:
- Ночные «сны»: Ночью он запускает процесс, который по сходству агрегирует векторы из взаимодействий за день. Это его форма консолидации памяти, позволяющая находить скрытые связи между темами сновидений и другими данными.
- Утренний отчет: Каждое утро выгружает кастомный отчет по темам, которые указаны как важные (например, анализ качества сна в сравнении с уровнем стресса вчера или новости про ИИ).
- Проактивное планирование: Он анализирует календарь и задачи, а затем проактивно предлагает временные блоки для работы или отмечает потенциальные конфликты в расписании.
- Контекстуальные уведомления: Он отправляет одно проактивное сообщение в день в случайное время, тема которого соответствует текущей активности в календаре (например, ссылка на релевантную статью перед встречей по проекту).
- Глобальная обработка ошибок: Система для корректного управления сбоями API и непредвиденными проблемами.
Технологический стек
Все это работает на куче API и селф-хосте инструментов:
⁃ Оркестрация: n8n
⁃ Интерфейс: Telegram
⁃ Векторная БД: Qdrant
⁃ Данные/Инструменты: Google Calendar, Tasks, Gmail, Drive, Oura Ring API, Perplexity AI
Как я понял, главная цель проекта сделать «движок счастливых случайностей» (The Serendipity Engine)
Короче создать бэкенд, сфокусированный на рассуждениях более высокого уровня.
⁃ Логика и дедукция через Google Mangle.
⁃ КПТ: Выявлять повторяющиеся негативные мыслительные циклы или модели поведения из дневниковых записей и мягко оспаривать их.
⁃ Проактивно предлагать новые привычки, идеи или точки зрения на основе заявленных целей и наблюдаемых паттернов.
⁃ Отслеживать фитнес и питание: Интегрировать и анализировать эти данные для предоставления инсайтов о здоровье.
3❤68🔥35🤯19👍9😁7❤🔥3✍3👏2🙏2⚡1
Пока идет презентация Apple… А вы знали, что в андроиде можно поменять голосового ассистента Google на ChatGPT?
Хотя в новых iPhone (c 16-го вроде) тоже можно сделать, что-то подобное: Settings -> Action Button -> Shortcut, потом ищите ChatGPT и вам доступны разные опции, например “Start a voice chat”.
Хотя я у себя эту кнопку за Perplexity оставил, не зря же я его купил за копейки.
Хотя в новых iPhone (c 16-го вроде) тоже можно сделать, что-то подобное: Settings -> Action Button -> Shortcut, потом ищите ChatGPT и вам доступны разные опции, например “Start a voice chat”.
Хотя я у себя эту кнопку за Perplexity оставил, не зря же я его купил за копейки.
🔥26👍9❤6🤣2❤🔥1😁1🙏1😍1💯1
Второй день наблюдаю за прикольным тредом на Реддите. Там чувак рассказывает, что решил в эти выходные проанализировать расходы компании и обнаружил, что на API OpenAI они тратят 1200 долларов в месяц. Процитирую:
Дальше парень хвастается тем, что просто переключил всё на gpt-4o-mini и счёт снизился до 200 долларов, такой вот он мамкин оптимизатор.
Но в первом же комментарии у него спросили, а не считает ли он странным использовать LLM для изменения регистра текста или извлечения номеров телефонов из писем? Возможно, более умным решением было бы попросить у ChatGPT поискать или написать решение для этого. Ну и там полетел холивар на сотни комментариев.
А я читаю всё это и понимаю, что знаю как минимум десяток компаний, которые используют LLM-ки примерно для таких же задач и абсолютно счастливы.
И не нужен им никакой «design doc» с описанием изменений — зачем они нужны (мотивация), каковы цели и нецели (что сознательно не делаем), какие метрики, логирование, зависимости и прочее. Ну и инженерное ревью тоже не делается, просто платят OpenAI деньги за API, потому что всё это многократно перекрывается выручкой компании. А когда перестанет, можно и штатное расписание пересмотреть.
«Я, честно говоря, думал, что это просто издержки бизнеса, пока не посмотрел, на что мы на самом деле используем gpt-4. И это же серьёзная трата денег: извлечение номеров телефонов из имейлов, проверка текста на ненормативную лексику, переформатирование JSON и, буквально, перевод текста в ВЕРХНИЙ РЕГИСТР».
Дальше парень хвастается тем, что просто переключил всё на gpt-4o-mini и счёт снизился до 200 долларов, такой вот он мамкин оптимизатор.
Но в первом же комментарии у него спросили, а не считает ли он странным использовать LLM для изменения регистра текста или извлечения номеров телефонов из писем? Возможно, более умным решением было бы попросить у ChatGPT поискать или написать решение для этого. Ну и там полетел холивар на сотни комментариев.
А я читаю всё это и понимаю, что знаю как минимум десяток компаний, которые используют LLM-ки примерно для таких же задач и абсолютно счастливы.
И не нужен им никакой «design doc» с описанием изменений — зачем они нужны (мотивация), каковы цели и нецели (что сознательно не делаем), какие метрики, логирование, зависимости и прочее. Ну и инженерное ревью тоже не делается, просто платят OpenAI деньги за API, потому что всё это многократно перекрывается выручкой компании. А когда перестанет, можно и штатное расписание пересмотреть.
🤣38👍29🔥8❤5😁3💯3❤🔥2⚡1👏1🤯1😘1
Ого, генератор видео Hailuo рассщедрился и дает каждому бесплатно и безлимитно создавать видео целую неделю. Так, что если вам нужно для какого-то проекта нафигачить контента - хватайте. Я там обычно за деньги генерирую, качество мне очень нравится.
1❤30🔥16👍3🙏3😍3
Комьюнити-ноды в n8n
Я вам настоятельно рекомендую заглянуть в раздел «Community Nodes» в n8n, если вы этого еще не делали. Именно там я в последнее время нахожу самую мякотку. Чтобы их установить, просто зайдите в Settings > Community Nodes, нажмите Install и введите название нужной ноды. Вот мои фавориты:
n8n-nodes-apify — отличная штука для вытаскивания сложных (структурированных) данных с сайтов, чтобы не изобретать велосипед. Вы же пользуетесь этим кладезем апишечек на https://apify.com/?
n8n-nodes-google-pagespeed — удобная нода для автоматизации проверок Core Web Vitals прямо внутри воркфлоу.
n8n-nodes-firecrawl — мощный инструмент для скрапинга и краулинга в больших масштабах, особенно для сайтов, где не нужен такой продвинутый скрапинг, как в Apify. Значительно упрощает создание контентных воркфлоу.
Я вам настоятельно рекомендую заглянуть в раздел «Community Nodes» в n8n, если вы этого еще не делали. Именно там я в последнее время нахожу самую мякотку. Чтобы их установить, просто зайдите в Settings > Community Nodes, нажмите Install и введите название нужной ноды. Вот мои фавориты:
n8n-nodes-apify — отличная штука для вытаскивания сложных (структурированных) данных с сайтов, чтобы не изобретать велосипед. Вы же пользуетесь этим кладезем апишечек на https://apify.com/?
n8n-nodes-google-pagespeed — удобная нода для автоматизации проверок Core Web Vitals прямо внутри воркфлоу.
n8n-nodes-firecrawl — мощный инструмент для скрапинга и краулинга в больших масштабах, особенно для сайтов, где не нужен такой продвинутый скрапинг, как в Apify. Значительно упрощает создание контентных воркфлоу.
🔥34👍12❤5✍4🙏1💯1⚡1
Помните, я вам про JSON-промптинг рассказывал? Так вот, оказывается, его можно использовать и в Nano Banana, например для апскейла изображений. Но ещё раз: кроме того, что в таком формате инструкция получается более структурированной, никакого волшебства нет. Всё то же самое можно описать и «человеческим» языком. А вот и промпт:
{
"task": "upscale_and_restore",
"parameters": {
"preserve_composition": true,
"preserve_features": true,
"preserve_color_palette": true,
"preserve_lighting": true,
"max_sharpness": true,
"max_detail": true,
"enhance_micro_contrast": false,
"optical_corrections": {
"remove_halos": true,
"remove_chromatic_aberrations": true,
"restore_highlights": true,
"restore_textures": true,
"adjust_black_level": false,
"no_geometric_distortion_correction": true,
"no_panorama": true,
"no_edge_expansion": true,
"no_background_change": true
},
"noise_reduction": {
"color_noise": true,
"luminance_noise": true,
"remove_grain": true,
"remove_moire": true,
"remove_large_film_defects": true,
"red_eye_removal": true
},
"motion_blur_correction": true,
"restrictions": {
"no_object_addition": true,
"no_object_removal": true,
"no_camera_angle_change": true,
"no_object_movement": true,
"no_parallax_change": true,
"no_geometry_change": true,
"no_image_scaling": true,
"no_aspect_ratio_change": true,
"no_camera_position_change": true,
"no_field_of_view_change": true,
"no_camera_movement": true,
"no_camera_tilt": true,
"no_focal_length_change": true,
"no_aperture_change": true,
"no_lighting_change": true,
"no_color_balance_change": true,
"no_cropping": true,
"no_focal_plane_change": true,
"exact_position_match": true,
"exact_edge_match": true
}
}
}
❤32👍10🔥9✍4💯2🦄2🙏1😈1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Новая фича в Perplexity для изучения языков
Я тут часто пишу, как использую ИИ в своем обучении испанскому(блин, 7 лет учу, никак выучить не могу).
Например, иногда прошу Perplexity объяснить мне какие-то моменты в граматике. И сегодня обнаружил, что он не только стал объяснять, но и озвучивать произношение.
Видимо, эту фичу еще не анонсировали и раскатали на небольшое количество пользователей. Это же репетитор за несколько баксов в год!
Я тут часто пишу, как использую ИИ в своем обучении испанскому
Например, иногда прошу Perplexity объяснить мне какие-то моменты в граматике. И сегодня обнаружил, что он не только стал объяснять, но и озвучивать произношение.
Видимо, эту фичу еще не анонсировали и раскатали на небольшое количество пользователей. Это же репетитор за несколько баксов в год!
🔥76❤13👏7👍6🤯2🙏1🦄1😘1
This media is not supported in your browser
VIEW IN TELEGRAM
На концерте Massive Attack запустили видео с распознанием лиц людей из зала в реальном времени.
🔥63🤯23❤9🤗5🤓3✍1👍1👏1
Офигенный документ с кучей кейсов, промптов и примеров по Nano Banana (подойдет и к другим визуальным моделям). Теперь я знаю чем займусь в эти выходные: https://github.com/PicoTrex/Awesome-Nano-Banana-images/blob/main/README_en.md
❤52🔥21😍7👍6❤🔥2⚡2👏1🤗1🦄1👾1 1
Забавно, что новообращенные вайб-кодеры и создатели ИИ-агентов (и разных автоматизаций) не сильно жалуют GitHub. А зря.
Вот моя последняя находка, хотя не найти ее было сложно (на 2-м месте уже несколько дней), — сборник системных промптов главных коммерческих ИИ-агентов. Здесь все:Никита, Стас, Гена, Турбо и Дюша Метёлкин... v0, Cursor, Manus, Lovable, Windsurf Agent, VSCode Agent, Dia Browser и другие.
Не будем углубляться в чистоту промптов, но изучить их, чтобы использовать «куски» у себя, я бы рекомендовал всем, кто создает своих агентов и автоматизации.
Вот ссылка на репу: https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools
Вот моя последняя находка, хотя не найти ее было сложно (на 2-м месте уже несколько дней), — сборник системных промптов главных коммерческих ИИ-агентов. Здесь все:
Не будем углубляться в чистоту промптов, но изучить их, чтобы использовать «куски» у себя, я бы рекомендовал всем, кто создает своих агентов и автоматизации.
Вот ссылка на репу: https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools
2🔥76❤22✍11👍10🙏4💯1🤝1🦄1 1
Мое открытие года — это сервис Monity AI. Вообще не понимаю, как раньше без него жил: он позволяет отслеживать изменения на сайтах, маркетплейсах, блогах и в документах.
Кстати, именно в этом году я немного успокоился насчет используемых ИИ-инструментов и сервисов, стал более разборчив и даже выработал некие привычки. Вот мой топ-10 сервисов, которые я использую почти каждый день:
Perplexity — заменил мне гугление почти на 100%. Не буду о нем много писать, вы и сами все знаете.
NotebookLM — использую для обобщения и организации исследований. Идеальный инструмент, если хотите с головой погрузиться в новую тему для изучения.
Gemini — в основном использую инструмент Deep Research, ну и Nano.
Gamma — для быстрого создания презентаций (без лишних усилий).
Notion AI — чтобы превращать хаотичные заметки в структурированный текст.
Napkin — просто обожаю этот сервис, использую для структурирования случайных идей и, конечно, для графического оформления.
Tana — любимый блокнот со встроенным календарем, задачами и искусственным интеллектом для решения проблем.
ReadWise — собирает все заметки из прочитанного в одном месте и регулярно напоминает о них.
Winston AI — лучший инструмент для проверки, был ли контент создан с помощью ИИ.
Speechify — превращает длинные тексты в аудио, которое можно слушать на прогулке.
А у вас есть какие-то ИИ-инструменты (кроме чатов) которые вы каждый день используете в работе и жизни?
Кстати, именно в этом году я немного успокоился насчет используемых ИИ-инструментов и сервисов, стал более разборчив и даже выработал некие привычки. Вот мой топ-10 сервисов, которые я использую почти каждый день:
Perplexity — заменил мне гугление почти на 100%. Не буду о нем много писать, вы и сами все знаете.
NotebookLM — использую для обобщения и организации исследований. Идеальный инструмент, если хотите с головой погрузиться в новую тему для изучения.
Gemini — в основном использую инструмент Deep Research, ну и Nano.
Gamma — для быстрого создания презентаций (без лишних усилий).
Notion AI — чтобы превращать хаотичные заметки в структурированный текст.
Napkin — просто обожаю этот сервис, использую для структурирования случайных идей и, конечно, для графического оформления.
Tana — любимый блокнот со встроенным календарем, задачами и искусственным интеллектом для решения проблем.
ReadWise — собирает все заметки из прочитанного в одном месте и регулярно напоминает о них.
Winston AI — лучший инструмент для проверки, был ли контент создан с помощью ИИ.
Speechify — превращает длинные тексты в аудио, которое можно слушать на прогулке.
А у вас есть какие-то ИИ-инструменты (кроме чатов) которые вы каждый день используете в работе и жизни?
7🔥97❤33✍21👍11💯3🦄2 2❤🔥1👏1😍1
Как освоить n8n с нуля
Сегодня я несколько часов общался с человеком, который только начинает осваивать n8n. Он жаловался, что скачанный им воркфлоу с сотней связей и нод никак не запускается. «Так уже хочется создать своего J.A.R.V.I.S’а, чтобы он всё за меня делал», — шутил он. Или нет. Но я решил поделиться с ним своим опытом освоения n8n, а раз мой ИИ-диктофон всегда включен, держите и вы этапы освоения n8n для новичков:
1. Начните с документации
Изучите, что делает каждая нода (узел автоматизации). Откройте пустой сценарий и просто прокликайте ноды, которые вам незнакомы. Измените какое-нибудь поле. Запустите. Посмотрите на результат. У некоторых нод есть нюансы, о которых в доках не пишут. Вы поймете их, только когда попробуете сами.
2. Мыслите алгоритмами
Сначала опишите шаги вашего сценария простым текстом: получить данные → преобразовать → вызвать API → проверить результат → сохранить или отправить. Затем добавьте условия для возможных ошибок. Обработайте тайм-ауты, рейт-лимиты (ограничения на количество запросов), пустые массивы, отсутствующие ключи. Исходите из того, что API отвалится в самый неподходящий момент. Добавьте проверки («предохранители»), чтобы частичный сбой не сломал весь воркфлоу.
3. Структурируйте свои данные
Четко определитесь с типами данных: строки, числа, массивы, объекты. Осмысленно сопоставляйте поля. Давайте ключам понятные имена. Проверяйте входные данные перед использованием. Приводите даты и часовые пояса к единому формату. Если работаете с API, который отдает данные страницами (пагинация), протестируйте первую и последнюю страницу. Если используете циклы, следите, чтобы не получился бесконечный.
4. Когда воркфлоу заработает — улучшайте
Уберите «костыли», которые добавили во время отладки. Замените их понятными шагами. Создавайте шаблоны для типовых задач: аутентификация, обработка ошибок, уведомления. Сохраняйте их как вложенные сценарии и используйте повторно. Ваш будущий «я» скажет вам спасибо. Модульность уменьшает количество ошибок и экономит время.
5. Изучите экосистему вокруг n8n
Читайте документацию к API тех сервисов, которые используете. Разберитесь в процессах аутентификации: API-ключи, OAuth, заголовки, скоупы (области доступа). Изучите вебхуки. Научитесь повторно отправлять события. В n8n есть интеграции не со всеми сервисами, но вы можете достучаться почти до чего угодно с помощью ноды HTTP Request, если немного повозиться с JSON.
6. Убирайте хаос (даже если вы СДВГшник)
Со временем вы заметите, что у вас появляются повторяющиеся сценарии или их части. Постарайтесь облегчить себе жизнь:
- Давайте нодам понятные имена. Вы в будущем должны с одного взгляда понимать, что каждая из них делает.
- Добавляйте заметки на холст. Объясняйте сложные моменты и крайние случаи (edge cases).
- Версионируйте (есть такое слово?) свои сценарии.
- Настройте оповещения. Отправляйте себе сообщение, когда что-то падает, прикрепляя текст ошибки и ссылку на запуск.
- Устанавливайте адекватные тайм-ауты. Не позволяйте зависшему запросу вечно блокировать всю очередь.
7. Документируйте сценарий
Хотя бы одно предложение, описывающее, что делает нода или группа нод (напишите это в заметке прямо в n8n): что делает, входные и выходные данные, зависимости, триггеры, ограничения, частые ошибки и как их исправить, ссылка на документацию API. Немного документации сэкономит вам часы в будущем.
Вообще, формат работы с n8n простой: разбивайте задачи на шаги, тестируйте каждый шаг, добавляйте проверки, давайте всему понятные имена, всё записывайте и улучшайте архитектуру только после того, как всё заработает.
И не хватайтесь за J.A.R.V.I.S’ов, пока учитесь. Начните с чего-то простого и своего. Одной идеи в день достаточно. Скрапер, который постит в «телегу». Форма, которая записывает данные в таблицу. Каждый такой небольшой проектик научит вас работать с новой нодой, покажет новый паттерн или подводный камень. Ну и прокачаетесь со временем.
Сегодня я несколько часов общался с человеком, который только начинает осваивать n8n. Он жаловался, что скачанный им воркфлоу с сотней связей и нод никак не запускается. «Так уже хочется создать своего J.A.R.V.I.S’а, чтобы он всё за меня делал», — шутил он. Или нет. Но я решил поделиться с ним своим опытом освоения n8n, а раз мой ИИ-диктофон всегда включен, держите и вы этапы освоения n8n для новичков:
1. Начните с документации
Изучите, что делает каждая нода (узел автоматизации). Откройте пустой сценарий и просто прокликайте ноды, которые вам незнакомы. Измените какое-нибудь поле. Запустите. Посмотрите на результат. У некоторых нод есть нюансы, о которых в доках не пишут. Вы поймете их, только когда попробуете сами.
2. Мыслите алгоритмами
Сначала опишите шаги вашего сценария простым текстом: получить данные → преобразовать → вызвать API → проверить результат → сохранить или отправить. Затем добавьте условия для возможных ошибок. Обработайте тайм-ауты, рейт-лимиты (ограничения на количество запросов), пустые массивы, отсутствующие ключи. Исходите из того, что API отвалится в самый неподходящий момент. Добавьте проверки («предохранители»), чтобы частичный сбой не сломал весь воркфлоу.
3. Структурируйте свои данные
Четко определитесь с типами данных: строки, числа, массивы, объекты. Осмысленно сопоставляйте поля. Давайте ключам понятные имена. Проверяйте входные данные перед использованием. Приводите даты и часовые пояса к единому формату. Если работаете с API, который отдает данные страницами (пагинация), протестируйте первую и последнюю страницу. Если используете циклы, следите, чтобы не получился бесконечный.
4. Когда воркфлоу заработает — улучшайте
Уберите «костыли», которые добавили во время отладки. Замените их понятными шагами. Создавайте шаблоны для типовых задач: аутентификация, обработка ошибок, уведомления. Сохраняйте их как вложенные сценарии и используйте повторно. Ваш будущий «я» скажет вам спасибо. Модульность уменьшает количество ошибок и экономит время.
5. Изучите экосистему вокруг n8n
Читайте документацию к API тех сервисов, которые используете. Разберитесь в процессах аутентификации: API-ключи, OAuth, заголовки, скоупы (области доступа). Изучите вебхуки. Научитесь повторно отправлять события. В n8n есть интеграции не со всеми сервисами, но вы можете достучаться почти до чего угодно с помощью ноды HTTP Request, если немного повозиться с JSON.
6. Убирайте хаос (даже если вы СДВГшник)
Со временем вы заметите, что у вас появляются повторяющиеся сценарии или их части. Постарайтесь облегчить себе жизнь:
- Давайте нодам понятные имена. Вы в будущем должны с одного взгляда понимать, что каждая из них делает.
- Добавляйте заметки на холст. Объясняйте сложные моменты и крайние случаи (edge cases).
- Версионируйте (есть такое слово?) свои сценарии.
- Настройте оповещения. Отправляйте себе сообщение, когда что-то падает, прикрепляя текст ошибки и ссылку на запуск.
- Устанавливайте адекватные тайм-ауты. Не позволяйте зависшему запросу вечно блокировать всю очередь.
7. Документируйте сценарий
Хотя бы одно предложение, описывающее, что делает нода или группа нод (напишите это в заметке прямо в n8n): что делает, входные и выходные данные, зависимости, триггеры, ограничения, частые ошибки и как их исправить, ссылка на документацию API. Немного документации сэкономит вам часы в будущем.
Вообще, формат работы с n8n простой: разбивайте задачи на шаги, тестируйте каждый шаг, добавляйте проверки, давайте всему понятные имена, всё записывайте и улучшайте архитектуру только после того, как всё заработает.
И не хватайтесь за J.A.R.V.I.S’ов, пока учитесь. Начните с чего-то простого и своего. Одной идеи в день достаточно. Скрапер, который постит в «телегу». Форма, которая записывает данные в таблицу. Каждый такой небольшой проектик научит вас работать с новой нодой, покажет новый паттерн или подводный камень. Ну и прокачаетесь со временем.
12🔥52❤22✍9👍4👏2💯2🤗2😍1
This media is not supported in your browser
VIEW IN TELEGRAM
Perplexity добавила в раздел «Connectors» новые сервисы, которые можно подключить. Теперь доступны: Gmail, Notion, Github, Outlook, Dropbox, Linear и Google Календарь.
Я уже давно открыл для себя ИИ-поиск по письмам — это отдельный кайф, когда не нужно перебирать все возможные слова, которые могли использоваться в тексте, а достаточно объяснить задачу человеческим языком.
Чтобы подключить ваши сервисы к Perplexity:
Как я понял, функционал доступен только для Perplexity Pro и Enterprise Pro, но, пока есть возможность купить недорогую подписку, это не проблема.
Я уже давно открыл для себя ИИ-поиск по письмам — это отдельный кайф, когда не нужно перебирать все возможные слова, которые могли использоваться в тексте, а достаточно объяснить задачу человеческим языком.
Чтобы подключить ваши сервисы к Perplexity:
1) Перейдите на страницу настроек (Settings) и найдите в боковом меню раздел «Мои коннекторы» (My Connectors).
2) Активируйте коннекторы, которые хотите добавить в свой аккаунт Perplexity.
3) Вам потребуется аутентифицировать свой аккаунт.
4) После успешной аутентификации появится статус «Подключено» (Connected).
5) Чтобы управлять файлами, нажмите на троеточие (...), а затем «Загрузить» (Upload).
Как я понял, функционал доступен только для Perplexity Pro и Enterprise Pro, но, пока есть возможность купить недорогую подписку, это не проблема.
❤25✍13🔥9👍3❤🔥1🤔1🙏1🤗1
Силиконовый Мешок
Perplexity добавила в раздел «Connectors» новые сервисы, которые можно подключить. Теперь доступны: Gmail, Notion, Github, Outlook, Dropbox, Linear и Google Календарь. Я уже давно открыл для себя ИИ-поиск по письмам — это отдельный кайф, когда не нужно перебирать…
Ну и чтобы два раза не вставать: Nano Banana и Seedream 4.0 - уже доступны в Perplexity для генерации изображений. Если вы их не видите в выпадающем списке «Image generation model» - жмите F5.
🔥53❤11👏10👍3👀2⚡1