This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Alibaba выпустили версию 2.1 open source AI-видеогенератора Wan.
Самое важное во всём этом – open source.
Второе по важности – Alibaba. Это те, которые, в том числе, Aliexpress.
Это означает, что у нас есть веса для модели, в тренировку которой огромная корпорация вложилась своими интеллектуальными и финансовыми ресурсами.
Мы уже проходили что-то подобное с редакторами изображений. И в итоге получили, например, Flux. С большим количеством специализированных моделей от сообщества и отличным качеством генерации.
Сейчас на очереди генерация AI-видео.
На рынке уже есть Hunyuan (про него рассказывал тут).
После обновления до версии 2.1, Wan можно смело назвать ещё одной перспективной моделью из Китая.
Да, она не так хороша, как Kling1.6-pro или Veo-2.
Так и стоит на fal.ai всего по $0.4 за генерацию (а не по $0.5 за секунду, Google!). А если есть 40Gb видеопамяти, то можно запустить локально.
К тому же есть LoRA и Fine-tune. Только взгляните, сколько уже есть(весьма качественных) LoRA под Hunyuan. И это они ещё image-to-video не выкатили.
У Wan2.1 image-to-video уже есть. И в 5s/720p они из коробки достаточно качественно генерируют видео.
Так что я в ожидании, какой апгрейд с помощью fine-tune и LoRA энтузиасты сделают для Wan2.1.
В медиа можете посмотреть примеры того, как работают Wan2.1 image-to-video и text-to-video модели на платформе fal.ai.
Самое важное во всём этом – open source.
Второе по важности – Alibaba. Это те, которые, в том числе, Aliexpress.
Это означает, что у нас есть веса для модели, в тренировку которой огромная корпорация вложилась своими интеллектуальными и финансовыми ресурсами.
Мы уже проходили что-то подобное с редакторами изображений. И в итоге получили, например, Flux. С большим количеством специализированных моделей от сообщества и отличным качеством генерации.
Сейчас на очереди генерация AI-видео.
На рынке уже есть Hunyuan (про него рассказывал тут).
После обновления до версии 2.1, Wan можно смело назвать ещё одной перспективной моделью из Китая.
Да, она не так хороша, как Kling1.6-pro или Veo-2.
Так и стоит на fal.ai всего по $0.4 за генерацию (а не по $0.5 за секунду, Google!). А если есть 40Gb видеопамяти, то можно запустить локально.
К тому же есть LoRA и Fine-tune. Только взгляните, сколько уже есть
У Wan2.1 image-to-video уже есть. И в 5s/720p они из коробки достаточно качественно генерируют видео.
Так что я в ожидании, какой апгрейд с помощью fine-tune и LoRA энтузиасты сделают для Wan2.1.
В медиа можете посмотреть примеры того, как работают Wan2.1 image-to-video и text-to-video модели на платформе fal.ai.
1👍4🔥4❤2
Media is too big
VIEW IN TELEGRAM
Наконец-то нашёл ультимативный MCP-сервер для работы с браузером!
Всем, кто выходит за пределы бэкенда, обязательно к установке. Полностью бесплатный и очень крутой 🙂
Работает с Chrome и умеет:
1. Читать логи из консоли браузера.
2. Читать только ошибки из консоли.
3. Получать ошибки из вкладки Network.
4. Получать все логи из Network.
5. Делать скриншот. При чём с поддержкой адаптивного отображения через Device Toolbar.
6. Получать выбранный в консоли разработчика элемент.
7. Чистить логи консоли браузера.
Установка состоит из трёх частей:
1. Установка расширения в браузера.
2. Подключение MCP-сервера в Cursor (или любой другой популярной AI IDE).
3. Запуск MCP-сервера из терминала ОС.
Заметил пока что только два момента, которых не хватает:
1. Со стороны MCP-сервера: он не умеет самостоятельно менять размер экрана для скриншота. Вроде как я видел другие tools, которые это умеют.
2. Со стороны Cursor: если ему не передать изображение в качестве параметра, он не может его самостоятельно получить из директории и передать в Claude. Попробую пофиксить это при помощи других MCP-серверов.
Очень подробная инструкция по установке с видео на официальном сайте разработчика.
А в медиа – пример с тем, как инструменты работают в Cursor.
Всем, кто выходит за пределы бэкенда, обязательно к установке. Полностью бесплатный и очень крутой 🙂
Работает с Chrome и умеет:
1. Читать логи из консоли браузера.
2. Читать только ошибки из консоли.
3. Получать ошибки из вкладки Network.
4. Получать все логи из Network.
5. Делать скриншот. При чём с поддержкой адаптивного отображения через Device Toolbar.
6. Получать выбранный в консоли разработчика элемент.
7. Чистить логи консоли браузера.
Установка состоит из трёх частей:
1. Установка расширения в браузера.
2. Подключение MCP-сервера в Cursor (или любой другой популярной AI IDE).
3. Запуск MCP-сервера из терминала ОС.
Заметил пока что только два момента, которых не хватает:
1. Со стороны MCP-сервера: он не умеет самостоятельно менять размер экрана для скриншота. Вроде как я видел другие tools, которые это умеют.
2. Со стороны Cursor: если ему не передать изображение в качестве параметра, он не может его самостоятельно получить из директории и передать в Claude. Попробую пофиксить это при помощи других MCP-серверов.
Очень подробная инструкция по установке с видео на официальном сайте разработчика.
А в медиа – пример с тем, как инструменты работают в Cursor.
1🔥3❤2👍1
Что делать со всеми этими DeepResearch-запросами, доступными в Perplexity с pro-подпиской?
Вы же купили за $10 годовой доступ к pro из этого поста?
Запросов он даёт много, поэтому есть возможность поэксперементировать (и вам, и мне) и научиться получать информацию из инструмента максиально-эффективным способом.
Делюсь кейсами, где Perplexity DeepResearch меня выручает:
1. Получить информацию о сфере, которую начинаю изучать. Я пользуюсь принципом Парето и прошу у DeepResearch собрать 20% информации, покрывающей 80% практических кейсов.
2. Получить актуальную информацию по теме. Например, собираю исследования за 2025-й год по интересующему меня направлению. Хорошо работает в связке с "академическим" фильтром.
3. Бытовые запросы, когда нужно что-то выбрать. Например, так я себе выбрал перкуссионный массажёр. Важно, что можно взять только актуальные модели, доступные для заказа в конкретной стране (или даже в конкретном магазине).
4. Конкурентный анализ. Прошу сравнить какой-либо параметр проекта с конкурентами. Или предложить комплекс мер, чтобы в конкретном аспекте всех обойти.
5. Проверить гипотезу по сочетаемости в проекте нескольких технологий. Здесь именно DeepResearch хорош тем, что он может соотнести сферы применения технологий, а также узнать самую актуальную информацию про актуальные обновления.
6. Поиск наиболее-авторитетных источников информации. Хорошо работает за счёт того, что DeepResearch работает с актуальной информацией и может учитывать как мнения из академических кругов, так и из соц. сетей (в зависимости от задачи).
Расскажите, для чего вы уже применяли технологии DeepResearch и как оптимизировали с их помощью свою работу/досуг/процесс принятия решений?
Вы же купили за $10 годовой доступ к pro из этого поста?
Запросов он даёт много, поэтому есть возможность поэксперементировать (и вам, и мне) и научиться получать информацию из инструмента максиально-эффективным способом.
Делюсь кейсами, где Perplexity DeepResearch меня выручает:
1. Получить информацию о сфере, которую начинаю изучать. Я пользуюсь принципом Парето и прошу у DeepResearch собрать 20% информации, покрывающей 80% практических кейсов.
2. Получить актуальную информацию по теме. Например, собираю исследования за 2025-й год по интересующему меня направлению. Хорошо работает в связке с "академическим" фильтром.
3. Бытовые запросы, когда нужно что-то выбрать. Например, так я себе выбрал перкуссионный массажёр. Важно, что можно взять только актуальные модели, доступные для заказа в конкретной стране (или даже в конкретном магазине).
4. Конкурентный анализ. Прошу сравнить какой-либо параметр проекта с конкурентами. Или предложить комплекс мер, чтобы в конкретном аспекте всех обойти.
5. Проверить гипотезу по сочетаемости в проекте нескольких технологий. Здесь именно DeepResearch хорош тем, что он может соотнести сферы применения технологий, а также узнать самую актуальную информацию про актуальные обновления.
6. Поиск наиболее-авторитетных источников информации. Хорошо работает за счёт того, что DeepResearch работает с актуальной информацией и может учитывать как мнения из академических кругов, так и из соц. сетей (в зависимости от задачи).
Расскажите, для чего вы уже применяли технологии DeepResearch и как оптимизировали с их помощью свою работу/досуг/процесс принятия решений?
1❤8🔥4🎉2
В продолжение вчерашнего поста, поговорим о формировании и структуре запроса к Deep Research.
Как и в случае с разработкой, AI лучше работает в условиях ограничений. Поэтому мета-совет заключается в том, чтобы добавить так много конкретизирующих ограничений, как только можете.
Вот как можно конкретизировать запрос:
1. Временной интервал. Я часто указываю текущий год, чтобы не получать устаревшую информацию по интересующим меня вопросам. Либо можно с помощью конкретизации по времени покопаться в архивах интернета за определённый год.
2. Параметры для анализа. Сравнивая несколько сервисов, можно обозначить, что интересует оценка по производительности и цене.
3. Формат. Укажите формат данных, которые хотите получить на выходе. Это может быть план статьи, развёрнутый лонгрид, статья-сравнение, сценарий и т.д.
4. Можно перечислить источники. Что-то вроде "Проанализируй материалы с arxiv.org" или "Хочу купить товар, доступный на Amazon". Также можно указать, что интересует мнение конкретных экспертов или даже экспертов, подходящих под конкретные параметры.
5. Цифры. Чего и сколько в итоге выдать. Всё, что про "приведи 10 примеров", "дай не менее 7 вариантов", "собери топ-5 товаров".
Также помним про прекрасный инструмент под названием "Follow Up". Это возможность продолжить своё исследование с использованием Deep Research. Либо изначально запросить только общий план статьи, а потом с помощью Follow Up делать исследования по каждой главе.
С помощью правильных запросов в Deep Research, можно раскрыть его на полную мощность и внедрить на постоянной основе в качестве инструмента для персонифицированной подготовки нужной вам информации 🙂
p.s.: Оцените, какую метафору Claude 3.7 Sonnet придумал для идеи «пользователь ограничивает нейросеть в свободе выбора, чтобы получить максимально-качественный результат». Нарисовал изображение по промпту Flux 🙂
Как и в случае с разработкой, AI лучше работает в условиях ограничений. Поэтому мета-совет заключается в том, чтобы добавить так много конкретизирующих ограничений, как только можете.
Вот как можно конкретизировать запрос:
1. Временной интервал. Я часто указываю текущий год, чтобы не получать устаревшую информацию по интересующим меня вопросам. Либо можно с помощью конкретизации по времени покопаться в архивах интернета за определённый год.
2. Параметры для анализа. Сравнивая несколько сервисов, можно обозначить, что интересует оценка по производительности и цене.
3. Формат. Укажите формат данных, которые хотите получить на выходе. Это может быть план статьи, развёрнутый лонгрид, статья-сравнение, сценарий и т.д.
4. Можно перечислить источники. Что-то вроде "Проанализируй материалы с arxiv.org" или "Хочу купить товар, доступный на Amazon". Также можно указать, что интересует мнение конкретных экспертов или даже экспертов, подходящих под конкретные параметры.
5. Цифры. Чего и сколько в итоге выдать. Всё, что про "приведи 10 примеров", "дай не менее 7 вариантов", "собери топ-5 товаров".
Также помним про прекрасный инструмент под названием "Follow Up". Это возможность продолжить своё исследование с использованием Deep Research. Либо изначально запросить только общий план статьи, а потом с помощью Follow Up делать исследования по каждой главе.
С помощью правильных запросов в Deep Research, можно раскрыть его на полную мощность и внедрить на постоянной основе в качестве инструмента для персонифицированной подготовки нужной вам информации 🙂
p.s.: Оцените, какую метафору Claude 3.7 Sonnet придумал для идеи «пользователь ограничивает нейросеть в свободе выбора, чтобы получить максимально-качественный результат». Нарисовал изображение по промпту Flux 🙂
1❤9🔥7👍4💯1
Всё-таки Cursor периодически забывает включить в запрос даже те правила, которые у него отмечены иконкой global.
Решил я эту проблему с помощью отдельной инструкции navigator.mdc.
В ней содержится вся структура правил с описанием, какие и для чего нужны. И краткий текст с призывом их использовать:
Я обязательно вручную прокидываю правило navigator.mdc каждый раз, когда пишу что-либо в чат Cursor.
В таком случае, он перестаёт игнорировать инструкции и достаточно ответственно следует тому, что в них написано. Даже на тесты перестал забивать! 🙂
Правда, в некоторых моментах всё равно "ленится"(передаю привет строгой типизации!) . Думаю, что смогу это починить с помощью более "мотивирующих" и структурированных инструкций.
Какие вы используете способы для большего контроля над своими AI-агентами?
Решил я эту проблему с помощью отдельной инструкции navigator.mdc.
В ней содержится вся структура правил с описанием, какие и для чего нужны. И краткий текст с призывом их использовать:
При разработке следуйте всем правилам, уделяя особое внимание тем, что относятся к затрагиваемым компонентам.
Я обязательно вручную прокидываю правило navigator.mdc каждый раз, когда пишу что-либо в чат Cursor.
В таком случае, он перестаёт игнорировать инструкции и достаточно ответственно следует тому, что в них написано. Даже на тесты перестал забивать! 🙂
Правда, в некоторых моментах всё равно "ленится"
Какие вы используете способы для большего контроля над своими AI-агентами?
1❤6👍4🔥3
Как AI влияет на поисковый трафик и что с этим делать?
Уже сейчас OpenAI обслуживает около 400 миллионов активных пользователей в неделю. И это количество планируют довести до миллиарда уже в этом году.
А ведь есть и другие игроки на рынке AI!
Безусловно, это глобальное изменение, которое уже сейчас влияет на поисковые системы.
Я, будучи активным пользователем различных AI-инструментов, уже сейчас гораздо меньше использую классический поиск. И на сайты из него тоже редко перехожу.
Что уже точно меняется и для кого:
1. Rewrite-контент, написанный под поисковые системы, будет постепенно терять трафик. За исключением, быть может, некоторых специфических ниш(кто сказал "рецепты"?) . Просто "Детально ответить на поисковый запрос пользователя" едва ли будет работать в ближайшем будущем. Так как нейросеть это сделает не хуже да ещё и без "воды" ("прежде, чем приготовить омлет, послушаем об истории яиц...") .
2. AI-инструменты используют индекс поисковых систем и их API. То есть материалы, которые находит AI, так или иначе, представлены в поиске. Нюанс, правда, в том, что едва ли AI ходит на вторую страницу выдачи. Едва ли он в принципе изучает информацию за пределами Топ-3 поиска. То есть конкуренция за пользователя стала сильнее.
3. Сам поиск меняется. Посмотрите на условный Яндекс.Нейро(ссылки нет, так как он только в их браузере доступен) . Его сниппеты, фактически, сами отвечают на запрос пользователя. То есть даже в из поиска всё меньше и меньше остаётся шансов, что пользователь перейдёт на сайт.
4. Следствие из предыдущих пунктов – контекстной рекламе на сайтах неизбежно поплохеет. Так как туда будет заходить меньше пользователей.
Что, по моему мнению, можно предпринять, чтобы изменение конъюнктуры меньше коснулось вашего сайта:
1. Если до этого вы предоставляли только информацию, заведите продукт. Это либо сервис, либо продажа товара. То есть живые деньги за ваши действия.
2. Если продукт уже есть, то у него должны быть определены все характеристики. Также – обязательно понятное название. Все те параметры, по которым его будет оценивать AI. Который, напомню, картинки на сайтах пока что не анализирует. Исключительно текст.
3. Трафик из поиска всё ещё сохраняется даже при использовании AI. Если вы в топ-3 выдачи. Но нюанс в том, что нужно быть в топе по тем ключевым словам, которые использует искусственный интеллект, а не пользователь. А у него собственный подход к формированию запросов. Придётся анализировать и добавлять AI-ключи при работе с SEO.
4. Если ваш контент уникален и пользователи его действительно любят, то нужно обеспечить их возвращение на сайт не через поиск. E-mail-рассылка для этого подходит лучше всего. Или push-уведомления, например. То есть любыми способами нужно посетитлей "подписывать" на контент.
5. Монетизация баннерами/попапами/rollup-ами и прочей нечистью станет приносить кратно меньше денег. Многие именитые информационные издательства уже ввели подписку на свой контент. Думаю, это вполне может стать новой реальностью. Когда контент, не доступный для AI, будет покупаться за деньги (с доступом для того же AI через API).
6. Внешняя оценка. Если есть возможность получить больше отзывов из внешних систем или ссылки с авторитетных порталов, нужно это сделать. Скоре всего, этот параметр также будет оценивать LLM.
Что вы думаете по этому поводу? Какие ещё рынки меняются уже сейчас и как, по вашему мнению, можно к этому подготовиться?
p.s.: абстрактные изображения генераторам картинок удаются отлично. Помните, раньше я в рубрику p.s. добавлял live-медиа-контент? Если вам он всё ещё интересен, то поставьте огонёк(вот такой 🔥) этому посту. Буду знать, что нужно выцеплять кадры из того, что меня окружает 🙂
Уже сейчас OpenAI обслуживает около 400 миллионов активных пользователей в неделю. И это количество планируют довести до миллиарда уже в этом году.
А ведь есть и другие игроки на рынке AI!
Безусловно, это глобальное изменение, которое уже сейчас влияет на поисковые системы.
Я, будучи активным пользователем различных AI-инструментов, уже сейчас гораздо меньше использую классический поиск. И на сайты из него тоже редко перехожу.
Что уже точно меняется и для кого:
1. Rewrite-контент, написанный под поисковые системы, будет постепенно терять трафик. За исключением, быть может, некоторых специфических ниш
2. AI-инструменты используют индекс поисковых систем и их API. То есть материалы, которые находит AI, так или иначе, представлены в поиске. Нюанс, правда, в том, что едва ли AI ходит на вторую страницу выдачи. Едва ли он в принципе изучает информацию за пределами Топ-3 поиска. То есть конкуренция за пользователя стала сильнее.
3. Сам поиск меняется. Посмотрите на условный Яндекс.Нейро
4. Следствие из предыдущих пунктов – контекстной рекламе на сайтах неизбежно поплохеет. Так как туда будет заходить меньше пользователей.
Что, по моему мнению, можно предпринять, чтобы изменение конъюнктуры меньше коснулось вашего сайта:
1. Если до этого вы предоставляли только информацию, заведите продукт. Это либо сервис, либо продажа товара. То есть живые деньги за ваши действия.
2. Если продукт уже есть, то у него должны быть определены все характеристики. Также – обязательно понятное название. Все те параметры, по которым его будет оценивать AI. Который, напомню, картинки на сайтах пока что не анализирует. Исключительно текст.
3. Трафик из поиска всё ещё сохраняется даже при использовании AI. Если вы в топ-3 выдачи. Но нюанс в том, что нужно быть в топе по тем ключевым словам, которые использует искусственный интеллект, а не пользователь. А у него собственный подход к формированию запросов. Придётся анализировать и добавлять AI-ключи при работе с SEO.
4. Если ваш контент уникален и пользователи его действительно любят, то нужно обеспечить их возвращение на сайт не через поиск. E-mail-рассылка для этого подходит лучше всего. Или push-уведомления, например. То есть любыми способами нужно посетитлей "подписывать" на контент.
5. Монетизация баннерами/попапами/rollup-ами и прочей нечистью станет приносить кратно меньше денег. Многие именитые информационные издательства уже ввели подписку на свой контент. Думаю, это вполне может стать новой реальностью. Когда контент, не доступный для AI, будет покупаться за деньги (с доступом для того же AI через API).
6. Внешняя оценка. Если есть возможность получить больше отзывов из внешних систем или ссылки с авторитетных порталов, нужно это сделать. Скоре всего, этот параметр также будет оценивать LLM.
Что вы думаете по этому поводу? Какие ещё рынки меняются уже сейчас и как, по вашему мнению, можно к этому подготовиться?
p.s.: абстрактные изображения генераторам картинок удаются отлично. Помните, раньше я в рубрику p.s. добавлял live-медиа-контент? Если вам он всё ещё интересен, то поставьте огонёк
2🔥12❤7👍2
🚀 Подборка каналов, которые стоит добавить в свою ленту!
Я уже как-то писал про сообщество Hegai и тёплый нетворкинг. В этом сообществе я состою с 2021 года. Сейчас мы решили объединиться с другими участниками сообщества, которые ведут свои экспертные блоги и делятся практическим опытом, работающими стратегиями и полезными инсайтами. Если вам интересны финансы, бизнес, технологии и саморазвитие, вот 4 канала, на которые точно стоит подписаться:
📌 Финансы и инвестиции – @apozharenko
Как управлять деньгами, инвестировать в Европе и выстраивать финансовую стратегию? Практикующий финансист, инвестор и триатлет 😉 делится реальными кейсами – успешными и не очень.
📌 Управление, IT и урбанистика – @shagiev
Как управлять собой, командой, процессами? Реальные бизнес-кейсы, инсайты из IT и урбанистики, разбор сложных задач с интересными решениями.
📌 Бизнес и мышление – @radiocath
Как думают предприниматели? Как меняется бизнес? Если вы хотите навести порядок в своём проекте, этот канал про системные изменения, денежное мышление и стратегии роста.
📌 Маркетинг и команды – @lizzy_li
Командная работа, маркетинг для бизнеса, рост стартапов и успешные кейсы на рынках РФ, США, Европы, МЕНА – инсайты от CMO с 12-летним опытом в топ-менеджменте.
Подписывайтесь, чтобы прокачивать себя и свой бизнес 🔥
Есть идея попробовать проводить эфиры на стыке тематик с авторами других каналов. Если вам интересна эта задумка, поделитесь в комментариях, о чём хотели бы послушать в таком формате 🙂
Я уже как-то писал про сообщество Hegai и тёплый нетворкинг. В этом сообществе я состою с 2021 года. Сейчас мы решили объединиться с другими участниками сообщества, которые ведут свои экспертные блоги и делятся практическим опытом, работающими стратегиями и полезными инсайтами. Если вам интересны финансы, бизнес, технологии и саморазвитие, вот 4 канала, на которые точно стоит подписаться:
📌 Финансы и инвестиции – @apozharenko
Как управлять деньгами, инвестировать в Европе и выстраивать финансовую стратегию? Практикующий финансист, инвестор и триатлет 😉 делится реальными кейсами – успешными и не очень.
📌 Управление, IT и урбанистика – @shagiev
Как управлять собой, командой, процессами? Реальные бизнес-кейсы, инсайты из IT и урбанистики, разбор сложных задач с интересными решениями.
📌 Бизнес и мышление – @radiocath
Как думают предприниматели? Как меняется бизнес? Если вы хотите навести порядок в своём проекте, этот канал про системные изменения, денежное мышление и стратегии роста.
📌 Маркетинг и команды – @lizzy_li
Командная работа, маркетинг для бизнеса, рост стартапов и успешные кейсы на рынках РФ, США, Европы, МЕНА – инсайты от CMO с 12-летним опытом в топ-менеджменте.
Подписывайтесь, чтобы прокачивать себя и свой бизнес 🔥
Есть идея попробовать проводить эфиры на стыке тематик с авторами других каналов. Если вам интересна эта задумка, поделитесь в комментариях, о чём хотели бы послушать в таком формате 🙂
1❤5🔥5🤝2👍1
❇️ КОНЦЕНТРАТ. ЧАСТЬ 1
Всем привет!
За последнее время вас, дорогие мои подписчики, стало значительно больше.
Спасибо вам, что приняли решение подписаться на мой канал! 🙂
Я решил собрать посты, которые выходили ранее, и объединить их в тематические подборки. Таким образом, в канале появится навигация, облегчающая доступ к контенту.
И, как написал выше, данный пост – настоящий концентрат пользы. Первый в своём роде 🙂
Тема сегодняшней подборки – AI-генератор изображений Flux и инструкции, как с его помощью сделать нейрофотосессию (при помощи LoRA):
✅ База про Flux с примерами генерации
✅ Как генерировать по одной фотографии AI-изображения со своим лицом
✅ Как я сделал для Вани нейрофотосессию (LoRA) для Flux
✅ Используем LoRA от Flux для добавления AI-аватара на фото
✅ Как я сделал себе LoRA во Flux за вечер
✅ Нейрофотосессия для Кирилла на базе всего 18 фотографий
✅ Про то, как сочетать портретную LoRA и стилистическую
✅ Создаём LoRA для Flux.1.1-pro-ultra
✅ Пост-сравнение LoRA от fal.ai для базового Flux и для Flux.1.1-pro-ultra
Будет здорово, если вы отправите этот пост друзьям, которые интересуются темой нейрофотосессий(или могут заинтересоваться) 😊
На возникающие у вас вопросы всегда рад ответить в комментариях. Если по какой-то причине не хотите задавать вопрос в комментарии – личные сообщения для вас также всегда открыты. Ссылка на профиль есть в описании канала.
Всем привет!
За последнее время вас, дорогие мои подписчики, стало значительно больше.
Спасибо вам, что приняли решение подписаться на мой канал! 🙂
Я решил собрать посты, которые выходили ранее, и объединить их в тематические подборки. Таким образом, в канале появится навигация, облегчающая доступ к контенту.
И, как написал выше, данный пост – настоящий концентрат пользы. Первый в своём роде 🙂
Тема сегодняшней подборки – AI-генератор изображений Flux и инструкции, как с его помощью сделать нейрофотосессию (при помощи LoRA):
✅ База про Flux с примерами генерации
✅ Как генерировать по одной фотографии AI-изображения со своим лицом
✅ Как я сделал для Вани нейрофотосессию (LoRA) для Flux
✅ Используем LoRA от Flux для добавления AI-аватара на фото
✅ Как я сделал себе LoRA во Flux за вечер
✅ Нейрофотосессия для Кирилла на базе всего 18 фотографий
✅ Про то, как сочетать портретную LoRA и стилистическую
✅ Создаём LoRA для Flux.1.1-pro-ultra
✅ Пост-сравнение LoRA от fal.ai для базового Flux и для Flux.1.1-pro-ultra
Будет здорово, если вы отправите этот пост друзьям, которые интересуются темой нейрофотосессий
На возникающие у вас вопросы всегда рад ответить в комментариях. Если по какой-то причине не хотите задавать вопрос в комментарии – личные сообщения для вас также всегда открыты. Ссылка на профиль есть в описании канала.
1❤9👍6🔥5
Константин Доронин pinned «❇️ КОНЦЕНТРАТ. ЧАСТЬ 1 Всем привет! За последнее время вас, дорогие мои подписчики, стало значительно больше. Спасибо вам, что приняли решение подписаться на мой канал! 🙂 Я решил собрать посты, которые выходили ранее, и объединить их в тематические подборки.…»
Поздравительный кейс в честь 8 марта.
Что ж. Сегодня будем добавлять в поздравления для милых дам индивидуальности.
Я захотел примерить на девушек образы принцесс и женских персонажей в стиле Disney. Подарить сказку, в общем 🙂
Рассказываю, как это было.
По пунктам:
1. Ищем образ, который лучше всего подойдёт девушке. В процессе ругаем компанию Disney за то, что у них сначала все были слишком светловолосые, а потом стали излишне темнокожими.
2. Шерстим соц. сети девушки на предмет подходящих фотографий. Это должна быть, в идеале, портретная фотография, на которой девушка смотрит в камеру. Попутно благодарим моду на профессиональные фотосессии. И даже прощаем Instagram-у некоторые его грехи... 🙂(но, говорят, по-прежнему запрещён вместе со всей Meta)
3. Идём с этой фотографией во Flux PuLID. Можно на huggingface (бесплатно, но с ограничениями по количеству генераций за единицу времени) или на моём любимом fal.ai (платно, но это ведь для прекрасных дам!).
4. Выбираем формат генерации, загружаем фотографию, используем промпт:
5. Понимаем, что не все персонажи генерируются так, как это было задумано. Идём в Claude и просим переработать наш промпт из п.4 под нужный стиль, обстановку, доп. аксессуары и прочее.
6. Готово! Вы восхитительны! Теперь у вас есть мутная генерация в 1024px по большей стороне. Такое презентовать ну никак нельзя...
7. Нужен upscale. Я использовал https://www.recraft.ai/. Тот самый, в котором за регистрацию по ссылке можно бесплатно получить достаточное количество токенов для вашего апскейла. Переходим туда, переносим изображение в рабочую область, увеличиваем её до размеров 3000px по большей стороне и нажимаем вверху на кнопку upscale. Только не промахнитесь. Там есть коварный creative upscale, который работает откровенно плохо. Его жать не нужно 🙂
8. И вот где-то здесь помощь AI заканчивается. Потому что поздравление – это то, что хотите пожелать лично вы. И только вы можете сделать его таким, чтобы оно вызвало действительно тёплые чувства и позитивные эмоции. Поэтому сами лезем в воспоминания, связанные с прекрасной дамой, придумываем поздравление, подходящее именно ей, и пишем текстом либо записываем в видео-формате.
9. Перечитываем и исправляем ошибки. Это поздравление, а не "рыба" какая-то 🙂(сейчас мне накидают ошибок из моих поздравлений...)
10. Готово! Вы восхитительны! [2]
✅ Achivement unlocked: "Снизил шансы на то, чтобы получить 'И тебя!' в ответ" 🙂
Милые дамы!(по статистике tgstat, вас примерно 25%) Если вы желаете, я могу пройти пункты 3-7 за вас. Вам нужно всего лишь скинуть в комментарии свою фотографию (критерии в п.2) и тот образ, который вы хотели бы получить. В ответном комментарии я отправлю изображение с вашим образом.
Лучше не поздравить вовсе, чем сделать это шаблонно
Что ж. Сегодня будем добавлять в поздравления для милых дам индивидуальности.
Я захотел примерить на девушек образы принцесс и женских персонажей в стиле Disney. Подарить сказку, в общем 🙂
Рассказываю, как это было.
По пунктам:
1. Ищем образ, который лучше всего подойдёт девушке. В процессе ругаем компанию Disney за то, что у них сначала все были слишком светловолосые, а потом стали излишне темнокожими.
2. Шерстим соц. сети девушки на предмет подходящих фотографий. Это должна быть, в идеале, портретная фотография, на которой девушка смотрит в камеру. Попутно благодарим моду на профессиональные фотосессии. И даже прощаем Instagram-у некоторые его грехи... 🙂
3. Идём с этой фотографией во Flux PuLID. Можно на huggingface (бесплатно, но с ограничениями по количеству генераций за единицу времени) или на моём любимом fal.ai (платно, но это ведь для прекрасных дам!).
4. Выбираем формат генерации, загружаем фотографию, используем промпт:
Create a stylized animated portrait in the iconic Disney princess animation style. Transform the subject into [имя персонажа] with all the distinctive Disney princess characteristics:
- Soft, expressive facial features with large, bright eyes
- Smooth, flowing animation typical of classic Disney animation
- Elegant movement in hair and clothing elements
- Gentle facial expressions with a warm, friendly smile
- Rich, vibrant color palette similar to Disney's animation style
- Smooth contours and proportions typical of Disney princess character design
- Subtle background elements that complement the character without overwhelming the portrait
- Delicate animated elements like sparkling effects or small floating particles
- Soft lighting with gentle highlights on the face
- Fluid, graceful movements in the animation
Include signature animation elements like slightly swaying hair, blinking eyes, and subtle breathing movements. The animation should feel gentle and magical, capturing the essence of Disney's classic princess animation style while maintaining the subject's recognizable features.
5. Понимаем, что не все персонажи генерируются так, как это было задумано. Идём в Claude и просим переработать наш промпт из п.4 под нужный стиль, обстановку, доп. аксессуары и прочее.
6. Готово! Вы восхитительны! Теперь у вас есть мутная генерация в 1024px по большей стороне. Такое презентовать ну никак нельзя...
7. Нужен upscale. Я использовал https://www.recraft.ai/. Тот самый, в котором за регистрацию по ссылке можно бесплатно получить достаточное количество токенов для вашего апскейла. Переходим туда, переносим изображение в рабочую область, увеличиваем её до размеров 3000px по большей стороне и нажимаем вверху на кнопку upscale. Только не промахнитесь. Там есть коварный creative upscale, который работает откровенно плохо. Его жать не нужно 🙂
8. И вот где-то здесь помощь AI заканчивается. Потому что поздравление – это то, что хотите пожелать лично вы. И только вы можете сделать его таким, чтобы оно вызвало действительно тёплые чувства и позитивные эмоции. Поэтому сами лезем в воспоминания, связанные с прекрасной дамой, придумываем поздравление, подходящее именно ей, и пишем текстом либо записываем в видео-формате.
9. Перечитываем и исправляем ошибки. Это поздравление, а не "рыба" какая-то 🙂
10. Готово! Вы восхитительны! [2]
✅ Achivement unlocked: "Снизил шансы на то, чтобы получить 'И тебя!' в ответ" 🙂
Милые дамы!
3❤11🔥6💘3🏆1