Константин Доронин
3.9K subscribers
622 photos
313 videos
1 file
337 links
По любым вопросам, которые не хотите задавать в комментариях, можете писать напрямую – @kdoronin
Download Telegram
Разработчики, на нашей улице праздник!

Менее часа назад Anthropic выкатили Claude 3.7 Sonnet!

Ещё лучше в программировании, а также добавлен режим Thinking для более глубоких размышлений. И добавлен он в ту же модель, что делает её гибридной. Режим для более длительных размышлений в веб-интерфейсе называется «Extended».

Отдельно стоит упомянуть Claude Code. Это AI-агент для кодинга от Anthropic. Скорее всего, в ближайшие пару дней он появится в Cursor, где его можно будет полноценно изучить.

Модель уже доступна в веб-интерфейсе.

Я уже попробовал.

Сделал схему для системы AI-агентов для разработки программ, а также игру "Змейка на кубе".

С игрой у модели вышли проблемы, так как она без точных инструкций не поняла, как именно делать переходы между гранями. Поэтому получилась "не баг, а фича", которая делает игру сложнее и интереснее..

Релиз, который я ждал больше (и дольше), чем Новый год 🙂 🥳
1🔥7👍32
Две недели назад я поставил себе WindSurf и честно провёл за ним не менее 80 часов, чтобы понять "Как оно мне?".

Я установил WindSurf Next, который Codeium (компания-разработчик) позиционирует, как версию IDE с доступом к самым новым фичам "As soon as possible".

Сравниваю, конечно же, с горячо любимым и постоянно-используемым мною Cursor.

Функции WindSurf, которые понравились:

1. IDE распознаёт действия пользователя. То есть, если я редактирую код вручную, то могу попросить WindSurf "Продолжи" и он поймёт, что я имею ввиду. Он может, например, заменить имя метода по всему коду. Если честно, в работе фича так ни разу и не пригодилась. Просто "прикольно".

2. Вкладка у чата под названием "Manage memories". Позволяет управлять дополнительными инструкциями для IDE. Что самое крутое – у WindSurf есть специальный инструмент, который распознаёт команду "запомни" и записывает данные в "Memories".

3. WindSurf быстр. По ощущениям, сильно быстрее генерирует ответ, чем Cursor. Но это заметно только на контрасте и в течение первого часа работы. Дальше происходит привыкание и данный плюс не ощущается. Что интересно – возвращение в Cursor не воспринимается, субъективно, как "замедление". Возможно, это вообще эффект новизны, потому что я читал прямо противоположные мнения относительно скорости 🙂


Теперь немного о минусах, которые мне действительно мешали работать с WindSurf. Они, в конечном итоге, являются причиной моего триумфального возвращения в Cursor:

1. Я хочу взять файл из навигатора, перетащить его в окно чата и чтобы чат воспринял его в качестве контекста. Это ведь не сложно. В Cursor это есть и с этим очень удобно работать. В WindSurf приходится руками вбивать имена файлов в надежде, что он когда-нибудь найдёт именно тот файл, который мне нужен.

2. Второй пункт здесь отсылает к п.2 в списке "фишек". Да, есть Memories. Но воспоминания у WindSurf, к сожалению, выборочные. То есть я не могу воспринимать эту вкладку, как что-то, о чём AI при генерации для меня кода обязательно будет помнить. А если этого нет, то для чего мне такие воспоминания?

3. Скорость обновлений. Cursor вчера привёз Claude 3.7 Sonnet через час после релиза. В WindSurf этой модели нет до сих пор. Думаю, причина тут в том, что Anthropic просто им заранее не сообщила о релизе, в отличие от разработчиков Cursor.

4. Хоть WindSurf и является фактически форком VS Code, но на нём по какой-то причине работают далеко не все расширения. Это может быть критическим минусом в определённых ситуациях.

5. Иногда возникает задача передать в качестве контекста какие-то строки из открытых файлов или из консоли. Cursor их обрабатывает и просто показывает в виде иконки терминала/имени файла с номерами строк. WindSurf в таком случае просто заваливает всё окно чата строками из терминала. Момент не самый критический, но по восприятию бьёт.


Итого: я вернулся на Cursor (писал уже выше, да). От WindSurf ощущения не сказать, чтобы негативные. Они, скорее, как будто попал в Cursor образца Лето-2024. Без большинства полезных функций, которые были добавлены за эти полгода.

Всё, что описано выше – это мой практический опыт и мои субъективные выводы. Ваши выводы могут отличаться и это нормально. Я бы очень хотел услышать в комментариях мнение людей, которые пользуются другими AI IDE и причины, почему они ими пользуются.
2👍6🔥54
Media is too big
VIEW IN TELEGRAM
Подробнее про развитие функциональности Cursor Rules.

Месяц прошёл с релиза этой функциональности, но я только сейчас добрался до того, чтобы встроить её в работу (2 недели под WindSurf дают о себе знать).

Cursor добавил к уже используемому ранее .cursorrules (подробнее про него рассказывал тут) целую иерархию правил.

Через инструмент "Cursor rules", который появился в панели выбора инструментов, можно создать новое правило.

Далее нужно ввести имя правила (оно же – имя файла, содержащее правила).

Каждое правило – файл в формате .mdc.

У него есть дополнительные настройки, помимо текста правила:

1. Description. Даёт краткую информацию для AI, когда использовать данное правило.

2. Auto Attach. Позволяет автоматически добавлять правила при работе с файлами, которые подходят под указанную маску. Например, вы можете написать кастомные правила по работе с JS только для папки frontend.

3. Есть ещё иконка Global. При её активации, это правило будет добавляться в каждый запрос к LLM. Я её, признаться, даже не сразу заметил. Иконку можно использовать для правила, в котором описывается общий пайплайн разработки. А дополнительными правилами уже специфицировать конкретные этапы работы.


Важно также отметить, что внутри одного правила можно упоминать другие. То есть можно создать правило, управляющее всеми остальными (одно кольцо, что правит всеми). А также у каждого конкретного правила сделать ссылку на предыдущее и следующее в цикле разработки. Ссылки на конкретные файлы через символ @ также поддерживаются.

В качестве примера реализовал систему из 6 инструкций, которые выражают собой концепцию разработки TDD. И с помощью этой системы разработал игру Game of Life. В качестве ТЗ взял описание игры отсюда.

Собственно, запись почти 12 минут Vibe-coding прилагаю к посту 🙂
6👍5🔥4
Media is too big
VIEW IN TELEGRAM
На этой неделе OpenAI наконец-то расширили доступ к Deep Research для подписчиков категории Plus.

Доступно всего лишь 10 запросов в месяц. Надеюсь, позже лимиты увеличат.

Конечно же, я сразу прогнал свой запрос на составление сценария для Вани, который уже стал своеобразным бенчмарком для DeepResearch-задач.

Напомню, исходный промпт выглядит так:

https://www.youtube.com/@telegaproducer/videos – это канал Вани Буявца.

Сегодня наша задача написать сценарий для нового ролика на этом канале.

Тема ролика "Что особенного делают успешные люди?"

Тебе необходимо рассказать в сценарии о нескольких успешных людях и о том, как они действуют. Определи, что в головах у этих людей, какие мысли, чем они руководствуются при принятии решений.

Весь сценарий должен подводить к тому, что успешному человеку полезно иметь собственный Телеграм-канал, потому что он позволяет набирать социальный капитал и становиться успешнее


В случае с ChatGPT хватило одного запроса. Это связано с тем, что он, в отличие от остальных моделей, не идёт сразу делать исследование. Он обдумывает запрос и задаёт дополнительные вопросы. Вот те, которые он задал по теме моего "исследования":

Прежде чем начать писать сценарий, мне нужно уточнить несколько моментов:

1. Каких успешных людей ты хотел бы рассмотреть? Это могут быть предприниматели, спортсмены, мыслители, медийные личности.

2. Какой тон должен быть у сценария? Должен ли он быть более серьёзным и аналитическим или, наоборот, лёгким и ироничным?

3. Какую структуру ты предпочитаешь? Например, перечисление примеров с выводами или постепенное раскрытие темы через нарратив.

4. Какой должен быть хронометраж ролика? Это поможет определить, насколько глубоко разбирать каждую историю.

5. Есть ли конкретные моменты, которые нужно упомянуть о Телеграм-канале? Например, способы монетизации, влияние на личный бренд и т. д.


Результат исследования можете посмотреть по ссылке.

По моему мнению, результат ChatGPT лучше, чем у Grok и Perplexity.

Во-первых, это единственная нейросеть, которая честно сделала сценарий на 30-минутное видео.

Во-вторых, она действительно изучила автора видео и сделала сценарий с соблюдением авторского стиля, не промахнувшись при этом с фактами о Ване.

Подробности в цифрах:

1. Исследование заняло 5 минут и 16 секунд. Как по мне, это достаточно быстро для такого достойного результата.

2. ChatGPT упомянул всего 11(!!!) источников, которые использовал в исследовании. Шах и мат, любители Grok3 DeepSearch, которые в качестве достоинств исследования приводят список из 100+ источников 🙂

Из минусов могу отметить, разве что, достаточно скромное количество ссылок на источники в тексте. Думаю, в некоторых исследованиях от OpenAI всё же придётся проводить дополнительный факт-чекинг.

Очень жаль, что всего 10 исследований в месяц. Думаю, оставшиеся 9 помогут мне продвинуться в некоторых весьма интересных вопросах 🙂
1🔥54👍4
Alibaba выпустили версию 2.1 open source AI-видеогенератора Wan.

Самое важное во всём этом – open source.

Второе по важности – Alibaba. Это те, которые, в том числе, Aliexpress.

Это означает, что у нас есть веса для модели, в тренировку которой огромная корпорация вложилась своими интеллектуальными и финансовыми ресурсами.

Мы уже проходили что-то подобное с редакторами изображений. И в итоге получили, например, Flux. С большим количеством специализированных моделей от сообщества и отличным качеством генерации.

Сейчас на очереди генерация AI-видео.

На рынке уже есть Hunyuan (про него рассказывал тут).

После обновления до версии 2.1, Wan можно смело назвать ещё одной перспективной моделью из Китая.

Да, она не так хороша, как Kling1.6-pro или Veo-2.

Так и стоит на fal.ai всего по $0.4 за генерацию (а не по $0.5 за секунду, Google!). А если есть 40Gb видеопамяти, то можно запустить локально.

К тому же есть LoRA и Fine-tune. Только взгляните, сколько уже есть (весьма качественных) LoRA под Hunyuan. И это они ещё image-to-video не выкатили.

У Wan2.1 image-to-video уже есть. И в 5s/720p они из коробки достаточно качественно генерируют видео.

Так что я в ожидании, какой апгрейд с помощью fine-tune и LoRA энтузиасты сделают для Wan2.1.

В медиа можете посмотреть примеры того, как работают Wan2.1 image-to-video и text-to-video модели на платформе fal.ai.
1👍4🔥42
Media is too big
VIEW IN TELEGRAM
Наконец-то нашёл ультимативный MCP-сервер для работы с браузером!

Всем, кто выходит за пределы бэкенда, обязательно к установке. Полностью бесплатный и очень крутой 🙂

Работает с Chrome и умеет:

1. Читать логи из консоли браузера.

2. Читать только ошибки из консоли.

3. Получать ошибки из вкладки Network.

4. Получать все логи из Network.

5. Делать скриншот. При чём с поддержкой адаптивного отображения через Device Toolbar.

6. Получать выбранный в консоли разработчика элемент.

7. Чистить логи консоли браузера.


Установка состоит из трёх частей:

1. Установка расширения в браузера.

2. Подключение MCP-сервера в Cursor (или любой другой популярной AI IDE).

3. Запуск MCP-сервера из терминала ОС.


Заметил пока что только два момента, которых не хватает:

1. Со стороны MCP-сервера: он не умеет самостоятельно менять размер экрана для скриншота. Вроде как я видел другие tools, которые это умеют.

2. Со стороны Cursor: если ему не передать изображение в качестве параметра, он не может его самостоятельно получить из директории и передать в Claude. Попробую пофиксить это при помощи других MCP-серверов.

Очень подробная инструкция по установке с видео на официальном сайте разработчика.

А в медиа – пример с тем, как инструменты работают в Cursor.
1🔥32👍1
Что делать со всеми этими DeepResearch-запросами, доступными в Perplexity с pro-подпиской?

Вы же купили за $10 годовой доступ к pro из этого поста?

Запросов он даёт много, поэтому есть возможность поэксперементировать (и вам, и мне) и научиться получать информацию из инструмента максиально-эффективным способом.

Делюсь кейсами, где Perplexity DeepResearch меня выручает:

1. Получить информацию о сфере, которую начинаю изучать. Я пользуюсь принципом Парето и прошу у DeepResearch собрать 20% информации, покрывающей 80% практических кейсов.

2. Получить актуальную информацию по теме. Например, собираю исследования за 2025-й год по интересующему меня направлению. Хорошо работает в связке с "академическим" фильтром.

3. Бытовые запросы, когда нужно что-то выбрать. Например, так я себе выбрал перкуссионный массажёр. Важно, что можно взять только актуальные модели, доступные для заказа в конкретной стране (или даже в конкретном магазине).

4. Конкурентный анализ. Прошу сравнить какой-либо параметр проекта с конкурентами. Или предложить комплекс мер, чтобы в конкретном аспекте всех обойти.

5. Проверить гипотезу по сочетаемости в проекте нескольких технологий. Здесь именно DeepResearch хорош тем, что он может соотнести сферы применения технологий, а также узнать самую актуальную информацию про актуальные обновления.

6. Поиск наиболее-авторитетных источников информации. Хорошо работает за счёт того, что DeepResearch работает с актуальной информацией и может учитывать как мнения из академических кругов, так и из соц. сетей (в зависимости от задачи).

Расскажите, для чего вы уже применяли технологии DeepResearch и как оптимизировали с их помощью свою работу/досуг/процесс принятия решений?
18🔥4🎉2
В продолжение вчерашнего поста, поговорим о формировании и структуре запроса к Deep Research.

Как и в случае с разработкой, AI лучше работает в условиях ограничений. Поэтому мета-совет заключается в том, чтобы добавить так много конкретизирующих ограничений, как только можете.

Вот как можно конкретизировать запрос:

1. Временной интервал. Я часто указываю текущий год, чтобы не получать устаревшую информацию по интересующим меня вопросам. Либо можно с помощью конкретизации по времени покопаться в архивах интернета за определённый год.

2. Параметры для анализа. Сравнивая несколько сервисов, можно обозначить, что интересует оценка по производительности и цене.

3. Формат. Укажите формат данных, которые хотите получить на выходе. Это может быть план статьи, развёрнутый лонгрид, статья-сравнение, сценарий и т.д.

4. Можно перечислить источники. Что-то вроде "Проанализируй материалы с arxiv.org" или "Хочу купить товар, доступный на Amazon". Также можно указать, что интересует мнение конкретных экспертов или даже экспертов, подходящих под конкретные параметры.

5. Цифры. Чего и сколько в итоге выдать. Всё, что про "приведи 10 примеров", "дай не менее 7 вариантов", "собери топ-5 товаров".

Также помним про прекрасный инструмент под названием "Follow Up". Это возможность продолжить своё исследование с использованием Deep Research. Либо изначально запросить только общий план статьи, а потом с помощью Follow Up делать исследования по каждой главе.

С помощью правильных запросов в Deep Research, можно раскрыть его на полную мощность и внедрить на постоянной основе в качестве инструмента для персонифицированной подготовки нужной вам информации 🙂

p.s.: Оцените, какую метафору Claude 3.7 Sonnet придумал для идеи «пользователь ограничивает нейросеть в свободе выбора, чтобы получить максимально-качественный результат». Нарисовал изображение по промпту Flux 🙂
19🔥7👍4💯1
Всё-таки Cursor периодически забывает включить в запрос даже те правила, которые у него отмечены иконкой global.

Решил я эту проблему с помощью отдельной инструкции navigator.mdc.

В ней содержится вся структура правил с описанием, какие и для чего нужны. И краткий текст с призывом их использовать:

При разработке следуйте всем правилам, уделяя особое внимание тем, что относятся к затрагиваемым компонентам.


Я обязательно вручную прокидываю правило navigator.mdc каждый раз, когда пишу что-либо в чат Cursor.

В таком случае, он перестаёт игнорировать инструкции и достаточно ответственно следует тому, что в них написано. Даже на тесты перестал забивать! 🙂

Правда, в некоторых моментах всё равно "ленится" (передаю привет строгой типизации!). Думаю, что смогу это починить с помощью более "мотивирующих" и структурированных инструкций.

Какие вы используете способы для большего контроля над своими AI-агентами?
16👍4🔥3
Как AI влияет на поисковый трафик и что с этим делать?

Уже сейчас OpenAI обслуживает около 400 миллионов активных пользователей в неделю. И это количество планируют довести до миллиарда уже в этом году.

А ведь есть и другие игроки на рынке AI!

Безусловно, это глобальное изменение, которое уже сейчас влияет на поисковые системы.

Я, будучи активным пользователем различных AI-инструментов, уже сейчас гораздо меньше использую классический поиск. И на сайты из него тоже редко перехожу.

Что уже точно меняется и для кого:

1. Rewrite-контент, написанный под поисковые системы, будет постепенно терять трафик. За исключением, быть может, некоторых специфических ниш (кто сказал "рецепты"?). Просто "Детально ответить на поисковый запрос пользователя" едва ли будет работать в ближайшем будущем. Так как нейросеть это сделает не хуже да ещё и без "воды" ("прежде, чем приготовить омлет, послушаем об истории яиц...").

2. AI-инструменты используют индекс поисковых систем и их API. То есть материалы, которые находит AI, так или иначе, представлены в поиске. Нюанс, правда, в том, что едва ли AI ходит на вторую страницу выдачи. Едва ли он в принципе изучает информацию за пределами Топ-3 поиска. То есть конкуренция за пользователя стала сильнее.

3. Сам поиск меняется. Посмотрите на условный Яндекс.Нейро (ссылки нет, так как он только в их браузере доступен). Его сниппеты, фактически, сами отвечают на запрос пользователя. То есть даже в из поиска всё меньше и меньше остаётся шансов, что пользователь перейдёт на сайт.

4. Следствие из предыдущих пунктов – контекстной рекламе на сайтах неизбежно поплохеет. Так как туда будет заходить меньше пользователей.


Что, по моему мнению, можно предпринять, чтобы изменение конъюнктуры меньше коснулось вашего сайта:

1. Если до этого вы предоставляли только информацию, заведите продукт. Это либо сервис, либо продажа товара. То есть живые деньги за ваши действия.

2. Если продукт уже есть, то у него должны быть определены все характеристики. Также – обязательно понятное название. Все те параметры, по которым его будет оценивать AI. Который, напомню, картинки на сайтах пока что не анализирует. Исключительно текст.

3. Трафик из поиска всё ещё сохраняется даже при использовании AI. Если вы в топ-3 выдачи. Но нюанс в том, что нужно быть в топе по тем ключевым словам, которые использует искусственный интеллект, а не пользователь. А у него собственный подход к формированию запросов. Придётся анализировать и добавлять AI-ключи при работе с SEO.

4. Если ваш контент уникален и пользователи его действительно любят, то нужно обеспечить их возвращение на сайт не через поиск. E-mail-рассылка для этого подходит лучше всего. Или push-уведомления, например. То есть любыми способами нужно посетитлей "подписывать" на контент.

5. Монетизация баннерами/попапами/rollup-ами и прочей нечистью станет приносить кратно меньше денег. Многие именитые информационные издательства уже ввели подписку на свой контент. Думаю, это вполне может стать новой реальностью. Когда контент, не доступный для AI, будет покупаться за деньги (с доступом для того же AI через API).

6. Внешняя оценка. Если есть возможность получить больше отзывов из внешних систем или ссылки с авторитетных порталов, нужно это сделать. Скоре всего, этот параметр также будет оценивать LLM.

Что вы думаете по этому поводу? Какие ещё рынки меняются уже сейчас и как, по вашему мнению, можно к этому подготовиться?

p.s.: абстрактные изображения генераторам картинок удаются отлично. Помните, раньше я в рубрику p.s. добавлял live-медиа-контент? Если вам он всё ещё интересен, то поставьте огонёк (вот такой 🔥) этому посту. Буду знать, что нужно выцеплять кадры из того, что меня окружает 🙂
2🔥127👍2
🚀 Подборка каналов, которые стоит добавить в свою ленту!

Я уже как-то писал про сообщество Hegai и тёплый нетворкинг. В этом сообществе я состою с 2021 года. Сейчас мы решили объединиться с другими участниками сообщества, которые ведут свои экспертные блоги и делятся практическим опытом, работающими стратегиями и полезными инсайтами. Если вам интересны финансы, бизнес, технологии и саморазвитие, вот 4 канала, на которые точно стоит подписаться:

📌 Финансы и инвестиции@apozharenko
Как управлять деньгами, инвестировать в Европе и выстраивать финансовую стратегию? Практикующий финансист, инвестор и триатлет 😉 делится реальными кейсами – успешными и не очень.

📌 Управление, IT и урбанистика@shagiev
Как управлять собой, командой, процессами? Реальные бизнес-кейсы, инсайты из IT и урбанистики, разбор сложных задач с интересными решениями.

📌 Бизнес и мышление@radiocath
Как думают предприниматели? Как меняется бизнес? Если вы хотите навести порядок в своём проекте, этот канал про системные изменения, денежное мышление и стратегии роста.

📌 Маркетинг и команды@lizzy_li
Командная работа, маркетинг для бизнеса, рост стартапов и успешные кейсы на рынках РФ, США, Европы, МЕНА – инсайты от CMO с 12-летним опытом в топ-менеджменте.

Подписывайтесь, чтобы прокачивать себя и свой бизнес 🔥

Есть идея попробовать проводить эфиры на стыке тематик с авторами других каналов. Если вам интересна эта задумка, поделитесь в комментариях, о чём хотели бы послушать в таком формате 🙂
15🔥5🤝2👍1
❇️ КОНЦЕНТРАТ. ЧАСТЬ 1

Всем привет!

За последнее время вас, дорогие мои подписчики, стало значительно больше.

Спасибо вам, что приняли решение подписаться на мой канал! 🙂

Я решил собрать посты, которые выходили ранее, и объединить их в тематические подборки. Таким образом, в канале появится навигация, облегчающая доступ к контенту.

И, как написал выше, данный пост – настоящий концентрат пользы. Первый в своём роде 🙂

Тема сегодняшней подборки – AI-генератор изображений Flux и инструкции, как с его помощью сделать нейрофотосессию (при помощи LoRA):

База про Flux с примерами генерации

Как генерировать по одной фотографии AI-изображения со своим лицом

Как я сделал для Вани нейрофотосессию (LoRA) для Flux

Используем LoRA от Flux для добавления AI-аватара на фото

Как я сделал себе LoRA во Flux за вечер

Нейрофотосессия для Кирилла на базе всего 18 фотографий

Про то, как сочетать портретную LoRA и стилистическую

Создаём LoRA для Flux.1.1-pro-ultra

Пост-сравнение LoRA от fal.ai для базового Flux и для Flux.1.1-pro-ultra

Будет здорово, если вы отправите этот пост друзьям, которые интересуются темой нейрофотосессий (или могут заинтересоваться) 😊

На возникающие у вас вопросы всегда рад ответить в комментариях. Если по какой-то причине не хотите задавать вопрос в комментарии – личные сообщения для вас также всегда открыты. Ссылка на профиль есть в описании канала.
19👍6🔥5
Константин Доронин pinned «❇️ КОНЦЕНТРАТ. ЧАСТЬ 1 Всем привет! За последнее время вас, дорогие мои подписчики, стало значительно больше. Спасибо вам, что приняли решение подписаться на мой канал! 🙂 Я решил собрать посты, которые выходили ранее, и объединить их в тематические подборки.…»
Поздравительный кейс в честь 8 марта.

Лучше не поздравить вовсе, чем сделать это шаблонно


Что ж. Сегодня будем добавлять в поздравления для милых дам индивидуальности.

Я захотел примерить на девушек образы принцесс и женских персонажей в стиле Disney. Подарить сказку, в общем 🙂

Рассказываю, как это было.

По пунктам:

1. Ищем образ, который лучше всего подойдёт девушке. В процессе ругаем компанию Disney за то, что у них сначала все были слишком светловолосые, а потом стали излишне темнокожими.

2. Шерстим соц. сети девушки на предмет подходящих фотографий. Это должна быть, в идеале, портретная фотография, на которой девушка смотрит в камеру. Попутно благодарим моду на профессиональные фотосессии. И даже прощаем Instagram-у некоторые его грехи... 🙂 (но, говорят, по-прежнему запрещён вместе со всей Meta)

3. Идём с этой фотографией во Flux PuLID. Можно на huggingface (бесплатно, но с ограничениями по количеству генераций за единицу времени) или на моём любимом fal.ai (платно, но это ведь для прекрасных дам!).

4. Выбираем формат генерации, загружаем фотографию, используем промпт:

Create a stylized animated portrait in the iconic Disney princess animation style. Transform the subject into [имя персонажа] with all the distinctive Disney princess characteristics:

- Soft, expressive facial features with large, bright eyes
- Smooth, flowing animation typical of classic Disney animation
- Elegant movement in hair and clothing elements
- Gentle facial expressions with a warm, friendly smile
- Rich, vibrant color palette similar to Disney's animation style
- Smooth contours and proportions typical of Disney princess character design
- Subtle background elements that complement the character without overwhelming the portrait
- Delicate animated elements like sparkling effects or small floating particles
- Soft lighting with gentle highlights on the face
- Fluid, graceful movements in the animation

Include signature animation elements like slightly swaying hair, blinking eyes, and subtle breathing movements. The animation should feel gentle and magical, capturing the essence of Disney's classic princess animation style while maintaining the subject's recognizable features.


5. Понимаем, что не все персонажи генерируются так, как это было задумано. Идём в Claude и просим переработать наш промпт из п.4 под нужный стиль, обстановку, доп. аксессуары и прочее.

6. Готово! Вы восхитительны! Теперь у вас есть мутная генерация в 1024px по большей стороне. Такое презентовать ну никак нельзя...

7. Нужен upscale. Я использовал https://www.recraft.ai/. Тот самый, в котором за регистрацию по ссылке можно бесплатно получить достаточное количество токенов для вашего апскейла. Переходим туда, переносим изображение в рабочую область, увеличиваем её до размеров 3000px по большей стороне и нажимаем вверху на кнопку upscale. Только не промахнитесь. Там есть коварный creative upscale, который работает откровенно плохо. Его жать не нужно 🙂

8. И вот где-то здесь помощь AI заканчивается. Потому что поздравление – это то, что хотите пожелать лично вы. И только вы можете сделать его таким, чтобы оно вызвало действительно тёплые чувства и позитивные эмоции. Поэтому сами лезем в воспоминания, связанные с прекрасной дамой, придумываем поздравление, подходящее именно ей, и пишем текстом либо записываем в видео-формате.

9. Перечитываем и исправляем ошибки. Это поздравление, а не "рыба" какая-то 🙂 (сейчас мне накидают ошибок из моих поздравлений...)

10. Готово! Вы восхитительны! [2]

Achivement unlocked: "Снизил шансы на то, чтобы получить 'И тебя!' в ответ" 🙂

Милые дамы! (по статистике tgstat, вас примерно 25%) Если вы желаете, я могу пройти пункты 3-7 за вас. Вам нужно всего лишь скинуть в комментарии свою фотографию (критерии в п.2) и тот образ, который вы хотели бы получить. В ответном комментарии я отправлю изображение с вашим образом.
311🔥6💘3🏆1