#токен
Похоже, рубрику с каталогами стилей стоит сделать регулярной: новые подборки появляются как грибы после дождя.
Особенности подборки:
• 706 стилей художников с отметками кто из художников наш современник
• 33 стиля инструментов
• 19 направлений живописи с указанием времени актуальности, наиболее известными художниками и средствами живописи
• калькулятор размеров изображений
Все посты с подборками стилей:
• Подборка из 1572 художников
• 2384 стиля Midjourney, которые поймёт Stable Diffusion
• 706 художников, 33 стиля, 19 направлений
• 364 плёнки для имитации стиля аналоговой фотографии
Все посты с подборками стилей.
___
Stable Diffusion: инструменты, расширения, модели, токены
Похоже, рубрику с каталогами стилей стоит сделать регулярной: новые подборки появляются как грибы после дождя.
Особенности подборки:
• 706 стилей художников с отметками кто из художников наш современник
• 33 стиля инструментов
• 19 направлений живописи с указанием времени актуальности, наиболее известными художниками и средствами живописи
• калькулятор размеров изображений
Все посты с подборками стилей:
• Подборка из 1572 художников
• 2384 стиля Midjourney, которые поймёт Stable Diffusion
• 706 художников, 33 стиля, 19 направлений
• 364 плёнки для имитации стиля аналоговой фотографии
Все посты с подборками стилей.
___
Stable Diffusion: инструменты, расширения, модели, токены
❤10❤🔥1
#рабочийпроцесс
По просьбе товарища проверял корректность списка токенов на большом объёме рисунков для clip skip 1 и 2. Поделюсь выводами если (или когда) он обработает результаты.
Выборка для оценки достаточная: 49 рисунков х 29 токенов х 2 варианта clip skip. В идеале такой тест надо проводить на нескольких моделях, но мы решили не рисковать. 2842 рисунка должно хватить.
А как упарываетесь при проверке идей вы?
___
У капибарина лапки, но он всё равно рисует
По просьбе товарища проверял корректность списка токенов на большом объёме рисунков для clip skip 1 и 2. Поделюсь выводами если (или когда) он обработает результаты.
Выборка для оценки достаточная: 49 рисунков х 29 токенов х 2 варианта clip skip. В идеале такой тест надо проводить на нескольких моделях, но мы решили не рисковать. 2842 рисунка должно хватить.
А как упарываетесь при проверке идей вы?
___
У капибарина лапки, но он всё равно рисует
❤6
#заметки #Automatic1111
Переносим модели Stable Diffusion в Automatic1111 WebUI на другой накопитель
Открываем
В конец строки
Аналогичным способом можно перенести VAE (
Пара важных моментов:
— Если модель лежит на SSD переключение произойдёт за несколько секунд. Похрустывающий HDD растянет переключение на несколько минут.
— При такой настройке ваш SD WebUI будет видеть И модели в папке
Можно хранить часто используемые модели на основном SSD, а редко используемые перенести на второй SSD или какой-то HDD.
Дополнено: вместо всех этих приключений можно использовать символические ссылки.
___
Stable Diffusion: инструменты, расширения, модели, токены
Переносим модели Stable Diffusion в Automatic1111 WebUI на другой накопитель
Открываем
webui-user.bat (лежит в корне SD) любым текстовым редактором.В конец строки
set COMMANDLINE_ARGS= добавляем--ckpt-dir="E:\\path\\to_your_models\\" — путь к папке с моделями на другом накопителе, с кавычками и двойными обратными косыми чертами. Не проверял работоспособность если в названии папок кириллица и пробелы, лучше их избегать.Аналогичным способом можно перенести VAE (
--vae-dir), LORA (--lora-dir), ControlNet (--controlnet-dir) и прочие модели (документация).Пара важных моментов:
— Если модель лежит на SSD переключение произойдёт за несколько секунд. Похрустывающий HDD растянет переключение на несколько минут.
— При такой настройке ваш SD WebUI будет видеть И модели в папке
stable-diffusion-webui\models\Stable-diffusion, И в добавленной через bat-файл папке.Можно хранить часто используемые модели на основном SSD, а редко используемые перенести на второй SSD или какой-то HDD.
Дополнено: вместо всех этих приключений можно использовать символические ссылки.
___
Stable Diffusion: инструменты, расширения, модели, токены
❤13❤🔥6
#обзор | промпт на civitai | промпт на pixai
Исправляем в inpaint результаты ADetailer и модели, которая скверно рисует глаза.
1. Рисуем с Hires.fix и ADetailer на модели aZovyaRPG v2. ADetailer, в меру своих способностей, вносит правки и добавляет эффект looking at viewer. Глаза это улучшает, но не сильно.
2. В inpaint обводим маской только глаза.
Промпт
Denoising: 0.55
Mask mode: Inpaint masked
Masked content: original
Inpaint area: Only masked
1024х1024 — выделенная область будет перерисована в размере 1024 и вклеена в изображение
Не обязательно: можно включить ControlNet с моделью inpaint
3. Рисуем 10+ изображений, отбираем лучшее
4. Стираем лишний кусочек серьги
Удаляем промпт, оставляем негатив. Маска на серьге. Denoising: 0.95+
5. В любом редакторе кистью улучшаем форму глаза
Ширина кисти 1-3
Непрозрачность 30
Жёсткость 80%
Готово! Вы восхитительны!
(но это не точно)
____
У капибары лапки • подписаться
Исправляем в inpaint результаты ADetailer и модели, которая скверно рисует глаза.
1. Рисуем с Hires.fix и ADetailer на модели aZovyaRPG v2. ADetailer, в меру своих способностей, вносит правки и добавляет эффект looking at viewer. Глаза это улучшает, но не сильно.
2. В inpaint обводим маской только глаза.
Промпт
green detailed eyes, white white of the eye, негатив без изменений.Denoising: 0.55
Mask mode: Inpaint masked
Masked content: original
Inpaint area: Only masked
1024х1024 — выделенная область будет перерисована в размере 1024 и вклеена в изображение
Не обязательно: можно включить ControlNet с моделью inpaint
3. Рисуем 10+ изображений, отбираем лучшее
4. Стираем лишний кусочек серьги
Удаляем промпт, оставляем негатив. Маска на серьге. Denoising: 0.95+
5. В любом редакторе кистью улучшаем форму глаза
Ширина кисти 1-3
Непрозрачность 30
Жёсткость 80%
Готово! Вы восхитительны!
У капибары лапки • подписаться
❤12
Media is too big
VIEW IN TELEGRAM
#обзор | промпт на civitai | промпт на pixai
Процесс улучшения результата Stable Diffusion от "что-то среднее" до "почти хорошо"
1. Рисуем несколько кадров с Hires.fix и Denoising в диапазоне от 0,35 до 0,6
2. В любом графическом редакторе собираем коллаж из частей, которые получились лучше.
3. В режиме inpaint выделяем шов коллажа широкой кистью, пустой промпт, в негативе или ваш негатив, или (blur, blurry:1.4), Denoising в диапазоне от 0,55 до 0,7.
• Mask mode: Inpaint masked
• Masked content: original
• Inpaint area: Whole picture
Для улучшения результатов используйте inpaint-модель. Рисунок из видео создан на aZovyaRPGArtistTools_v2Art, но детали улучшены на Deliberate-inpainting.
4. Аналогичным способом дорабатываем и улучшаем детали, например ветки деревьев.
• Denoising стоит повысить до 0,7-0,8
• Inpaint area: Only masked
• Размер тайла 1024х1024 или выше
5. Апскейл до 4096x2304 на SD Upscale
• Denoising 0.2
• Tile overlap 192
• 4x-UltraSharp
Готовый рисунок, обои 4К.
___
У капибары лапки • подписаться
Процесс улучшения результата Stable Diffusion от "что-то среднее" до "почти хорошо"
1. Рисуем несколько кадров с Hires.fix и Denoising в диапазоне от 0,35 до 0,6
2. В любом графическом редакторе собираем коллаж из частей, которые получились лучше.
3. В режиме inpaint выделяем шов коллажа широкой кистью, пустой промпт, в негативе или ваш негатив, или (blur, blurry:1.4), Denoising в диапазоне от 0,55 до 0,7.
• Mask mode: Inpaint masked
• Masked content: original
• Inpaint area: Whole picture
Для улучшения результатов используйте inpaint-модель. Рисунок из видео создан на aZovyaRPGArtistTools_v2Art, но детали улучшены на Deliberate-inpainting.
4. Аналогичным способом дорабатываем и улучшаем детали, например ветки деревьев.
• Denoising стоит повысить до 0,7-0,8
• Inpaint area: Only masked
• Размер тайла 1024х1024 или выше
5. Апскейл до 4096x2304 на SD Upscale
• Denoising 0.2
• Tile overlap 192
• 4x-UltraSharp
Готовый рисунок, обои 4К.
___
У капибары лапки • подписаться
❤12
#арт | промпт на civitai | промпт на pixai
Иллюстрация для поста с описанием процесса доработки изображения через коллаж в инпейнте.
Рисунок 16:9, 4096x2304 (чуть больше 4К) можно найти в комментариях к этой записи.
___
Stable Diffusion: инструменты, расширения, модели, токены
Иллюстрация для поста с описанием процесса доработки изображения через коллаж в инпейнте.
Рисунок 16:9, 4096x2304 (чуть больше 4К) можно найти в комментариях к этой записи.
___
Stable Diffusion: инструменты, расширения, модели, токены
❤6
#Automatic1111
Иконки для
1. Распакуйте архив
2. Создайте ярлык для
Теперь на панели задач будет нескучная иконка!
Задать иконку папки: ПКМ по папке - свойства - настройка - сменить значок - выбрать нужный значок - ок - применить
Источники иконок:
1. Реддит
2. Тема в гитхабе Автоматика
____
Stable Diffusion: инструменты, расширения, модели, токены
Иконки для
webui-user.bat, папки с WebUI или чего угодно1. Распакуйте архив
2. Создайте ярлык для
webui-user.bat
3. ПКМ по ярлыку - свойства - сменить значок - обзор - выбрать нужный значок - ок - применитьТеперь на панели задач будет нескучная иконка!
Задать иконку папки: ПКМ по папке - свойства - настройка - сменить значок - выбрать нужный значок - ок - применить
Источники иконок:
1. Реддит
2. Тема в гитхабе Автоматика
____
Stable Diffusion: инструменты, расширения, модели, токены
❤🔥9❤1💔1
SD_icons.zip
8 MB
❤🔥6
У капибары лапки | StableDiffusion: Extensions\Tools\Models\Tokens
#обзор Случайно открыл необычный и контринтуитивный способ ускорения при рисовании нескольких изображений. На RTX 3080 Ti выигрыш составил почти 22% в сравнении с отсутствием "оптимизации". Боюсь представить сколько можно выиграть на условной 4090... Batch…
Думал, что уже писал о недостатке работы новых драйверов Nvidia, но оказалось, что не писал. Исправляю недоразумение.
В драйверах 532 и новее изменён механизм работы с видеопамятью. При её нехватке используется оперативная память и дичайше забивается файл подкачки.
Это позволяет приложениям не падать с ошибками, вроде CUDA OUT OF MEMORY, ценою снижения производительности. На 3080 Ti замечал падение скорости до 5-7 раз при рисовании в Stable Diffusion большого количества изображений на Batch Size 10.
Отключить этот волшебный механизм нельзя. Но можно откатиться на драйвер 531.79, где "оптимизации" ещё нет.
Совет использовать Batch Size вместо Batch Count не актуален для драйверов 532 и выше.
Обязательно напишу, если какой-то из новых версий драйвера появится возможность отключить использование оперативной памяти для задач видеокарты.
┐(╥﹏╥)┌
В драйверах 532 и новее изменён механизм работы с видеопамятью. При её нехватке используется оперативная память и дичайше забивается файл подкачки.
Это позволяет приложениям не падать с ошибками, вроде CUDA OUT OF MEMORY, ценою снижения производительности. На 3080 Ti замечал падение скорости до 5-7 раз при рисовании в Stable Diffusion большого количества изображений на Batch Size 10.
Отключить этот волшебный механизм нельзя. Но можно откатиться на драйвер 531.79, где "оптимизации" ещё нет.
Совет использовать Batch Size вместо Batch Count не актуален для драйверов 532 и выше.
Обязательно напишу, если какой-то из новых версий драйвера появится возможность отключить использование оперативной памяти для задач видеокарты.
┐(╥﹏╥)┌
❤7
#токен
• повышение веса до 1.2-1.4 повышает стабильность, сам по себе токен достаточно слабый
• чем-то похож на volumetric light, но создаёт менее "густое" освещение
• указание источника света и объектов, через которые будет проходить свет (дым, туман, ткань, листва, etc.), значительно улучшит результат
• источники цветного света, вроде солнца на рассвете и закате, дают более интересную картинку, в сравнении с белым дневным или отсутствием видимого источника освещения
• backlight на английском означает "подсветка", но в таком контексте, почему-то, токен работать отказывается.
ヽ( ̄~ ̄ )ノ
Крошечный эксклюзив для крошечного канала: токен и идеи использования предоставлены Хачатуром (XpucT). Огромное ему спасибо! И не только за токен.
___
Stable Diffusion: инструменты, расширения, модели, токены
backlight of {something}
Продолжаем работать со светом и сегодня опробуем токен, который может улучшить освещение сцены или задать атмосферу.• повышение веса до 1.2-1.4 повышает стабильность, сам по себе токен достаточно слабый
• чем-то похож на volumetric light, но создаёт менее "густое" освещение
• указание источника света и объектов, через которые будет проходить свет (дым, туман, ткань, листва, etc.), значительно улучшит результат
• источники цветного света, вроде солнца на рассвете и закате, дают более интересную картинку, в сравнении с белым дневным или отсутствием видимого источника освещения
• backlight на английском означает "подсветка", но в таком контексте, почему-то, токен работать отказывается.
ヽ( ̄~ ̄ )ノ
Крошечный эксклюзив для крошечного канала: токен и идеи использования предоставлены Хачатуром (XpucT). Огромное ему спасибо! И не только за токен.
___
Stable Diffusion: инструменты, расширения, модели, токены
❤17
#мысливслух
https://www.youtube.com/watch?v=GVT3WUa-48Y
Бум разработки видео-игр в начале десятых совпал с появлением доступных движков, вроде Unity или Unreal, которые на несколько порядков упростили процесс разработки небольшим командам. Появилась возможность создать игру мечты не тратя ресурсы на создание собственной технологии. Стало возможно создавать игры вообще не умея программировать! Это было что-то невероятное!
Что если с набором инструментов Stable Diffusion будет аналогичная ситуация? Небольшие команды энтузиастов или одиночки, у которых раньше не было шансов создавать фильмы в формате существующей индустрии, теперь смогут рисовать небольшие шедевры. Айфон, хромакей, компьютер с видеокартой и целеустремлённость поменяют правила игры. Зачем наниматься в огромную студию с конкурсом 100 человек на место, когда ты можешь создавать фильмы мечты буквально на подручных инструментах и с бюджетом пива с орешками "классической" студии? Узнаем уже совсем скоро.
Подробное видео с описанием процесса и инструментов.
PS: видео вышло 5 месяцев назад, пост написан месяц назад. Ничего даже близко похожего так и не появилось. Сообществу интереснее клепать дипфейки, одноразовый кайф в дефоруме и куаркоды. Вот вы сколько раз сканировали куаркоды до недавнего бума?! Пять?
_
Stable Diffusion: инструменты, расширения, модели, токены
https://www.youtube.com/watch?v=GVT3WUa-48Y
Бум разработки видео-игр в начале десятых совпал с появлением доступных движков, вроде Unity или Unreal, которые на несколько порядков упростили процесс разработки небольшим командам. Появилась возможность создать игру мечты не тратя ресурсы на создание собственной технологии. Стало возможно создавать игры вообще не умея программировать! Это было что-то невероятное!
Что если с набором инструментов Stable Diffusion будет аналогичная ситуация? Небольшие команды энтузиастов или одиночки, у которых раньше не было шансов создавать фильмы в формате существующей индустрии, теперь смогут рисовать небольшие шедевры. Айфон, хромакей, компьютер с видеокартой и целеустремлённость поменяют правила игры. Зачем наниматься в огромную студию с конкурсом 100 человек на место, когда ты можешь создавать фильмы мечты буквально на подручных инструментах и с бюджетом пива с орешками "классической" студии? Узнаем уже совсем скоро.
Подробное видео с описанием процесса и инструментов.
PS: видео вышло 5 месяцев назад, пост написан месяц назад. Ничего даже близко похожего так и не появилось. Сообществу интереснее клепать дипфейки, одноразовый кайф в дефоруме и куаркоды. Вот вы сколько раз сканировали куаркоды до недавнего бума?! Пять?
_
Stable Diffusion: инструменты, расширения, модели, токены
YouTube
ANIME ROCK, PAPER, SCISSORS
ANYONE can make a cartoon with this groundbreaking technique. Want to learn how? We made a ONE-HOUR, CLICK-BY-CLICK TUTORIAL on http://www.corridordigital.com/
With Your Support, We Can Make More! ►
This project exists because of the amazing members of…
With Your Support, We Can Make More! ►
This project exists because of the amazing members of…
❤6
#арт
Оплатил Telegram Premium, теперь все обзоры и заметки будут в два-три раза длиннее. Хорошо это, или плохо, узнаем уже совсем скоро.
Stable Diffusion: инструменты, расширения, модели, токены
Оплатил Telegram Premium, теперь все обзоры и заметки будут в два-три раза длиннее. Хорошо это, или плохо, узнаем уже совсем скоро.
(masterpiece, best quality, anime, perfect anime illustration:1.3), (dark magic:1.2), (grim:1.4) dense forest, bushes with thorns, (intricate details), (hyperdetailed), 8k hdr,, high detailed, lot of details, high quality, refined, soft cinematic light, dramatic atmosphere, atmospheric perspective
Negative prompt: (worst quality:1.3), (low quality:1.3), blur, blurry, text, error, signature, watermark, logo,
Steps: 24, Sampler: DPM++ 2M Karras, CFG scale: 6, Seed: 4171271420, Size: 1024x576, Model hash: 099e07547a, Model: ANIME—darkSushiMixMix_brighterPruned, Clip skip: 2, Version: v1.3.2
___Stable Diffusion: инструменты, расширения, модели, токены
❤11
#расширение (?)
roop for StableDiffusion
https://github.com/s0md3v/sd-webui-roop
Вы наверняка видели работу моднейшего дипфейка roop, который заменяет лицо на видео по одному фото, если подписаны на новостные блоги о нейросетях.
Сегодня roop добавлен как расширение в Stable Diffusion для txt2img и img2img. Инструмент решает единственную задачу: переносит лица из исходной фотографии на рисунок.
Для установки необходима Visual Studio Community Edition с установленными пакетами Python и C++.
Номер версии расширения 0.0.2 намекает на степень готовности для практического применения.
Я честно попробовал все варианты настроек, благо их немного. На фотографиях разного качества. На разных моделях. На разных семплерах (вдруг?).
Здесь и сейчас результат одинаково плох, без инпейнта никуда не годится. А после доработки лица не узнать.
Если вы думаете, что функция Restore Face улучшит результат, то вы зря так думаете.
Это обман чтобы набрать классы.
Будем следить за развитием проекта. Надеюсь, что доработка алгоритмов или добавление новых моделей (сейчас доступна только одна) улучшат результат на столько, что лоры на рисование лиц станут не нужны.
С другой стороны: а зачем опытным пользователям диффузий тратить энергию на создание моделей для сомнительного расширения, когда они тренируют идеальные лоры и в расширении не нуждаются?
Лайкнуть на DTF
___
Stable Diffusion: инструменты, расширения, модели, токены
roop for StableDiffusion
https://github.com/s0md3v/sd-webui-roop
Вы наверняка видели работу моднейшего дипфейка roop, который заменяет лицо на видео по одному фото, если подписаны на новостные блоги о нейросетях.
Сегодня roop добавлен как расширение в Stable Diffusion для txt2img и img2img. Инструмент решает единственную задачу: переносит лица из исходной фотографии на рисунок.
Для установки необходима Visual Studio Community Edition с установленными пакетами Python и C++.
Номер версии расширения 0.0.2 намекает на степень готовности для практического применения.
Я честно попробовал все варианты настроек, благо их немного. На фотографиях разного качества. На разных моделях. На разных семплерах (вдруг?).
Здесь и сейчас результат одинаково плох, без инпейнта никуда не годится. А после доработки лица не узнать.
Если вы думаете, что функция Restore Face улучшит результат, то вы зря так думаете.
Это обман чтобы набрать классы.
Будем следить за развитием проекта. Надеюсь, что доработка алгоритмов или добавление новых моделей (сейчас доступна только одна) улучшат результат на столько, что лоры на рисование лиц станут не нужны.
С другой стороны: а зачем опытным пользователям диффузий тратить энергию на создание моделей для сомнительного расширения, когда они тренируют идеальные лоры и в расширении не нуждаются?
Лайкнуть на DTF
___
Stable Diffusion: инструменты, расширения, модели, токены
❤8
#расширение
!After Detailer
https://github.com/Bing-su/adetailer
Последнее время часто пишу об инструментах и техниках inpaint (раз, два, три, четыре) и не могу не упомянуть After Detailer — способ ленивого инпейнта, который улучшит лица, руки и даже персонажа целиком. В пару кликов вы отмечаете что хотите улучшить и при обычном рисовании получаете улучшенные варианты изображений. Для сравнения "до и после" надо включить настройку "Save images before ADetailer".
After Detailer — одно из самых популярных расширений для WebUI. Если вы рисуете людей и не дорабатываете результаты в After Detailer (или в inpaint) вы очень много теряете.
Как это работает?
text2image → hires.fix → After Detailer 1 → After Detailer 2 → улучшенное изображение.
Особенности работы расширения
• Если вы зачем-то пользовались Restore faces и портили им лица, то с After Detailer можете забыть про Restore faces, функция будет не нужна.
• Сбалансированные настройки из коробки, можно инпейнтить изо всех сил буквально в пять кликов мышкой вообще не умея инпейнтить!
• Расширение может не дать заметного эффекта если модель плохо рисует детали лица. Например, на моих любимых aZovyaRPG оно почти бесполезно.
• Чем меньше пространства в кадре занимает персонаж, тем лучше результат при доработке лица. Идеально для ростовых портретов, почти бесполезно для "клоузапов".
• С лицами работает многократно лучше, чем с руками или телом.
• На выбор 5 моделей для улучшения лиц, 2 для тел, 1 для рук
• Замедляет рисование каждого изображения в 1,5-2 раза
Продолжение: рекомендованные настройки для !After Detailer
___
Stable Diffusion: инструменты, расширения, модели, токены
!After Detailer
https://github.com/Bing-su/adetailer
Последнее время часто пишу об инструментах и техниках inpaint (раз, два, три, четыре) и не могу не упомянуть After Detailer — способ ленивого инпейнта, который улучшит лица, руки и даже персонажа целиком. В пару кликов вы отмечаете что хотите улучшить и при обычном рисовании получаете улучшенные варианты изображений. Для сравнения "до и после" надо включить настройку "Save images before ADetailer".
After Detailer — одно из самых популярных расширений для WebUI. Если вы рисуете людей и не дорабатываете результаты в After Detailer (или в inpaint) вы очень много теряете.
Как это работает?
text2image → hires.fix → After Detailer 1 → After Detailer 2 → улучшенное изображение.
Особенности работы расширения
• Если вы зачем-то пользовались Restore faces и портили им лица, то с After Detailer можете забыть про Restore faces, функция будет не нужна.
• Сбалансированные настройки из коробки, можно инпейнтить изо всех сил буквально в пять кликов мышкой вообще не умея инпейнтить!
• Расширение может не дать заметного эффекта если модель плохо рисует детали лица. Например, на моих любимых aZovyaRPG оно почти бесполезно.
• Чем меньше пространства в кадре занимает персонаж, тем лучше результат при доработке лица. Идеально для ростовых портретов, почти бесполезно для "клоузапов".
• С лицами работает многократно лучше, чем с руками или телом.
• На выбор 5 моделей для улучшения лиц, 2 для тел, 1 для рук
• Замедляет рисование каждого изображения в 1,5-2 раза
Продолжение: рекомендованные настройки для !After Detailer
___
Stable Diffusion: инструменты, расширения, модели, токены
❤9