Нейросети и Блендер
12.8K subscribers
1.41K photos
366 videos
3 files
571 links
Дизайн и искусство в Blender и в AI
Тренирую модели, людей и себя

Поддержать канал — patreon.com/monkeyinlaw_patreon

Стрим канал — https://xn--r1a.website/motivationarts

https://linktr.ee/monkeyinlaw — Связь

Чата в канале нет с 13.07.2025
Download Telegram
Flow о котором я делал репост ранее — вчера выиграл Оскар, как лучший анимационный фильм.

🐱 Что самое интересное, весь фильм был сделан в рендер движке Eevee
С Eevee знаком каждый, кто начинал создавать что-то в Blender, его скорость всегда меня радовала, особенно когда у вас небольшой объем памяти на GPU или CPU.

📕 Для тех кто хочет углубиться — вот здесь огромная лекция на конфе по Blender о создании фильма
Еще понравился вот такой комментарий:
Что?? Всего 20 аниматоров сделали весь фильм всего за 6 месяцев? Половина из них не знала Blender заранее, а другая половина были джунами? Это ДЕЙСТВИТЕЛЬНО впечатляет!


☺️ Это наверное первый полный анимационный фильм, который был сделан в Blender и забрал номинацию Оскара. Мне особенно это приятно, когда инструмент признается как профессиональный.
Сейчас часто делаю болванки vid2vid для видео моделей через Blender.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥535👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Контекстное окно для Wan подъехало

Теперь можно генерировать ролики любой длины, вот что пишет основатель Banodoco:
Kijai реализовал подход для сдвига контентного окна с Wan 14B, который показывает действительно хорошие результаты — если не обращать внимание на красную панду, пытающуюся оседлать маленького бегемота

🐱 Причем многие из этих наработок взяты из AnimateDiff, кажется Wan становится преемником AnimateDiff в опенсоурс буквально на глазах. Ждем ControlNetы и это будет новый расцвет видео опенсоурса над closed сообществом.

🐈‍⬛ Я уже сейчас не успеваю все потестить. Но обещаю адаптированные бенчи на следующей неделе, в комменты покидаю небольшие результаты с Text2Video 14b модельки.

☺️ А еще и Лору очень хочется натренировать уже.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25🤯6👍2
Чуть потестил Wan2 с большим контекстным окном

📕 Плюсы:
— Можно генерить столько кадров, сколько хочется

🐈‍⬛ Минусы:
— На сложных сценах видны склейки между переходами в контекстном окне
— Не добавить Лору, как можно в оригинальных пайплайнах WAN от ComfyUI

☺️ Держите котят-поваров, которые пекут в разных локациях булочки и тортики.

Разные пайплайны от Kijai по Wan: LINK

📕 В общем жду ControlNet под Wan и возможность использовать картинку как style reference при vid2vid и забираю WAN как основную модель для всех своих видео арт проектов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍196
Media is too big
VIEW IN TELEGRAM
Офигенный workflow от аниматора Cuco

Это как раз идеальный пример, как художник может использовать AI для упрощения процессов не особо теряя в качестве.

-- Тут обучение Лоры на своих артах, особенно когда их мало.

-- Создание всего окружения в своём стиле + создание простых сцен. Я делал что-то похожее здесь.

-- Создание простых анимаций использую только линии и затем Lineart на своей Лоре чтобы сделать финальную картинку.

-- Далее AnimateDiff с Lineart ControlNet для сцен + Лора. И вот уже у нас офигенные слои, которые можно будем потом композить.

Автор: LINK
👍46🔥315🤡1
Forwarded from Ai molodca (Dobrokotov)
Media is too big
VIEW IN TELEGRAM
Поле Чудес, но это аниме опенинг

Продолжаю экспериментировать с Luma Ray 2.

Пайплайн: Midjourney + Flux + Luma Ray 2 + Suno.

Версия для ютуба, если кому нужно.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥50🤡13😁6👍1
Forwarded from CGIT_Vines (Marvin Heemeyer)
Andrew Price затестил текущие модели для генерации 3D. Тест не идеальный, так как некоторые игроки не представлены на тестах. Но, тем не менее, это дает представление о текущем положении дел.

Главное — помнить, что где-то использовались PRO-версии генераторов, которые, как я подозреваю, просто наваливают больше геометрии, и точность вырастает именно из-за этого. Стоит ли пользоваться или переживать — решать вам.
🔥19👍8🤯5😁1
Forwarded from Ai molodca (Dobrokotov)
Media is too big
VIEW IN TELEGRAM
Дальнобойщики, но это аниме опенинг.

Ёкарный пайплайн: Midjourney + Claude + Flux + Photoshop + Luma Ray 2 + Suno + Сapcut.

Трек: кавер на Високосный год - Тихий огонёк.

Спасибо всем кто репостит и упоминает, мотивирует продолжать!

Версия для ютуба.
🔥424🤡2😡2💊1
Forwarded from ЭйАйЛера
Обработка видео и 3D моделей в Runway

Тестировала пайплайн обработки 3D видео с помощью Runway. В обработку обычных футажей решила не лезть, с ним мне более-менее все ясно, да и думаю многие достоинства и недостатки обработки фигур будут такими же. Пайплайн с классным использованием Клода я пока не брала (спасибо каналу @CGIT_Vines), мне тридэшные футажи подготовил коллега.

Вообще я концентрируюсь на обработке видео и поэтому возможность управления с помощью 3D, созданных в LLM на будущее мне очень улыбается.

Кратко:
⁃ 3D видео вытащенное из Blender
⁃ Обработанный в Krea первый кадр из видео
⁃ Текстовый промпт, обработка первого кадра и настройки в Runway (там их немного)

Плюсы:
⚠️Жирный хрон, можно сделать одной кнопочкой больше 5 секунд
⚠️Мало кнопочек
💿Выглядит эстетично, никакого моргания
⚠️Работает быстро, много видео в очереди

Минусы:
🪩Мало кнопочек — мало управления
Малый контроль сюжета даже с обработанным кадром и промптом
🪩Для обработки нужен обработанный первый кадр, а не просто картинка, это занимает время
🪩Никаких фантастических приколов вне промпта — это вам не Deforum
📺Свойственны те же артефакты, что и нынешней версии Runway — мыло, появляющиеся и исчезающие предметы и люди

Итого: полезная штука, использовать и экспериментировать хочется. Перспективно полезно и в арте, и в рекламе, и в кино, но мне хочется больше спонтанности.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🤡53
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Вчера прочитал, что мульт Flow собрал $36 миллионов при затраченных $3.7!
В популярности, конечно же, сыграл аспект того, что мульт получил Оскара.

Но важно, что сама история и подача сработали за счет свежего подхода. При этом никто не говорил, что там крутые спецэффекты, графика, рендер или что-то подобное. Ребята сами признавались, что в Blender и создании мультов были новичками.

Все это дает новое дыхание независимой анимации. И тут мы разобрались, что инструменты не так уж и важны для успеха. Поэтому ИИ с его ускорением процесса производства — не помеха, но и не буст, но точно причина понижения порога входа. История и возможность экспериментировать — вот что будет решать.

Большинству в целом было без разницы, что анимация во Flow была странной, мягко говоря, или что шерсть выглядела неестественно, ну и много чего еще. Поэтому какие-то косяки AI, если правильно обернуть их в стиль и держать под надзором хорошего арт-директора, вообще не будут восприниматься как недостаток.

Так что будем ждать смелых и дерзких!
48👍16🤡10💊4🤯2😡1
Как правильно задавать технические вопросы (и почему это важно для общения с LLM)

Одновременно я столкнулся с двумя вещами в последний месяц: Странные вопросы и замечательные текст с этого сайта про умные вопросы.

Прежде чем задавать технический вопрос по почте, в группе, на форуме или мне в канале, стоит предпринять несколько важных шагов:

— Попробуйте найти ответ, изучив архивы форума или рассылки.

— Используйте поисковые системы (например, Google или Deep Search в разных моделях).

— Обратитесь к официальной документации.

— Проверьте раздел часто задаваемых вопросов (FAQ).

— Попробуйте решить проблему самостоятельно, путём анализа или экспериментов.

— Спросите совета у более опытных коллег или друзей.

— Изучи исходный код или ноды детально, перед вопросом.

Когда будете задавать вопрос, важно показать, что вы уже предприняли усилия для поиска ответа. Это сразу продемонстрирует уважение к чужому времени и покажет, что вы не «ленивая губка», пытающаяся просто вытянуть информацию. Ещё лучше указать, чему вы уже научились в процессе поиска.

Используйте конкретные приёмы поиска. Например, вставляйте точный текст ошибки в Google. Даже если это не приведёт вас сразу к решению, упоминание о том, что вы уже сделали поиск, поможет другим понять, какие методы не сработали, и направит людей с аналогичными проблемами к вашему обсуждению.

Не торопитесь. Сложные проблемы редко решаются за пару минут поиска. Подумайте внимательно, сформулируйте точный вопрос, подготовьтесь. Опытные пользователи сразу увидят, насколько глубоко вы изучили проблему и будут охотнее помогать.

Осторожно подходите к формулировке вопроса. Неправильно заданный вопрос, основанный на неверных предположениях, часто приводит к бесполезным или буквальным ответам, которые никак не помогают решить вашу реальную проблему.

Не думайте, что вам обязаны ответить. Помощь в открытых сообществах — это не платная услуга. Ответ нужно заслужить интересным, осмысленным и хорошо проработанным вопросом. Подчеркните готовность активно участвовать в процессе решения проблемы. «Подскажите, в каком направлении копать?» или «Чего не хватает в моём примере?» — такие вопросы намного чаще получают полезные ответы, чем просьбы типа «напишите мне точную последовательность шагов».

📕 Почему это важно для общения с LLM?

LLM (большие языковые модели) тоже работают лучше, когда запрос составлен чётко и продуманно. Чем яснее и подробнее сформулирован ваш вопрос, тем точнее будет ответ нейросети. Подход «сначала подумай, потом спроси» отлично подходит и для взаимодействия с искусственным интеллектом. Вы сэкономите время и получите более качественные и полезные ответы.

Правильно заданный вопрос — это уже половина решения проблемы. Не пренебрегайте этим шагом, и общение как с людьми, так и с LLM будет приносить гораздо больше пользы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1612👍9💊3😡3🔥1
Я трогаю траву, потому так мало постов на канале.

Сегодня личный контент:
— Делал большой рефактор питания, бюджетов, не без помощи ChatGPT.
— Собрал 5-6 стабильных рецептов для готовки себе. Тоже ChatGPT + весы кухонные для идеальных граммовки и тесты, тесты, тесты. Но просить LLM не говорить щепотку соли, это конечно проблема. У всех пальцы разные, почему просто нельзя в граммах написать?

— Вернулся в акробатику. Тут ChatGPT конечно не помог, хорошо есть свой опыт и куча каналов с обучением на ютьюбе.
— Сделал по 20 минут в день(при хорошей погоде) тренировок на скейте.
— Сформировал себе зарядки и планы тренировок на день. Что в целом за месяц дало невероятные результаты, как похудения, так и формы.
— Делаю рефактор этого канала, канала для стримов, ютьюб канала и патреона.
— На неделе напишу про то, как стал делать бетонные вазы, как подбирал цемент, пропорции, узнал много нового.

В общем мне иногда нужно побыть человеком, который любит жизнь и учится новым навыкам. А нейронные модели чуть попозже.
55🔥25👍7🤡7💊6🤯3🎄1
Forwarded from Ai molodca (Dobrokotov)
Media is too big
VIEW IN TELEGRAM
OpenAI своим новым генератором сломали интернет. В Твиттере невозможно находиться, потому что каждый пост — это Ghibli версия чего-то (бедный Миядзаки). Но среди тонны кеков нашел этот трейлер Lord of the Rings. По словам автора сделан за 9 часов и 250$ кредитсов в Kling. Сами кадры трейлера, их 102 штук, разумеется, рестайл в новом ChatGPT.

Самое удивительное в этом — отсутствие привычных ограничений OpenAI (на стиль, персонажей). Есть у меня ощущение, что скоро лавочку прикроют, как это было в свое время с Dalle-3.

AGI = All Ghibli Images
🔥453👍1🤡1