CGIT_Vines
10.8K subscribers
619 photos
1.31K videos
11 files
1.8K links
Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство.
Статистику не предоставляю, смотрите на tgstat.ru
Регистрация в РКН: № 6148197228
mentorcampus.ru

Вопросы и предложения: @Evgeniy_Vegera
Download Telegram
А вот и анонс!
Сегодня в 19:15 по МСК делаем стрим с одним из наших менторов Сережей Мизинцевым.
Напомню, что говорить будем про Hardsurface в геймдеве и про то, как знания по смежным дисциплинам помогают в развитии художника. Залетайте, задавайте вопросы.

https://www.youtube.com/live/8eHEhvoSnpg?si=_ymzpUNobIaKY0x8
9🔥54
This media is not supported in your browser
VIEW IN TELEGRAM
Пощу осторожно, потому что я со своей паранойей уже никому не доверяю.

Чувак собрал GUI для общения с Gemini. На вход дает модель с готовой UV-разверткой и просит перерисовать текстуры. Давайте разбираться.

Так как нет абсолютно никаких подробностей — ни пайплайна, ни гита — имаджинируем.

Как Gemini видит входящую информацию? Если он видит развертку в 2D-виде, я уверен, что он ни черта не понимает, что к нему пришло и как с этим работать. 3D-представления или плоский кадр объекта более привычны для диффузионных моделей.

Вероятно, эта надстройка может делать снимки объекта с разных ракурсов и отдавать на регенерацию, как это сделано в Multiview Hunyuan 2. Дальше включаются алгоритмы генерации 3D-модели, и в финале с этой модели происходит репрожект на входящую модель с UV-разверткой.

Честно говоря, это тупой и бессмысленный метод, но ничего лучше я не придумал, поэтому склоняюсь к тому, что видео — возможно просто концепт.

Я уверен, что в канале есть люди с более системным мышлением, которые могут предложить варианты получше. Пишите в комменты ваши мысли.
🤔112
Все потому что на вайбе нужно быть!
😁51😭9🥰2👌1
This media is not supported in your browser
VIEW IN TELEGRAM
Вчера прочитал, что мульт Flow собрал $36 миллионов при затраченных $3.7!
В популярности, конечно же, сыграл аспект того, что мульт получил Оскара.

Но важно, что сама история и подача сработали за счет свежего подхода. При этом никто не говорил, что там крутые спецэффекты, графика, рендер или что-то подобное. Ребята сами признавались, что в Blender и создании мультов были новичками.

Все это дает новое дыхание независимой анимации. И тут мы разобрались, что инструменты не так уж и важны для успеха. Поэтому ИИ с его ускорением процесса производства — не помеха, но и не буст, но точно причина понижения порога входа. История и возможность экспериментировать — вот что будет решать.

Большинству в целом было без разницы, что анимация во Flow была странной, мягко говоря, или что шерсть выглядела неестественно, ну и много чего еще. Поэтому какие-то косяки AI, если правильно обернуть их в стиль и держать под надзором хорошего арт-директора, вообще не будут восприниматься как недостаток.

Так что будем ждать смелых и дерзких!
41🔥17😐52💩1
This media is not supported in your browser
VIEW IN TELEGRAM
Обожаю Азимова, он поднимал вопросы, которые вдохновляли ученых, исследователей, режиссёров и целые поколения.

Из этой идеи, я так понимаю, получился роман, а потом и фильм «Двухсотлетний человек». А затем — и философские рассуждения майора Кусанаги на лодке после дайвинга в ночном мегаполисе. Там она неожиданно для себя принимает решение слиться с ИИ.

Я оставил английский звук, потому что так звучит атмосфернее. Ру перевод закину в комменты.
44🔥76🤔1😈1👾1
Forwarded from Neural Shit
Наткнулся на интересный проект: PiT. Суть: даём модельке на вход пару визуальных кусочков — например, прическу, крыло и лапу, — а она достраивает из этого полноценного персонажа или предмет. Без текста, без описаний, только визуальные фрагменты.

Вместо того чтобы объяснять словами, как ты это видишь, — просто показываешь, а модель понимает контекст и домысливает недостающее. Работает на улучшенном пространстве IP-Adapter+, а сверху можно накинуть LoRA, чтобы менять стили, фоны и сцену.
Примеры, подробности и демки тут.
Исходников пока нет, но скоро обещают выкатить
🔥26
This media is not supported in your browser
VIEW IN TELEGRAM
Кажется, ребята из CSM (Common Sense Machines) начинают понимать, как работает PBR.

Выкатили апдейт на свой генератор моделей и текстур, который на практике всё ещё далеко не дотягивает до верха рейтинга, где Hunyuan и Tripo.

Но зато текстурки теперь хоть как-то релайтнуты, и с ними можно продолжать работать в Painter.
125
This media is not supported in your browser
VIEW IN TELEGRAM
Я настойчиво продолжу вызывать у вас чувство эмпатии к роботам.
20 часов беспрерывной работы и даже железяка не выдерживает напряжения 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
1😭5226😁13😱41
Генераторы изображений не идеальны, даже последний — после вчерашнего анонса от OpenAI.

Пришлось опять оплатить $20 за подписку ради этого поста. Пайплайны сами себя не протестируют, хоть они ещё и не готовы, но нам нужно быть готовыми, когда всё уже будет продакшен-реди.

Создание модульных конструкторов — дело геморройное, а ускорить процесс очень хочется. Тут, конечно, нет никакого разговора о точности и метриках «по сетке», чтобы стыковалось хорошо, но для концептов — очень даже подойдёт. Я сделал это за 5 нот шагов, но в целом можно и быстрее. Хотелось посмотреть, как он работает со стилями. Оказалось — вполне неплохо, хоть тест и не полноценный.

По итогу мы имеем поассетную раскладочку, которую вы сами понимаете, в какой 3D-генератор можно засунуть и получить за один проход сразу несколько затекстуренных мешей. Только при таком подходе не забывайте, что выделенный генератором поликаунт распределяется равномерно между всеми частями. Так что если вам нужны более хайпольные меши — кидайте на генерацию по частям.

@CGIT_Vines
16🔥11🤯6🤔3😈1
И если прошлый тест был на, условно, hardsurface-объектах, то мне хотелось посмотреть, как консистентность будет работать, во-первых, с ракурсами, во-вторых — с органическими, биомными объектами.

Часто просто понять по концептам реальных живых художников очень сложно, как один ракурс перетекает в другой — мозг можно сломать. А тут попадание примерно 70 %, что неплохо для 2025 года.

Осталось оплатить ещё подписку для Tripo с мультиракурсами и попробовать, как у него мозг свернётся в трубочку при генерации.

Давайте я скину в комменты полноформатную картинку, и у кого есть подписка — сможете попробовать, если захотите.
🔥1742
This media is not supported in your browser
VIEW IN TELEGRAM
Чтобы вас не мучать, я напишу три новости на одну тему. За последние пару дней появились апдейты по 3D-генераторам. Последняя новость, на мой взгляд, будет самой топовой.

1. Hi3DGen релизнулась на Hugging Space с довольно неплохим качеством генерации. Добились они этого за счёт дополнительного прохода по генерации нормалей, которые участвуют в более точном определении поверхностей.
254
This media is not supported in your browser
VIEW IN TELEGRAM
2. Tripo пока только показали две апдейтнутые open source модели — TripoSG и TripoSF.

SG, как я понимаю, ничем не отличается от img2mesh.

SF создана для работы с более сложной геометрией, в том числе с подобием параметрической. К сожалению, демок пока нет, но то, что это опенсорс, не заставит себя долго ждать. Лайк им за это!

Upd. Пока писал дропнули на хагинфейс.

SG тут
SF тут

Git для SF
12🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
3. Ну и последнее — это мой личный топчик. В модель Rodin Gen2 добавили возможность понимание и сегментацию модели на отдельные части.

Это просто охренеть какая крутая фича. Я в прошлых постах писал, что как раз не хватает подобной сегментации — причём не важно, 2D или 3D генерация. Обычно генераторы выдают цельный меш, с которым очень неудобно работать. Осталось добавить возможность регенерации этих отдельных частей, а не всего меша.

В общем, прелесть, а не новость.
Релиз— в июне 2025. 😍
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥52🤝33
Чет решил постримить сегодня. Классическая инвира (Blender, Ureal, Painter, вот это все), без ИИ почти 🦸
Если тебе скучно и одиноко, звони в 17:00 по МСК 🥰

https://www.youtube.com/live/63lE55vGu70?si=10Nb7oeEVB9eUsyJ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥163🤝1
This media is not supported in your browser
VIEW IN TELEGRAM
Утренние тесты подписки ChatGPT на предмет получения разных карт из одной фототекстуры. Первым делом нужно было получить delight исходного изображения - мы же в PBR хотим 🤡

Допустим, с третьего раза я получил нужный промпт, который дал хоть какой-то приемлемый результат — не пересвеченный и не убитый в хлам:

Убери из этого изображения теневые участки так, чтобы верёвки на изображении были освещены равномерно, без теневых участков, как это обычно делают, создавая текстуру albedo для текстур scan-like. Можешь посмотреть, как выглядят текстуры на сайте Megascans. Так, чтобы не получилось очень пересвеченное изображение. Давай не будем делать исходное изображение ярче, чем оно уже есть — корректируй только теневые участки, приводя их к средним значениям света на изображении, и не меняй составляющую saturation.


Дальше сам GPT предложил мне создать normal, roughness карты — "окей, давай". И вот тут, конечно, насмотренность есть у модели, но понять нюансы карт — это пока ещё остаётся за человеческим мозгом. Нормали получились очень интенсивными, с лишними деталями, рафнесс для верёвки не пригоден совсем, хотя направление в целом более правильное. Ну и в плане понимания, даже мозгом, — в разы легче, если мы говорим про конверсию с фотографии.

По итогу delight получить ещё можно, другие карты пока не годятся.

Карты кину в комменты.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥197👌2🤝1
Не на все тесты хватает рук, поэтому вот вам чужие. Создаём покадровый spreadsheet FX'ов с плавной анимацией.

Промпты строятся по одному и тому же сценарию. Этот сделан для волшебника, кастующего фаербол, но вы в скобках меняйте на то, что вам нужно. Описывать стоит довольно детально:

"Create a detailed pixel art frame animation for a game, where the final image is divided into multiple sub-images, each serving as a continuous animation keyframe. Design the sequence to depict [a wizard casting a spell: begin with intricate hand motions, then show the wizard conjuring a vibrant fireball, and finally capture the moment of casting the fireball.] Ensure the keyframes transition smoothly and continuously, and include as many frames as possible to achieve a high level of fluidity and detail in the animation."

Результат волшебника кину в комменты)
🔥27
This media is not supported in your browser
VIEW IN TELEGRAM
Мета анонсировала систему синтеза эмоций для генеративного видео MoCha.
Типа киношное качество уже достижимо, а вот нарратив толкать без управления эмоциями — явный пробел. Его и заполняют.

Не шутка, потому что не смешно!

Сайт проекта
Демки пока нету(
🤮14🔥123👎1