Метаверсище и ИИще
47.2K subscribers
6K photos
4.46K videos
46 files
6.9K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Утренняя разминка с визуализацией.

Сегодня на завтрак ряды Фурье божественно представленные в лаконичном виде.
И да, в пределе нужно бесконечное количество окружностей.

P.S. Чтобы приукрасить пост и сделать его менее скучным, попросил chatGPT написать промпт, иллюстрирующий природу рядов Фурье. Потом сгенерил эти картинки в DALL·E 3 и Flux 1.1

@cgevent
2👍468👎2🔥1😱1
Тут интернетик приподвзорвался новым "хаком" для генерации во Flux.

Выглядит это примерно так:

Try using a prompt like "IMG_1025.HEIC" to get very very realistic images with FLUX1.1.

Это я взял с линкедИна, на твитторе пишут:
If you give FLUX1.1 a prompt like "IMG_1018.CR2" you get back images that are so very hard to tell they're AI.

Вы можете также использовать хорошо знакомые по телефонам: DSC_0123.JPG

Если не просто репостить, а немного потестить, то выясняется, что линкедыновские просто переизобрели все эти олдскульные теги из Stable Diffusion 1.5, типа "wow", "trending on artstation" или "redshift render".

Я погонял это в Фордже для Flux.Dev - благо там есть Plot X\Y\Z - эти промпты дают рандомные картинки, но можно убедить себя, что они как будто фотки (но нет). Там много мусора.

Флюкс Про 1.1 по ним генерит в основном ... траву. И цветочки.

Ну а теперь делаем простой эксперимент - во Флюксе 1.1, чтобы как у людей.

photo of a chineese character
photo of a chineese character DSC_0123.JPG

Получаем иллюстрацию для первого промпта и закос по 3Д и одновременно под фото - для второго.

Ну да, получается, что эта шаманская добавка добавляет как бы фоториал стиль.

В этом смысле - это лайфхак, потому что Флюкс не очень дружит со стилями из коробки и без Лор.

Но это очень частный случай.

И, кстати, это будет работать только на коротких промптах.

Ну и попробуйте понять, где тут пара из Pro 1.1, а где Dev.

Кстати, я немного еще потестил - "raw photo" в промпте дает похожий эффект

@cgevent
👍18😁112👎1🔥1
Ну и вот вам иллюстрация, что этот лайфхак не работает во многих случаях. Текстовый энкодер уводит в другой домен.

Тут вот так (Про 1.1 в Глиф, Seed 10, 9:16, 35 steps):

picture of a chineese character
picture of a chineese character DSC_0123.JPG
(вторая картинка)

@cgevent
😁13👍6👎21🔥1
Тут можно потихоньку наливать за постпродакшены в рекламе и даже за модизов(понемногу).

Иллюстрация того, что зумеры НЕ изобрели Elastic Reality и что это не морфинг картинок.
А хороший такой 3Д-морфинг (со светом и тенями!).

И это одна кнопка! И две картинки - начальный и финальный кадры в Luma Dream Machine.

Ну, за моделинг, анимацию, текстуринг и рендер, не чокаясь.

@cgevent
👍53🔥19😁86👎3
This media is not supported in your browser
VIEW IN TELEGRAM
Ну ок, ЕЩЕ один видео-генератор!

Теперь от Метачки. И он выглядит очень крепко.

Movie Gen: A Cast of Media Foundation Models

Читаем и смотрим тут:
https://ai.meta.com/research/movie-gen/

30B модель, 16-секунд видео в 1080p и 16FPS

Пока только текст2видео.

@cgevent
2🔥43👍134👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Марк Цукерберг выложил у себя в инсте сгенеренный с помощью Movie-Gen видос и подвердил, что Movie-Gen заедет в инсту в следующем году.

"Каждый день — это день ног с новой моделью MovieGen AI Meta, которая может создавать и редактировать видео. В следующем году в Инстаграм 💪"

И тут, конечно, возникает вопрос: инста, которая как бы замыслена как "sharing life", ну то есть выставление напоказ собственной жизни (реальной или придуманной), теперь будет заполнена генерациями из жизни ИИ?

Да, понятно, что будут отметки @made by AI@

Но, во-первых, кто на них смотрит, думскролля ленту.
А во-вторых, сам замысел инсты, выросшей из шаринга личных фотачек, причудливо меняется в просто контент агрегатор.

Я вижу частичный ответ в следующем посте.

@cgevent
👎23👍18🔥8😱72
В Movie-Gen нет напрямую режима image2video, но есть фишечка типа "вот мое фото, сделай видео с участием моего лица".

Дальше Movie-Gen генерит видос и пересаживает ваше лицо на это видео.

Получается как бы дипфейк в обобщенном смысле: видео - это как бы фэйк, и вы занимаетесь разными глупостями на этом видео.

Тут масса вопросов: какие будут требования к входному изображению?
Должно ли это быть именно ваше лицо (как в Хейген)?
Может ли это быть лицо Анджелины Джоли (думаю нет, как в Хедре)?
Может ли это быть лицо вашей бывшей\бывшего?
Можно ли использовать генерации из Флюкс или Midjourney?

Ну то есть, а что тут с прайвеси?

@cgevent
🔥25👍133
Ну и кстати, Movie-Gen делает видосы 768 х 768 px , а потом апскейлит их с помощью Spatial Upsampler до Full HD 1080p.

В примере с привидением, конечно, поражает отражение в зеркале. Отражение обезьяны в воде, почему-то, удивляет уже не так сильно, ибо глаз привык к такому у других генераторов.

Метачка, а шо с весами?

Думаю, что ничего. Равно как и с весами для text-to-image.

@cgevent
🔥449👍6
Media is too big
VIEW IN TELEGRAM
Опять принес немного нетривиальной визуализации.

Точнее анимации. Мне нравится, что в абстрактной форме чотко угадывается движение персонажа. Этакий метагротеск. Ну или полигональное шаржирование, доведенное до предела.

Опять же, загляните к автору, там очень много интересных визуализаций.

Кстати, интересно скормить это видео в Рунвей video2video. Ну или во Флюкс, и поглядеть, на фантазии по такому скетчу.

@cgevent
🔥83👍125