Утренняя разминка с визуализацией.
Сегодня на завтрак ряды Фурье божественно представленные в лаконичном виде.
И да, в пределе нужно бесконечное количество окружностей.
P.S. Чтобы приукрасить пост и сделать его менее скучным, попросил chatGPT написать промпт, иллюстрирующий природу рядов Фурье. Потом сгенерил эти картинки в DALL·E 3 и Flux 1.1
@cgevent
Сегодня на завтрак ряды Фурье божественно представленные в лаконичном виде.
И да, в пределе нужно бесконечное количество окружностей.
P.S. Чтобы приукрасить пост и сделать его менее скучным, попросил chatGPT написать промпт, иллюстрирующий природу рядов Фурье. Потом сгенерил эти картинки в DALL·E 3 и Flux 1.1
@cgevent
2👍46❤8👎2🔥1😱1
Тут интернетик приподвзорвался новым "хаком" для генерации во Flux.
Выглядит это примерно так:
Try using a prompt like "IMG_1025.HEIC" to get very very realistic images with FLUX1.1.
Это я взял с линкедИна, на твитторе пишут:
If you give FLUX1.1 a prompt like "IMG_1018.CR2" you get back images that are so very hard to tell they're AI.
Вы можете также использовать хорошо знакомые по телефонам: DSC_0123.JPG
Если не просто репостить, а немного потестить, то выясняется, что линкедыновские просто переизобрели все эти олдскульные теги из Stable Diffusion 1.5, типа "wow", "trending on artstation" или "redshift render".
Я погонял это в Фордже для Flux.Dev - благо там есть Plot X\Y\Z - эти промпты дают рандомные картинки, но можно убедить себя, что они как будто фотки (но нет). Там много мусора.
Флюкс Про 1.1 по ним генерит в основном ... траву. И цветочки.
Ну а теперь делаем простой эксперимент - во Флюксе 1.1, чтобы как у людей.
photo of a chineese character
photo of a chineese character DSC_0123.JPG
Получаем иллюстрацию для первого промпта и закос по 3Д и одновременно под фото - для второго.
Ну да, получается, что эта шаманская добавка добавляет как бы фоториал стиль.
В этом смысле - это лайфхак, потому что Флюкс не очень дружит со стилями из коробки и без Лор.
Но это очень частный случай.
И, кстати, это будет работать только на коротких промптах.
Ну и попробуйте понять, где тут пара из Pro 1.1, а где Dev.
Кстати, я немного еще потестил - "raw photo" в промпте дает похожий эффект
@cgevent
Выглядит это примерно так:
Try using a prompt like "IMG_1025.HEIC" to get very very realistic images with FLUX1.1.
Это я взял с линкедИна, на твитторе пишут:
If you give FLUX1.1 a prompt like "IMG_1018.CR2" you get back images that are so very hard to tell they're AI.
Вы можете также использовать хорошо знакомые по телефонам: DSC_0123.JPG
Если не просто репостить, а немного потестить, то выясняется, что линкедыновские просто переизобрели все эти олдскульные теги из Stable Diffusion 1.5, типа "wow", "trending on artstation" или "redshift render".
Я погонял это в Фордже для Flux.Dev - благо там есть Plot X\Y\Z - эти промпты дают рандомные картинки, но можно убедить себя, что они как будто фотки (но нет). Там много мусора.
Флюкс Про 1.1 по ним генерит в основном ... траву. И цветочки.
Ну а теперь делаем простой эксперимент - во Флюксе 1.1, чтобы как у людей.
photo of a chineese character
photo of a chineese character DSC_0123.JPG
Получаем иллюстрацию для первого промпта и закос по 3Д и одновременно под фото - для второго.
Ну да, получается, что эта шаманская добавка добавляет как бы фоториал стиль.
В этом смысле - это лайфхак, потому что Флюкс не очень дружит со стилями из коробки и без Лор.
Но это очень частный случай.
И, кстати, это будет работать только на коротких промптах.
Ну и попробуйте понять, где тут пара из Pro 1.1, а где Dev.
Кстати, я немного еще потестил - "raw photo" в промпте дает похожий эффект
@cgevent
👍18😁11❤2👎1🔥1
Ну и вот вам иллюстрация, что этот лайфхак не работает во многих случаях. Текстовый энкодер уводит в другой домен.
Тут вот так (Про 1.1 в Глиф, Seed 10, 9:16, 35 steps):
picture of a chineese character
picture of a chineese character DSC_0123.JPG (вторая картинка)
@cgevent
Тут вот так (Про 1.1 в Глиф, Seed 10, 9:16, 35 steps):
picture of a chineese character
picture of a chineese character DSC_0123.JPG (вторая картинка)
@cgevent
😁13👍6👎2❤1🔥1
Тут можно потихоньку наливать за постпродакшены в рекламе и даже за модизов(понемногу).
Иллюстрация того, что зумеры НЕ изобрели Elastic Reality и что это не морфинг картинок.
А хороший такой 3Д-морфинг (со светом и тенями!).
И это одна кнопка! И две картинки - начальный и финальный кадры в Luma Dream Machine.
Ну, за моделинг, анимацию, текстуринг и рендер, не чокаясь.
@cgevent
Иллюстрация того, что зумеры НЕ изобрели Elastic Reality и что это не морфинг картинок.
А хороший такой 3Д-морфинг (со светом и тенями!).
И это одна кнопка! И две картинки - начальный и финальный кадры в Luma Dream Machine.
Ну, за моделинг, анимацию, текстуринг и рендер, не чокаясь.
@cgevent
👍53🔥19😁8❤6👎3
This media is not supported in your browser
VIEW IN TELEGRAM
Ну ок, ЕЩЕ один видео-генератор!
Теперь от Метачки. И он выглядит очень крепко.
Movie Gen: A Cast of Media Foundation Models
Читаем и смотрим тут:
https://ai.meta.com/research/movie-gen/
30B модель, 16-секунд видео в 1080p и 16FPS
Пока только текст2видео.
@cgevent
Теперь от Метачки. И он выглядит очень крепко.
Movie Gen: A Cast of Media Foundation Models
Читаем и смотрим тут:
https://ai.meta.com/research/movie-gen/
30B модель, 16-секунд видео в 1080p и 16FPS
Пока только текст2видео.
@cgevent
2🔥43👍13❤4👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Марк Цукерберг выложил у себя в инсте сгенеренный с помощью Movie-Gen видос и подвердил, что Movie-Gen заедет в инсту в следующем году.
"Каждый день — это день ног с новой моделью MovieGen AI Meta, которая может создавать и редактировать видео. В следующем году в Инстаграм 💪"
И тут, конечно, возникает вопрос: инста, которая как бы замыслена как "sharing life", ну то есть выставление напоказ собственной жизни (реальной или придуманной), теперь будет заполнена генерациями из жизни ИИ?
Да, понятно, что будут отметки @made by AI@
Но, во-первых, кто на них смотрит, думскролля ленту.
А во-вторых, сам замысел инсты, выросшей из шаринга личных фотачек, причудливо меняется в просто контент агрегатор.
Я вижу частичный ответ в следующем посте.
@cgevent
"Каждый день — это день ног с новой моделью MovieGen AI Meta, которая может создавать и редактировать видео. В следующем году в Инстаграм 💪"
И тут, конечно, возникает вопрос: инста, которая как бы замыслена как "sharing life", ну то есть выставление напоказ собственной жизни (реальной или придуманной), теперь будет заполнена генерациями из жизни ИИ?
Да, понятно, что будут отметки @made by AI@
Но, во-первых, кто на них смотрит, думскролля ленту.
А во-вторых, сам замысел инсты, выросшей из шаринга личных фотачек, причудливо меняется в просто контент агрегатор.
Я вижу частичный ответ в следующем посте.
@cgevent
👎23👍18🔥8😱7❤2
В Movie-Gen нет напрямую режима image2video, но есть фишечка типа "вот мое фото, сделай видео с участием моего лица".
Дальше Movie-Gen генерит видос и пересаживает ваше лицо на это видео.
Получается как бы дипфейк в обобщенном смысле: видео - это как бы фэйк, и вы занимаетесь разными глупостями на этом видео.
Тут масса вопросов: какие будут требования к входному изображению?
Должно ли это быть именно ваше лицо (как в Хейген)?
Может ли это быть лицо Анджелины Джоли (думаю нет, как в Хедре)?
Может ли это быть лицо вашей бывшей\бывшего?
Можно ли использовать генерации из Флюкс или Midjourney?
Ну то есть, а что тут с прайвеси?
@cgevent
Дальше Movie-Gen генерит видос и пересаживает ваше лицо на это видео.
Получается как бы дипфейк в обобщенном смысле: видео - это как бы фэйк, и вы занимаетесь разными глупостями на этом видео.
Тут масса вопросов: какие будут требования к входному изображению?
Должно ли это быть именно ваше лицо (как в Хейген)?
Может ли это быть лицо Анджелины Джоли (думаю нет, как в Хедре)?
Может ли это быть лицо вашей бывшей\бывшего?
Можно ли использовать генерации из Флюкс или Midjourney?
Ну то есть, а что тут с прайвеси?
@cgevent
🔥25👍13❤3
Ну и кстати, Movie-Gen делает видосы 768 х 768 px , а потом апскейлит их с помощью Spatial Upsampler до Full HD 1080p.
В примере с привидением, конечно, поражает отражение в зеркале. Отражение обезьяны в воде, почему-то, удивляет уже не так сильно, ибо глаз привык к такому у других генераторов.
Метачка, а шо с весами?
Думаю, что ничего. Равно как и с весами для text-to-image.
@cgevent
В примере с привидением, конечно, поражает отражение в зеркале. Отражение обезьяны в воде, почему-то, удивляет уже не так сильно, ибо глаз привык к такому у других генераторов.
Метачка, а шо с весами?
@cgevent
🔥44❤9👍6
Media is too big
VIEW IN TELEGRAM
Опять принес немного нетривиальной визуализации.
Точнее анимации. Мне нравится, что в абстрактной форме чотко угадывается движение персонажа. Этакий метагротеск. Ну или полигональное шаржирование, доведенное до предела.
Опять же, загляните к автору, там очень много интересных визуализаций.
Кстати, интересно скормить это видео в Рунвей video2video. Ну или во Флюкс, и поглядеть, на фантазии по такому скетчу.
@cgevent
Точнее анимации. Мне нравится, что в абстрактной форме чотко угадывается движение персонажа. Этакий метагротеск. Ну или полигональное шаржирование, доведенное до предела.
Опять же, загляните к автору, там очень много интересных визуализаций.
Кстати, интересно скормить это видео в Рунвей video2video. Ну или во Флюкс, и поглядеть, на фантазии по такому скетчу.
@cgevent
🔥83👍12❤5