Runway: показали экспериментальный прототип интерфейса в виде графа для генерации кадров и видео.
Цель состоит в том, чтобы убрать ограничения традиционного пайплайна/софта для создания видео, дать возможность открыто экспериментировать в латентном пространстве, при этом сохранить контроль за визуалом.
Генерация кадров, их редактирование через img-2-img, а также использование начального и конечного кадра как ноды, выглядят знакомо пользователям Comfy.
А вот дальше начинается интересное. Между нодами генерятся промежуточные кейфреймы, каждый из которых можно форкнуть в отдельную ветку, и соединить, например, с альтернативным кадром сцены. Дальше хочешь развивай эту ветку (и может вырастет дерево), хочешь закольцуй с уже имеющимися кадрами. Ещё это напоминает гитхаб с версированием, форками, коммитами, главной веткой, итд.
Можно собрать нелинейный таймлайн из разных сюжетных линий, выбрать понравившиеся элементы, и экспортировать ту версию сценария, которую хотел бы посмотреть. Заодно выбрать кто будет в главных ролях или себя с друзьями впилить. Была бы ещё возможность детально управлять содержимом кадра, движениями, репликами, аудио, итд.
Вполне возможно монетизация тут будет за использование твоего лица/голоса/музыки из каталога, или при совпадении с загруженным контентом от пользователя. Если что, народ запилит это в опенсорсе с прозрачными автоматизированными выплатами по смарт-контрактам за использование чекпоинта или датасета человека/произведения.
Пока это ранний прототип и пощупать нельзя, но уже выглядит интересно.
Сайт
Цель состоит в том, чтобы убрать ограничения традиционного пайплайна/софта для создания видео, дать возможность открыто экспериментировать в латентном пространстве, при этом сохранить контроль за визуалом.
Генерация кадров, их редактирование через img-2-img, а также использование начального и конечного кадра как ноды, выглядят знакомо пользователям Comfy.
А вот дальше начинается интересное. Между нодами генерятся промежуточные кейфреймы, каждый из которых можно форкнуть в отдельную ветку, и соединить, например, с альтернативным кадром сцены. Дальше хочешь развивай эту ветку (и может вырастет дерево), хочешь закольцуй с уже имеющимися кадрами. Ещё это напоминает гитхаб с версированием, форками, коммитами, главной веткой, итд.
Можно собрать нелинейный таймлайн из разных сюжетных линий, выбрать понравившиеся элементы, и экспортировать ту версию сценария, которую хотел бы посмотреть. Заодно выбрать кто будет в главных ролях или себя с друзьями впилить. Была бы ещё возможность детально управлять содержимом кадра, движениями, репликами, аудио, итд.
Вполне возможно монетизация тут будет за использование твоего лица/голоса/музыки из каталога, или при совпадении с загруженным контентом от пользователя. Если что, народ запилит это в опенсорсе с прозрачными автоматизированными выплатами по смарт-контрактам за использование чекпоинта или датасета человека/произведения.
Пока это ранний прототип и пощупать нельзя, но уже выглядит интересно.
Сайт
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
У Минимакса новая видео модель!
Hailuo I2V-01-Live: Transform Static Art into Dynamic Masterpieces
Сначала можно подумать, что это файнтюн по аниме.
Идея чуть шире
Это Image2Video, заточенный, чтобы оживлять статичные картинки и в основном арт.
Можно назвать это уклоном в мультипликацию, анимацию или движущиеся комиксы.
Проблема "общих" генераторов в том, что когда присовываешь им плоскую графику или анимэ, они норовят вытащить ее в реализм или 3д.
А тут именно анимация статики, сохраняющая исходный стиль без плясок с промптами.
Мне всегда нравился NPR(non photorealistic render) и всякие туншейдеры.
Тут они генерятся довольно ловко.
Люблю Минимакс
https://hailuoai.video/discover-ai-videos/1
@cgevent
Hailuo I2V-01-Live: Transform Static Art into Dynamic Masterpieces
Сначала можно подумать, что это файнтюн по аниме.
Идея чуть шире
Это Image2Video, заточенный, чтобы оживлять статичные картинки и в основном арт.
Можно назвать это уклоном в мультипликацию, анимацию или движущиеся комиксы.
Проблема "общих" генераторов в том, что когда присовываешь им плоскую графику или анимэ, они норовят вытащить ее в реализм или 3д.
А тут именно анимация статики, сохраняющая исходный стиль без плясок с промптами.
Мне всегда нравился NPR(non photorealistic render) и всякие туншейдеры.
Тут они генерятся довольно ловко.
Люблю Минимакс
https://hailuoai.video/discover-ai-videos/1
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Tencent: выпустили опенсорсный видеогенератор HunyuanVideo.
По качеству (черрипиков) выглядит неплохо: лучше, чем Allegro, но тесты покажут насколько годнее Mochi-1 или LTX. Опять же, для чего-то абстрактного, не лезущего в сторону зловещей долины, может подойти. Из интересного — монтаж кадров промтом: описываешь две сцены, детали для камеры, и получаешь естественный переход. Плюс генерация со звуком как в Movie Gen.
Для генерации 544px960px129fps понадобится 45 ГБ VRAM, а для 720px1280px129fps 60 ГБ. При этом авторы рекомендуют не мелочиться и гонять на 80 ГБ VRAM. Есть веб демо, но нужна китайская симка. Альтернативно имеется колаб.
Для Mochy тоже по началу нужно было 4 H100, а в итоге оптимизировали под запуск на 4090. Kijai уже ваяет адаптер под Comfy.
В целом тренд релиза таких прожорливых моделей навевает мысли, что толи в 5090 будет памяти больше слухов и китайская братия об этом знает, толи разрабы двигают развитие multigpu в рамках одного компа или распределёнку, толи считают что народ сам или с помощью нейронок (возможно будущих) адаптирует это под актуальное железо.
Пока HunyuanVideo работает только в text-2-video. Позже подъедут image-2-video с чекпоинтами, Gradio демо, официальное Comfy, и diffusers.
Будем следить за развитием событий.
Сайт
Гитхаб
Comfy (Kijai)
Хаггинг
Демо (сайт)
Демо (колаб)
По качеству (черрипиков) выглядит неплохо: лучше, чем Allegro, но тесты покажут насколько годнее Mochi-1 или LTX. Опять же, для чего-то абстрактного, не лезущего в сторону зловещей долины, может подойти. Из интересного — монтаж кадров промтом: описываешь две сцены, детали для камеры, и получаешь естественный переход. Плюс генерация со звуком как в Movie Gen.
Для генерации 544px960px129fps понадобится 45 ГБ VRAM, а для 720px1280px129fps 60 ГБ. При этом авторы рекомендуют не мелочиться и гонять на 80 ГБ VRAM. Есть веб демо, но нужна китайская симка. Альтернативно имеется колаб.
Для Mochy тоже по началу нужно было 4 H100, а в итоге оптимизировали под запуск на 4090. Kijai уже ваяет адаптер под Comfy.
В целом тренд релиза таких прожорливых моделей навевает мысли, что толи в 5090 будет памяти больше слухов и китайская братия об этом знает, толи разрабы двигают развитие multigpu в рамках одного компа или распределёнку, толи считают что народ сам или с помощью нейронок (возможно будущих) адаптирует это под актуальное железо.
Пока HunyuanVideo работает только в text-2-video. Позже подъедут image-2-video с чекпоинтами, Gradio демо, официальное Comfy, и diffusers.
Будем следить за развитием событий.
Сайт
Гитхаб
Comfy (Kijai)
Хаггинг
Демо (сайт)
Демо (колаб)
This media is not supported in your browser
VIEW IN TELEGRAM
Если Магомет не идёт к горе, то гора идёт к Магомету.
За всё это время ни разу не доводилось потестить голосовой режим ChatGPT в мобильной и десктоп апе, а недавно его завезли и в браузерную версию. Ну штош, теперь погнали.
Как я раньше говорил, мне применение наиболее интересно в работе с акцентом, конкретно британским. Заметил, что не все голоса хорошо в него умеют: то есть ожидать, что Maple с американского начнёт говорить также как Vale из коробки вероятно не стоит.
Отвечает быстро и диалог кажется живым. Но способных на это моделей уже не мало: Play Dialog, Moshi, итд. После разговора виден его текстовый вариант, что удобно. Также хорошо, что запоминается то, где остановились, хотя было бы неплохо иметь кнопочку reset, чтобы обнулить знания о тебе.
Как учитель AI пока ведёт себя слишком радушно. Я пробовал намеренно говорить с очень плохим акцентом, а она отвечала, что ты молодец продолжай в том же духе. Это создаёт фейковое ощущение прогресса, и потакает тем, кто хочет жить в пузыре позитива и не может воспринимать критику. Но возможно надо просто сказать
10 минут в месяц бесплатно. Далеко на этом не уедешь, но хотя бы можно пощупать.
Сайт
Windows
Mac
Android
iOS
За всё это время ни разу не доводилось потестить голосовой режим ChatGPT в мобильной и десктоп апе, а недавно его завезли и в браузерную версию. Ну штош, теперь погнали.
Как я раньше говорил, мне применение наиболее интересно в работе с акцентом, конкретно британским. Заметил, что не все голоса хорошо в него умеют: то есть ожидать, что Maple с американского начнёт говорить также как Vale из коробки вероятно не стоит.
Отвечает быстро и диалог кажется живым. Но способных на это моделей уже не мало: Play Dialog, Moshi, итд. После разговора виден его текстовый вариант, что удобно. Также хорошо, что запоминается то, где остановились, хотя было бы неплохо иметь кнопочку reset, чтобы обнулить знания о тебе.
Как учитель AI пока ведёт себя слишком радушно. Я пробовал намеренно говорить с очень плохим акцентом, а она отвечала, что ты молодец продолжай в том же духе. Это создаёт фейковое ощущение прогресса, и потакает тем, кто хочет жить в пузыре позитива и не может воспринимать критику. Но возможно надо просто сказать
don't be nice
и тогда всё будет. 10 минут в месяц бесплатно. Далеко на этом не уедешь, но хотя бы можно пощупать.
Сайт
Windows
Mac
Android
iOS
This media is not supported in your browser
VIEW IN TELEGRAM
Krea продолжают ваять вменяемый UI/UX для генератива и теперь тизерят Krea Editor, в котором можно делать аутпейнт и впиливать объекты промтом в выделенную область.
Ещё бы картинки можно было таким образом вкидывать, как, например, у Blendbox.
Пока фича в приватной бете, доступ к которой вероятно можно получить оставив коммент под твиттом.
Сайт
Ещё бы картинки можно было таким образом вкидывать, как, например, у Blendbox.
Пока фича в приватной бете, доступ к которой вероятно можно получить оставив коммент под твиттом.
Сайт
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня хочу подсветить работы сообщества. Будем идти по порядку появления на горизонте событий.
Начнём со Stan Travis, который поковырял код видеогенератора Allegro и смог оптимизировать всё под запуск на 20 ГБ VRAM вместо 27-30 ГБ как в оригинальной репе.
Вместо 100 шагов и более часа на одно видео на 4090, теперь норм результат можно получить в 25 шагов за 20 минут. Заодно вот тест цензуры и генерации nsfw контента.
Файл, который надо заменить в папке с Allegro и действия которые надо сделать описаны здесь.
Все звёзды с этого поста пойдут Стену. Так как в телеге нет способа напрямую их послать (кроме как подарком, но там комиссия за сжигание), то я спустя неделю с этой публикации пошлю эму эквивалент в TON. Если потом поставятся ещё звёзды - докину. Или вы можете отправить ему TON напрямую по юзернейму.
Альтернативно: Стен заведи канал и на него в посты можно будет донатить звёзды, или сделай бота/миниапп в телеге чиста для приёма звёзд.
Начнём со Stan Travis, который поковырял код видеогенератора Allegro и смог оптимизировать всё под запуск на 20 ГБ VRAM вместо 27-30 ГБ как в оригинальной репе.
Вместо 100 шагов и более часа на одно видео на 4090, теперь норм результат можно получить в 25 шагов за 20 минут. Заодно вот тест цензуры и генерации nsfw контента.
Файл, который надо заменить в папке с Allegro и действия которые надо сделать описаны здесь.
Все звёзды с этого поста пойдут Стену. Так как в телеге нет способа напрямую их послать (кроме как подарком, но там комиссия за сжигание), то я спустя неделю с этой публикации пошлю эму эквивалент в TON. Если потом поставятся ещё звёзды - докину. Или вы можете отправить ему TON напрямую по юзернейму.
Альтернативно: Стен заведи канал и на него в посты можно будет донатить звёзды, или сделай бота/миниапп в телеге чиста для приёма звёзд.
Следующим у нас идёт FREY_Глеб.
Он сделал воркфлоу для Mochi-1, где выходное видео апскейлится и сразу идёт в mp4 без необходимости ручной конвертации из webp. Можете опробовать воркфлоу закинув в Comfy картинку из этого поста или вот json файлик (лишние элементы внизу можете удалить).
Глеб появился с нами недавно, но очень активно в чате делится разными тестами, воркфлоу, и генерациями (например, раз и два).
А ещё он ведёт свой канал ArtStory, на котором думаю интересного будет всё больше.
Все звёзды с этого поста пойдут Глебу.
Он сделал воркфлоу для Mochi-1, где выходное видео апскейлится и сразу идёт в mp4 без необходимости ручной конвертации из webp. Можете опробовать воркфлоу закинув в Comfy картинку из этого поста или вот json файлик (лишние элементы внизу можете удалить).
Глеб появился с нами недавно, но очень активно в чате делится разными тестами, воркфлоу, и генерациями (например, раз и два).
А ещё он ведёт свой канал ArtStory, на котором думаю интересного будет всё больше.
Все звёзды с этого поста пойдут Глебу.
Media is too big
VIEW IN TELEGRAM
И закончим на сегодня обзор работ сообщества роликом Dominick The Donkey.
Фоны к нему делал Всеволод Таран, с которым некоторые из вас знакомы по каналу тоже моушн.
Со своей задачей — нести Новогоднее настроение видео справляется. В следующем году уже будем такие видео делать с персонализацией под себя и в ещё лучшем качестве. Единственно его бы подсократить и тогда сумбур под нарратив текста песни не так бросался бы в глаза.
Заставка студии в конце ништ!
Все звёзды с этого поста пойдут Всеволоду.
Фоны к нему делал Всеволод Таран, с которым некоторые из вас знакомы по каналу тоже моушн.
Со своей задачей — нести Новогоднее настроение видео справляется. В следующем году уже будем такие видео делать с персонализацией под себя и в ещё лучшем качестве. Единственно его бы подсократить и тогда сумбур под нарратив текста песни не так бросался бы в глаза.
Заставка студии в конце ништ!
Все звёзды с этого поста пойдут Всеволоду.