Давайте сегодня отдохнем с ИИ-видео.
Для фана сделаем такое голосование (заодно поглядим на ботов)
Смотрите, вот вам 4 видоса. Выберите лучший на ваш кожаный вкус\глаз.
Ставьте под постом:
👍 - первый
❤️ - второй
🔥 - третий
😄 - четвертый
Если не распознали, что надо ставить - вы бот.
Если⭐️ - вы красавчик.
Потом подведем итоги, расскажу, кто есть кто и сверимся с интернетом.
@cgevent
Для фана сделаем такое голосование (заодно поглядим на ботов)
Смотрите, вот вам 4 видоса. Выберите лучший на ваш кожаный вкус\глаз.
Ставьте под постом:
👍 - первый
❤️ - второй
😄 - четвертый
Если не распознали, что надо ставить - вы бот.
Если
Потом подведем итоги, расскажу, кто есть кто и сверимся с интернетом.
@cgevent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
273🔥316👍108😁65❤11👎4😱2
А тем временем опен сорс и видеогенерация.
Вот, что генерит ореnсорсный CogVideoX-Fun (файнтюн от Алибабы) по тем же самым промптам(из предыдущего поста).
Я вчера убил пару часиков, но поставил его локально. По-взрослому, без Комфи, только хардкор, только градио-морда, только гитхаб (без особых инструкций, как положено у китайцев).
https://github.com/aigc-apps/CogVideoX-Fun
Морда оказалась на полукитайском и слегка отличается от спейсов на Hugging Face.
Режим Long Video еще не тестировал.
Модель 2B - совсем треш, поэтому сразу остался на 5B варианте.
Считает достаточно быстро, минуту на 6 сек видео с настройками по дефолту (H100). Жрет 24 гига видеопамяти.
Вчера в коменты сбрасывал NSFW, но тут не буду травмировать ничью психику.
На видео примеры с 50 и 100 steps на Euler. И последний это DDIM_Cog на 100 Steps. Остальное по дефолту. По ходу Steps не добавляют качества после 50.
Кстати, video2video тоже работает и как будто улучшает качество.
@cgevent
Вот, что генерит ореnсорсный CogVideoX-Fun (файнтюн от Алибабы) по тем же самым промптам(из предыдущего поста).
Я вчера убил пару часиков, но поставил его локально. По-взрослому, без Комфи, только хардкор, только градио-морда, только гитхаб (без особых инструкций, как положено у китайцев).
https://github.com/aigc-apps/CogVideoX-Fun
Морда оказалась на полукитайском и слегка отличается от спейсов на Hugging Face.
Режим Long Video еще не тестировал.
Модель 2B - совсем треш, поэтому сразу остался на 5B варианте.
Считает достаточно быстро, минуту на 6 сек видео с настройками по дефолту (H100). Жрет 24 гига видеопамяти.
Вчера в коменты сбрасывал NSFW, но тут не буду травмировать ничью психику.
На видео примеры с 50 и 100 steps на Euler. И последний это DDIM_Cog на 100 Steps. Остальное по дефолту. По ходу Steps не добавляют качества после 50.
Кстати, video2video тоже работает и как будто улучшает качество.
@cgevent
👍20😁13❤3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
А вы говорите, что chatGPT не умеет (отучен) петь в Adv. Voice Mode!
Ну как бы да, слуха воще нет, поет мимо нот, очень похоже на типичного кожаного из караоке.
Но поёт!
Забрал отсюда:
https://x.com/aj_dev_smith/status/1839472954289131947
Вот типа промпт:
I didn’t actually ask it to sing. just asked it to shout out songs over a chord progression and it started on its own. and yeah, seems like it’s trained to tune out anything other than a voice
@cgevent
Ну как бы да, слуха воще нет, поет мимо нот, очень похоже на типичного кожаного из караоке.
Но поёт!
Забрал отсюда:
https://x.com/aj_dev_smith/status/1839472954289131947
Вот типа промпт:
I didn’t actually ask it to sing. just asked it to shout out songs over a chord progression and it started on its own. and yeah, seems like it’s trained to tune out anything other than a voice
@cgevent
😁59👍15❤10🔥3👎1
Неплохое видео: FluxGym для тренировки LoRAs и последующего использования их в Forge
https://www.youtube.com/watch?v=cQLAtDvHZD8
https://www.youtube.com/watch?v=cQLAtDvHZD8
YouTube
Free FLUX LoRA Training | Easy Ai Influencer LoRA | FluxGym Tutorial
#ai #aitutorial #aiinfluencer #virtualmodels
Learn how to easily create LoRAs for FLUX for free on your own GPU with FluxGym before using the LoRAs in Forge. The tutorial shows what is important when training a LoRA in FluxGym and the many cool ways you…
Learn how to easily create LoRAs for FLUX for free on your own GPU with FluxGym before using the LoRAs in Forge. The tutorial shows what is important when training a LoRA in FluxGym and the many cool ways you…
❤16🔥8👍2😁2
Подведем итоги слепого тестирования видеогенераторов.
С огромным преимуществом побеждает Клинг!
Выборка на 400+ человек кажется мне весьма репрезентативной, тем более здесь люди с неплохой насмотренностью на графике и посте.
А чтобы приукрасить этот пост ИИ-ништяками, расскажу как я сделал эту диаграмму.
Поборов в себе кожаные порывы скопировать цифирки в Ексель, я скриншотнул все эти эмодзи и кинул их в chatGPT со словами:
make diagram
а пажалста!
now put horizonal labels like this: Kling, Runway, Minimax, Hotspot
И ВСЕ.
(сначала хотел скормить ему весь пост, но понял, что там нет инфо о том, кто есть кто).
По пути нашел еще какие-то поделки типа:
https://www.eraser.io/diagramgpt
Но они не справились со скрином из телеги. А chatGPT - справился.
В общем давайте холиварить за видеогенераторы!
@cgevent
С огромным преимуществом побеждает Клинг!
Выборка на 400+ человек кажется мне весьма репрезентативной, тем более здесь люди с неплохой насмотренностью на графике и посте.
А чтобы приукрасить этот пост ИИ-ништяками, расскажу как я сделал эту диаграмму.
Поборов в себе кожаные порывы скопировать цифирки в Ексель, я скриншотнул все эти эмодзи и кинул их в chatGPT со словами:
make diagram
а пажалста!
now put horizonal labels like this: Kling, Runway, Minimax, Hotspot
И ВСЕ.
(сначала хотел скормить ему весь пост, но понял, что там нет инфо о том, кто есть кто).
По пути нашел еще какие-то поделки типа:
https://www.eraser.io/diagramgpt
Но они не справились со скрином из телеги. А chatGPT - справился.
В общем давайте холиварить за видеогенераторы!
@cgevent
👍47🔥8👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и продолжая холивар за видеогенераторы, вкину такую фичу, которая появилась в Runway GEN-3: Edit Time
По старонормальному - это просто таймлайн.
Что умеет:
• Trim clips from beginning or end
• Adjust speed 25-400% from original
• Reverse playback
И, как я понимаю, вы можете подтримить с конца до того кадра, где начались косяки, и продолжить генерацию с него, а не с последнего кадра. То бишь с любого кадра.
И чтобы найти эту фичу надо зайти в режим Extend Video.
Я постоянно пишу, как веб-интрфейсы постепенно изобретают велосипеды из профессиональных софтов и стараются вструмить их в новые нормальные продукты для генерации (таймлайны для видеогенераторов, риг - для 3Д генераторов, слои для картинок).
И только Адобченко показывает, как он движется с другой стороны, прикручивая генерацию в проф софты.
Отдаленно (очень отдаленно) мне это напоминает ситуацию с игровыми движками и 3Д софтами. Когда Unreal выкатили вьюпорт и рендер ТАКОГО качества в реалтайме, что все архитекторы сразу сбежали из 3Д Макса. Но делать 3Д в Unreal или Unity - это адищще, поэтому казалось, что вот-вот Автодеск или Синька сделают супер-мега вьюпорт и заживем!
Не сделали. Только Блендор выкатил Иви.
Так что похоже придется юзать все эти ацкие веб-аппы для генерации, ибо интеграции в проф софты ждать можно годами.
Примечание. Вы и щас можете выгнать и Runway видео, подтримить его где-то, реверснуть, загнать обратно, продолжить с конца и пр. Но вот эти вот фишечки и есть основа будущих странных продуктов, идущих не от потребностей профессионалов, а от мемных запросов новых нормальных.
P.S. В Турбо моде тоже работает.
@cgevent
По старонормальному - это просто таймлайн.
Что умеет:
• Trim clips from beginning or end
• Adjust speed 25-400% from original
• Reverse playback
И, как я понимаю, вы можете подтримить с конца до того кадра, где начались косяки, и продолжить генерацию с него, а не с последнего кадра. То бишь с любого кадра.
И чтобы найти эту фичу надо зайти в режим Extend Video.
Я постоянно пишу, как веб-интрфейсы постепенно изобретают велосипеды из профессиональных софтов и стараются вструмить их в новые нормальные продукты для генерации (таймлайны для видеогенераторов, риг - для 3Д генераторов, слои для картинок).
И только Адобченко показывает, как он движется с другой стороны, прикручивая генерацию в проф софты.
Отдаленно (очень отдаленно) мне это напоминает ситуацию с игровыми движками и 3Д софтами. Когда Unreal выкатили вьюпорт и рендер ТАКОГО качества в реалтайме, что все архитекторы сразу сбежали из 3Д Макса. Но делать 3Д в Unreal или Unity - это адищще, поэтому казалось, что вот-вот Автодеск или Синька сделают супер-мега вьюпорт и заживем!
Не сделали. Только Блендор выкатил Иви.
Так что похоже придется юзать все эти ацкие веб-аппы для генерации, ибо интеграции в проф софты ждать можно годами.
Примечание. Вы и щас можете выгнать и Runway видео, подтримить его где-то, реверснуть, загнать обратно, продолжить с конца и пр. Но вот эти вот фишечки и есть основа будущих странных продуктов, идущих не от потребностей профессионалов, а от мемных запросов новых нормальных.
P.S. В Турбо моде тоже работает.
@cgevent
👍35
Ну и я доверну мысль, про завоз старых профессиональных фич в новые нормальные генераторы.
Вот смотрите, в Родэн завезли T-позы! По дороге приподызобретая А-позы.
На примере со спайдерменом выглядит особенно выпукло.
Вы подаете на вход картинку персонажа, по ней генерится 3Д-модель, а дальше выскакивает авториг и разворачивает вашу скобоченную модель в T-позу! А потом вы уже можете расчехлять старый нормальный риг. Ибо никто в здравом уме и доброй памяти не ригает сидящего на кортах персонажа.
Выглядит нарядно, надо потестировать. Ну разобраться, как они поднимают с колен спайдермена - авторигом или скелет там не появляется, а работают другие скрипты.
Но чувствуете, как Маю по кусочкам разбирают на части и вкрячивают в 3Д-генераторы микродизингом?
https://hyperhuman.deemos.com/
@cgevent
Вот смотрите, в Родэн завезли T-позы! По дороге приподызобретая А-позы.
На примере со спайдерменом выглядит особенно выпукло.
Вы подаете на вход картинку персонажа, по ней генерится 3Д-модель, а дальше выскакивает авториг и разворачивает вашу скобоченную модель в T-позу! А потом вы уже можете расчехлять старый нормальный риг. Ибо никто в здравом уме и доброй памяти не ригает сидящего на кортах персонажа.
Выглядит нарядно, надо потестировать. Ну разобраться, как они поднимают с колен спайдермена - авторигом или скелет там не появляется, а работают другие скрипты.
Но чувствуете, как Маю по кусочкам разбирают на части и вкрячивают в 3Д-генераторы микродизингом?
https://hyperhuman.deemos.com/
@cgevent
👍22😱7❤2
Для тех, кто совсем не в теме и малость офигевает от странного слова "риг" (не путать с играми престолов) поясню.
Вот есть у вас 3Д модель персонажа (обобщенного, это может быть глаз или ножницы).
И вам теперь надо его как-то пошевелить. Но не таскать же его за вертексы.
Вы вставляете внутрь него и вокруг него тьму управляющих объектов. Это прежде всего скелет внутри и разные кубики-шарики снаружи. Которые также управляют друг другом.
Чтобы не дергать за 100 000 вертексов на модели, а дергать за пару сотен кубиков, пытаясь привести персонаж в нужную позу.
То еще удовольствие.
Но мы тут выпиваем за риггеров (которые пишут и делают этот обвес) и молимся на нейрориг - это когда ИИ сам генерит все эти управляющие элементы (у себя в латентных мозгах), а наружу выводит рульки и педальки, за которые мы дергаем. Или за них дергает произвольное видео. И картинка меняется.
@cgevent
Вот есть у вас 3Д модель персонажа (обобщенного, это может быть глаз или ножницы).
И вам теперь надо его как-то пошевелить. Но не таскать же его за вертексы.
Вы вставляете внутрь него и вокруг него тьму управляющих объектов. Это прежде всего скелет внутри и разные кубики-шарики снаружи. Которые также управляют друг другом.
Чтобы не дергать за 100 000 вертексов на модели, а дергать за пару сотен кубиков, пытаясь привести персонаж в нужную позу.
То еще удовольствие.
Но мы тут выпиваем за риггеров (которые пишут и делают этот обвес) и молимся на нейрориг - это когда ИИ сам генерит все эти управляющие элементы (у себя в латентных мозгах), а наружу выводит рульки и педальки, за которые мы дергаем. Или за них дергает произвольное видео. И картинка меняется.
@cgevent
🔥31❤11👍9
4 октября: «Ночь инноваций» в Цифровом деловом пространстве!
Здесь снова пройдет фестиваль, который не оставит равнодушным никого и подарит незабываемые эмоции, — «Ночь инноваций». Участников ждут выступления топовых спикеров, яркие кейсы использования мультимедиа технологий в бизнесе и творчестве, VR-зона, шоу дронов, аромапутешествие и возможность выиграть лимитированный аромат «Агент инноваций». Завершится фестиваль презентацией нового трека от DJ Smash под специально созданные к выступлению артиста лазерное шоу и видеомэппинг.
Ну и самое главное — интерактивная выставка российских разработчиков. Каждый сможет все пощупать, примерить, покликать. Одним словом, полностью погрузиться в мир мультимедийных разработок.
Переходите на сайт, изучайте программу и регистрируйтесь.
Среди спикеров:
▫️DJ Smash, композитор и музыкальный продюсер
▫️Валерия Гай Германика, кинорежиссер и телеведущая
▪️Гавриил Гордеев, генеральный продюсер онлайн-кинотеатра Okko
▪️Юрий Усачев, композитор, DJ и продюсер. Основатель и участник поп-группы «Гости из будущего» и техно-фолк проекта Zventa Sventana
▪️Виктор Абрамов, директор музыкального лейбла VK Records, экс-креативный директор группы компаний Black Star
▪️Илья Бачурин, сооснователь кинотелевизионной студии «Главкино», генеральный директор ГБУК Москвы «Москонцерт»
Все подробности — на сайте фестиваля.
#промо
Здесь снова пройдет фестиваль, который не оставит равнодушным никого и подарит незабываемые эмоции, — «Ночь инноваций». Участников ждут выступления топовых спикеров, яркие кейсы использования мультимедиа технологий в бизнесе и творчестве, VR-зона, шоу дронов, аромапутешествие и возможность выиграть лимитированный аромат «Агент инноваций». Завершится фестиваль презентацией нового трека от DJ Smash под специально созданные к выступлению артиста лазерное шоу и видеомэппинг.
Ну и самое главное — интерактивная выставка российских разработчиков. Каждый сможет все пощупать, примерить, покликать. Одним словом, полностью погрузиться в мир мультимедийных разработок.
Переходите на сайт, изучайте программу и регистрируйтесь.
Среди спикеров:
▫️DJ Smash, композитор и музыкальный продюсер
▫️Валерия Гай Германика, кинорежиссер и телеведущая
▪️Гавриил Гордеев, генеральный продюсер онлайн-кинотеатра Okko
▪️Юрий Усачев, композитор, DJ и продюсер. Основатель и участник поп-группы «Гости из будущего» и техно-фолк проекта Zventa Sventana
▪️Виктор Абрамов, директор музыкального лейбла VK Records, экс-креативный директор группы компаний Black Star
▪️Илья Бачурин, сооснователь кинотелевизионной студии «Главкино», генеральный директор ГБУК Москвы «Москонцерт»
Все подробности — на сайте фестиваля.
#промо
👎37👍15❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Это вам не Турбо!
У Люму 1.6 завезли камаз ускорений. 10-кратное увеличение скорости генераций.
Внимание: you can now generate full-quality Dream Machine v1.6 clips in under 20 seconds
И вишенка на торте - они тонко троллят Рунвей в твитторе.
Никакихсраных "турбо" или "дистиллированных" моделей - только бескомпромиссное качество. Доступно уже сегодня для всех подписчиков и клиентов API.
@cgevent
У Люму 1.6 завезли камаз ускорений. 10-кратное увеличение скорости генераций.
Внимание: you can now generate full-quality Dream Machine v1.6 clips in under 20 seconds
И вишенка на торте - они тонко троллят Рунвей в твитторе.
Никаких
@cgevent
👍34😁8👎2