Я уже постил про работу Фила Лангера HYBRIDS.
Ее появление было реально интересным. Там были картинки из Midjourney, присунутые в leiapix для легкого панорамирования вокруг.
Именно новизна картинок и выход из зоны кожаного комфорта и цеплял. И цепляет.
Сейчас Фил взял и присунул эти же картиночки в GEN-3 и получил еще больше, скажем так, анимации.
Меня если честно, уже так не цепляет, как было в первый раз при взгляде на картинки.
Новизна была (и есть) именно в идее, в картинке.
Видео добавляет лишь немного шевеляжа, не добавляя почти ничего к истории.
Ну то есть я, конечно, офигел, но не настолько офигел, как в первый раз. Зажрался, чо.
Но я вам добыл еще любопытного: тесты Фила на этих же картинках, сделанные в Люме (до выхода Image2Image в GEN-3).
Похоже Люме надо обновляться...
https://www.youtube.com/watch?v=Dzr8_spDyxE
Ее появление было реально интересным. Там были картинки из Midjourney, присунутые в leiapix для легкого панорамирования вокруг.
Именно новизна картинок и выход из зоны кожаного комфорта и цеплял. И цепляет.
Сейчас Фил взял и присунул эти же картиночки в GEN-3 и получил еще больше, скажем так, анимации.
Меня если честно, уже так не цепляет, как было в первый раз при взгляде на картинки.
Новизна была (и есть) именно в идее, в картинке.
Видео добавляет лишь немного шевеляжа, не добавляя почти ничего к истории.
Ну то есть я, конечно, офигел, но не настолько офигел, как в первый раз. Зажрался, чо.
Но я вам добыл еще любопытного: тесты Фила на этих же картинках, сделанные в Люме (до выхода Image2Image в GEN-3).
Похоже Люме надо обновляться...
https://www.youtube.com/watch?v=Dzr8_spDyxE
🔥37👍8👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Доггер-панк, который мы заслужили.
Мы: упарываемся в генерацию гибридов и консистентых персонажей, оживляем картинки, сетапим контролНеты, костылим виртуальные примерочные.
Нормальные кожаные: а давайте просто оденем добермана в разную одежду и цацки. И сделаем из него звезду. Миллионы просмотров не пахнут. 160 тысяч подписчиков тоже.
Цифровые инфлюенсеры медленно ползут в Recycle Bin.
https://www.odditycentral.com/animals/this-stylish-doberman-is-a-natural-bon-fashion-model.html
Мы: упарываемся в генерацию гибридов и консистентых персонажей, оживляем картинки, сетапим контролНеты, костылим виртуальные примерочные.
Нормальные кожаные: а давайте просто оденем добермана в разную одежду и цацки. И сделаем из него звезду. Миллионы просмотров не пахнут. 160 тысяч подписчиков тоже.
Цифровые инфлюенсеры медленно ползут в Recycle Bin.
https://www.odditycentral.com/animals/this-stylish-doberman-is-a-natural-bon-fashion-model.html
🔥52
TORA: Кому ControlNet для видео-генерации?
Никому, потому что кода (как водится у Алибабы) пока нет.
Однако, есть сравнения с DragNUWA и MotionCtrl - и там все очень нарядно.
Это возвращает меня к своему обычному нытью. Если на картинках у вас язык заплетается, конечно, но вы худо бедно можете описать замысел. И то без помощи КонтролНета - никуда.
То для видео - вам придется описывать еще одно измерение, ну то есть вам понадобится х10 слов, чтобы описать движение камеры, объектов, света, оптики, а также изменения формы, траектории частей объектов, ну вы поняли.
Вот и будут возникать такие костыли в виде палочек, кривулек и точечек.
Кстати, в Клинг завезли новый UI для управления камерой. И он ловкий, ибо целит в аудиторию, снимающую на телефон.
А трушные управляторы есть, конечно, в 3Д-софтах. Только там меню на 300 пунктов и все сложно. Кто ж будет учить 3Д в 2024 году?!
Спасибо Игорю за наводку.
https://ali-videoai.github.io/tora_video/
@cgevent
Никому, потому что кода (как водится у Алибабы) пока нет.
Однако, есть сравнения с DragNUWA и MotionCtrl - и там все очень нарядно.
Это возвращает меня к своему обычному нытью. Если на картинках у вас язык заплетается, конечно, но вы худо бедно можете описать замысел. И то без помощи КонтролНета - никуда.
То для видео - вам придется описывать еще одно измерение, ну то есть вам понадобится х10 слов, чтобы описать движение камеры, объектов, света, оптики, а также изменения формы, траектории частей объектов, ну вы поняли.
Вот и будут возникать такие костыли в виде палочек, кривулек и точечек.
Кстати, в Клинг завезли новый UI для управления камерой. И он ловкий, ибо целит в аудиторию, снимающую на телефон.
А трушные управляторы есть, конечно, в 3Д-софтах. Только там меню на 300 пунктов и все сложно. Кто ж будет учить 3Д в 2024 году?!
Спасибо Игорю за наводку.
https://ali-videoai.github.io/tora_video/
@cgevent
🔥24👍3👎1
Внедрять генеративный ИИ в работу проще, если опираться на успешный опыт коллег. Чтобы помочь предпринимателям, создатели конференции по разговорному и генеративному ИИ Conversations запустили открытый кейсориум Generation AI.
Это открытый кейсориум, где собраны реальные кейсы применения генеративного AI российским бизнесом (и где ваша компания может поделиться своим опытом — объявлен опен-колл).
Предлагаю не ждать, когда из тренда, к которому относятся с осторожностью, возникнут «лучшие практики», золотые стандарты и инструкции по достижению KPI. Нужно экспериментировать и делиться знаниями уже сейчас. Эксперименты одних компаний снижают порог входа для других, вдохновляют, снимают барьеры, меняют взгляд на привычные вещи и, в конечном итоге, делают AI-будущее доступным для всех.
На сайте уже можно почитать материалы X5 Retail Group, Samokat Tech, Ozon и банка «Точка». Скоро к ним добавятся кейсы Avito и Skyeng. Если ваша компания тоже готова поделиться опытом, оставьте заявку на сайте.
#промо
Это открытый кейсориум, где собраны реальные кейсы применения генеративного AI российским бизнесом (и где ваша компания может поделиться своим опытом — объявлен опен-колл).
Предлагаю не ждать, когда из тренда, к которому относятся с осторожностью, возникнут «лучшие практики», золотые стандарты и инструкции по достижению KPI. Нужно экспериментировать и делиться знаниями уже сейчас. Эксперименты одних компаний снижают порог входа для других, вдохновляют, снимают барьеры, меняют взгляд на привычные вещи и, в конечном итоге, делают AI-будущее доступным для всех.
На сайте уже можно почитать материалы X5 Retail Group, Samokat Tech, Ozon и банка «Точка». Скоро к ним добавятся кейсы Avito и Skyeng. Если ваша компания тоже готова поделиться опытом, оставьте заявку на сайте.
#промо
👍16👎9🔥3
Forwarded from эйай ньюз
Ядро команды состоит из авторов Stable Diffusion, которые покинули Stability-ai в марте. Как я и думал, они ушли и создали свою компанию!
Парни за эти несколько месяцев обучили text2image модель FLUX.1 на 12 B параметров! Которая на сегодня является SOTA моделью в открытом доступе! По предоставленным бенчам бьет даже MJ6!
Кажется, делали FLUX.1 по рецепту SD3, т.к. она имеет очень похожую архитектуру (DiT с двумя стримами - текст и картинка) и также основана на Flow Matching.
FLUX.1 вышла в 3 вариантах:
Доступна только через API:
- https://replicate.com/black-forest-labs
- https://fal.ai/models/fal-ai/flux-pro (дают даже бесплатно потыкать)
Демо:
- https://fal.ai/models/fal-ai/flux/dev
Веса (Non-Commercial License):
- https://huggingface.co/black-forest-labs/FLUX.1-dev
Веса (Apache 2.0 License):
- https://huggingface.co/black-forest-labs/FLUX.1-schnell
Репа с кодом
Блогпост
Следуюшим шагом парни хотят выпустить SOTA text2video в опенсорс.
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40🔥9👎2
Рыдаю! Похоже чудо все-таки случилось, и Stable Diffusion восстала из мэртвых.
По первым тестам, все не просто хорошо, а конец глазам как хорошо.
На картинках понимание промпта во всех трех моделях, Pro, Dev, Schnell
В comfyui на 3090 жрет 23.6/24gb
8 steps 1024x1024 = 30 секунд.
Через API можно отключать NSFW фильтр, он есть.
Но если вы балуетесь на Fal.ai то можно указывать промпт не как обычно, а через JSON(поищите), и там выключить фильтр. Но на выходе все равно стоит фильтрация уже по сгенеренной картинке и вы получите черный квадрат.
Ох, думал выспаться. Не судьба, ждите завтра истерик с утреца.
https://comfyanonymous.github.io/ComfyUI_examples/flux/
По первым тестам, все не просто хорошо, а конец глазам как хорошо.
На картинках понимание промпта во всех трех моделях, Pro, Dev, Schnell
В comfyui на 3090 жрет 23.6/24gb
8 steps 1024x1024 = 30 секунд.
Через API можно отключать NSFW фильтр, он есть.
Но если вы балуетесь на Fal.ai то можно указывать промпт не как обычно, а через JSON(поищите), и там выключить фильтр. Но на выходе все равно стоит фильтрация уже по сгенеренной картинке и вы получите черный квадрат.
Ох, думал выспаться. Не судьба, ждите завтра истерик с утреца.
https://comfyanonymous.github.io/ComfyUI_examples/flux/
🔥51👍13👎1
В пятницу будем Флюксить.
Я пособирал из ночных коментов картинки от подписчиков. Свои не могу показать, в коде убрал nsfw score, ну и понеслось. Скажу лишь, что для nsfw из коробки не годится, портит соски и грудь в целом, как SD3, но не портит анатомию, в отличие от SD3.
В остальном это просто плазма. Флюкс умеет в тексты, дико хорошо понимает промпт - даже кое-что соображает за физику (машинки), отражения огня в воде - это за пределами восприятия тех кто делал VFX, так не бывает.
Стеклышки и каустики - умеет и еще как (не физически корректно, и с ошибками, но кого это трясет)
Ну и оцените кожаный суп.
Спасибо всем, кто был со мной этой ночью и кидал кортинки в коменты. Вы психи, конечно, в хорошем смысле.
Я пособирал из ночных коментов картинки от подписчиков. Свои не могу показать, в коде убрал nsfw score, ну и понеслось. Скажу лишь, что для nsfw из коробки не годится, портит соски и грудь в целом, как SD3, но не портит анатомию, в отличие от SD3.
В остальном это просто плазма. Флюкс умеет в тексты, дико хорошо понимает промпт - даже кое-что соображает за физику (машинки), отражения огня в воде - это за пределами восприятия тех кто делал VFX, так не бывает.
Стеклышки и каустики - умеет и еще как (не физически корректно, и с ошибками, но кого это трясет)
Ну и оцените кожаный суп.
Спасибо всем, кто был со мной этой ночью и кидал кортинки в коменты. Вы психи, конечно, в хорошем смысле.
🔥81👍10