Метаверсище и ИИще
48K subscribers
6.05K photos
4.52K videos
47 files
6.96K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Я уже постил про работу Фила Лангера HYBRIDS.
Ее появление было реально интересным. Там были картинки из Midjourney, присунутые в leiapix для легкого панорамирования вокруг.

Именно новизна картинок и выход из зоны кожаного комфорта и цеплял. И цепляет.

Сейчас Фил взял и присунул эти же картиночки в GEN-3 и получил еще больше, скажем так, анимации.
Меня если честно, уже так не цепляет, как было в первый раз при взгляде на картинки.
Новизна была (и есть) именно в идее, в картинке.
Видео добавляет лишь немного шевеляжа, не добавляя почти ничего к истории.
Ну то есть я, конечно, офигел, но не настолько офигел, как в первый раз. Зажрался, чо.
Но я вам добыл еще любопытного: тесты Фила на этих же картинках, сделанные в Люме (до выхода Image2Image в GEN-3).
Похоже Люме надо обновляться...
https://www.youtube.com/watch?v=Dzr8_spDyxE
🔥37👍8👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Доггер-панк, который мы заслужили.

Мы: упарываемся в генерацию гибридов и консистентых персонажей, оживляем картинки, сетапим контролНеты, костылим виртуальные примерочные.
Нормальные кожаные: а давайте просто оденем добермана в разную одежду и цацки. И сделаем из него звезду. Миллионы просмотров не пахнут. 160 тысяч подписчиков тоже.

Цифровые инфлюенсеры медленно ползут в Recycle Bin.
https://www.odditycentral.com/animals/this-stylish-doberman-is-a-natural-bon-fashion-model.html
🔥52
TORA: Кому ControlNet для видео-генерации?

Никому, потому что кода (как водится у Алибабы) пока нет.

Однако, есть сравнения с DragNUWA и MotionCtrl - и там все очень нарядно.

Это возвращает меня к своему обычному нытью. Если на картинках у вас язык заплетается, конечно, но вы худо бедно можете описать замысел. И то без помощи КонтролНета - никуда.

То для видео - вам придется описывать еще одно измерение, ну то есть вам понадобится х10 слов, чтобы описать движение камеры, объектов, света, оптики, а также изменения формы, траектории частей объектов, ну вы поняли.
Вот и будут возникать такие костыли в виде палочек, кривулек и точечек.
Кстати, в Клинг завезли новый UI для управления камерой. И он ловкий, ибо целит в аудиторию, снимающую на телефон.

А трушные управляторы есть, конечно, в 3Д-софтах. Только там меню на 300 пунктов и все сложно. Кто ж будет учить 3Д в 2024 году?!

Спасибо Игорю за наводку.

https://ali-videoai.github.io/tora_video/

@cgevent
🔥24👍3👎1
Внедрять генеративный ИИ в работу проще, если опираться на успешный опыт коллег. Чтобы помочь предпринимателям, создатели конференции по разговорному и генеративному ИИ Conversations запустили открытый кейсориум Generation AI.

Это открытый кейсориум, где собраны реальные кейсы применения генеративного AI российским бизнесом (и где ваша компания может поделиться своим опытом — объявлен опен-колл).

Предлагаю не ждать, когда из тренда, к которому относятся с осторожностью, возникнут «лучшие практики», золотые стандарты и инструкции по достижению KPI. Нужно экспериментировать и делиться знаниями уже сейчас. Эксперименты одних компаний снижают порог входа для других, вдохновляют, снимают барьеры, меняют взгляд на привычные вещи и, в конечном итоге, делают AI-будущее доступным для всех.

На сайте уже можно почитать материалы X5 Retail Group, Samokat Tech, Ozon и банка «Точка». Скоро к ним добавятся кейсы Avito и Skyeng. Если ваша компания тоже готова поделиться опытом, оставьте заявку на сайте.
#промо
👍16👎9🔥3
Forwarded from эйай ньюз
🔥Black Forest Labs: новая лаба, которая будет двигать опенсорс image и видео генерацию! И новая SOTA 12B t2i модель!

Ядро команды состоит из авторов Stable Diffusion, которые покинули Stability-ai в марте. Как я и думал, они ушли и создали свою компанию!

Парни за эти несколько месяцев обучили text2image модель FLUX.1 на 12 B параметров! Которая на сегодня является SOTA моделью в открытом доступе! По предоставленным бенчам бьет даже MJ6!

Кажется, делали FLUX.1 по рецепту SD3, т.к. она имеет очень похожую архитектуру (DiT с двумя стримами - текст и картинка) и также основана на Flow Matching.

FLUX.1 вышла в 3 вариантах:

1️⃣ FLUX.1 [pro]: СОТА модель на 12B параметром. Все как надо - хорошая детализация изображений и фледование промпту, разные стили.
Доступна только через API:
- https://replicate.com/black-forest-labs
- https://fal.ai/models/fal-ai/flux-pro (дают даже бесплатно потыкать)

2️⃣FLUX.1 [dev]: Это дистиллированная чезе Guidance Distillation модель FLUX.1 [pro], которая в ~2 раза быстрее оригинала, и выдает почти такое же качество.
Демо:
- https://fal.ai/models/fal-ai/flux/dev
Веса (Non-Commercial License):
- https://huggingface.co/black-forest-labs/FLUX.1-dev

3️⃣ FLUX.1 [schnell]: Это быстра версия. По все видимости, это дистиллированная с помощью LADD (пост) модель FLUX.1 [pro], которая работает за малое число шагов (от 1 до 12), но с качеством похуже.
Веса (Apache 2.0 License):
- https://huggingface.co/black-forest-labs/FLUX.1-schnell

Репа с кодом
Блогпост

Следуюшим шагом парни хотят выпустить SOTA text2video в опенсорс.

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40🔥9👎2
Рыдаю! Похоже чудо все-таки случилось, и Stable Diffusion восстала из мэртвых.
По первым тестам, все не просто хорошо, а конец глазам как хорошо.
На картинках понимание промпта во всех трех моделях, Pro, Dev, Schnell

В comfyui на 3090 жрет 23.6/24gb
8 steps 1024x1024 = 30 секунд.

Через API можно отключать NSFW фильтр, он есть.
Но если вы балуетесь на Fal.ai то можно указывать промпт не как обычно, а через JSON(поищите), и там выключить фильтр. Но на выходе все равно стоит фильтрация уже по сгенеренной картинке и вы получите черный квадрат.

Ох, думал выспаться. Не судьба, ждите завтра истерик с утреца.


https://comfyanonymous.github.io/ComfyUI_examples/flux/
🔥51👍13👎1
И да, оно умеет в такое. Бог есть.
🔥120👍11👎4
В пятницу будем Флюксить.
Я пособирал из ночных коментов картинки от подписчиков. Свои не могу показать, в коде убрал nsfw score, ну и понеслось. Скажу лишь, что для nsfw из коробки не годится, портит соски и грудь в целом, как SD3, но не портит анатомию, в отличие от SD3.

В остальном это просто плазма. Флюкс умеет в тексты, дико хорошо понимает промпт - даже кое-что соображает за физику (машинки), отражения огня в воде - это за пределами восприятия тех кто делал VFX, так не бывает.
Стеклышки и каустики - умеет и еще как (не физически корректно, и с ошибками, но кого это трясет)
Ну и оцените кожаный суп.
Спасибо всем, кто был со мной этой ночью и кидал кортинки в коменты. Вы психи, конечно, в хорошем смысле.
🔥81👍10