Media is too big
VIEW IN TELEGRAM
Наконец-то годное ИИ-видео
Интернетик завален ИИ-видосиками. Народ пытается монтировать это в клипы. Пока все это похоже на неуклюжие трейлеры к фильмам категории Б, в которых не сшивается ничего - ни свет, ни камера, ни цвет. Бесконечные облеты-пролеты камеры мимо пластиковых девушек.
Принес вам клип, который торчит из этого посредственного видеоряда. Его приметил даже Андрей Карпатый и твитторнул с восторгом.
От себя добавлю, что здесь, во-первых, есть очень цепляющая фактура в виде мозаики. Она и есть главный герой и отлично бьется с названием "Разбитые мечты". Мы перестаем смотреть на детали, мы смотрим на мозаику. А она хороша.
Во-вторых, все эти мозаичные уточки и акулы, приподвзрывают мозг (пусть и незаметно), а мозаичная одежда прям топ (я посмотреть третий раз и там есть совсем уж находки).
В-третьих. У меня профдеформация, но вот это вот количество стекла, отражений, преломлений, каустик, SSS и прочего рейтрейсинга с глобальным освещением меня просто расплющивает. Вы никогда не отрендерите такой клип в 3Д, у вас лет в паспорте не хватит, это годы рендеринга.
А на итоге - это Suno + GEN-3. И хорошая кожаная(?) идея.
https://www.youtube.com/watch?v=IpP6XojxH3g
Интернетик завален ИИ-видосиками. Народ пытается монтировать это в клипы. Пока все это похоже на неуклюжие трейлеры к фильмам категории Б, в которых не сшивается ничего - ни свет, ни камера, ни цвет. Бесконечные облеты-пролеты камеры мимо пластиковых девушек.
Принес вам клип, который торчит из этого посредственного видеоряда. Его приметил даже Андрей Карпатый и твитторнул с восторгом.
От себя добавлю, что здесь, во-первых, есть очень цепляющая фактура в виде мозаики. Она и есть главный герой и отлично бьется с названием "Разбитые мечты". Мы перестаем смотреть на детали, мы смотрим на мозаику. А она хороша.
Во-вторых, все эти мозаичные уточки и акулы, приподвзрывают мозг (пусть и незаметно), а мозаичная одежда прям топ (я посмотреть третий раз и там есть совсем уж находки).
В-третьих. У меня профдеформация, но вот это вот количество стекла, отражений, преломлений, каустик, SSS и прочего рейтрейсинга с глобальным освещением меня просто расплющивает. Вы никогда не отрендерите такой клип в 3Д, у вас лет в паспорте не хватит, это годы рендеринга.
А на итоге - это Suno + GEN-3. И хорошая кожаная(?) идея.
https://www.youtube.com/watch?v=IpP6XojxH3g
👍82🔥39👎7
В интернетике уже полно примеров тестирования нового голосового режима в chatGPT.
Самый, наверное, упоротый тестер измучил chatGPT всеми языками на свете.
В шапке есть видео, где он просит переключаться между языками рассказывая сказку и доходя до корейского с итальянским акцентом (извращенец).
Вы также наверное уже видели, что если попросить chatGPT ОЧЕНЬ быстро считать до 50, то он берет вдох на второй трети скороговорки. Ибо тоже человек (тут идут споры почему он так делает - научился из датасетов или "понимает" что кислород закончился).
Так вот, этот же чувак, на итоге просит chatGPT переключаться между языками через каждое слово! Садист. chatGPT справляется. Но когда кожаный ирод просит его быть быстрее и не делать пауз, chatGPT реально сердится и спорит что он не может не делать пауз, что ему дышать надо. И отказывается.
Все как у людей.
А последнее видео говорит нам о том, что у некоторых пользователей уже работает режим Live Video и что можно поговорить с chatGPT включив камеру о самом дорогом - о котиках.
Лично меня пока сильно привлекает возможность озвучки - это, кстати, очень серая зона. Поглядите, как chatGPT лихо воспроизводит мастера Йоду или Гомера Симпсона и даже смешивает их в одном голосе.
Интересно, что будет, если скормить ему свой (чужой) голос и попросить имитировать его? С картинками было достаточно сказать, что это ваша личная фотография.
Вот твиттор чувака, упоротого по языкам: от узбекского до Урду:
https://x.com/CrisGiardina
@cgevent
Самый, наверное, упоротый тестер измучил chatGPT всеми языками на свете.
В шапке есть видео, где он просит переключаться между языками рассказывая сказку и доходя до корейского с итальянским акцентом (извращенец).
Вы также наверное уже видели, что если попросить chatGPT ОЧЕНЬ быстро считать до 50, то он берет вдох на второй трети скороговорки. Ибо тоже человек (тут идут споры почему он так делает - научился из датасетов или "понимает" что кислород закончился).
Так вот, этот же чувак, на итоге просит chatGPT переключаться между языками через каждое слово! Садист. chatGPT справляется. Но когда кожаный ирод просит его быть быстрее и не делать пауз, chatGPT реально сердится и спорит что он не может не делать пауз, что ему дышать надо. И отказывается.
Все как у людей.
А последнее видео говорит нам о том, что у некоторых пользователей уже работает режим Live Video и что можно поговорить с chatGPT включив камеру о самом дорогом - о котиках.
Лично меня пока сильно привлекает возможность озвучки - это, кстати, очень серая зона. Поглядите, как chatGPT лихо воспроизводит мастера Йоду или Гомера Симпсона и даже смешивает их в одном голосе.
Интересно, что будет, если скормить ему свой (чужой) голос и попросить имитировать его? С картинками было достаточно сказать, что это ваша личная фотография.
Вот твиттор чувака, упоротого по языкам: от узбекского до Урду:
https://x.com/CrisGiardina
@cgevent
👍39🔥16
Я уже постил про работу Фила Лангера HYBRIDS.
Ее появление было реально интересным. Там были картинки из Midjourney, присунутые в leiapix для легкого панорамирования вокруг.
Именно новизна картинок и выход из зоны кожаного комфорта и цеплял. И цепляет.
Сейчас Фил взял и присунул эти же картиночки в GEN-3 и получил еще больше, скажем так, анимации.
Меня если честно, уже так не цепляет, как было в первый раз при взгляде на картинки.
Новизна была (и есть) именно в идее, в картинке.
Видео добавляет лишь немного шевеляжа, не добавляя почти ничего к истории.
Ну то есть я, конечно, офигел, но не настолько офигел, как в первый раз. Зажрался, чо.
Но я вам добыл еще любопытного: тесты Фила на этих же картинках, сделанные в Люме (до выхода Image2Image в GEN-3).
Похоже Люме надо обновляться...
https://www.youtube.com/watch?v=Dzr8_spDyxE
Ее появление было реально интересным. Там были картинки из Midjourney, присунутые в leiapix для легкого панорамирования вокруг.
Именно новизна картинок и выход из зоны кожаного комфорта и цеплял. И цепляет.
Сейчас Фил взял и присунул эти же картиночки в GEN-3 и получил еще больше, скажем так, анимации.
Меня если честно, уже так не цепляет, как было в первый раз при взгляде на картинки.
Новизна была (и есть) именно в идее, в картинке.
Видео добавляет лишь немного шевеляжа, не добавляя почти ничего к истории.
Ну то есть я, конечно, офигел, но не настолько офигел, как в первый раз. Зажрался, чо.
Но я вам добыл еще любопытного: тесты Фила на этих же картинках, сделанные в Люме (до выхода Image2Image в GEN-3).
Похоже Люме надо обновляться...
https://www.youtube.com/watch?v=Dzr8_spDyxE
🔥37👍8👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Доггер-панк, который мы заслужили.
Мы: упарываемся в генерацию гибридов и консистентых персонажей, оживляем картинки, сетапим контролНеты, костылим виртуальные примерочные.
Нормальные кожаные: а давайте просто оденем добермана в разную одежду и цацки. И сделаем из него звезду. Миллионы просмотров не пахнут. 160 тысяч подписчиков тоже.
Цифровые инфлюенсеры медленно ползут в Recycle Bin.
https://www.odditycentral.com/animals/this-stylish-doberman-is-a-natural-bon-fashion-model.html
Мы: упарываемся в генерацию гибридов и консистентых персонажей, оживляем картинки, сетапим контролНеты, костылим виртуальные примерочные.
Нормальные кожаные: а давайте просто оденем добермана в разную одежду и цацки. И сделаем из него звезду. Миллионы просмотров не пахнут. 160 тысяч подписчиков тоже.
Цифровые инфлюенсеры медленно ползут в Recycle Bin.
https://www.odditycentral.com/animals/this-stylish-doberman-is-a-natural-bon-fashion-model.html
🔥52
TORA: Кому ControlNet для видео-генерации?
Никому, потому что кода (как водится у Алибабы) пока нет.
Однако, есть сравнения с DragNUWA и MotionCtrl - и там все очень нарядно.
Это возвращает меня к своему обычному нытью. Если на картинках у вас язык заплетается, конечно, но вы худо бедно можете описать замысел. И то без помощи КонтролНета - никуда.
То для видео - вам придется описывать еще одно измерение, ну то есть вам понадобится х10 слов, чтобы описать движение камеры, объектов, света, оптики, а также изменения формы, траектории частей объектов, ну вы поняли.
Вот и будут возникать такие костыли в виде палочек, кривулек и точечек.
Кстати, в Клинг завезли новый UI для управления камерой. И он ловкий, ибо целит в аудиторию, снимающую на телефон.
А трушные управляторы есть, конечно, в 3Д-софтах. Только там меню на 300 пунктов и все сложно. Кто ж будет учить 3Д в 2024 году?!
Спасибо Игорю за наводку.
https://ali-videoai.github.io/tora_video/
@cgevent
Никому, потому что кода (как водится у Алибабы) пока нет.
Однако, есть сравнения с DragNUWA и MotionCtrl - и там все очень нарядно.
Это возвращает меня к своему обычному нытью. Если на картинках у вас язык заплетается, конечно, но вы худо бедно можете описать замысел. И то без помощи КонтролНета - никуда.
То для видео - вам придется описывать еще одно измерение, ну то есть вам понадобится х10 слов, чтобы описать движение камеры, объектов, света, оптики, а также изменения формы, траектории частей объектов, ну вы поняли.
Вот и будут возникать такие костыли в виде палочек, кривулек и точечек.
Кстати, в Клинг завезли новый UI для управления камерой. И он ловкий, ибо целит в аудиторию, снимающую на телефон.
А трушные управляторы есть, конечно, в 3Д-софтах. Только там меню на 300 пунктов и все сложно. Кто ж будет учить 3Д в 2024 году?!
Спасибо Игорю за наводку.
https://ali-videoai.github.io/tora_video/
@cgevent
🔥24👍3👎1
Внедрять генеративный ИИ в работу проще, если опираться на успешный опыт коллег. Чтобы помочь предпринимателям, создатели конференции по разговорному и генеративному ИИ Conversations запустили открытый кейсориум Generation AI.
Это открытый кейсориум, где собраны реальные кейсы применения генеративного AI российским бизнесом (и где ваша компания может поделиться своим опытом — объявлен опен-колл).
Предлагаю не ждать, когда из тренда, к которому относятся с осторожностью, возникнут «лучшие практики», золотые стандарты и инструкции по достижению KPI. Нужно экспериментировать и делиться знаниями уже сейчас. Эксперименты одних компаний снижают порог входа для других, вдохновляют, снимают барьеры, меняют взгляд на привычные вещи и, в конечном итоге, делают AI-будущее доступным для всех.
На сайте уже можно почитать материалы X5 Retail Group, Samokat Tech, Ozon и банка «Точка». Скоро к ним добавятся кейсы Avito и Skyeng. Если ваша компания тоже готова поделиться опытом, оставьте заявку на сайте.
#промо
Это открытый кейсориум, где собраны реальные кейсы применения генеративного AI российским бизнесом (и где ваша компания может поделиться своим опытом — объявлен опен-колл).
Предлагаю не ждать, когда из тренда, к которому относятся с осторожностью, возникнут «лучшие практики», золотые стандарты и инструкции по достижению KPI. Нужно экспериментировать и делиться знаниями уже сейчас. Эксперименты одних компаний снижают порог входа для других, вдохновляют, снимают барьеры, меняют взгляд на привычные вещи и, в конечном итоге, делают AI-будущее доступным для всех.
На сайте уже можно почитать материалы X5 Retail Group, Samokat Tech, Ozon и банка «Точка». Скоро к ним добавятся кейсы Avito и Skyeng. Если ваша компания тоже готова поделиться опытом, оставьте заявку на сайте.
#промо
👍16👎9🔥3
Forwarded from эйай ньюз
Ядро команды состоит из авторов Stable Diffusion, которые покинули Stability-ai в марте. Как я и думал, они ушли и создали свою компанию!
Парни за эти несколько месяцев обучили text2image модель FLUX.1 на 12 B параметров! Которая на сегодня является SOTA моделью в открытом доступе! По предоставленным бенчам бьет даже MJ6!
Кажется, делали FLUX.1 по рецепту SD3, т.к. она имеет очень похожую архитектуру (DiT с двумя стримами - текст и картинка) и также основана на Flow Matching.
FLUX.1 вышла в 3 вариантах:
Доступна только через API:
- https://replicate.com/black-forest-labs
- https://fal.ai/models/fal-ai/flux-pro (дают даже бесплатно потыкать)
Демо:
- https://fal.ai/models/fal-ai/flux/dev
Веса (Non-Commercial License):
- https://huggingface.co/black-forest-labs/FLUX.1-dev
Веса (Apache 2.0 License):
- https://huggingface.co/black-forest-labs/FLUX.1-schnell
Репа с кодом
Блогпост
Следуюшим шагом парни хотят выпустить SOTA text2video в опенсорс.
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40🔥9👎2
Рыдаю! Похоже чудо все-таки случилось, и Stable Diffusion восстала из мэртвых.
По первым тестам, все не просто хорошо, а конец глазам как хорошо.
На картинках понимание промпта во всех трех моделях, Pro, Dev, Schnell
В comfyui на 3090 жрет 23.6/24gb
8 steps 1024x1024 = 30 секунд.
Через API можно отключать NSFW фильтр, он есть.
Но если вы балуетесь на Fal.ai то можно указывать промпт не как обычно, а через JSON(поищите), и там выключить фильтр. Но на выходе все равно стоит фильтрация уже по сгенеренной картинке и вы получите черный квадрат.
Ох, думал выспаться. Не судьба, ждите завтра истерик с утреца.
https://comfyanonymous.github.io/ComfyUI_examples/flux/
По первым тестам, все не просто хорошо, а конец глазам как хорошо.
На картинках понимание промпта во всех трех моделях, Pro, Dev, Schnell
В comfyui на 3090 жрет 23.6/24gb
8 steps 1024x1024 = 30 секунд.
Через API можно отключать NSFW фильтр, он есть.
Но если вы балуетесь на Fal.ai то можно указывать промпт не как обычно, а через JSON(поищите), и там выключить фильтр. Но на выходе все равно стоит фильтрация уже по сгенеренной картинке и вы получите черный квадрат.
Ох, думал выспаться. Не судьба, ждите завтра истерик с утреца.
https://comfyanonymous.github.io/ComfyUI_examples/flux/
🔥51👍13👎1
В пятницу будем Флюксить.
Я пособирал из ночных коментов картинки от подписчиков. Свои не могу показать, в коде убрал nsfw score, ну и понеслось. Скажу лишь, что для nsfw из коробки не годится, портит соски и грудь в целом, как SD3, но не портит анатомию, в отличие от SD3.
В остальном это просто плазма. Флюкс умеет в тексты, дико хорошо понимает промпт - даже кое-что соображает за физику (машинки), отражения огня в воде - это за пределами восприятия тех кто делал VFX, так не бывает.
Стеклышки и каустики - умеет и еще как (не физически корректно, и с ошибками, но кого это трясет)
Ну и оцените кожаный суп.
Спасибо всем, кто был со мной этой ночью и кидал кортинки в коменты. Вы психи, конечно, в хорошем смысле.
Я пособирал из ночных коментов картинки от подписчиков. Свои не могу показать, в коде убрал nsfw score, ну и понеслось. Скажу лишь, что для nsfw из коробки не годится, портит соски и грудь в целом, как SD3, но не портит анатомию, в отличие от SD3.
В остальном это просто плазма. Флюкс умеет в тексты, дико хорошо понимает промпт - даже кое-что соображает за физику (машинки), отражения огня в воде - это за пределами восприятия тех кто делал VFX, так не бывает.
Стеклышки и каустики - умеет и еще как (не физически корректно, и с ошибками, но кого это трясет)
Ну и оцените кожаный суп.
Спасибо всем, кто был со мной этой ночью и кидал кортинки в коменты. Вы психи, конечно, в хорошем смысле.
🔥81👍10