Ну и как после этого не запостить мой диалог с chatGPT, где я заставляю его генерить по пять картинок за раз в одном промпте. Мне нужны были вариации на тему crypto-spring (криптовесна на дворе).
Попросил его сделать картинку.
Потом попросил вариации промпта.
Потом попросил сделать по ВСЕМ вариациям промпта картинки, единственно, что сказал делать перерывчик между генерациями.
wide picture of crypto-spring, waking up after crypto-winter
give me more variants (тут он выдал пять промптов)
Make pictures for every variant, one by one, make a break between generations
Тут он вздохнул и выплюнул пять картинок (см скрин)
Профит.
После общения с Гугловым Генератором ImageFX - это как поговорить со Стивеном Хокингом.
Попросил его сделать картинку.
Потом попросил вариации промпта.
Потом попросил сделать по ВСЕМ вариациям промпта картинки, единственно, что сказал делать перерывчик между генерациями.
wide picture of crypto-spring, waking up after crypto-winter
give me more variants (тут он выдал пять промптов)
Make pictures for every variant, one by one, make a break between generations
Тут он вздохнул и выплюнул пять картинок (см скрин)
Профит.
После общения с Гугловым Генератором ImageFX - это как поговорить со Стивеном Хокингом.
🔥30
This media is not supported in your browser
VIEW IN TELEGRAM
MobileDiffusion: Rapid text-to-image generation on-device
Но Гугль не сдается.
Показывает генерацию модифицированной Stable Diffusion на телефоне. Причем с космической скоростью.
Там всего 500K параметров, так что чуда не ждите, но скорость!
https://blog.research.google/2024/01/mobilediffusion-rapid-text-to-image.html
MobileDiffusion — это модель, специально разработанная для мобильных устройств. Мы также используем DiffusionGAN для обеспечения одноэтапной выборки во время вывода, что позволяет точно настроить предварительно обученную модель диффузии, одновременно используя GAN для моделирования этапа шумоподавления. Мы протестировали MobileDiffusion на премиальных устройствах iOS и Android, и он может запуститься за полсекунды и сгенерировать высококачественное изображение размером 512x512.
Но Гугль не сдается.
Показывает генерацию модифицированной Stable Diffusion на телефоне. Причем с космической скоростью.
Там всего 500K параметров, так что чуда не ждите, но скорость!
https://blog.research.google/2024/01/mobilediffusion-rapid-text-to-image.html
MobileDiffusion — это модель, специально разработанная для мобильных устройств. Мы также используем DiffusionGAN для обеспечения одноэтапной выборки во время вывода, что позволяет точно настроить предварительно обученную модель диффузии, одновременно используя GAN для моделирования этапа шумоподавления. Мы протестировали MobileDiffusion на премиальных устройствах iOS и Android, и он может запуститься за полсекунды и сгенерировать высококачественное изображение размером 512x512.
🔥6👍4
А вот в Bard завезли Imagen 2.
В интернетике полная неразбериха, журналисты пишут про ImageFX в Барде:
https://www.theverge.com/2024/2/1/24057438/bard-gemini-imagen-google-ai-image-generation
Это совершенно разные модели. И да, в Барде именно Imagen 2.
Он забавный, я с ним поговорил немного.
Это уже конкурент DALL·E 3 из chatGPT, который впрочем сильно в роли догоняющего.
Он уже понимает в смыслы типа "крипто-зима".
Жестко цензурирован, не умеет в людей, даже close up of a lady приводит его в ужас.
Но.
Если заставить его самого предложить что-то взамен, то он начинает генерить моделей на пляже, с какими-то ластами вместо рук и ацкими пальцами.
Персонажей типа Марио генерить отказывается.
Бард все знает про Apple Vision Pro, но на просьбу сделать картинку, несет полную дичь.
Системный промпт не отдает, но говорит, что можно задавать разрешения и аспекты картинки прямо в промпте.
Терминатора генерить отказывается со странной формулировкой - я всего лишь языковая модель
Часто сваливается в отказ типа "I'm a text-based AI, and that is outside of my capabilities.", хотя я прошу явно сгенерить картинку. Особенно если промпт длинный.
Иногда его прямо клинит - я дал ему точный промпт с Лексики и сказал сгенери картинку вот по такому промпту - видно что Бард сначала полез в интернет, нашел этот промпт на Krea.ai(!), начал нести странную дичь, вместо генерации и давать ссылки на креа и выдавать вариации промпта через ||
Вот промпт
Либо я еще не привык к общению, либо у Барда разрывает мозги из-за того, что он пытается и в интернете поискать, и промпт проанализировать и расширить и картинку с генерить.
В общем у меня ощущение, что я пообщался с недообученным chatGPT и DALL·E 3, который иногда выдает приличный результат, но в основном неуправляем и непредсказуем именно из-за того, что пытается и в интернетик ходить и картинки генерить.
Пишите, что у вас.
https://bard.google.com/
В интернетике полная неразбериха, журналисты пишут про ImageFX в Барде:
https://www.theverge.com/2024/2/1/24057438/bard-gemini-imagen-google-ai-image-generation
Это совершенно разные модели. И да, в Барде именно Imagen 2.
Он забавный, я с ним поговорил немного.
Это уже конкурент DALL·E 3 из chatGPT, который впрочем сильно в роли догоняющего.
Он уже понимает в смыслы типа "крипто-зима".
Жестко цензурирован, не умеет в людей, даже close up of a lady приводит его в ужас.
Но.
Если заставить его самого предложить что-то взамен, то он начинает генерить моделей на пляже, с какими-то ластами вместо рук и ацкими пальцами.
Персонажей типа Марио генерить отказывается.
Бард все знает про Apple Vision Pro, но на просьбу сделать картинку, несет полную дичь.
Системный промпт не отдает, но говорит, что можно задавать разрешения и аспекты картинки прямо в промпте.
Терминатора генерить отказывается со странной формулировкой - я всего лишь языковая модель
Часто сваливается в отказ типа "I'm a text-based AI, and that is outside of my capabilities.", хотя я прошу явно сгенерить картинку. Особенно если промпт длинный.
Иногда его прямо клинит - я дал ему точный промпт с Лексики и сказал сгенери картинку вот по такому промпту - видно что Бард сначала полез в интернет, нашел этот промпт на Krea.ai(!), начал нести странную дичь, вместо генерации и давать ссылки на креа и выдавать вариации промпта через ||
Вот промпт
Либо я еще не привык к общению, либо у Барда разрывает мозги из-за того, что он пытается и в интернете поискать, и промпт проанализировать и расширить и картинку с генерить.
В общем у меня ощущение, что я пообщался с недообученным chatGPT и DALL·E 3, который иногда выдает приличный результат, но в основном неуправляем и непредсказуем именно из-за того, что пытается и в интернетик ходить и картинки генерить.
Пишите, что у вас.
https://bard.google.com/
🔥12👍9
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Пришло приглашение в Stable Video Diffusion 1.1 - доступ к сайту.
На день дается 150 кредитов, одна генерация с дефолтным качеством забирает 10 кредитов и длится около минуты или меньше. Можно запрашивать больше кредитов, денег не просят.
Два режима - генерация из текста или из картинки. Смешивать нельзя.
При генерации из текста сначала генерится картинка с помощью Stable Diffusion, а потом она подается на вход режима "Видео из картинки". Проще дать свою картинку, которую можно сгенерить с контролем качества.
Загрузил картинки созданные Бардом, попробовал оживить.
Пока впечатления не очень - на статичной камере очень мало что происходит, из картинки движение не вытаскивается - в основном шевелится бекграунд.
Движение можно задавать параметром Motion Strength
Качество - параметром Steps
Есть Стили.
Больше параметров нет. Длина видео 4 сек.
На сайте есть галерея из видео и социальная механика.
При генерации спрашивают, что можно улучшить.
Пока больше похоже на шевеляж камеры. Хотя когда я выкрутил движение на макс, то мой заяц зашевелился.
Основная фишка - хорошее качество картинки.
Ну и надо провести на сайте некоторое время, чтобы привыкнуть.
Мне было интересно погенерить всякие симуляции дыма, я скептичен к неконтролируемой анимации объектов.
Нагенерил дымков. Скоро можно будет делать футажи всяких спец-эффектов(если бы еще альфа была).
В общем быстро, относительно бесплатно, удобно экспериментировать.
Но контроля практически нет.
Это скорее для сборки смешных арт-хаусных трейлеров и кринжовых видео-клипов.
Но, погодите, я два года назад разглядывал мутные пятна в Disco Diffusion, а сейчас ворчу, типа контроля в генерации видео маловато.
Зажрался.
На день дается 150 кредитов, одна генерация с дефолтным качеством забирает 10 кредитов и длится около минуты или меньше. Можно запрашивать больше кредитов, денег не просят.
Два режима - генерация из текста или из картинки. Смешивать нельзя.
При генерации из текста сначала генерится картинка с помощью Stable Diffusion, а потом она подается на вход режима "Видео из картинки". Проще дать свою картинку, которую можно сгенерить с контролем качества.
Загрузил картинки созданные Бардом, попробовал оживить.
Пока впечатления не очень - на статичной камере очень мало что происходит, из картинки движение не вытаскивается - в основном шевелится бекграунд.
Движение можно задавать параметром Motion Strength
Качество - параметром Steps
Есть Стили.
Больше параметров нет. Длина видео 4 сек.
На сайте есть галерея из видео и социальная механика.
При генерации спрашивают, что можно улучшить.
Пока больше похоже на шевеляж камеры. Хотя когда я выкрутил движение на макс, то мой заяц зашевелился.
Основная фишка - хорошее качество картинки.
Ну и надо провести на сайте некоторое время, чтобы привыкнуть.
Мне было интересно погенерить всякие симуляции дыма, я скептичен к неконтролируемой анимации объектов.
Нагенерил дымков. Скоро можно будет делать футажи всяких спец-эффектов(если бы еще альфа была).
В общем быстро, относительно бесплатно, удобно экспериментировать.
Но контроля практически нет.
Это скорее для сборки смешных арт-хаусных трейлеров и кринжовых видео-клипов.
Но, погодите, я два года назад разглядывал мутные пятна в Disco Diffusion, а сейчас ворчу, типа контроля в генерации видео маловато.
Зажрался.
👍22🔥8