Forwarded from Сиолошная
В Google AI Studio можно БЕС ПЛАТ НО попробовать новую фичу: нативная генерация изображений той же моделью, что и обрабатывает ваш текст. То самое, что показали OpenAI ещё в мае '24-го (но так и не выпустили, хотя обновления приложений/сайта подсказывают, что скоро должны).
Модель И видит вашу картинку, И рисует сама новую, без вызова отдельной модели, занимающейся генерацией. Это позволяет ей делать попиксельную копию, внося нужные изменения — смотрите примеры. И да, можно загрузить СВОЮ картинку, и после этого просить её перерисовать — так я сделал с крестиками-ноликами.
Можно придумать много всякого крутого, жду ваших креативов в комментариях!
Попробовать тут: https://aistudio.google.com/prompts/new_chat
(справа нужно выбрать модель «Gemini 2.0 Flash Experimental»)
Модель И видит вашу картинку, И рисует сама новую, без вызова отдельной модели, занимающейся генерацией. Это позволяет ей делать попиксельную копию, внося нужные изменения — смотрите примеры. И да, можно загрузить СВОЮ картинку, и после этого просить её перерисовать — так я сделал с крестиками-ноликами.
Можно придумать много всякого крутого, жду ваших креативов в комментариях!
Попробовать тут: https://aistudio.google.com/prompts/new_chat
(справа нужно выбрать модель «Gemini 2.0 Flash Experimental»)
❤30👍22🔥3👎1
Итак, лайфхак для Семицветика в Гемини.
Pencil drawing of flower with exactly seven petals.
Получаем 8 штук. Если повезёт, тут ключевое - drawing, чтобы гемини не копировала ромашки.
Скачиваем, даём на вход эту картинку.
"Сколько лепестков видишь?"
Семь!
Закрываем чат, сжигаем и выбрасывем подальше
Открываем новый. Загружаем картинку.
Скоко?
Восемь!
Change number of petal to exactly seven.
Готово!
@cgevent
Pencil drawing of flower with exactly seven petals.
Получаем 8 штук. Если повезёт, тут ключевое - drawing, чтобы гемини не копировала ромашки.
Скачиваем, даём на вход эту картинку.
"Сколько лепестков видишь?"
Семь!
Закрываем чат, сжигаем и выбрасывем подальше
Открываем новый. Загружаем картинку.
Скоко?
Восемь!
Change number of petal to exactly seven.
Готово!
@cgevent
😁49👍13🔥7
Ну, теперь точно за трехмерщиков!
BlenderMCP connects Blender to Claude via the Model Context Protocol (MCP) , letting Claude take the wheel and control Blender directly.
Клод рулит Блендором.
А вы сидите и покрикиваете в монитор...
Ну или просто дергаете за рычажок "Сделай красиво!" до истощения нерной системы.
Подробные инструкции тут:
https://github.com/ahujasid/blender-mcp
@cgevent
BlenderMCP connects Blender to Claude via the Model Context Protocol (MCP) , letting Claude take the wheel and control Blender directly.
Клод рулит Блендором.
А вы сидите и покрикиваете в монитор...
Ну или просто дергаете за рычажок "Сделай красиво!" до истощения нерной системы.
Подробные инструкции тут:
https://github.com/ahujasid/blender-mcp
@cgevent
4🔥105😁27❤9😱6👍5
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Wan Effects!
Коллекция Wan2.1 14B 480p I2V LoRAs от Remade AI (там один чувак - Рехан Шейх).
Вдумайтесь, пару месяцев назад Пика вирусилась первыми эффектами типа сдавливания или надувания, а теперь мы видим все это в опенсорсе, в гораздо большем количестве, вполне себе качестве, а самое главное с бесконечными возможностями кастомизации.
Так и хочется взорать голосом двухминутного доктора "В интересное время живем\Куда катится мир"
И тут именно image2Video, что круто.
Будьте внимательны, у вани для каждой модели свои Лоры.
Прокликайте все лоры, там примеры промптов.
https://huggingface.co/collections/Remade-AI/wan21-14b-480p-i2v-loras-67d0e26f08092436b585919b
И вот, нашел демо, пока работает:
https://huggingface.co/spaces/multimodalart/remade-effects
Го пробовать и хохотать.
@cgevent
Коллекция Wan2.1 14B 480p I2V LoRAs от Remade AI (там один чувак - Рехан Шейх).
Вдумайтесь, пару месяцев назад Пика вирусилась первыми эффектами типа сдавливания или надувания, а теперь мы видим все это в опенсорсе, в гораздо большем количестве, вполне себе качестве, а самое главное с бесконечными возможностями кастомизации.
Так и хочется взорать голосом двухминутного доктора "В интересное время живем\Куда катится мир"
И тут именно image2Video, что круто.
Будьте внимательны, у вани для каждой модели свои Лоры.
Прокликайте все лоры, там примеры промптов.
https://huggingface.co/collections/Remade-AI/wan21-14b-480p-i2v-loras-67d0e26f08092436b585919b
И вот, нашел демо, пока работает:
https://huggingface.co/spaces/multimodalart/remade-effects
Го пробовать и хохотать.
@cgevent
1🔥28👍11❤5👎1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
А также подтягиваются первые аналоги контролНетов для Wan.
Это не контролНеты, как мы их любим, это Лоры и это скорее аналог Flux Tools - набора Лор для контроля картинки.
Пока только Лора Tile и только для маленькой модели 1.3B.
Но ждем ответок от других команд и разработчиков.
https://huggingface.co/spacepxl/Wan2.1-control-loras
@cgevent
Это не контролНеты, как мы их любим, это Лоры и это скорее аналог Flux Tools - набора Лор для контроля картинки.
Пока только Лора Tile и только для маленькой модели 1.3B.
Но ждем ответок от других команд и разработчиков.
https://huggingface.co/spacepxl/Wan2.1-control-loras
@cgevent
🔥24❤9👍5
Если кому интересно, то chatGPT c моделью 4.5 стал принимать на вход картинки. Более того, если ему дать на вход видео, как файл, он может его описать.
Но генерит по прежнему в дряхлом dalle-3.
@cgevent
Но генерит по прежнему в дряхлом dalle-3.
@cgevent
👍48🔥13❤3
Forwarded from Psy Eyes
This media is not supported in your browser
VIEW IN TELEGRAM
Гоняем Wan на динамику.
Хотел сделать так, чтобы мех колыхался с указанием в промте 10 м/с и его последовательным увеличением до 15 м/с —> 20 м/с —> 25 м/с итд.
Но пока вижу, что от этого камеру больше штормит, чем мех. Котэ непоколебим!
Надо попробовать mph (мили/час), или просто добавить к wind слова strong, very strong, very very strong, wtf U R doing outside?, итд
Хотел сделать так, чтобы мех колыхался с указанием в промте 10 м/с и его последовательным увеличением до 15 м/с —> 20 м/с —> 25 м/с итд.
Но пока вижу, что от этого камеру больше штормит, чем мех. Котэ непоколебим!
Надо попробовать mph (мили/час), или просто добавить к wind слова strong, very strong, very very strong, wtf U R doing outside?, итд
😁28❤10👍7
Apple добавит функцию синхронного перевода в AirPods
Так, по крайней мере, я перевожу Live Translation.
Подробностей минимум.
В конце года.
Только IOS 19.
Если приподнакинуть с дивана, то синхрон в каком-то виде есть уже у Метачки в умных очках, у Самсунга прямо в телефонах (on device, без доступа в облако) и даже в ушах Pixel Buds от Гугла.
Но где Пиксел Бадс и где Айр Подс. Про первые мало кто слышал, вторые уже как ксерокс.
Тут интересны вопрос в реальной востребованности такой фичи на b2c рынке. В путешествиях, на конференциях - да. Но сколько времени вы путешествуете и ходите на международные конференции.
В принципе можно ютюб смотреть в таких наушниках через колонку и микрофон.
Интересно, во что превратится синхронный перевод через полгода. В принципе задача уже решенная, и тут интересно как и кем он будет продуктово упакован. Весь онлайн-конференсинг просмотр, думаю, будет оснащен встроенным переводом на лету (уже). Стриминги тоже.
Остаются живые мультиязычные взаимодействия.
P/S/ Памятуя, как Эппле облажалась с Apple Intelligence, через полгода нам могут опять показать демо и отложить на след год.
И как, интересно, там с цензурой? Жопа есть, а слова "жопа" нет?
https://www.theverge.com/news/629506/apple-airpods-live-translation-ios-19
Так, по крайней мере, я перевожу Live Translation.
Подробностей минимум.
В конце года.
Только IOS 19.
Если приподнакинуть с дивана, то синхрон в каком-то виде есть уже у Метачки в умных очках, у Самсунга прямо в телефонах (on device, без доступа в облако) и даже в ушах Pixel Buds от Гугла.
Но где Пиксел Бадс и где Айр Подс. Про первые мало кто слышал, вторые уже как ксерокс.
Тут интересны вопрос в реальной востребованности такой фичи на b2c рынке. В путешествиях, на конференциях - да. Но сколько времени вы путешествуете и ходите на международные конференции.
В принципе можно ютюб смотреть в таких наушниках через колонку и микрофон.
Интересно, во что превратится синхронный перевод через полгода. В принципе задача уже решенная, и тут интересно как и кем он будет продуктово упакован. Весь онлайн-конференсинг просмотр, думаю, будет оснащен встроенным переводом на лету (уже). Стриминги тоже.
Остаются живые мультиязычные взаимодействия.
P/S/ Памятуя, как Эппле облажалась с Apple Intelligence, через полгода нам могут опять показать демо и отложить на след год.
И как, интересно, там с цензурой? Жопа есть, а слова "жопа" нет?
https://www.theverge.com/news/629506/apple-airpods-live-translation-ios-19
The Verge
Apple is reportedly bringing live translation to AirPods
It could arrive with iOS 19.
1👍30❤5🔥5🙏2
This media is not supported in your browser
VIEW IN TELEGRAM
Вы будете смеяцца, но у нас новый видеогенератор.
Причем амбициозный до жути.
Мы, говорят, натренировали свою модель, Marey 1.0, специально для тех, кто делает, наминутчку, КИНО!
Дальше идет традиционный корпоративный бушит в духе адобченко:
The first clean AI model for videography built off fully owned/licensed content
Или вот так:
Marey proves that AI can be ethical, legal, and designed specifically for creatives.
Для меня звучит как, меньше данных, хуже качество. Что в общем и демонстрирует нам видеогенератор Firefly от Адобченко. Где Firefly и где Kling?
Модель закрытая, цена непонятная, а подробности не являют миру революцию:
Marey обучалась на «собственных или полностью лицензированных» исходных данных и предлагает возможности настройки, включая детальное управление камерой и движением.
1080P
30 секунд
Есть только вейтлист:
https://www.moonvalley.com/
Мне кажется, это инвестиционные игрища.
@cgevent
Причем амбициозный до жути.
Мы, говорят, натренировали свою модель, Marey 1.0, специально для тех, кто делает, наминутчку, КИНО!
Дальше идет традиционный корпоративный бушит в духе адобченко:
The first clean AI model for videography built off fully owned/licensed content
Или вот так:
Marey proves that AI can be ethical, legal, and designed specifically for creatives.
Для меня звучит как, меньше данных, хуже качество. Что в общем и демонстрирует нам видеогенератор Firefly от Адобченко. Где Firefly и где Kling?
Модель закрытая, цена непонятная, а подробности не являют миру революцию:
Marey обучалась на «собственных или полностью лицензированных» исходных данных и предлагает возможности настройки, включая детальное управление камерой и движением.
1080P
30 секунд
Есть только вейтлист:
https://www.moonvalley.com/
Мне кажется, это инвестиционные игрища.
@cgevent
👍21👎11❤6🔥6