Psy Eyes
5.08K subscribers
1.05K photos
999 videos
5 files
1.18K links
Креатив + AI + Web3... и мемы

Личная страница @andrey_bezryadin
Download Telegram
Апскейлим картинки с двух рук.

Clarity AI: выпустили воркфлоу для Comfy без их платного API. Модели, эмбеддинги, итд надо качать отдельно и кидать по папкам.

Jasper AI: опубликовали демо и веса контролнет апскейлера на Flux Dev.
OpenAI: выкатили в мобильном приложении Advanced Voice Mode, анонсированный несколько месяцев назад.

В этом режиме можно общаться с AI на разных языках, включая русский, с минимальной задержкой. Например, может хорошо подойти для практики английского языка и работы с акцентом. Или использовать как ассистента, который может параллельно выполнять задания отданные голосом.

На запуске доступно 5 новых голосов, AI имеет доступ к тестовым чатам, и можно настроить тон разговора.

Фича пока раскатывается на платных подписчиков. В день можно поговорить в этом режиме около 40 минут. Также он не доступна в Европе. Нужен IP на США.

Твит
FAQ
This media is not supported in your browser
VIEW IN TELEGRAM
Jon Finger, в твиттере:

"В отличие от трассировки лучей или пути, которые требуют дополнительных вычислений во время выполнения, это освещение основано на подразумеваемых паттернах, поэтому оно требует тех же затрат, что и генерация сцены без освещения.

По мере того как эти интерпретаторы паттернов будут масштабироваться и распознавать все более сложные паттерны, мы будем добиваться все более качественных подразумеваемых взаимодействий по сути бесплатно с каждым поколением.

Еще лучше то, что когда мы начнем работать со сценами, состоящими из токенизированных активов или динамических нейронных ассетов, у нас будет больше контроля, чем в традиционных пайплайнах. Более того, вместо того чтобы начинать с изолированных объектов и применять взаимодействия вручную, мы получим активы, которые будут естественным образом взаимодействовать с окружающей средой, если мы явно не укажем иное."

Сделано с помощью Runway Gen-3.

Переведено в DeepL.
Чтобы два раза не вставать, пришью другие любопытные применения Video-2-Video от самих Runway (с их подсказками) и народа с инета, включая Джона.

Как видно нейронке можно кормить как футаж снятый на что-угодно (они даже пробовали с плёночным фотиком).

Люди скармливают геймплейные кадры, пролёты дронов, трёхмерные нерфы и сплаты, собранные сцены в VR, t2v-генерации, итд.

Если в 3D нужно больше контроля в плане конструировании сцены и движениях камеры, а не хочется открывать Blender/UE, можно попробовать CInetracer.
Когда первый раз ставишь A1111 / Comfy