Апскейлим картинки с двух рук.
Clarity AI: выпустили воркфлоу для Comfy без их платного API. Модели, эмбеддинги, итд надо качать отдельно и кидать по папкам.
Jasper AI: опубликовали демо и веса контролнет апскейлера на Flux Dev.
Clarity AI: выпустили воркфлоу для Comfy без их платного API. Модели, эмбеддинги, итд надо качать отдельно и кидать по папкам.
Jasper AI: опубликовали демо и веса контролнет апскейлера на Flux Dev.
OpenAI: выкатили в мобильном приложении Advanced Voice Mode, анонсированный несколько месяцев назад.
В этом режиме можно общаться с AI на разных языках, включая русский, с минимальной задержкой. Например, может хорошо подойти для практики английского языка и работы с акцентом. Или использовать как ассистента, который может параллельно выполнять задания отданные голосом.
На запуске доступно 5 новых голосов, AI имеет доступ к тестовым чатам, и можно настроить тон разговора.
Фича пока раскатывается на платных подписчиков. В день можно поговорить в этом режиме около 40 минут. Также он не доступна в Европе. Нужен IP на США.
Твит
FAQ
В этом режиме можно общаться с AI на разных языках, включая русский, с минимальной задержкой. Например, может хорошо подойти для практики английского языка и работы с акцентом. Или использовать как ассистента, который может параллельно выполнять задания отданные голосом.
На запуске доступно 5 новых голосов, AI имеет доступ к тестовым чатам, и можно настроить тон разговора.
Фича пока раскатывается на платных подписчиков. В день можно поговорить в этом режиме около 40 минут. Также он не доступна в Европе. Нужен IP на США.
Твит
FAQ
This media is not supported in your browser
VIEW IN TELEGRAM
Jon Finger, в твиттере:
"В отличие от трассировки лучей или пути, которые требуют дополнительных вычислений во время выполнения, это освещение основано на подразумеваемых паттернах, поэтому оно требует тех же затрат, что и генерация сцены без освещения.
По мере того как эти интерпретаторы паттернов будут масштабироваться и распознавать все более сложные паттерны, мы будем добиваться все более качественных подразумеваемых взаимодействий по сути бесплатно с каждым поколением.
Еще лучше то, что когда мы начнем работать со сценами, состоящими из токенизированных активов или динамических нейронных ассетов, у нас будет больше контроля, чем в традиционных пайплайнах. Более того, вместо того чтобы начинать с изолированных объектов и применять взаимодействия вручную, мы получим активы, которые будут естественным образом взаимодействовать с окружающей средой, если мы явно не укажем иное."
Сделано с помощью Runway Gen-3.
Переведено в DeepL.
"В отличие от трассировки лучей или пути, которые требуют дополнительных вычислений во время выполнения, это освещение основано на подразумеваемых паттернах, поэтому оно требует тех же затрат, что и генерация сцены без освещения.
По мере того как эти интерпретаторы паттернов будут масштабироваться и распознавать все более сложные паттерны, мы будем добиваться все более качественных подразумеваемых взаимодействий по сути бесплатно с каждым поколением.
Еще лучше то, что когда мы начнем работать со сценами, состоящими из токенизированных активов или динамических нейронных ассетов, у нас будет больше контроля, чем в традиционных пайплайнах. Более того, вместо того чтобы начинать с изолированных объектов и применять взаимодействия вручную, мы получим активы, которые будут естественным образом взаимодействовать с окружающей средой, если мы явно не укажем иное."
Сделано с помощью Runway Gen-3.
Переведено в DeepL.
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Чтобы два раза не вставать, пришью другие любопытные применения Video-2-Video от самих Runway (с их подсказками) и народа с инета, включая Джона.
Как видно нейронке можно кормить как футаж снятый на что-угодно (они даже пробовали с плёночным фотиком).
Люди скармливают геймплейные кадры, пролёты дронов, трёхмерные нерфы и сплаты, собранные сцены в VR, t2v-генерации, итд.
Если в 3D нужно больше контроля в плане конструировании сцены и движениях камеры, а не хочется открывать Blender/UE, можно попробовать CInetracer.
Как видно нейронке можно кормить как футаж снятый на что-угодно (они даже пробовали с плёночным фотиком).
Люди скармливают геймплейные кадры, пролёты дронов, трёхмерные нерфы и сплаты, собранные сцены в VR, t2v-генерации, итд.
Если в 3D нужно больше контроля в плане конструировании сцены и движениях камеры, а не хочется открывать Blender/UE, можно попробовать CInetracer.