CGIT_Vines
10.8K subscribers
619 photos
1.31K videos
11 files
1.8K links
Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство.
Статистику не предоставляю, смотрите на tgstat.ru
Регистрация в РКН: № 6148197228
mentorcampus.ru

Вопросы и предложения: @Evgeniy_Vegera
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Как известно, пока наибольшее количество заслуг у нейрогенерации пока все же в 2D. Дайте время, они только начали в 3D.

https://arxiv.org/abs/2004.13297
Программное обеспечение с открытым кодом AI Economist на базе ML разработана для того, чтобы параллельно моделировать миллионы лет экономики и помочь экономистам, правительствам и другим лицам планировать налоговую политику, которая оптимизирует социальные результаты в реальном мире.

Жду, когда наиболее жизнеспособные варианты отдадут на реальные тесты в metaverse/

https://youtu.be/4iQUcGyQhdA

Большая исследовательская работа на тему поиска налоговой политики/
https://blog.einstein.ai/the-ai-economist/
Forwarded from Denis Sexy IT 🤖
Небольшое, но залипательное видео где показывают новый подход для симуляции повреждений у 3D объектов:
https://youtu.be/eXJi7pkUZn0?t=237

Надеюсь выйдет такая игра, где все что можно будет делать, это есть стейки палочками как в видео
А помните EBSynth - тот алгоритм, что работал совсем не на нейронках, а на векторфилдах? Тогда ему требовалось некоторое количество времени для вычислений.

Теперь ее доработали, и она работает реалтайм.

https://youtu.be/TZ0W5UQ5mrQ

https://ondrejtexler.github.io/patch-based_training/
Автоматизированный метод производства ригов. Подсказывает риггеру, как должны располагаться кости, также может угадывать веса.

https://www.youtube.com/watch?v=J90VETgWIDg
Плагин не то, чтобы вышел сегодня, но мало кто о нем знает. Предназначен для волюметрической реалтайм симуляции.

https://youtu.be/iDqWLwYhd9Y

На офсайте есть триалка, так что велкам к тестам.
https://jangafx.com/software/embergen/
Эпики совместно с Quixel тизерят волюметрические облака, которые должны будут появиться в ближайших версиях. Это не ингейм решение, но и движки не только для игр.

Тут более подробно.
Media is too big
VIEW IN TELEGRAM
Dannys Kuhnert выложил все свои эксперименты с виртуальными руками в свободный доступ. Но вы можете ему задонатить, если пожелаете.

Качать отсюда.
Нужен Окулус квест.

Видео на youtube
Напомню, что у меня есть youtube канал, где я показываю процесс создания окружения на Unreal Engine/

Продолжаем делать бар из LastOfUs сегодня в 18:00 как обычно. Не забывайте подписываться и жать "Напомнить". В этом баре можно приходить со своим.

https://youtu.be/DsHqjMBDXeA
This media is not supported in your browser
VIEW IN TELEGRAM
Обновленные достижения по теме RL. Акторы научились выполнять сложные последовательности шагов на переменной местности.

Полное видео

Линк
На прошлой неделе Sony Music (это важно) вывесила вакансии, в которых ищут:

Manager, Art Outsourcing
Lighting Artist
Gameplay Engineer
UI Designer
Technical Animator
Unreal Engine Generalist
Sound Designer
Lead Environment Artist

Такой набор может показаться странным - зачем музыкальному отделению люди, которые делают игровые миры, - но после выступления Travis в Fortnite некоторые крупные игроки, в том числе SONY Corp., видимо решили запускать свои шоу.
Ранее они выпустили OST к Death Stranding.

https://www.musicbusinessworldwide.com/sony-is-building-a-team-dedicated-to-reimagining-music-through-immersive-media-using-fortnite-maker-epic-games-unreal-engine/?fbclid=IwAR2DeVzByptz9MA1g-d6J2yZNui4J-KTW6bh4p4rx7RPyudaz0TFzZM6wYQ
Вот и старые уставшие инвесторы подтягиваются.

После не очень удачных инвестиций в робототехнику Гришин решил попробовать новую модную сферу. Инвестирование в софт для создания высококачественных виртуальных персонажей для любых форм цифровых медиа.

Grishin Robotics «верит в конвергенцию кино, анимации и онлайн-игрового контента», - заявил Дмитрий Гришин.

Интересно, как долго он выбирал между Ziva и Blender?)

Если не знакомы с Ziva

Англ

Рус
Теперь, когда все мурашки убежали с кожи, все немного поуспокоились, можно подвести итоги.

Представили 2 основные технологии: Lumen и Nanite. Одна отвечает за свет, а другая за перпиксельный стриминг геометрии. Если коротко: свет больше не нужно будет запекать, а геометрия будет более полигональной, и плотность сетки будет зависеть напрямую от разрешения выводимой картинки. Соответственно, бейк не нужен, а ролик рендерился почти всегда в 1440p.

Надо заметить, что все плюшки касаются в основном статики. Объекты для динамики все еще нужно будет оптимизировать. Почему персонаж на фоне окружения выглядит так всрато - потому что для персонажников риггеров и аниматоров ничего не меняется - так же придется вылизывать топологию, работать с весами и прокси моделями.

С другой стороны, производство ассетов - это не только Zbrush с плотной сеткой, это также анврап и текстуринг. Надо заметить, что сейчас Substance с трудом переваривает чуть более плотную, чем для геймдева, сетку. Так что изменение пайплайнов так же повлияет и на софт:станет больше процедурности (привет, Гудини). Большое количество софта построено именно на пайплайне с бейком, что будет с Marmoset, например?

В конце немного материалов по теме, и в ближайшее время мы, конечно, увидим технические подробности, и самое главное, как с этим работать, и как это отразится на пайплайнах.

Разбор от Digital Foundry

Полное интервью с Тимом Суини и командой

Та сама коллекция Megascans из демки
Также не стоит забывать развитие графики со стороны железа.


Хуанг разгоняет картинку с 540p до маркетинговых 16к с помощью нейронок и карточек Nvidia.
Вот почему графика пошла по пути вывода рендеринга в зависимости от разрешения.

Кстати, обратите внимание на лепнину позади его кожаной куртки: сколько домработниц требуется, чтобы отмыть жир с барельефов после готовки?

И зацените - там еще демка на квадре в конце.

https://youtu.be/BeScfkCm3b4
Forwarded from TechSparks
Мало кто сомневается, то Apple собирается расширить свою линейку гаджетов в область очков или шлемов для смешанной или совсем виртуальной реальности. В конце концов, очень странно было бы выпускать ARKit, думая лишь о телефонах. Слухов ходит много, но вот свежий факт: Apple покупает компанию NextVR.
Это не новички, они лет десять уже разрабатывают технологии VR, в основном для интеграции реальных событий в VR. А в строящемся постковидном мире все чётче прослеживается тренд online first даже для привычно оффлайновой деятельности. Во-первых, пора оседлать свежевыработанные привычки миллионов людей, во-вторых, мало что опять случится. Обжегшись на молоке, как известно, дуют на воду: устраивать чуть что самоизоляции станут чаще. И компании хотят быть к этому готовы.

https://9to5mac.com/2020/05/14/apple-nextr-ar-headset/
This media is not supported in your browser
VIEW IN TELEGRAM
Т.к. сейчас ко мне количество обращений и вопросов по поводу виртуал продакшена и в целом цифровых аватаров увеличилось, я буду стараться тут держать вас в курсе инструментов, проектов и тенденций.

Faceware - платформа для реалистичного создания лицевой анимации в реальном времени. Там все, что должно быть в модном молодежном софте: нейронки и машинное обучение.

Все данные могут быть переданы в Unity и Unreal через плагин.

Присутствует триалка для тестов.

Также, если ваша студия или вы как специалист занимаетесь риалтайм продакшеном, пишите мне - я рассказываю о вас, потом к вам обращаются за вашей квалификацией.

Поможем узнать друг о друге.

https://facewaretech.com