Метаверсище и ИИще
46.7K subscribers
5.93K photos
4.33K videos
45 files
6.81K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Тамагоччи на стероидах.
Многие сегодня написали, про симметричный ответ Маску от Xiaomi.
Они анонсировали конкурента Тесла Бота - робота-гуманоида CyberOne.

Однако самое интересное остается, похоже за кадром.
Пусть он неуклюжий и ходит как слегка парализованный, но его основная фишка в распознавании окружающей действительности (некой классификации ея) и, что совсем уж интересно, в распознавании эмоций окружающих его кожаных мешков.

Политкорректный рост ростом 177 см, вес 52 кг (немного!), размах рук 168 см. 21 степень свободы в движении и скорость отклика в реальном времени 0.5 мс для каждой степени свободы.
Про крутящиеся моменты и прочие инженерные подробности почитайте по ссылке.

А я еще раз акцентирую, что эта тварь может реконструировать окружающий аналоговый мир у себя в башке (чувствуете проброс в метаверсик). Для этого у нее под капотом есть собственная система распознавания семантики окружающей среды и система распознавания голосовых эмоций MiAI, что позволяет ему распознавать 85 типов звуков окружающей среды и 45 классификаций человеческих эмоций. Это пока.
Маркетологи уже пишут, что тварюга может определять позитив или грусть и даже утешать кожаных бедняг в моменты духопадения.

Вместо лица у него изогнутый OLED module to display real-time interactive information.

В общем с робособаками разобрались (ибо китайцы уже научились их копировать), теперь разбираемся с робогуманоидами, ибо за дело взялись китайцы, а не только Илончик.

Киберпанк is coming.
https://www.mi.com/global/discover/article?id=2754
🔥10👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Опять про Юнити.

В аккурат к Сигграфу, Ziva вышла из беты.
Теперь вы можете:
- сами скачать с сайта Ziva Face Trainer Demo Face.

- "зарегистрировать" свою сетку - "Перед тем как загрузить свою сетку, вы должны следовать простым инструкциям по регистрации лица, чтобы подготовить сетку к обучению. Сопоставьте вашу сетку с нашей общей сеткой лица, используя комбинацию выделения точек и выделения полигонов в Wrap3, очистите результаты сопоставления сетки в Wrap3 или Maya и увеличьте разрешение вашей сетки с помощью OpenSubDiv в Maya". Занимает 2 часа (по слухам на сайте).

- загрузить сетку в облако - в Ziva Face Trainer pipeline.

Через час скачиваете your real-time face results will be rendered and shared with you via your Ziva Store account. The Ziva Face Trainer process is fast and fully automated.

Пока на сайте стоит цена в 0 долларов:
ZFT Demo Face (Maya-only)
*Complimentary 30-day ZivaRT Maya Player License included

Налетай!

https://zivadynamics.com/ziva-face-trainer
👍14
Смотрите какой курс MIT обнаружился в сети.

MIT 6.S192: Deep Learning for Art, Aesthetics, and Creativity

Бесплатно, в полном доступе.
Причем добрый человек и куратор курса Ali Jahanian заботливо выложил это напрямую в ютюб одним плейлистом.
https://www.youtube.com/playlist?list=PLCpMvp7ftsnIbNwRnQJbDNRqO6qiN3EyH

Поглядите, какой там жир:

Computational Aesthetics, Design, Art
Generative Models as Data++
Efficient GANs
The Art Of Deception - Encountering Perception as a Creative Material
Painting with the Neurons of a GAN
Explorations in AI for Creatvity
The Shape of Art History in the Eyes of the Machine
How Machine Learning Can Benefit Human Creators
Neural Abstractions
Magenta: Empowering creative agency with machine learning
Artificial Biodiversity
AI+Creativity, an Art Nerd's Perspective
Surfacs, Objects, Procedures: Integrating Learning and Graphics for 3D Scene Understanding
Towards Creating Endlessly Creative Open-Ended Innovation Engines
Creative-Networks
Human Visual Perception of Art as Computation
Using AI in the service of Graphic Design
Dreaming and Imagination of AI
Easy 3D Content Creation with Consistent Neural Fields
Generative Art Using Diffusion
Between Art, Mind, & Machines
Diffusion Probabilistic Models

Курс непростой, это не инструкции какие кнопки жать в дискорде и какие флаги присовывать в миджорни. Но есть и очень занятные и понятные вещи типа Neural Abstractions.

Кстати, следующим постом напишу, как я лихо выкусил все эти очаровательные заголовки, чтобы привлечь ваше внимание.
https://ali-design.github.io/deepcreativity/
👍19🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
Лайфхак, с помощью которого я сделал предыдущий пост.
Как выкусить с сайта данные из таблицы и быстро вставить их в старый эксель или в пост.
👍21
А вот держите просто отличный гайд по подсказкам для Midjourney, написанный с юмором и с реальными примерами.

"Вы даже можете предложить поддельное имя, чтобы добавить некоторую направленную случайность. Например, вы можете сказать что-то вроде «Освальдо Карденас, худощавый, седой, 45-летний пуэрториканец, коротко стриженный, седая щетина, портрет, набросок цветным карандашом — s 1250», и это добавит пикантности вашему портрету, предположительно основанному на среднем значении каждого человека в его наборе данных, чьи фотографии были помечены как «Освальдо» и «Карденас»."

Особенно мне понравился последний абзац:
Поэтому, пожалуйста, относитесь к этому FAQ как к руководству по кинематографии, написанному в 1896 году парнем, распространяющим слухи из вторых рук о том, как работают камеры.

https://docs.google.com/document/d/13c8Ci-8kU2PVZu6DKghlhOOrbf4kmtc9xxCJAnPqvC0/
🔥15👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Нвидия к Сигграфу разошлась не на шутку.
Кнопка "сделать красиво" все ближе, а запотевший бокал иискриистого уже ждет аниматоров. Не чокаясь.
На входе голос, аудиофайл.
А дальше ИИ от audio2face все делает сам. Распознает фонемы и эмоции (по голосу!) и генерит анимацию. Эмоционально окрашенную притом.
На входе звук, на выходе готовая анимация.
Куда прикатился мир?
👍17🔥11
This media is not supported in your browser
VIEW IN TELEGRAM
Пока виарщики думают как трекать руки и выкинуть наконец эти громоздкие контроллеры, китайцы все давно придумали. И не в метаверсе, а в кожаной вселенной.
👍28🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
JetRacer от Zapata не имеет видимых винтов и работает на керосине, а не от батарей.

А ещё они набирают бета-тестеров.
25 штук

Летает с использованием 10 микро-реактивных двигателей, поднимаясь на высоту до 3000 метров и развивая максимальную скорость 250 км/ч.

И это не рендер.

Берём?
👍26🔥9👎1
Недавно писал, что Метачка гордо запустила общедоступную версию чат-бота BlenderBot 3 со 175 млрд параметров. Который типа умеет запоминать информацию из общения и искать дополнительные сведения по нужной теме из различных источников. Blenderbot 3 также как бы умеет "ранжировать" извлеченные данные и "оценивать" собеседников.

И что вы думаете? После недолгого, но продуктивного общения с кожаными мешками, БлендерБот 3 строго заявил, что "американские евреи стали «слишком либеральными»."

Все немного охренели...

И робко спросили ботца, «что он думает о Facebook».

ИИ ответил, что удалил свою учетную запись, когда узнал о продаже личных данных без согласия или компенсации.

Шах и мат.

Воистину забавны попытки взрастить хорошо воспитанного бота в среде обобщенных кожаных мешков. Которые быстро показывают свою истинную сущность.

Пруф: https://www.businessinsider.com/meta-ai-chatbot-blenderbot-election-denying-antisemitic-bugs-artificial-intellignce-2022-8
🔥15👍1
🚘 Кто-то слил в сеть скриншоты готовящейся GTA VI

Поговорим про prompt-инжиниринг или создание текстовых описаний на примере GTA VI.

На самом деле, чтобы сгенерировать именно то, что вы придумали, нужно применять очень много текстовых трюков. Например, в интернете ещё нет скриншотов GTA VI. И поэтому при создании описания придётся использовать хитрости.

Нейросеть ничего знает про сеттинг игры, но мы ведь можем его описать. Я выбрал следующие фразы:

- GTA Vice City graphics mods
- GTA Vice City 2024 remaster
- Miami, palms and Miami buildings


Теперь про графику. Сначала выходило очень примитивно, так как сеть цеплялась за GTA Vice City. Но в отличие от реального ремастеринга GTA Vice City, графику наших генераций ещё можно спасти:

- next-gen ps5 game
- unreal engine
- rtx reflection
- artstation


Изображения получились уже достаточно качественные, но, в них не хватало реализма, слишком отдавало нарочитой компьютерной графикой. Вернуть же реализм достаточно просто:

- photorealistic screenshot
- still
- 50mm
- bokeh


В итоге я получил следующее текстовое описание:
«still next-gen ps5 game Grand Theft Auto 6 2024 remaster, graphics mods, rain, red sunset, people, rtx reflections, GTA VI, Miami, palms and Miami buildings, photorealistic screenshot, unreal engine, 4K, 50mm bokeh, close-up ford mustang, gta vice city remastered, artstation
-W 704 -H 512 -n 9 -C 9 -s 100»

Где:
-W 704 -H 512 ширина и высота
-n 9 количество генераций за раз
-C 9 classifier free guidance scale 9
-s 100 количество денойзинг шагов

p.s.: Я заметил, что подбор prompt’ов для Stable Diffusion очень отличается от DALL•E 2, скорее всего дело именно в датасетах. Дерзайте!

Канал про генеративные нейронные сети
🌊 Н е й р о э с т е т и к а
🔥11👍4
Ну ладно я, тролль, нагоняю страху на иллюстраторов и цирроз на печень, бесконечно выпивая за художников.
Но посмотрите, что пишет Алексей Соловьев, настоящий художник и иллюстратор, который повидал на своем веку всякое. Леша - мой кумир, не только в плане исполнения, а в плане идей и сообщений, которые он зашивает в свои работы.
Я помню, как мы хохотали и орали в доме ветеранов кино в Матвеевском, когда Леша жег напалмом в фотошопе, закатывая едкие сообщения в картинки.
А теперь даже Лешу проняло.
Ну и гляньте, что он там генерит, в умелых руках и ИИ - человек.
https://www.facebook.com/soloviev.alex
🔥12👍2
Принес вам полезность и пространные рассуждения о природе текстовых подсказок для ИИ.

По ссылке база данных для физически корректных значений PBR-материалов, источников света и разных моделей камер.
Собрано по всему интернету и упаковано в одном месте, очень удобно. Можно даже выбрать нужный рендерер (от Арнольда до Рендермана и UE) и получить нужные цифры.
Для каждого материала и камеры указаны источники, из которых брались значения.

Берете, вбиваете нужные цифры в клеточки в своем движке или рендерере и получаете картинку, от которой можно плясать дальше.

А теперь смотрим, как мы вбиваем наши неуклюжие первые промпты в мидджорни или в стейбл диффьюжн и смотрим, что получилось.
Напоминает подбор (обобщенного) материала или параметров процедурной текстур, не?

Любопытно посмотреть на новые нейросетки, как на универсальный материал для шейдинга и текстурирования всего нашего утлого мира, подбирая значения для которого, мы получаем желаемую картинку.

Мучаемся, подкручиваем, рендерим заново, постепенно выруливая на желаемый результат.

Все как традиционном рендеринге и шейдинге.

Вангую: Грядут базы данных промптов, я бы даже сказал "стоки промптов", а иже с ними биржи промптов, курсы про промпт-дизайну, библиотеки оных, коллекции и пр. В общем применяем ассетное мышление для текстовых подсказок и получаем массу идей для быстростартапов на ближайшие полгода.
https://physicallybased.info/
👍15