Метаверсище и ИИще
50.2K subscribers
6.17K photos
4.75K videos
47 files
7.09K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Что-то не так в метаверсе.
Мета движимая разумной завистью к великолепным концертам, которые делает Эпик в Фортнайте, задумала хорошее.
Концерт Foo Fighters. В метаверсе.
Но вышло не очень.
Ну и судя по описанию, получилось примерно на на Горбушке году этак 1987 на концерте группы Телевизор.

Сначала многие не могли попасть в лобби из-за странных и путаных инструкций.

Те, кто попали, оказались перед закрытыми дверьми.
(Ну точно как в прошлом веке - сначала ищешь в темноте Дом Культуры, потом тебя не пускают внутрь).

Большинство онлайн мероприятий, особенно таких масштабных, как этот концерт Foo Fighters, позволяют людям войти в виртуальную комнату ожидания до официально объявленного времени начала - обычно она открывается примерно за 30 минут до начала шоу.
Это предотвращает огромную нагрузку на серверы, когда пользователи наводняют их все сразу, что снижает вероятность сбоев в работе участников.

Мета решила выбрать другую стратегию. Никого не пускали в Метаверс, пока не наступило хорошо разрекламированное время начала.

В 8 часов вечера более 61 000 алчущих зрелищ и After Show Foo Fighter (примерно столько людей зарегистрировались заранее), вломились в Метаверсину, и при этом лобби рухнуло из-за наплыва пользователей, сервера крякнули, все зависло.
(Тут вспоминается, что когда на Горбушке открывали наконец-то дверь в зал, толпа вваливалась внутрь и мчалась занимать первые ряды. Это превращалось в мясорубку, проход был забит упавшими людьми, а самые смышленые (и я в том числе) бежали по спинкам кресел, которые трещали и ломались).

Были и другие способы попасть на концерт через приложение Horizon Venues, но, косяки происходили и там.
(Да иногда мы пытались зайти через черный вход, но там были менты).

На пике максимальное количество зрителей VR достигло лишь 13 000 человек - менее четверти всех желающих.
(Продать в четыре раза больше билетов на концерт на Горбушке - была нормальная практика)

Пользователи Quest, которые смогли присоединиться, обнаружили, что смотрят заранее записанное видео концерта, с неоптимальными углами обзора и операторами, ходящими по сцене. И этот был совсем не тот Виар-Шмиар, который им был обещан.
(Фанера?)

Причем запись лагала под нагрузкой, ибо все вломились в одно время.

Народ развел адский флейм в Твитторах, Мета вяло оправдывалась, уповая на беспрецедентную длину концерта и уникальный контент.
А я вспоминаю, какого качества был звук на концертах на Горбушке.

Что наводит меня на мысль, что Метаверс от Меты даже не в начале нулевых, а в конце 80-х.
https://www.techradar.com/news/metas-foo-fighters-super-bowl-vr-concert-failed-in-the-most-basic-ways
👍6
https://spectrum.ieee.org/bionic-eye-obsolete

Иногда децентрализация все же лучше.
Я уже писал про бионические глаза и кохлеарные имплантанты, иллюстрируя примеры невероятной пластичности мозга.
Самый известный на тот момент бионический глаз был Argus, модель II компании Second Sight.
Second Sight частично вернули зрение почти 350 пациентам. Но в 2019 году компания остановила выпуск своих бионических глаз, и к 2020 почти полностью прекратила деятельность.
Потом было неудачное IPO, и 350 человек оказались с устаревшими гаджетами в глазах, прошивки которых, скорее всего, никогда не обновятся.
В феврале 2022 года Second Sight объявила о возможном слиянии с биофармацевтической компанией Precision Medical (NPM). Ни один из руководителей Second Sight не войдет в команду объединенной компании, которая сосредоточится на разработке имплантата для доставки лекарств.
Second Sight не сообщила ни одному из своих пациентов о крахе компании. "Ни письма, ни электронного письма, ни телефонного звонка", - написал Росс Доерр на Facebook после нескольких недель бесплодных попыток связаться с компанией. “Those of us with this implant are figuratively and literally in the dark.”
Вот такой вот мрачный киберпанк...
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Нвидия, что ты делаешь, прекрати!
Это уже неприлично хорошо.
Генерацией картинок по текстовому описанию уже никого не удивишь.
Про скетчинг и сегментацию тоже уже много всего написано.
А вот Нвидия продвигает свой подход, когда несколько ИИ кооперируются (или конкурируют, как посмотреть), для решения поставленной задачи.
Смотрите, тут можно задать текстовое описание, потом скорректировать, вручную указав, где леса, где моря, где горы, а художники могут еще и ручками доправить картинку, нарисовав гайдлайны.
В плане гибкости это пока лучший генератор.
https://deepimagination.cc/PoE-GAN/
👍8👎1
Forwarded from эйай ньюз
Для тех, кто хочет прокачать свою координацию движений.

Или лэг-треккинг, который мы заслужили.
👍3
К вопросу о размерах данных для взрослого метаверса.
Дисней выложил, а точнее обновил свою знаменитую сцену в островом из Моаны в свободный доступ.
Теперь с анимацией и в формате USD.
Согласно технической документации, работа была направлена на создание файлов USD, способных рендерить изображения финального качества за один проход, и "не представляет собой "идеальный" файл USD".
Все по-прежнему завязано под Рендерман, однако касательно других рендеров и метаверсов там есть такая информация: future updates to the USD version could take advantage of the USD Purpose attribute to optimise the data set for interactive viewing, or re-introduce animated geometry.
Итак, сцены для для скачивания:
BASE [45 GB download/93 GB unpacked]
The raw data necessary to render just one frame is available in the “Base” package. OBJ/JSON
ANIMATION [24 GB download/131 GB unpacked]
The additional animation data necessary to render the entire shot is available in the “Animation” package.
USD [15 GB download / 17 GB unpacked]
A USD version of our data along with bindings for rendering it with Pixar's RenderMan.

Ну и кстати, это может быть продолжением дискуссии о том, какой формат будет лежать в основании неделимого метаверса. Нвидия явно двигает USD, индустрия поста и кино, тоже скрипит обжами и фбхсами, но косится в эту сторону. Однако игровые движки будут стоят до последнего с проприетарными форматами.
Кстати, интересно, что там у Меты под капотом, какой формат хранения данных?

https://www.disneyanimation.com/data-sets/?drawer=/resources/moana-island-scene/

тех док:
https://datasets.disneyanimation.com/moanaislandscene/README-USD.pdf
👍2🔥1
Вчера интернет бахнул вот таким открытием.

Оказывается в мозге есть конкретные области нейронов которые отвечают за те или иные математические действия совершаемые "в уме".
Более того, обнаружили, что за сложение и за вычитание отвечают РАЗНЫЕ группы нейронов.
Более того, эти группы слегка мигрируют при выполнении одних и тех же действий. Как будто одна часть нашего мозга пытается понять проблему, а другая работает над ее решением.
Кстати, возбуждение нейронов происходило одинаково, когда задача была записана цифрами, или словами или давалась "на слух".

В общем открыли "математические нейроны".

Исследование проводили не на кошках (как Хьюбель и Визель), а на живых людях. Потому что всякие ЭКГ и прочие поверхностные методы не могут достучаться настолько глубоко. Было 9 добровольцев, у которых
уже есть вживленные в мозг электроды (для контроля и лечения эпилепсии).

Напомню, что Хьюбель и Визель тренировались на кошках и обнаружили, что в зрительной коре есть клетки, реагирующие на движение в одном направлении (а позже оказалось, что клетки, реагирующие на близкие направления, образуют целые трехмерные колонки). Позднее они открыли типы нейронов, выдающие сигналы в ответ на разные свойства изображений (типа вертикальных или горизонтальных полос). Им дали нобелевку, и все (во главе с редукционистами) бросились искать новые типы нейронов (поглубже), которые отвечают за еще более сложные свойства изображений, что привело к парадоксу "нейрона бабушки" - идеи о существовании нейрона, отвечающего за такой сложный образ, как лицо конкретного человека. Ничего не нашли, ибо сложность возрастала чудовищно. Редукционисты отползли зализывать раны.

С "математическими нейронами" все еще интереснее. Коллеги вчера уже спрашивали про умножение. Сдается мне, как и в случае с Хюбелем и Визелем, нейронов, отвечающих за интегралы по контуру или гильбертовозначные семимартингалы, или даже отвечающих за возведение в степень найдено не будет. По той же причине, что и с кошками.
Но вот что более интересно, математике как таковой - около 6000 лет (если я не путаю), именно тогда в месопотамии появилась концепция чисел.
Вряд ли за 6000 лет эволюция проделала такой путь. И вероятно человек постоянно считал в уме, о чем говорят языковые конструкции типа многочисленных счетных форм существительных (двойственное число или даже паукальное число, гугл ит) и вероятно чаще всего складывал и оценивал много-мало.
Так что "плюсы и минусы" успели закрепиться в числе признаков для эволюционного отбора.

Ну а дальше невозможно не пофантазировать про иголочку от Маска и способности к математике.
Прошиваетесь и ну молотить градиентный спуск в уме...


Тут можно и закончить, но для тех, кто еще способен считать лонгриды, вот вам перевод части текста с NextWeb, ибо он хорош и наводит на интересные размышления.


"Либо наш мозг прилагает огромные усилия для выполнения простой двоичной математики, либо это квантовые вычислительные системы, делающие то, что у них получается лучше всего: галлюцинации ответов.

Подумайте о яблоке. Нет, не об этом. Подумайте о зеленом яблоке. Сколько расчетов вам потребовалось, чтобы прийти к определенной плотности и относительному размеру яблока? Пришлось ли вам корректировать входные переменные, чтобы получить яблоко не красного цвета?

Вы просто подумали о каких-то яблоках, и они появились в вашей голове. Вы галлюцинировали эти яблоки.

Системы искусственного интеллекта, разработанные для создания оригинального контента на основе изученных стилей, проходят через точно такой же процесс.

Эти системы не используют передовые математические функции для психологической эксплуатации человеческой склонности к искусству или образности. Они просто следуют некоторым простым правилам и перемешивают данные, пока не выплюнут что-то, за что их создатели получат вознаграждение.
👍8
Именно так ваш мозг занимается математикой. По крайней мере, согласно новому исследованию. Он использует правила, чтобы найти ответ, который имеет наибольший смысл. Есть часть, которая пытается получить "правильное" решение на основе вещей, которые никогда не меняются (один плюс один всегда равно двум), и другая часть, которая пытается угадать на основе интуиции, когда ответ не является чем-то, что мы запомнили.

Поразителен сам факт того, что ученые смогли наблюдать, как отдельные нейроны участвуют в математическом процессе в человеческом мозге.

Но для того, чтобы понять последствия этих открытий, могут потребоваться годы дальнейших исследований. Прежде всего, мы должны задать вопрос: является ли человеческий мозг квантовым компьютером?

Это имеет смысл, и это исследование может дать нам первый реальный проблеск квантовой функции внутри человеческого мозга. Но, насколько мы можем судить, они смогли записать и обработать только сотни нейронов одновременно. Очевидно, что это очень маленькая капля из огромного ведра данных.

Чтобы помочь в этом, исследователи создали систему искусственного интеллекта для более надежной интерпретации данных. Остается надеяться, что дальнейшие исследования приведут к более глубокому пониманию математических процессов в мозге.

В заключении работы говорится следующее:

Более тонкие анализы, в идеале в сочетании с подходами, основанными на возмущении, помогут расшифровать индивидуальную роль областей мозга и нейронных кодов в ментальной арифметике.

Тем не менее, потенциальные последствия могут быть гораздо более масштабными. Исследователи не упоминают о последствиях для технологий в их биологическом эксперименте и не обсуждают его результаты в терминах квантовых вычислений.

Но, если это исследование достоверно, "бритва Оккама" подсказывает нам, что человеческий мозг, вероятно, является квантовым компьютером. Либо это так, либо он плохо спроектирован.

Подобно тому, как наши доисторические предки вырезали зарубки на рукоятках своих инструментов, чтобы следить за предметами, двоичный мозг должен уметь считать предметы с помощью локализованных механизмов абстракции.

Зачем мучиться с галлюцинацией ответа в мириадах нейронных комплексов, если отдельные нейроны могут просто притвориться единицами и нулями, как в двоичном компьютере?

Ответ, возможно, кроется в квантовой природе Вселенной. Когда вы выполняете простую математическую функцию, например, складываете два плюс два, ваш мозг может галлюцинировать сразу все возможные ответы, одновременно работая над запоминанием ответа (вы определенно складывали эти числа раньше) и обработкой данных (1+1+1+1).

Если бы человеческий мозг был двоичным, вам, вероятно, пришлось бы ждать, пока он переберет все варианты по отдельности, а не галлюцинировать их все сразу.

В результате вы, вероятно, отвечаете на вопрос в своей голове ПРЕЖДЕ, чем сможете осознать, что думаете об этом, потому что обе функции выполняются одновременно. Это называется квантовым путешествием во времени."

Так что в следующий раз, когда будете наезжать на ИИ с тем, что "он ничего нового не умеет", подумайте о том, что либо вы сами ничего нового не умеете, либо он галлюцинирует точно также как вы.
https://www.cell.com/current-biology/fulltext/S0960-9822(22)00116-6
🔥12👍3
Media is too big
VIEW IN TELEGRAM
Нуштош, Виарчик пытается вылезти из коротких штанишек начала 2000-х.
И зафигачить на нос кожаного мешка полный фарш, чтобы картинка как у взрослых (как на десктопе), чтобы операционка как у взрослых (линукс) и процессор, чтобы от Интел(а не малохольные Снапдрагоны).
Ну и судя по характеристикам, там можно будет крутить контент на уровне современных ноутов, то есть PC, а не на телефонном уровне.
Вопрос в том, сколько это будет весить, как это будет греться, и кто захочет носить высокочастотные 4.7ГГц от Интел прямо на лбу.
Вопрос о том, сколько это будет стоить, не стоит.
$2699 - и вот он нарядный метаверс!

Вот что будет на голове:
Displays: Dual 2448×2448 LCDs at 90 Hz
Lenses: 100° three-element non-fresnel with 55mm-77mm separation adjustment
Cameras: 2x wide-angle high-resolution color
Processor: 8-core 4.7 GHz Intel i7-1165G7 CPU with integrated Iris XE GPU
RAM: 16GB DDR4
Storage: 1TB NVMe SSD
Wireless: Wi-Fi 6 + Bluetooth 5.2
Ports: 1x USB-C (Thunderbolt 4) + 2x USB-C (3.2 Gen 2) + 2x USB-A (3.2) + 3.5m
А вот и Эпик прорезался со своим (осторожным видением метаверса). Достаточно водянистым, как у всех, но с некоторыми деталями и примерами.

"В Epic мы считаем, что Метаверс должны создавать все мы. Мы создаем экосистему творческих инструментов, открытых и доступных, чтобы каждый мог участвовать в метавселенной.

Пока рано говорить о том, как именно будет выглядеть метавселенная, но мы видим ее как общий социальный 3D-мир с пpersistence, discovery, модерацией и коммерцией. Это будет эволюция Интернета, каким мы его знаем, и его фундамент будет построен на 3D-технологии реального времени.

Тут из любопытного это "с модерацией". Что скажут апологеты Web3?

Дальше Эпик играет мышцами: более 500 миллионов учетных записей Epic Games, 6 миллионов загрузок демо-версии The Matrix Awakens и более миллиона установок MetaHumans.

И вот это вот: В Fortnite, Rocket League было установлено 2,7 миллиарда дружеских связей. (more than 2.7 billion friend connections have been established in Fortnite, Rocket League.)

В общем, выглядит как программный манифест, причем не на уровне "мы все будем заниматься метаверсом и киберпанком по три раза в день" (как сейчас принято писать в интернете), а с цифрами, примерами, перечислением технологий.

Выглядит солидно, осторожно, в меру пафосно.

После эскапад Меты - отрада для глаз.
https://www.unrealengine.com/en-US/blog/real-time-round-up-the-metaverse-and-emerging-2022-trends
👍4🔥2
Media is too big
VIEW IN TELEGRAM
Есть такой блоггер Jae Solina
У него есть свой канал и курсы, на которых он рассказывает про виртуальное кинопроизводство, UE4, UE5, Omniverse, Metahumans и весь этот метацирк.

На IMDB у него написано "никогда не учился ни в каких школах, а занимался самообразованием, используя интернет-ресурсы.".

Так вот, пару дней назад он запил видео, глядя на которое ты думаешь "о, новый трейлер к третьему сезону Мандалорца".

Только запилил он все это в одно лицо!
Причем запил в Omniverse!

Он юзал XSense, iClone, а потом отправлял все это в Омниверс, а дальше ассеты, ассеты, ассеты. Scans Library, Simulation Assets.

И он такой на видео "ребята, да там все просто". Туда, сюда, и в продакшен.

В общем, мне опять на ум приходит история с короткометражкой "405" и Лайтвейвом.

Гляньте полное видео и посмотрите его канал, чувак прямо проповедник реалтайма и виртуального производства в домашних условиях.
https://www.youtube.com/watch?v=plnYiLmtiIs
https://blogs.nvidia.com/blog/2022/01/14/omniverse-creator-jae-solina/
🔥6👍3
Зловещая долина фсё?

Для фотография - да. Причем теперь со справкой от академии наук.
Похоже, что вопрос "фото или [нейро]рендер" больше не стоит.
Ибо для синтезированные лица теперь официально неотличимы от кожаных.
Вот статья от US National Academy of Sciences, где ученые долго тренировались на кожаных мешках, заставляя их отличить настоящие лица от синтетики, порожденной GAN-ами (StyleGAN2).
Не смогли.
Кожаные мешки с треском провалили тесты и результат исследования следующий:
"Наша оценка фотореализма лиц, синтезированных искусственным интеллектом, показывает, что механизмы синтеза прошли через «зловещую долину» и способны создавать лица, которые неотличимы и(!) заслуживают большего доверия, чем настоящие лица."

Пытались также анализировать "благонадежность", но и тут ИИ показал, кто тут самый благонадежный. А они его за это обозвали "угрозой демократии".

"Синтетически созданные лица не просто отличаются высокой фотореалистичностью, они практически неотличимы от реальных лиц и вызывают больше доверия. Хотя лица белых мужчин отличаются высокой реалистичностью - поскольку эти лица доминируют в обучении нейронной сети - мы обнаружили, что реалистичность синтетических лиц распространяется на представителей разных рас и полов. Возможно, наиболее интересным является то, что синтетически сгенерированные лица вызывают больше доверия, чем реальные лица. Синтетически сгенерированные лица оказались по другую сторону "зловещей долины". Это следует считать успехом для областей компьютерной графики и зрения. В то же время легкий доступ к таким высококачественным поддельным изображениям привел и будет приводить к различным проблемам, включая более убедительные поддельные профили в Интернете и, по мере дальнейшего совершенствования синтетических аудио- и видеоматериалов, проблемы неконсенсуальных интимных изображений, мошенничества и кампаний по дезинформации, с серьезными последствиями для отдельных людей, обществ и демократий."

Ну что ж, с фото разобрались, следующий рубеж - видео.
https://www.pnas.org/content/119/8/e2120481119
👍2
Если вы читаете этот текст, то ИИ уже вас точно распознал.
Продолжаем тему трушного метаверса, как постепенного (а не хайпового) слияния реального и цифрового миров.
Знаменитая компания Clearview AI, занимающаяся распознаванием лиц, сообщает инвесторам, что в течение года в ее базе данных будет 100 миллиардов(!) фотографий лиц, что позволит "идентифицировать почти каждого человека в мире".
В пересчете - это эквивалент 14 фотографий для каждого из 7 миллиардов человек на Земле.
Тут они конечно махнули - у некоторых людей есть только фотография в паспорте, но те, кто читает этот текст, явно имеют боле 14 фотографий себя любимо/го/ой, поэтому никаких проблем, чтобы распознать вас где угодно и когда угодно у ИИ не будет. Надо просто принять это как погоду и соответственно одеваться, то есть выбирать поведенческие стратегии в соответствии с этим знанием.

Компания заявила, что с начала 2020 года ее "индекс лиц" вырос с 3 миллиардов изображений до более чем 10 миллиардов, а ее система сбора данных теперь обрабатывает 1,5 миллиарда изображений в месяц.

Пока Clearview AI позиционируют свою технологию (и базу) как систему наблюдения, которая используется для арестов и уголовных расследований тысячами правоохранительных и государственных органов по всему миру.
Но компания хочет выйти за рамки сканирования лиц для полиции, заявив в презентации, что она может следить за работниками "гиг-экономики" и исследует ряд новых технологий, которые могут идентифицировать человека по его походке, определять его местоположение по фотографии или сканировать его отпечатки пальцев на расстоянии.

В переводе на язык метаверса и киберпанка - у ваших милых кожаных лиц в реальном мире уже сейчас есть полные копии в мире цифровом. Вы будете распознаны в любом месте и ваше местоположение в метаверсе будет обновлено с точностью до пикселя.

55-страничный “pitch deck”, о содержании которого ранее не сообщалось, раскрывает удивительные подробности того, как компания, чья работа и без того вызывает споры, позиционирует себя для крупного расширения, финансируемого в значительной степени за счет государственных контрактов и налогоплательщиков, за которыми будет следить система.

Я как-то приводил аналогию типа "Метаверс - это Госуслуги на максималках и ускорителях". С красивой визуальной оболочкой, обновляющейся в реальном времени.
Все к тому идет.
Продолжайте делать селфи, качество распознавания растет с каждой сделаной фотачкой.
https://www.washingtonpost.com/technology/2022/02/16/clearview-expansion-facial-recognition/
👍1
Если вас слегка подбросило от поста про распознавание лиц и базу данных на 100 миллиардов(!) фотографий, то вот вам отличная статья от Константин Харитонов, где Костя подробно и на пальцах объясняет как, и самое главное, где это работает. В том числе и на разных ивентах, что Костя отлично демонстрирует заповедной фоткой из Сокольников, где Михаил Лёсин и Елена Лавренко его внимательно слушают.
Там также есть про Ntechlab, FaceX и Displayforce и прочие системы аналитики.
И там реальная тонна полезных ссылок.
Го читать.
https://vc.ru/services/367117-kak-rabotaet-sistema-raspoznavaniya-lic-i-kak-ee-ispolzovat-v-biznese
👍4
ВКонтакте и ... авторские права.

"ВКонтакте" анонсировала поддержку блокчейна и NFT

Это станет частью набора инструментов для монетизации пользовательского контента и защиты авторских прав. При этом свой собственный блокчейн в VK создавать не собираются, соцсеть намерена выступать в роли посредника и помощника.

Александр Тоболь, технический директор "ВКонтакте": "Наша задача в том, чтобы предоставить возможность загрузить контент, легко создать NFT-токен, разместить его потом на бирже. Сказать, что давайте выберем вот такой-то блокчейн, создадим контент, мы здесь скажем, что при создании NFT-токена мы как-то ЗАВИЗИРОВАЛИ со стороны VK, что для нас на текущий момент этот контент был уникальным, он никому не принадлежал. И дальше вы можете торговать на различных площадках, будь то Solanart, OpenSea или какие-то еще истории".

Еще раз "загрузить контент, легко создать NFT-токен, разместить его потом на бирже". Не выходя из контактика.

Если у них получится, они утрут нос всем.

https://www.vesti.ru/hitech/article/2678858
Реалтаймовая анимация Метахьюманов - двухчасовой курс от Эпика.
https://www.unrealengine.com/en-US/onlinelearning-courses/metahuman-workflows-with-faceware-studio
🔥8
Серия постов про процессоры и ИИ-ускорители. Зачем они нужны, чем отличаются от нормальных процессоров и друг от друга и как мы докатились до жизни такой. Написана научпопом, понятна даже естественному интеллекту.
https://medium.com/@adi.fu7/ai-accelerators-part-i-intro-822c2cdb4ca4#6915
👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Помните истерию с фиджет-спинерами? Такими смешными и красивыми крутилками всех цветов и размеров.
Одно время их можно было купить даже в аптеках и газетных киосках. Ибо хайп.
А теперь внимание, в App Store примерно 600 приложений используют в описании слово "Метаверс" (и более 100 - приставку "крипто").
Во-первых - это красиво. Как фиджет-спиннер.
Во-вторых, никто не знает зачем, но все покупают.
В-третьих, все побежали и я побежал.
Вот вы спрашиваете, с чего начинать построение метаверса?
С создания красивого, пусть бесполезного приложения, в описании которого должно быть слово "Метаверс".
У вас сразу будет трафик, монетизация, кейс - а уж потом вы сможете подумать над что такое метаверс, если, конечно, это еще будет актуально.
🔥8👍3
Рубрика #далёкольдометаверсу?
Тут вот Мета бодро рапортует, что с момента запуска Horizon Worlds ее ежемесячная база выросла в 10 раз до 300 000 человек.
Триста тысяч.
А TrendForce пишет, поставки устройств AR/VR увеличатся до 14,19 млн единиц в 2022. При этом в 2021 было 10 миллионов, а в 2023 году - около 20 млн.

А теперь внимание.

Ежегодные поставки смартфонов в 2021 - это 1.4 МИЛЛИАРДА устройств.
10 миллионов и полтора миллиарда.

Если вы собираетесь строить/творить/ходить в метаверс с телевизором на носу, то вам там будет немного одиноко. Пока миллиарды будут нырять туда со смартфонов, умных часов и носимых девайсов.
https://www.trendforce.com/presscenter/news/20220216-11122.html
Нвидия, что ты делаешь, прекрати!
Удивительно наблюдать (с восторгом), как совершенствуются алгоритмы расчетов в области графики и ИИ.
Нвидия выкатила очередную работу, где продемонстрировала ускорение [нейро]рендеринга изображений в сотни, если не в тысячи раз.
Просто за счет оптимизации алгоритмов.
Похоже, что с появлением GPU и их конским количеством ядер и такой же иезуитской сложностью программирования, гонка вооружений явно переходит из области демонстрации гигагерцев область войны алгоритмов. И прогресс в этой области просто потрясающий.
Помните, как мы с придыханием шептали "новый камень от интел дает 5% прироста в рендере", а разработчики выжимали максимум из CPU.
А потом пришли GPGPU (general purpose GPU) - и понеслась.
А потом пришли нейросетки - и понеслась еще быстрее.

Вот что пишут эти мерзавцы "Мы используем этот параллелизм, реализуя всю систему с помощью объединенных ядер CUDA с акцентом на минимизацию бесполезной пропускной способности и вычислительных операций. Мы достигаем суммарного ускорения на несколько порядков, позволяя обучать высококачественные примитивы нейронной графики за несколько секунд, а рендеринг - за десятки миллисекунд при разрешении 1920x1080."

Особенно впечатляют облака, я когда-то пытался разбираться с реймаршингом и это было чудовищно медленно, а здесь что-то невероятное..

Как восклицает наш любимый двухминутный доктор "Holy Mother of Papers" на видео, которые вы можете глянуть ниже.
https://nvlabs.github.io/instant-ngp/
https://www.youtube.com/watch?v=j8tMk-GE8hY
🔥5👍2
Нет, ну это свинство, конечно!

Бюро авторского права США в очередной раз отклонило попытку защитить авторским правом произведение искусства, созданное системой искусственного интеллекта (ИИ). Стивен Талер попытался защитить авторские права на произведение искусства под названием «Недавний вход в рай», заявив во втором запросе о пересмотре постановления 2019 года, что требование бюро о «человеческом авторстве» является неконституционным.

По словам бюро, произведения, защищённые авторским правом, «должны быть созданы человеком».

С какого перепугу?!?!

В бюро заявили, что действующий закон об авторском праве обеспечивает защиту только «плодов интеллектуального труда», которые «основаны на творческих силах [человеческого] разума». Таким образом, работа, защищённая авторским правом, «должна быть создана человеком», и ведомство заявляет, что не будет регистрировать работы, «созданные с помощью машины или простого механического процесса», в которых отсутствует вмешательство или творческий вклад со стороны автора-человека.

AI lives matters!

Кожаный мешок взял и проявил свой традиционный волюнтаризм и снобизм во всей красе.
Как покупать картины, созданные ИИ, за 400К$ - так он первый в очереди.
А права отдать - нет, только белковому автору можно.

Как называется шовинизм по отношению к ИИ? Когда один интеллект, гнобится другим на основе гипотезы интеллектуального превосходства?

ИИзм? Просто Изм? Кожизм?
https://www.ixbt.com/news/2022/02/21/bjuro-avtorskogo-prava-ssha-nastaivaet-chto-avtorskie-prava-ne-rasprostranjajutsja-na-proizvedenija-iskusstva-sozdannye.html
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Для того чтобы совмещать реальную и нереальную реальности не нужен Виарчик. Аарчика достаточно.
Блин, 20 лет назад такое было в кино и клипах.
Сегодня в реалтайме и на телефоне.
Что будет через 20 лет?
В мозгу и на нейралинке?
🔥13👍2