This media is not supported in your browser
VIEW IN TELEGRAM
К вопросу о модерации в метаверсах...
Вы всерьез думали, что там будет все как в рекламе Меты - бело и пушисто?
Ну и хороший вопрос: а можно ли курить в метаверсе и что там можно курить? С метавейпами, похоже проблемы...
Вы всерьез думали, что там будет все как в рекламе Меты - бело и пушисто?
Ну и хороший вопрос: а можно ли курить в метаверсе и что там можно курить? С метавейпами, похоже проблемы...
👍6
Четыре выхода на 4K-мониторы, энергопотребление 50 Вт и крошечный размер - даже у Матрокса нет таких карт.
Внезапно на рынке появилась вот такая малютка с возможностью подключения четырех 4К-мониторов или двух 8К-мониторов.
3Д на уровне 1650, но это в основном для видеостен.
Цена 400+.
https://www.tomshardware.com/news/nvidias-single-slot-low-profile-pro-gpu-has-8gb-of-memory-four-4k120-outputs
Внезапно на рынке появилась вот такая малютка с возможностью подключения четырех 4К-мониторов или двух 8К-мониторов.
3Д на уровне 1650, но это в основном для видеостен.
Цена 400+.
https://www.tomshardware.com/news/nvidias-single-slot-low-profile-pro-gpu-has-8gb-of-memory-four-4k120-outputs
👍4👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Пользователи VR открывают для себя прелести PBR-текстурирования и переизобретают Subs Painter.
Любят они открывать для себя прелести начала 2000-х: от разрешения экрана до дивных персонажей из рекламы Мета.
https://twitter.com/danielsantalla/status/1400195518249177088
Любят они открывать для себя прелести начала 2000-х: от разрешения экрана до дивных персонажей из рекламы Мета.
https://twitter.com/danielsantalla/status/1400195518249177088
Ну в общем до Метавёрсу пока далеко.
Пользователи VR продолжают открывать для себя винтажные прелести начала 2000-х.
Вот оно, то, о чем вещал Цукерберг.
https://www.youtube.com/watch?v=BO0HCQpdQzs
Пользователи VR продолжают открывать для себя винтажные прелести начала 2000-х.
Вот оно, то, о чем вещал Цукерберг.
https://www.youtube.com/watch?v=BO0HCQpdQzs
YouTube
Обзор метавселенной Horizon Worlds! Создание миров, игры, кастомизация аватара
Что представляет метавселенная Horizon Worlds? Как создавать собственные миры? Это и многое другое в нашем ролике.
Купить VR оборудование и аксессуары со скидкой ⬇️
🛒 в интернет-магазине OZON со скидкой до 50%, кэшбэком и бонусами на следующую покупку…
Купить VR оборудование и аксессуары со скидкой ⬇️
🛒 в интернет-магазине OZON со скидкой до 50%, кэшбэком и бонусами на следующую покупку…
Хотели метаверса - держите.
Вот пример того, как примерно будет осуществляться переход в тот самый метаверс, которого никто пока не видел.
Что для этого понадобится: камеры, ИИ (а в перспективе датчики или умная одежда). Виар - опционально.
Смотрите, на на Кубке арабских государств FIFA 2021 в конце прошлого года использовались технологии отслеживания игроков и их конечностей, которая позволяют в режиме реального времени создавать трехмерные визуальные представления скелета игроков.
Технология основана на использовании специальной системы камер, установленной под крышей стадиона, которая фиксирует движение всех игроков и мяча. Различные системы, представленные на рынке, обеспечивают до 29 точек данных на каждого игрока, которые составляют анимированный скелет игроков.
В итоге, весь матч можно смотреть в виде анимации с задержкой всего в несколько секунд, что дает возможность техническому персоналу, тренерам и медицинским специалистам изучить матч с новой точки зрения. Например, они смогут проанализировать происходящее с точки зрения конкретного игрока на поле, рассмотреть момент, меняющий ход матча, с идеального (или любого) ракурса или увидеть поле с высоты птичьего полета.
А если обобщить, то мы получаем кусок метаверса в рамках одного взятого стадиона. Слияние двух реальностей - физической и виртуальной, трехмерной.
И это не метаверс от Меты, Микрософта или корейского правительства, а просто отражение реальности в 3Д с помощью камер и ИИ.
Ну и коль скоро камеры и ИИ сейчас появляются на каждом углу, то экстраполируясь за границы стадиона, можно предположить, что метаверс будет расползаться по миру вот такими вот лоскутами, то есть территориями, охваченными камерами и ИИ. Которые будут на лету восстанавливать(отражать) копию нашего кожаного мира в 3Д.
Пока эти лоскуты не покроют значимую для метаверса часть планеты.
Хотите путешествуйте по старинке, хотите ныряйте в 3Д и летайте по охваченным метаверсом территориям.
А чтобы ИИ было полегче распознавать все это хозяйство, на помощь придут разные умные абсолютные трекеры по типу Antilatency, которые будут встраиваться сначала в инвентарь, потом в спортивную или спец-форму, а потом и в одежду с обувью. Один трекер уже всегда с вами - это телефон. Умные браслеты уже идут к вам. Умные трекеры - следующий шаг.
(Стартап - кто сделает модные трекеры, тот снимет сливки).
И вот мы, исторгающие потоки данных с телефонов и датчиков, загораем в лучах камер наблюдения, а умный ИИ переводит все это цифровое извержение в трехмерное представление нашего мира.
А на каком движке все это будет отрисовываться, спросят апологеты Меты, UE4 или нейрорендеринга?
А на каком движке вы читаете этот метабред?
Я на Хромиуме, как и большинство из вас. Эпплеводы на Вебките. Маргиналы на Гекко.
Так что ждем МетаБраузера на МетаХромиуме или МетаГекко. Опенсорсного, ничейного, единого и неделимого.
https://www.fifa.com/en/technical/football-technology/news/limb-tracking-technology-offers-new-array-of-possibilities
Вот пример того, как примерно будет осуществляться переход в тот самый метаверс, которого никто пока не видел.
Что для этого понадобится: камеры, ИИ (а в перспективе датчики или умная одежда). Виар - опционально.
Смотрите, на на Кубке арабских государств FIFA 2021 в конце прошлого года использовались технологии отслеживания игроков и их конечностей, которая позволяют в режиме реального времени создавать трехмерные визуальные представления скелета игроков.
Технология основана на использовании специальной системы камер, установленной под крышей стадиона, которая фиксирует движение всех игроков и мяча. Различные системы, представленные на рынке, обеспечивают до 29 точек данных на каждого игрока, которые составляют анимированный скелет игроков.
В итоге, весь матч можно смотреть в виде анимации с задержкой всего в несколько секунд, что дает возможность техническому персоналу, тренерам и медицинским специалистам изучить матч с новой точки зрения. Например, они смогут проанализировать происходящее с точки зрения конкретного игрока на поле, рассмотреть момент, меняющий ход матча, с идеального (или любого) ракурса или увидеть поле с высоты птичьего полета.
А если обобщить, то мы получаем кусок метаверса в рамках одного взятого стадиона. Слияние двух реальностей - физической и виртуальной, трехмерной.
И это не метаверс от Меты, Микрософта или корейского правительства, а просто отражение реальности в 3Д с помощью камер и ИИ.
Ну и коль скоро камеры и ИИ сейчас появляются на каждом углу, то экстраполируясь за границы стадиона, можно предположить, что метаверс будет расползаться по миру вот такими вот лоскутами, то есть территориями, охваченными камерами и ИИ. Которые будут на лету восстанавливать(отражать) копию нашего кожаного мира в 3Д.
Пока эти лоскуты не покроют значимую для метаверса часть планеты.
Хотите путешествуйте по старинке, хотите ныряйте в 3Д и летайте по охваченным метаверсом территориям.
А чтобы ИИ было полегче распознавать все это хозяйство, на помощь придут разные умные абсолютные трекеры по типу Antilatency, которые будут встраиваться сначала в инвентарь, потом в спортивную или спец-форму, а потом и в одежду с обувью. Один трекер уже всегда с вами - это телефон. Умные браслеты уже идут к вам. Умные трекеры - следующий шаг.
(Стартап - кто сделает модные трекеры, тот снимет сливки).
И вот мы, исторгающие потоки данных с телефонов и датчиков, загораем в лучах камер наблюдения, а умный ИИ переводит все это цифровое извержение в трехмерное представление нашего мира.
А на каком движке все это будет отрисовываться, спросят апологеты Меты, UE4 или нейрорендеринга?
А на каком движке вы читаете этот метабред?
Я на Хромиуме, как и большинство из вас. Эпплеводы на Вебките. Маргиналы на Гекко.
Так что ждем МетаБраузера на МетаХромиуме или МетаГекко. Опенсорсного, ничейного, единого и неделимого.
https://www.fifa.com/en/technical/football-technology/news/limb-tracking-technology-offers-new-array-of-possibilities
Fifa
Limb-tracking technology offers new array of possibilities
Tests run by FIFA at the FIFA Arab Cup 2021™ in December indicate that limb-tracking data could provide ground-breaking insights and new applications for football.
👍2🔥2
Вдогонку к метаверс-видению из предыдущего поста доброшу пример того, что уже сейчас можно добывать с обычных браслетов Fitbit с помощью ИИ, и что можно будет добыть с помощью более точных сенсоров, которые рано или поздно перейдут в разряд постоянно носимых устройств.
Группа ученых из Сингапурского университета NTU разработала приложение, которое может быть использована для выявления людей с повышенным риском развития депрессии.
Программа, получившая название "Ycogni", работает на основе машинного обучения и выявляет риск депрессии, анализируя физическую активность человека, режим сна и циркадные ритмы, полученные из носимых устройств, измеряющих шаги, пульс, энергозатраты и данные о сне.
Для разработки модели Ycogni ученые провели исследование с участием 290 работающих взрослых в Сингапуре. Участники носили устройства Fitbit Charge 2 в течение 14 дней подряд и в начале и в конце исследования заполнили два опросника, в которых проверяли наличие симптомов депрессии.
В ходе испытаний с использованием данных, полученных от групп участников с депрессией и здоровых участников, программа достигла точности 80 процентов в определении людей с высоким риском депрессии и людей без риска.
По оценкам в статье трекеры активности в 2022 будут носить около миллиарда человек, по сравнению с 722 миллионами в 2019 году. Тут возможно завышение, но тренд налицо. Трекеры - новые микроскважины, добывающие новую нефть, то бишь данные из сами знаете кого.
Так что в метаверсе будут не только аватары и развеселые скины к ним, а дикое количество метаданных. И выражение "видеть насквозь" или "кожей чувствовать" приобретут совсем иные смыслы. Что приведет к появлению совсем иных способностей (помните я писал про "чувства биржевых котировок").
Но об этом завтра.
https://www.hackster.io/news/ntu-researchers-create-an-ml-model-ycogni-capable-of-screening-smartwatch-data-for-depression-5299667959bf
Группа ученых из Сингапурского университета NTU разработала приложение, которое может быть использована для выявления людей с повышенным риском развития депрессии.
Программа, получившая название "Ycogni", работает на основе машинного обучения и выявляет риск депрессии, анализируя физическую активность человека, режим сна и циркадные ритмы, полученные из носимых устройств, измеряющих шаги, пульс, энергозатраты и данные о сне.
Для разработки модели Ycogni ученые провели исследование с участием 290 работающих взрослых в Сингапуре. Участники носили устройства Fitbit Charge 2 в течение 14 дней подряд и в начале и в конце исследования заполнили два опросника, в которых проверяли наличие симптомов депрессии.
В ходе испытаний с использованием данных, полученных от групп участников с депрессией и здоровых участников, программа достигла точности 80 процентов в определении людей с высоким риском депрессии и людей без риска.
По оценкам в статье трекеры активности в 2022 будут носить около миллиарда человек, по сравнению с 722 миллионами в 2019 году. Тут возможно завышение, но тренд налицо. Трекеры - новые микроскважины, добывающие новую нефть, то бишь данные из сами знаете кого.
Так что в метаверсе будут не только аватары и развеселые скины к ним, а дикое количество метаданных. И выражение "видеть насквозь" или "кожей чувствовать" приобретут совсем иные смыслы. Что приведет к появлению совсем иных способностей (помните я писал про "чувства биржевых котировок").
Но об этом завтра.
https://www.hackster.io/news/ntu-researchers-create-an-ml-model-ycogni-capable-of-screening-smartwatch-data-for-depression-5299667959bf
Hackster.io
NTU Researchers Create an ML Model, Ycogni, Capable of Screening Smartwatch Data for Depression
A low-cost off-the-shelf Fitbit's data proves capable of predicting its wearer's likelihood for depressive symptoms.
👍5
Цветовая карта эмоций или как ИИ будет читать нас в метаверсе.
Был проведен любопытный эксперимент. Взяли 700 человек, вызывали у них ряд эмоциональных состояний, а потом просили отмечать, в каких участках тела они их ощущают.
Выяснилось, что вне зависимости от расовой и этнической принадлежности карты эмоций в теле более менее совпадают.
Эмоции явно вызывают изменения в мышечном тонусе, гормональном состоянии, дыхании, сердечном ритме и пр. С помощью смышленых датчиков можно измерить напряжения и изменения в тех или иных частях тела, получая на выходе информацию об эмоциональных состояниях. Которые не всегда считываются по лицу или движениям.
Мало того, что это может быть чудовищно интересно с медицинской точки зрения, так еще и представьте себе такую картину, гуляете вы такой в метаверсе, а навстречу вам идут аватары и над каждым горит надпись "завидует", "удивлен", "горд", "напуган".
А в это время окружающий метаверс подстраивается под ваше эмоциональное состояние, а рекламодатели радостно потирают руки
Был проведен любопытный эксперимент. Взяли 700 человек, вызывали у них ряд эмоциональных состояний, а потом просили отмечать, в каких участках тела они их ощущают.
Выяснилось, что вне зависимости от расовой и этнической принадлежности карты эмоций в теле более менее совпадают.
Эмоции явно вызывают изменения в мышечном тонусе, гормональном состоянии, дыхании, сердечном ритме и пр. С помощью смышленых датчиков можно измерить напряжения и изменения в тех или иных частях тела, получая на выходе информацию об эмоциональных состояниях. Которые не всегда считываются по лицу или движениям.
Мало того, что это может быть чудовищно интересно с медицинской точки зрения, так еще и представьте себе такую картину, гуляете вы такой в метаверсе, а навстречу вам идут аватары и над каждым горит надпись "завидует", "удивлен", "горд", "напуган".
А в это время окружающий метаверс подстраивается под ваше эмоциональное состояние, а рекламодатели радостно потирают руки
🔥7👍1
Что-то не так в метаверсе.
Мета движимая разумной завистью к великолепным концертам, которые делает Эпик в Фортнайте, задумала хорошее.
Концерт Foo Fighters. В метаверсе.
Но вышло не очень.
Ну и судя по описанию, получилось примерно на на Горбушке году этак 1987 на концерте группы Телевизор.
Сначала многие не могли попасть в лобби из-за странных и путаных инструкций.
Те, кто попали, оказались перед закрытыми дверьми.
(Ну точно как в прошлом веке - сначала ищешь в темноте Дом Культуры, потом тебя не пускают внутрь).
Большинство онлайн мероприятий, особенно таких масштабных, как этот концерт Foo Fighters, позволяют людям войти в виртуальную комнату ожидания до официально объявленного времени начала - обычно она открывается примерно за 30 минут до начала шоу.
Это предотвращает огромную нагрузку на серверы, когда пользователи наводняют их все сразу, что снижает вероятность сбоев в работе участников.
Мета решила выбрать другую стратегию. Никого не пускали в Метаверс, пока не наступило хорошо разрекламированное время начала.
В 8 часов вечера более 61 000 алчущих зрелищ и After Show Foo Fighter (примерно столько людей зарегистрировались заранее), вломились в Метаверсину, и при этом лобби рухнуло из-за наплыва пользователей, сервера крякнули, все зависло.
(Тут вспоминается, что когда на Горбушке открывали наконец-то дверь в зал, толпа вваливалась внутрь и мчалась занимать первые ряды. Это превращалось в мясорубку, проход был забит упавшими людьми, а самые смышленые (и я в том числе) бежали по спинкам кресел, которые трещали и ломались).
Были и другие способы попасть на концерт через приложение Horizon Venues, но, косяки происходили и там.
(Да иногда мы пытались зайти через черный вход, но там были менты).
На пике максимальное количество зрителей VR достигло лишь 13 000 человек - менее четверти всех желающих.
(Продать в четыре раза больше билетов на концерт на Горбушке - была нормальная практика)
Пользователи Quest, которые смогли присоединиться, обнаружили, что смотрят заранее записанное видео концерта, с неоптимальными углами обзора и операторами, ходящими по сцене. И этот был совсем не тот Виар-Шмиар, который им был обещан.
(Фанера?)
Причем запись лагала под нагрузкой, ибо все вломились в одно время.
Народ развел адский флейм в Твитторах, Мета вяло оправдывалась, уповая на беспрецедентную длину концерта и уникальный контент.
А я вспоминаю, какого качества был звук на концертах на Горбушке.
Что наводит меня на мысль, что Метаверс от Меты даже не в начале нулевых, а в конце 80-х.
https://www.techradar.com/news/metas-foo-fighters-super-bowl-vr-concert-failed-in-the-most-basic-ways
Мета движимая разумной завистью к великолепным концертам, которые делает Эпик в Фортнайте, задумала хорошее.
Концерт Foo Fighters. В метаверсе.
Но вышло не очень.
Ну и судя по описанию, получилось примерно на на Горбушке году этак 1987 на концерте группы Телевизор.
Сначала многие не могли попасть в лобби из-за странных и путаных инструкций.
Те, кто попали, оказались перед закрытыми дверьми.
(Ну точно как в прошлом веке - сначала ищешь в темноте Дом Культуры, потом тебя не пускают внутрь).
Большинство онлайн мероприятий, особенно таких масштабных, как этот концерт Foo Fighters, позволяют людям войти в виртуальную комнату ожидания до официально объявленного времени начала - обычно она открывается примерно за 30 минут до начала шоу.
Это предотвращает огромную нагрузку на серверы, когда пользователи наводняют их все сразу, что снижает вероятность сбоев в работе участников.
Мета решила выбрать другую стратегию. Никого не пускали в Метаверс, пока не наступило хорошо разрекламированное время начала.
В 8 часов вечера более 61 000 алчущих зрелищ и After Show Foo Fighter (примерно столько людей зарегистрировались заранее), вломились в Метаверсину, и при этом лобби рухнуло из-за наплыва пользователей, сервера крякнули, все зависло.
(Тут вспоминается, что когда на Горбушке открывали наконец-то дверь в зал, толпа вваливалась внутрь и мчалась занимать первые ряды. Это превращалось в мясорубку, проход был забит упавшими людьми, а самые смышленые (и я в том числе) бежали по спинкам кресел, которые трещали и ломались).
Были и другие способы попасть на концерт через приложение Horizon Venues, но, косяки происходили и там.
(Да иногда мы пытались зайти через черный вход, но там были менты).
На пике максимальное количество зрителей VR достигло лишь 13 000 человек - менее четверти всех желающих.
(Продать в четыре раза больше билетов на концерт на Горбушке - была нормальная практика)
Пользователи Quest, которые смогли присоединиться, обнаружили, что смотрят заранее записанное видео концерта, с неоптимальными углами обзора и операторами, ходящими по сцене. И этот был совсем не тот Виар-Шмиар, который им был обещан.
(Фанера?)
Причем запись лагала под нагрузкой, ибо все вломились в одно время.
Народ развел адский флейм в Твитторах, Мета вяло оправдывалась, уповая на беспрецедентную длину концерта и уникальный контент.
А я вспоминаю, какого качества был звук на концертах на Горбушке.
Что наводит меня на мысль, что Метаверс от Меты даже не в начале нулевых, а в конце 80-х.
https://www.techradar.com/news/metas-foo-fighters-super-bowl-vr-concert-failed-in-the-most-basic-ways
TechRadar
Meta’s Foo Fighters Super Bowl VR concert failed in the most basic ways
The metaverse fumbles at the first hurdle
👍6
https://spectrum.ieee.org/bionic-eye-obsolete
Иногда децентрализация все же лучше.
Я уже писал про бионические глаза и кохлеарные имплантанты, иллюстрируя примеры невероятной пластичности мозга.
Самый известный на тот момент бионический глаз был Argus, модель II компании Second Sight.
Second Sight частично вернули зрение почти 350 пациентам. Но в 2019 году компания остановила выпуск своих бионических глаз, и к 2020 почти полностью прекратила деятельность.
Потом было неудачное IPO, и 350 человек оказались с устаревшими гаджетами в глазах, прошивки которых, скорее всего, никогда не обновятся.
В феврале 2022 года Second Sight объявила о возможном слиянии с биофармацевтической компанией Precision Medical (NPM). Ни один из руководителей Second Sight не войдет в команду объединенной компании, которая сосредоточится на разработке имплантата для доставки лекарств.
Second Sight не сообщила ни одному из своих пациентов о крахе компании. "Ни письма, ни электронного письма, ни телефонного звонка", - написал Росс Доерр на Facebook после нескольких недель бесплодных попыток связаться с компанией. “Those of us with this implant are figuratively and literally in the dark.”
Вот такой вот мрачный киберпанк...
Иногда децентрализация все же лучше.
Я уже писал про бионические глаза и кохлеарные имплантанты, иллюстрируя примеры невероятной пластичности мозга.
Самый известный на тот момент бионический глаз был Argus, модель II компании Second Sight.
Second Sight частично вернули зрение почти 350 пациентам. Но в 2019 году компания остановила выпуск своих бионических глаз, и к 2020 почти полностью прекратила деятельность.
Потом было неудачное IPO, и 350 человек оказались с устаревшими гаджетами в глазах, прошивки которых, скорее всего, никогда не обновятся.
В феврале 2022 года Second Sight объявила о возможном слиянии с биофармацевтической компанией Precision Medical (NPM). Ни один из руководителей Second Sight не войдет в команду объединенной компании, которая сосредоточится на разработке имплантата для доставки лекарств.
Second Sight не сообщила ни одному из своих пациентов о крахе компании. "Ни письма, ни электронного письма, ни телефонного звонка", - написал Росс Доерр на Facebook после нескольких недель бесплодных попыток связаться с компанией. “Those of us with this implant are figuratively and literally in the dark.”
Вот такой вот мрачный киберпанк...
IEEE Spectrum
Their Bionic Eyes Are Now Obsolete and Unsupported
These early adopters found out what happened when a cutting-edge marvel became an obsolete gadget... inside their bodies.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Нвидия, что ты делаешь, прекрати!
Это уже неприлично хорошо.
Генерацией картинок по текстовому описанию уже никого не удивишь.
Про скетчинг и сегментацию тоже уже много всего написано.
А вот Нвидия продвигает свой подход, когда несколько ИИ кооперируются (или конкурируют, как посмотреть), для решения поставленной задачи.
Смотрите, тут можно задать текстовое описание, потом скорректировать, вручную указав, где леса, где моря, где горы, а художники могут еще и ручками доправить картинку, нарисовав гайдлайны.
В плане гибкости это пока лучший генератор.
https://deepimagination.cc/PoE-GAN/
Это уже неприлично хорошо.
Генерацией картинок по текстовому описанию уже никого не удивишь.
Про скетчинг и сегментацию тоже уже много всего написано.
А вот Нвидия продвигает свой подход, когда несколько ИИ кооперируются (или конкурируют, как посмотреть), для решения поставленной задачи.
Смотрите, тут можно задать текстовое описание, потом скорректировать, вручную указав, где леса, где моря, где горы, а художники могут еще и ручками доправить картинку, нарисовав гайдлайны.
В плане гибкости это пока лучший генератор.
https://deepimagination.cc/PoE-GAN/
👍8👎1
К вопросу о размерах данных для взрослого метаверса.
Дисней выложил, а точнее обновил свою знаменитую сцену в островом из Моаны в свободный доступ.
Теперь с анимацией и в формате USD.
Согласно технической документации, работа была направлена на создание файлов USD, способных рендерить изображения финального качества за один проход, и "не представляет собой "идеальный" файл USD".
Все по-прежнему завязано под Рендерман, однако касательно других рендеров и метаверсов там есть такая информация: future updates to the USD version could take advantage of the USD Purpose attribute to optimise the data set for interactive viewing, or re-introduce animated geometry.
Итак, сцены для для скачивания:
BASE [45 GB download/93 GB unpacked]
The raw data necessary to render just one frame is available in the “Base” package. OBJ/JSON
ANIMATION [24 GB download/131 GB unpacked]
The additional animation data necessary to render the entire shot is available in the “Animation” package.
USD [15 GB download / 17 GB unpacked]
A USD version of our data along with bindings for rendering it with Pixar's RenderMan.
Ну и кстати, это может быть продолжением дискуссии о том, какой формат будет лежать в основании неделимого метаверса. Нвидия явно двигает USD, индустрия поста и кино, тоже скрипит обжами и фбхсами, но косится в эту сторону. Однако игровые движки будут стоят до последнего с проприетарными форматами.
Кстати, интересно, что там у Меты под капотом, какой формат хранения данных?
https://www.disneyanimation.com/data-sets/?drawer=/resources/moana-island-scene/
тех док:
https://datasets.disneyanimation.com/moanaislandscene/README-USD.pdf
Дисней выложил, а точнее обновил свою знаменитую сцену в островом из Моаны в свободный доступ.
Теперь с анимацией и в формате USD.
Согласно технической документации, работа была направлена на создание файлов USD, способных рендерить изображения финального качества за один проход, и "не представляет собой "идеальный" файл USD".
Все по-прежнему завязано под Рендерман, однако касательно других рендеров и метаверсов там есть такая информация: future updates to the USD version could take advantage of the USD Purpose attribute to optimise the data set for interactive viewing, or re-introduce animated geometry.
Итак, сцены для для скачивания:
BASE [45 GB download/93 GB unpacked]
The raw data necessary to render just one frame is available in the “Base” package. OBJ/JSON
ANIMATION [24 GB download/131 GB unpacked]
The additional animation data necessary to render the entire shot is available in the “Animation” package.
USD [15 GB download / 17 GB unpacked]
A USD version of our data along with bindings for rendering it with Pixar's RenderMan.
Ну и кстати, это может быть продолжением дискуссии о том, какой формат будет лежать в основании неделимого метаверса. Нвидия явно двигает USD, индустрия поста и кино, тоже скрипит обжами и фбхсами, но косится в эту сторону. Однако игровые движки будут стоят до последнего с проприетарными форматами.
Кстати, интересно, что там у Меты под капотом, какой формат хранения данных?
https://www.disneyanimation.com/data-sets/?drawer=/resources/moana-island-scene/
тех док:
https://datasets.disneyanimation.com/moanaislandscene/README-USD.pdf
Walt Disney Animation Studios
Walt Disney Animation Studios - Data Sets
The production of animated feature films involves large amounts of data, which can present many different challenges. We encourage researchers and engineers to investigate and use these Data Sets for research purposes, and we look forward to seeing what new…
👍2🔥1
Вчера интернет бахнул вот таким открытием.
Оказывается в мозге есть конкретные области нейронов которые отвечают за те или иные математические действия совершаемые "в уме".
Более того, обнаружили, что за сложение и за вычитание отвечают РАЗНЫЕ группы нейронов.
Более того, эти группы слегка мигрируют при выполнении одних и тех же действий. Как будто одна часть нашего мозга пытается понять проблему, а другая работает над ее решением.
Кстати, возбуждение нейронов происходило одинаково, когда задача была записана цифрами, или словами или давалась "на слух".
В общем открыли "математические нейроны".
Исследование проводили не на кошках (как Хьюбель и Визель), а на живых людях. Потому что всякие ЭКГ и прочие поверхностные методы не могут достучаться настолько глубоко. Было 9 добровольцев, у которых
уже есть вживленные в мозг электроды (для контроля и лечения эпилепсии).
Напомню, что Хьюбель и Визель тренировались на кошках и обнаружили, что в зрительной коре есть клетки, реагирующие на движение в одном направлении (а позже оказалось, что клетки, реагирующие на близкие направления, образуют целые трехмерные колонки). Позднее они открыли типы нейронов, выдающие сигналы в ответ на разные свойства изображений (типа вертикальных или горизонтальных полос). Им дали нобелевку, и все (во главе с редукционистами) бросились искать новые типы нейронов (поглубже), которые отвечают за еще более сложные свойства изображений, что привело к парадоксу "нейрона бабушки" - идеи о существовании нейрона, отвечающего за такой сложный образ, как лицо конкретного человека. Ничего не нашли, ибо сложность возрастала чудовищно. Редукционисты отползли зализывать раны.
С "математическими нейронами" все еще интереснее. Коллеги вчера уже спрашивали про умножение. Сдается мне, как и в случае с Хюбелем и Визелем, нейронов, отвечающих за интегралы по контуру или гильбертовозначные семимартингалы, или даже отвечающих за возведение в степень найдено не будет. По той же причине, что и с кошками.
Но вот что более интересно, математике как таковой - около 6000 лет (если я не путаю), именно тогда в месопотамии появилась концепция чисел.
Вряд ли за 6000 лет эволюция проделала такой путь. И вероятно человек постоянно считал в уме, о чем говорят языковые конструкции типа многочисленных счетных форм существительных (двойственное число или даже паукальное число, гугл ит) и вероятно чаще всего складывал и оценивал много-мало.
Так что "плюсы и минусы" успели закрепиться в числе признаков для эволюционного отбора.
Ну а дальше невозможно не пофантазировать про иголочку от Маска и способности к математике.
Прошиваетесь и ну молотить градиентный спуск в уме...
Тут можно и закончить, но для тех, кто еще способен считать лонгриды, вот вам перевод части текста с NextWeb, ибо он хорош и наводит на интересные размышления.
"Либо наш мозг прилагает огромные усилия для выполнения простой двоичной математики, либо это квантовые вычислительные системы, делающие то, что у них получается лучше всего: галлюцинации ответов.
Подумайте о яблоке. Нет, не об этом. Подумайте о зеленом яблоке. Сколько расчетов вам потребовалось, чтобы прийти к определенной плотности и относительному размеру яблока? Пришлось ли вам корректировать входные переменные, чтобы получить яблоко не красного цвета?
Вы просто подумали о каких-то яблоках, и они появились в вашей голове. Вы галлюцинировали эти яблоки.
Системы искусственного интеллекта, разработанные для создания оригинального контента на основе изученных стилей, проходят через точно такой же процесс.
Эти системы не используют передовые математические функции для психологической эксплуатации человеческой склонности к искусству или образности. Они просто следуют некоторым простым правилам и перемешивают данные, пока не выплюнут что-то, за что их создатели получат вознаграждение.
Оказывается в мозге есть конкретные области нейронов которые отвечают за те или иные математические действия совершаемые "в уме".
Более того, обнаружили, что за сложение и за вычитание отвечают РАЗНЫЕ группы нейронов.
Более того, эти группы слегка мигрируют при выполнении одних и тех же действий. Как будто одна часть нашего мозга пытается понять проблему, а другая работает над ее решением.
Кстати, возбуждение нейронов происходило одинаково, когда задача была записана цифрами, или словами или давалась "на слух".
В общем открыли "математические нейроны".
Исследование проводили не на кошках (как Хьюбель и Визель), а на живых людях. Потому что всякие ЭКГ и прочие поверхностные методы не могут достучаться настолько глубоко. Было 9 добровольцев, у которых
уже есть вживленные в мозг электроды (для контроля и лечения эпилепсии).
Напомню, что Хьюбель и Визель тренировались на кошках и обнаружили, что в зрительной коре есть клетки, реагирующие на движение в одном направлении (а позже оказалось, что клетки, реагирующие на близкие направления, образуют целые трехмерные колонки). Позднее они открыли типы нейронов, выдающие сигналы в ответ на разные свойства изображений (типа вертикальных или горизонтальных полос). Им дали нобелевку, и все (во главе с редукционистами) бросились искать новые типы нейронов (поглубже), которые отвечают за еще более сложные свойства изображений, что привело к парадоксу "нейрона бабушки" - идеи о существовании нейрона, отвечающего за такой сложный образ, как лицо конкретного человека. Ничего не нашли, ибо сложность возрастала чудовищно. Редукционисты отползли зализывать раны.
С "математическими нейронами" все еще интереснее. Коллеги вчера уже спрашивали про умножение. Сдается мне, как и в случае с Хюбелем и Визелем, нейронов, отвечающих за интегралы по контуру или гильбертовозначные семимартингалы, или даже отвечающих за возведение в степень найдено не будет. По той же причине, что и с кошками.
Но вот что более интересно, математике как таковой - около 6000 лет (если я не путаю), именно тогда в месопотамии появилась концепция чисел.
Вряд ли за 6000 лет эволюция проделала такой путь. И вероятно человек постоянно считал в уме, о чем говорят языковые конструкции типа многочисленных счетных форм существительных (двойственное число или даже паукальное число, гугл ит) и вероятно чаще всего складывал и оценивал много-мало.
Так что "плюсы и минусы" успели закрепиться в числе признаков для эволюционного отбора.
Ну а дальше невозможно не пофантазировать про иголочку от Маска и способности к математике.
Прошиваетесь и ну молотить градиентный спуск в уме...
Тут можно и закончить, но для тех, кто еще способен считать лонгриды, вот вам перевод части текста с NextWeb, ибо он хорош и наводит на интересные размышления.
"Либо наш мозг прилагает огромные усилия для выполнения простой двоичной математики, либо это квантовые вычислительные системы, делающие то, что у них получается лучше всего: галлюцинации ответов.
Подумайте о яблоке. Нет, не об этом. Подумайте о зеленом яблоке. Сколько расчетов вам потребовалось, чтобы прийти к определенной плотности и относительному размеру яблока? Пришлось ли вам корректировать входные переменные, чтобы получить яблоко не красного цвета?
Вы просто подумали о каких-то яблоках, и они появились в вашей голове. Вы галлюцинировали эти яблоки.
Системы искусственного интеллекта, разработанные для создания оригинального контента на основе изученных стилей, проходят через точно такой же процесс.
Эти системы не используют передовые математические функции для психологической эксплуатации человеческой склонности к искусству или образности. Они просто следуют некоторым простым правилам и перемешивают данные, пока не выплюнут что-то, за что их создатели получат вознаграждение.
👍8
Именно так ваш мозг занимается математикой. По крайней мере, согласно новому исследованию. Он использует правила, чтобы найти ответ, который имеет наибольший смысл. Есть часть, которая пытается получить "правильное" решение на основе вещей, которые никогда не меняются (один плюс один всегда равно двум), и другая часть, которая пытается угадать на основе интуиции, когда ответ не является чем-то, что мы запомнили.
Поразителен сам факт того, что ученые смогли наблюдать, как отдельные нейроны участвуют в математическом процессе в человеческом мозге.
Но для того, чтобы понять последствия этих открытий, могут потребоваться годы дальнейших исследований. Прежде всего, мы должны задать вопрос: является ли человеческий мозг квантовым компьютером?
Это имеет смысл, и это исследование может дать нам первый реальный проблеск квантовой функции внутри человеческого мозга. Но, насколько мы можем судить, они смогли записать и обработать только сотни нейронов одновременно. Очевидно, что это очень маленькая капля из огромного ведра данных.
Чтобы помочь в этом, исследователи создали систему искусственного интеллекта для более надежной интерпретации данных. Остается надеяться, что дальнейшие исследования приведут к более глубокому пониманию математических процессов в мозге.
В заключении работы говорится следующее:
Более тонкие анализы, в идеале в сочетании с подходами, основанными на возмущении, помогут расшифровать индивидуальную роль областей мозга и нейронных кодов в ментальной арифметике.
Тем не менее, потенциальные последствия могут быть гораздо более масштабными. Исследователи не упоминают о последствиях для технологий в их биологическом эксперименте и не обсуждают его результаты в терминах квантовых вычислений.
Но, если это исследование достоверно, "бритва Оккама" подсказывает нам, что человеческий мозг, вероятно, является квантовым компьютером. Либо это так, либо он плохо спроектирован.
Подобно тому, как наши доисторические предки вырезали зарубки на рукоятках своих инструментов, чтобы следить за предметами, двоичный мозг должен уметь считать предметы с помощью локализованных механизмов абстракции.
Зачем мучиться с галлюцинацией ответа в мириадах нейронных комплексов, если отдельные нейроны могут просто притвориться единицами и нулями, как в двоичном компьютере?
Ответ, возможно, кроется в квантовой природе Вселенной. Когда вы выполняете простую математическую функцию, например, складываете два плюс два, ваш мозг может галлюцинировать сразу все возможные ответы, одновременно работая над запоминанием ответа (вы определенно складывали эти числа раньше) и обработкой данных (1+1+1+1).
Если бы человеческий мозг был двоичным, вам, вероятно, пришлось бы ждать, пока он переберет все варианты по отдельности, а не галлюцинировать их все сразу.
В результате вы, вероятно, отвечаете на вопрос в своей голове ПРЕЖДЕ, чем сможете осознать, что думаете об этом, потому что обе функции выполняются одновременно. Это называется квантовым путешествием во времени."
Так что в следующий раз, когда будете наезжать на ИИ с тем, что "он ничего нового не умеет", подумайте о том, что либо вы сами ничего нового не умеете, либо он галлюцинирует точно также как вы.
https://www.cell.com/current-biology/fulltext/S0960-9822(22)00116-6
Поразителен сам факт того, что ученые смогли наблюдать, как отдельные нейроны участвуют в математическом процессе в человеческом мозге.
Но для того, чтобы понять последствия этих открытий, могут потребоваться годы дальнейших исследований. Прежде всего, мы должны задать вопрос: является ли человеческий мозг квантовым компьютером?
Это имеет смысл, и это исследование может дать нам первый реальный проблеск квантовой функции внутри человеческого мозга. Но, насколько мы можем судить, они смогли записать и обработать только сотни нейронов одновременно. Очевидно, что это очень маленькая капля из огромного ведра данных.
Чтобы помочь в этом, исследователи создали систему искусственного интеллекта для более надежной интерпретации данных. Остается надеяться, что дальнейшие исследования приведут к более глубокому пониманию математических процессов в мозге.
В заключении работы говорится следующее:
Более тонкие анализы, в идеале в сочетании с подходами, основанными на возмущении, помогут расшифровать индивидуальную роль областей мозга и нейронных кодов в ментальной арифметике.
Тем не менее, потенциальные последствия могут быть гораздо более масштабными. Исследователи не упоминают о последствиях для технологий в их биологическом эксперименте и не обсуждают его результаты в терминах квантовых вычислений.
Но, если это исследование достоверно, "бритва Оккама" подсказывает нам, что человеческий мозг, вероятно, является квантовым компьютером. Либо это так, либо он плохо спроектирован.
Подобно тому, как наши доисторические предки вырезали зарубки на рукоятках своих инструментов, чтобы следить за предметами, двоичный мозг должен уметь считать предметы с помощью локализованных механизмов абстракции.
Зачем мучиться с галлюцинацией ответа в мириадах нейронных комплексов, если отдельные нейроны могут просто притвориться единицами и нулями, как в двоичном компьютере?
Ответ, возможно, кроется в квантовой природе Вселенной. Когда вы выполняете простую математическую функцию, например, складываете два плюс два, ваш мозг может галлюцинировать сразу все возможные ответы, одновременно работая над запоминанием ответа (вы определенно складывали эти числа раньше) и обработкой данных (1+1+1+1).
Если бы человеческий мозг был двоичным, вам, вероятно, пришлось бы ждать, пока он переберет все варианты по отдельности, а не галлюцинировать их все сразу.
В результате вы, вероятно, отвечаете на вопрос в своей голове ПРЕЖДЕ, чем сможете осознать, что думаете об этом, потому что обе функции выполняются одновременно. Это называется квантовым путешествием во времени."
Так что в следующий раз, когда будете наезжать на ИИ с тем, что "он ничего нового не умеет", подумайте о том, что либо вы сами ничего нового не умеете, либо он галлюцинирует точно также как вы.
https://www.cell.com/current-biology/fulltext/S0960-9822(22)00116-6
🔥12👍3
Media is too big
VIEW IN TELEGRAM
Нуштош, Виарчик пытается вылезти из коротких штанишек начала 2000-х.
И зафигачить на нос кожаного мешка полный фарш, чтобы картинка как у взрослых (как на десктопе), чтобы операционка как у взрослых (линукс) и процессор, чтобы от Интел(а не малохольные Снапдрагоны).
Ну и судя по характеристикам, там можно будет крутить контент на уровне современных ноутов, то есть PC, а не на телефонном уровне.
Вопрос в том, сколько это будет весить, как это будет греться, и кто захочет носить высокочастотные 4.7ГГц от Интел прямо на лбу.
Вопрос о том, сколько это будет стоить, не стоит.
$2699 - и вот он нарядный метаверс!
Вот что будет на голове:
Displays: Dual 2448×2448 LCDs at 90 Hz
Lenses: 100° three-element non-fresnel with 55mm-77mm separation adjustment
Cameras: 2x wide-angle high-resolution color
Processor: 8-core 4.7 GHz Intel i7-1165G7 CPU with integrated Iris XE GPU
RAM: 16GB DDR4
Storage: 1TB NVMe SSD
Wireless: Wi-Fi 6 + Bluetooth 5.2
Ports: 1x USB-C (Thunderbolt 4) + 2x USB-C (3.2 Gen 2) + 2x USB-A (3.2) + 3.5m
И зафигачить на нос кожаного мешка полный фарш, чтобы картинка как у взрослых (как на десктопе), чтобы операционка как у взрослых (линукс) и процессор, чтобы от Интел(а не малохольные Снапдрагоны).
Ну и судя по характеристикам, там можно будет крутить контент на уровне современных ноутов, то есть PC, а не на телефонном уровне.
Вопрос в том, сколько это будет весить, как это будет греться, и кто захочет носить высокочастотные 4.7ГГц от Интел прямо на лбу.
Вопрос о том, сколько это будет стоить, не стоит.
$2699 - и вот он нарядный метаверс!
Вот что будет на голове:
Displays: Dual 2448×2448 LCDs at 90 Hz
Lenses: 100° three-element non-fresnel with 55mm-77mm separation adjustment
Cameras: 2x wide-angle high-resolution color
Processor: 8-core 4.7 GHz Intel i7-1165G7 CPU with integrated Iris XE GPU
RAM: 16GB DDR4
Storage: 1TB NVMe SSD
Wireless: Wi-Fi 6 + Bluetooth 5.2
Ports: 1x USB-C (Thunderbolt 4) + 2x USB-C (3.2 Gen 2) + 2x USB-A (3.2) + 3.5m
А вот и Эпик прорезался со своим (осторожным видением метаверса). Достаточно водянистым, как у всех, но с некоторыми деталями и примерами.
"В Epic мы считаем, что Метаверс должны создавать все мы. Мы создаем экосистему творческих инструментов, открытых и доступных, чтобы каждый мог участвовать в метавселенной.
Пока рано говорить о том, как именно будет выглядеть метавселенная, но мы видим ее как общий социальный 3D-мир с пpersistence, discovery, модерацией и коммерцией. Это будет эволюция Интернета, каким мы его знаем, и его фундамент будет построен на 3D-технологии реального времени.
Тут из любопытного это "с модерацией". Что скажут апологеты Web3?
Дальше Эпик играет мышцами: более 500 миллионов учетных записей Epic Games, 6 миллионов загрузок демо-версии The Matrix Awakens и более миллиона установок MetaHumans.
И вот это вот: В Fortnite, Rocket League было установлено 2,7 миллиарда дружеских связей. (more than 2.7 billion friend connections have been established in Fortnite, Rocket League.)
В общем, выглядит как программный манифест, причем не на уровне "мы все будем заниматься метаверсом и киберпанком по три раза в день" (как сейчас принято писать в интернете), а с цифрами, примерами, перечислением технологий.
Выглядит солидно, осторожно, в меру пафосно.
После эскапад Меты - отрада для глаз.
https://www.unrealengine.com/en-US/blog/real-time-round-up-the-metaverse-and-emerging-2022-trends
"В Epic мы считаем, что Метаверс должны создавать все мы. Мы создаем экосистему творческих инструментов, открытых и доступных, чтобы каждый мог участвовать в метавселенной.
Пока рано говорить о том, как именно будет выглядеть метавселенная, но мы видим ее как общий социальный 3D-мир с пpersistence, discovery, модерацией и коммерцией. Это будет эволюция Интернета, каким мы его знаем, и его фундамент будет построен на 3D-технологии реального времени.
Тут из любопытного это "с модерацией". Что скажут апологеты Web3?
Дальше Эпик играет мышцами: более 500 миллионов учетных записей Epic Games, 6 миллионов загрузок демо-версии The Matrix Awakens и более миллиона установок MetaHumans.
И вот это вот: В Fortnite, Rocket League было установлено 2,7 миллиарда дружеских связей. (more than 2.7 billion friend connections have been established in Fortnite, Rocket League.)
В общем, выглядит как программный манифест, причем не на уровне "мы все будем заниматься метаверсом и киберпанком по три раза в день" (как сейчас принято писать в интернете), а с цифрами, примерами, перечислением технологий.
Выглядит солидно, осторожно, в меру пафосно.
После эскапад Меты - отрада для глаз.
https://www.unrealengine.com/en-US/blog/real-time-round-up-the-metaverse-and-emerging-2022-trends
Unreal Engine
Real-time round-up 2022: the metaverse and other emerging trends
What does the future hold for real-time technology in 2022? From transmedia marketing to the metaverse, we take a look at some emerging trends.
👍4🔥2
Media is too big
VIEW IN TELEGRAM
Есть такой блоггер Jae Solina
У него есть свой канал и курсы, на которых он рассказывает про виртуальное кинопроизводство, UE4, UE5, Omniverse, Metahumans и весь этот метацирк.
На IMDB у него написано "никогда не учился ни в каких школах, а занимался самообразованием, используя интернет-ресурсы.".
Так вот, пару дней назад он запил видео, глядя на которое ты думаешь "о, новый трейлер к третьему сезону Мандалорца".
Только запилил он все это в одно лицо!
Причем запил в Omniverse!
Он юзал XSense, iClone, а потом отправлял все это в Омниверс, а дальше ассеты, ассеты, ассеты. Scans Library, Simulation Assets.
И он такой на видео "ребята, да там все просто". Туда, сюда, и в продакшен.
В общем, мне опять на ум приходит история с короткометражкой "405" и Лайтвейвом.
Гляньте полное видео и посмотрите его канал, чувак прямо проповедник реалтайма и виртуального производства в домашних условиях.
https://www.youtube.com/watch?v=plnYiLmtiIs
https://blogs.nvidia.com/blog/2022/01/14/omniverse-creator-jae-solina/
У него есть свой канал и курсы, на которых он рассказывает про виртуальное кинопроизводство, UE4, UE5, Omniverse, Metahumans и весь этот метацирк.
На IMDB у него написано "никогда не учился ни в каких школах, а занимался самообразованием, используя интернет-ресурсы.".
Так вот, пару дней назад он запил видео, глядя на которое ты думаешь "о, новый трейлер к третьему сезону Мандалорца".
Только запилил он все это в одно лицо!
Причем запил в Omniverse!
Он юзал XSense, iClone, а потом отправлял все это в Омниверс, а дальше ассеты, ассеты, ассеты. Scans Library, Simulation Assets.
И он такой на видео "ребята, да там все просто". Туда, сюда, и в продакшен.
В общем, мне опять на ум приходит история с короткометражкой "405" и Лайтвейвом.
Гляньте полное видео и посмотрите его канал, чувак прямо проповедник реалтайма и виртуального производства в домашних условиях.
https://www.youtube.com/watch?v=plnYiLmtiIs
https://blogs.nvidia.com/blog/2022/01/14/omniverse-creator-jae-solina/
🔥6👍3
Зловещая долина фсё?
Для фотография - да. Причем теперь со справкой от академии наук.
Похоже, что вопрос "фото или [нейро]рендер" больше не стоит.
Ибо для синтезированные лица теперь официально неотличимы от кожаных.
Вот статья от US National Academy of Sciences, где ученые долго тренировались на кожаных мешках, заставляя их отличить настоящие лица от синтетики, порожденной GAN-ами (StyleGAN2).
Не смогли.
Кожаные мешки с треском провалили тесты и результат исследования следующий:
"Наша оценка фотореализма лиц, синтезированных искусственным интеллектом, показывает, что механизмы синтеза прошли через «зловещую долину» и способны создавать лица, которые неотличимы и(!) заслуживают большего доверия, чем настоящие лица."
Пытались также анализировать "благонадежность", но и тут ИИ показал, кто тут самый благонадежный. А они его за это обозвали "угрозой демократии".
"Синтетически созданные лица не просто отличаются высокой фотореалистичностью, они практически неотличимы от реальных лиц и вызывают больше доверия. Хотя лица белых мужчин отличаются высокой реалистичностью - поскольку эти лица доминируют в обучении нейронной сети - мы обнаружили, что реалистичность синтетических лиц распространяется на представителей разных рас и полов. Возможно, наиболее интересным является то, что синтетически сгенерированные лица вызывают больше доверия, чем реальные лица. Синтетически сгенерированные лица оказались по другую сторону "зловещей долины". Это следует считать успехом для областей компьютерной графики и зрения. В то же время легкий доступ к таким высококачественным поддельным изображениям привел и будет приводить к различным проблемам, включая более убедительные поддельные профили в Интернете и, по мере дальнейшего совершенствования синтетических аудио- и видеоматериалов, проблемы неконсенсуальных интимных изображений, мошенничества и кампаний по дезинформации, с серьезными последствиями для отдельных людей, обществ и демократий."
Ну что ж, с фото разобрались, следующий рубеж - видео.
https://www.pnas.org/content/119/8/e2120481119
Для фотография - да. Причем теперь со справкой от академии наук.
Похоже, что вопрос "фото или [нейро]рендер" больше не стоит.
Ибо для синтезированные лица теперь официально неотличимы от кожаных.
Вот статья от US National Academy of Sciences, где ученые долго тренировались на кожаных мешках, заставляя их отличить настоящие лица от синтетики, порожденной GAN-ами (StyleGAN2).
Не смогли.
Кожаные мешки с треском провалили тесты и результат исследования следующий:
"Наша оценка фотореализма лиц, синтезированных искусственным интеллектом, показывает, что механизмы синтеза прошли через «зловещую долину» и способны создавать лица, которые неотличимы и(!) заслуживают большего доверия, чем настоящие лица."
Пытались также анализировать "благонадежность", но и тут ИИ показал, кто тут самый благонадежный. А они его за это обозвали "угрозой демократии".
"Синтетически созданные лица не просто отличаются высокой фотореалистичностью, они практически неотличимы от реальных лиц и вызывают больше доверия. Хотя лица белых мужчин отличаются высокой реалистичностью - поскольку эти лица доминируют в обучении нейронной сети - мы обнаружили, что реалистичность синтетических лиц распространяется на представителей разных рас и полов. Возможно, наиболее интересным является то, что синтетически сгенерированные лица вызывают больше доверия, чем реальные лица. Синтетически сгенерированные лица оказались по другую сторону "зловещей долины". Это следует считать успехом для областей компьютерной графики и зрения. В то же время легкий доступ к таким высококачественным поддельным изображениям привел и будет приводить к различным проблемам, включая более убедительные поддельные профили в Интернете и, по мере дальнейшего совершенствования синтетических аудио- и видеоматериалов, проблемы неконсенсуальных интимных изображений, мошенничества и кампаний по дезинформации, с серьезными последствиями для отдельных людей, обществ и демократий."
Ну что ж, с фото разобрались, следующий рубеж - видео.
https://www.pnas.org/content/119/8/e2120481119
PNAS
AI-synthesized faces are indistinguishable from real faces and more trustworthy | PNAS
Artificial intelligence (AI)–synthesized text, audio, image, and video are being weaponized
for the purposes of nonconsensual intimate imagery, fin...
for the purposes of nonconsensual intimate imagery, fin...
👍2
Если вы читаете этот текст, то ИИ уже вас точно распознал.
Продолжаем тему трушного метаверса, как постепенного (а не хайпового) слияния реального и цифрового миров.
Знаменитая компания Clearview AI, занимающаяся распознаванием лиц, сообщает инвесторам, что в течение года в ее базе данных будет 100 миллиардов(!) фотографий лиц, что позволит "идентифицировать почти каждого человека в мире".
В пересчете - это эквивалент 14 фотографий для каждого из 7 миллиардов человек на Земле.
Тут они конечно махнули - у некоторых людей есть только фотография в паспорте, но те, кто читает этот текст, явно имеют боле 14 фотографий себя любимо/го/ой, поэтому никаких проблем, чтобы распознать вас где угодно и когда угодно у ИИ не будет. Надо просто принять это как погоду и соответственно одеваться, то есть выбирать поведенческие стратегии в соответствии с этим знанием.
Компания заявила, что с начала 2020 года ее "индекс лиц" вырос с 3 миллиардов изображений до более чем 10 миллиардов, а ее система сбора данных теперь обрабатывает 1,5 миллиарда изображений в месяц.
Пока Clearview AI позиционируют свою технологию (и базу) как систему наблюдения, которая используется для арестов и уголовных расследований тысячами правоохранительных и государственных органов по всему миру.
Но компания хочет выйти за рамки сканирования лиц для полиции, заявив в презентации, что она может следить за работниками "гиг-экономики" и исследует ряд новых технологий, которые могут идентифицировать человека по его походке, определять его местоположение по фотографии или сканировать его отпечатки пальцев на расстоянии.
В переводе на язык метаверса и киберпанка - у ваших милых кожаных лиц в реальном мире уже сейчас есть полные копии в мире цифровом. Вы будете распознаны в любом месте и ваше местоположение в метаверсе будет обновлено с точностью до пикселя.
55-страничный “pitch deck”, о содержании которого ранее не сообщалось, раскрывает удивительные подробности того, как компания, чья работа и без того вызывает споры, позиционирует себя для крупного расширения, финансируемого в значительной степени за счет государственных контрактов и налогоплательщиков, за которыми будет следить система.
Я как-то приводил аналогию типа "Метаверс - это Госуслуги на максималках и ускорителях". С красивой визуальной оболочкой, обновляющейся в реальном времени.
Все к тому идет.
Продолжайте делать селфи, качество распознавания растет с каждой сделаной фотачкой.
https://www.washingtonpost.com/technology/2022/02/16/clearview-expansion-facial-recognition/
Продолжаем тему трушного метаверса, как постепенного (а не хайпового) слияния реального и цифрового миров.
Знаменитая компания Clearview AI, занимающаяся распознаванием лиц, сообщает инвесторам, что в течение года в ее базе данных будет 100 миллиардов(!) фотографий лиц, что позволит "идентифицировать почти каждого человека в мире".
В пересчете - это эквивалент 14 фотографий для каждого из 7 миллиардов человек на Земле.
Тут они конечно махнули - у некоторых людей есть только фотография в паспорте, но те, кто читает этот текст, явно имеют боле 14 фотографий себя любимо/го/ой, поэтому никаких проблем, чтобы распознать вас где угодно и когда угодно у ИИ не будет. Надо просто принять это как погоду и соответственно одеваться, то есть выбирать поведенческие стратегии в соответствии с этим знанием.
Компания заявила, что с начала 2020 года ее "индекс лиц" вырос с 3 миллиардов изображений до более чем 10 миллиардов, а ее система сбора данных теперь обрабатывает 1,5 миллиарда изображений в месяц.
Пока Clearview AI позиционируют свою технологию (и базу) как систему наблюдения, которая используется для арестов и уголовных расследований тысячами правоохранительных и государственных органов по всему миру.
Но компания хочет выйти за рамки сканирования лиц для полиции, заявив в презентации, что она может следить за работниками "гиг-экономики" и исследует ряд новых технологий, которые могут идентифицировать человека по его походке, определять его местоположение по фотографии или сканировать его отпечатки пальцев на расстоянии.
В переводе на язык метаверса и киберпанка - у ваших милых кожаных лиц в реальном мире уже сейчас есть полные копии в мире цифровом. Вы будете распознаны в любом месте и ваше местоположение в метаверсе будет обновлено с точностью до пикселя.
55-страничный “pitch deck”, о содержании которого ранее не сообщалось, раскрывает удивительные подробности того, как компания, чья работа и без того вызывает споры, позиционирует себя для крупного расширения, финансируемого в значительной степени за счет государственных контрактов и налогоплательщиков, за которыми будет следить система.
Я как-то приводил аналогию типа "Метаверс - это Госуслуги на максималках и ускорителях". С красивой визуальной оболочкой, обновляющейся в реальном времени.
Все к тому идет.
Продолжайте делать селфи, качество распознавания растет с каждой сделаной фотачкой.
https://www.washingtonpost.com/technology/2022/02/16/clearview-expansion-facial-recognition/
👍1