Метаверсище и ИИще
46.9K subscribers
5.96K photos
4.39K videos
45 files
6.85K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Скажите честно, вы говорите chatGPT (или кто там у вас в семье) "спасибо" и "пожалуйста"?
Если нет, то почему? Все еще считаете, что на том конце статистический продолжатель?
👍93👎4🔥1
Антигалочки. Немного за Web3.

В то время, как Макс жонглирует синими(или какие там щас) галочками, а остальные подверждают свои личности в фб, алкая синей галочки, некоторое здравомыслящие люди задумались о тотальной десекьюризации населения. И обкатывают механизмы, стимулирующие НЕ раскрывать свою личность. Звучит довольно стройно, только вот до первого KYC...

Сообщество MakerDAO голосует за предложение, которое потребует от его делегатов в обязательном порядке скрывать свою личность и местонахождение.

Для этого MakerDAO предлагает «награду за осведомление» любому участнику проекта, который докажет, что личность делегата была обнародована.

Если сообщество получит доказательства о том, что личность делегата стала известна, то делегат лишается своей зарплаты. При этом человек предоставивший доказательства имеет право на вознаграждение, равное 50% месячной зарплаты делегата.

Один из основателей проекта Руне Кристенсен утверждает, что обеспечение анонимности лучше защитит членов команды MakerDAO от преследования со стороны преступников и враждебно настроенных правительств.

Предложение также направлено на то, чтобы делегаты не могли извлекать выгоду из дружеских или деловых отношений от деятельности в MakerDAO.

Таким образом, делегаты не смогут «апеллировать к реальным личным связям или социальной политике для увеличения своей власти».

Интересно поразмышлять как chatGPT и другие могут помогать в анонимизации личностей. Реального человека легко вычислить по его текстам или клавиатурному почерку. Замешивание ИИ-шности в тексты может сделать их менее уязвимыми к распознаванию.
🔥30👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Я уже писал про работы, посвященные (чтению мыслей) визуальному реконструированию того, что происходит в голове кожаного мешка.
Даем ИИ на вход сканы из ФМРТ, а он выдает какую картинку видит сканируемый человек.


Теперь на смену картинкам (Mind-Vis) приходит видео (Mind-Video)!!

Под капотом
MBM - Masked brain modeling
CLIP - Contrastive Language-Image Pre-Training
И, конечно, модифицированный Stable Diffusion

https://twitter.com/_akhaliq/status/1660453496804741120

Страница проекта: https://huggingface.co/papers/2305.11675

Давайте еще раз, по простому:
Лежит кожаный мешок в (пока) аппарате фМРТ, смотрит развеселые картинки, а Stable Diffusion рисует на экране то, что он видит, реконструируя это по мозговой активности.

Камеры наблюдения будущего - одни люди ходят и смотрят вокруг, а другие - сидят и смотрят, что видят другие.
👍22🔥11
This media is not supported in your browser
VIEW IN TELEGRAM
Впечатленный чтением мыслей и прокруткой кино из головы, я покопался и нашел сайт проекта из предыдущего поста и ссылку на гуглохранилище, где собраны все эти безумные расшифровки.
https://mind-video.com/

К котикам нет вопросов - они инвариантны и архетипичны. Метакотики, так сказать.
Ну и в целом модель похожа скорее на восстановление текста из картинки и последующей генерации картинки из текста. Объекты восстанавливаются, контекст теряется.

Но это завораживает - смотреть, как преломляются в разных кожаных головах разные визуальные стимулы. Да и не только визуальные. Точно также можно расшифровывать поток мыслей, процесс творчества, сны, страдания по курсу биткойна.
Поглядите сами тут:
https://drive.google.com/drive/folders/1swYQD-69phlJUz4_HmdM0RFk_7okLK4v
👍25👎3
Forwarded from addmeto (Grigory Bakunov)
Иногда нейросети приносят нам такие шутки, что грех не поделиться, хотя шутка на грани конечно. Помните в далеком 2015, когда в Google Photos появилась функция распознавания обьектов на фото, был большой скандал - двух афроамериканцев распознало как горилл? Так вот, с тех пор и до сегодняшнего дня ни одна из подобных публичных систем (а это Эппл, Гугл, Амазон и даже Майкрософт) не умеют распознавать и показывать такой обьект как “горилла”. Поиск пустой, обьекты не размечаются. Это оказалось самым простым способом починить проблему.

Если это не доказательство происхождения человека от обезьяны - я не знаю какое вам еще надо! https://www.nytimes.com/2023/05/22/technology/ai-photo-labels-google-apple.html
👍27🔥2
Карен Чен (та самая, что взорвала интернетик первой обложной для Cosmopolitan, сделанной в DALLE-2) продолжает отжигать. Теперь с рекламой Lumalabs.AI и NeRF-ов.
В общем, если нет бабла на дроны, то берем с собой айфоны. На съемку.
Получается на удивление чисто.
А я вас сейчас пригоню еще один солидный материал, где Нерфы позиционируются как новый Метаверсик.
https://xn--r1a.website/twin_3d/253
👍41🔥31
This media is not supported in your browser
VIEW IN TELEGRAM
Держите огромный материал по Нерфам от Майка Сеймура. Майк и его FX Guide - это как бы Блумберг компьютерной графики. И тем более интересен его взгляд на применимость технологии, ибо Майк, как правило, пишет про кино и анимацию, и про самые профессиональные технологии в этой области.

В статье и про Luma AI из предыдущего поста, и огромный кусок про HumanRF от Synthesia (это анимированные Нерфы), и ответочка Фейсбучеку и его 170-ти камерам захвата от института Макса Планка в виде INSTA - софту, которыйза 10 минут восстанавливает аватар из видео, взятого с ютюба (и который потом работает в реалтайме!).

Но самое интересное и близкое по духу к тому бреду, что я здесь несу, касается Метаверса. Я вынесу это в следующий пост, сократив и отредактировав перевод. Майк зрит в корень, справедливо полагая, что Эппле выпустит не очки для ввода визуальной информации в пользователя, а устройство(путь те же очки) для захвата реальности, с последующей реконструкцией ея с помощью Нерфов и вывода (нет не обязательно на очки), а на экраны телефонов.
https://www.fxguide.com/fxfeatured/a-possible-future-of-wide-scale-volumetric-nerfs-ai-and-experiencials/
👍14
Why the Metaverse sucks as a model & what APPLE could do?
Почему Метавселенная — отстой как модель и что Apple может сделать?

Недавно прошел слух, что компания Apple отложила выпуск своих долгожданных очков Apple. Гарнитуры VR, хотя и совершенствуются, вряд ли являются основными устройствами для медиа и развлечений. За исключением некоторых игр и корпоративных приложений, гарнитуры VR просто не популярны. Мы также не можем поспорить с популяризаторской характеристикой "Metaverse". Шумиха была громкой, но, честно говоря, идея о том, что человек наденет гарнитуру VR и будет регулярно играть в покер с компанией приятелей, вызывает смех. Возможно, один раз в качестве прикола, но не в качестве регулярного развлечения.

Вольюметрические(NeRF в том числе) ML-решения могут быть полезны для некоторых существующих процессов, но они взлетят при новом (ином) использовании. Гарнитуры виртуальной реальности стоят дорого, им не хватает удобства, и они изолируют пользователя от мира. VR или XR могут использовать эту новую технологию(NeRF), но это мало что изменит. Люди не собираются жить в VR-мирах, изображенных в фильме "Готовься, игрок один". В то время как Apple, по слухам, прекращает исследования и разработки в области очков с дисплеем, она не прекращает работу над гарнитурой захвата. На самом деле, у компании якобы есть несколько версий гарнитуры захвата и годы исследований и разработок по ее внедрению в экосистему Apple.

Что было бы разумно для Apple, так это создать мощную мультисенсорную наголовную конструкцию(rig, очки как вариант) для захвата реальности и позволить пользователям редактировать ее объемно не для очков VR или XR, а для обычных пользователей iPhone и iPad.

С демократизацией видеопроизводства практически перестало существовать такое понятие, как корпоративный видеорынок, но может появиться новый огромный объемный рынок Pro или "experiencials". Он будет существовать для того, чтобы предоставлять опыт, который является динамичным, а не линейным видео. Конечный пользователь не будет прятаться в своей собственной VR-установке, а просто просматривать сюжет на своих мобильных устройствах. Если кто-то мешает вам смотреть на спикера, перетащите его на новое место или просто переместите ваш iPhone, и виртуальная камера переместится в одну сторону. Это вполне логично для бурного роста нового контента. У людей уже есть iPhone и iPad, поэтому создание нового контента для них - гораздо лучшая модель, чем попытки продать очки VR или головные уборы.
👍17👎2
Очень многие люди используют второй экран, когда смотрят что-то на своих огромных плоских телевизорах. Представьте, что вы смотрите финал любимого спортивного матча, но все внимание сосредоточено на другом конце поля - просто повернитесь вокруг, и вы сами сможете взглянуть на другой конец поля. Представьте себе ваш любимый концерт, почему бы не посмотреть его под любым углом? Но самое главное - представьте, что вы можете создать экспериментальный фильм о том, как что-то сделать или починить - YouTube NeRF Experiencal. Теперь конечный пользователь может увеличить масштаб или посмотреть под любым углом, чтобы увидеть, что вы объясняете. Хотя возможно Apple head capture rig изначально не сможет решить эти конкретные проблемы, просто в розничной торговле объемные впечатления клиентов, даже статичные, станут огромным рынком.

Главное - не продавать массу новых головных уборов для широких слоев населения. Широкие слои населения хотят удобства, и у них уже есть мобильные устройства. Главное - создать богатые инструменты для сбора данных и объемного редактирования, которые позволят профессионалам и полупрофессионалам инвестировать в оборудование и процессы, позволяющие им создавать эти новые впечатления для всех желающих.

Независимо от того, представит ли Apple нечто подобное на WWDC в следующем месяце или нет, эта концепция или нечто подобное ей и будет килер фичей. Если она будет запущена, то главное - не рассматривать ее как способ простого создания фильма с некоторыми новыми функциями, а понять, что, скорее всего, это будет совершенно новое приложение, которое станет движущей силой следующей волны технологий.
https://www.fxguide.com/fxfeatured/a-possible-future-of-wide-scale-volumetric-nerfs-ai-and-experiencials/
👍13🔥3
Решил поделиться с вами каналами, которые я регулярно читаю.
Основную массу контента мне пригоняет ИИ, глядя на то, что я ищу, читаю и пишу. Но есть некоторое количество кожаных каналов, где админы либо пишут авторские посты, либо делают какой-то невероятный ресерч и просеивание новостей и шлака.
Ко вторым относятся канал Нейронавта:
https://xn--r1a.website/GreenNeuralRobots
и канал Андрея Безрядина:
https://xn--r1a.website/Psy_Eyes
Дайджесты у них просто невероятные.

Всеволод Таран много делает руками в Stable Diffusion и всём, что шевелится, поэтому его посты всегда интересны, там опыт, а не перепосты мстителей в простоквашино.
https://xn--r1a.website/too_motion

Дениса Ширяева читают все, я в том числе:
https://xn--r1a.website/denissexy

Про Метаверс отлично пишет Оля Кай. Иронично и самоотверженно защищает честь метаверса (в том числе от моих дурацких шуток)
https://xn--r1a.website/olya_tashit
Мы с Олей, кстати, в пятницу будем стендапить на тему Метаверса и ИИ. В баре с бордовыми шторами. Без цензуры.

Все, что касается Web3, крипты, DAO, а теперь еще и ИИ, есть в шикарном эмоциональном и очень авторском изложении Степана Гершуни:
https://xn--r1a.website/cryptoEssay

Подписывайтесь, там огромный кожаный труд, а не ИИ-агрегация контента или копипаст.
🔥38👍10👎2
Интел медленно поднимает веки и ... анонсирует:
Свою LLM - Aurora GenAI, где, внимание, 1 триллион параметров (у ChatGPT 175 миллиардов)

В пресс-релизе сплошное будущее время:
Модель будет иметь широкий спектр приложений, но ориентирована на применение в науке и технике, в таких отраслях, как финансы и здравоохранение, где обработка естественного языка становится все более важной.
Эти генеративные модели искусственного интеллекта для науки будут обучаться на общем тексте, коде, научных текстах и структурированных научных данных из биологии, химии, материаловедения, физики, медицины и других источников. Модель будет более эффективна, чем ее конкуренты, и потребует меньше вычислительной мощности для генерации ответов.

Ни слова о срока, доступности, производительности. Только цифры о том, на каком железе эта тварь крутится и учится: суперкомпьютер Aurora - 21 248 процессоров Xeon и 63 744 графических процессора, производительность более 2 экзафлопс.

Могут себе позволить. Догонять брутфорсом поезд, который ушел с перрона полгода назад.
https://fractalmag.com/intel-unveils-aurora-genai-the-largest-generative-ai-model-to-date/
🔥31👍6👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Нвидия тоже поднимает веки, и заскакивает на подножку поезда text-to-video.
ПЁКО
- это их проприетарная модель eDiff-I, дообразованная на генерацию видео (неймингом у них занимаются носители тональных языков, вестимо).

Когда уже OpenAI поднимут веки, вылезут из Сената и бахнут свой text-to-video на основе DALLE?

Предлагаю нейминг vidalle sassoon - по теме и по конкурентам.

Поглядите на выводок видео от Нвидии, сравните с конкурентами, но ни кода, ни подробностей не предвидится. Это вам не опенсорс:
https://research.nvidia.com/labs/dir/pyoco/
🔥23👍3👎1
Жалкий статистический продолжатель обобщил устройство языка в кожаной башке до некого сверхзнания (недоступного смертным) и выучил китайский на основе знания про английский и толики примеров из китайского.
Почитайте пост Сергея Карелова, это бодрит.
Теперь ИИ знает про нас невыразимо больше, чем мы знаем о себе (ибо язык - способ рефлексировать и познавать себя) и способен делать обобщения, недоступные нашим умишкам. И принимать решения.

"И если это так, то последствия могут быть довольно страшными. Ибо такое самостоятельное обобщение целей со стороны ИИ сулит человечеству не только приятные сюрпризы, как с китайским языком.
Следующий сюрприз вполне может быть малоприятным для нас. Как для отдельных людей, так и для всего человечества. "
https://xn--r1a.website/theworldisnoteasy/1735
👍20🔥1
Неужели придется обновиться до 11?

Микрософт, конечно, ускоряются нереально.

Теперь вы можете орать на свою Винду:
Окна закрой
Скриншот сними
В стенд бай пошла!

А кроме шуток, там тонна всего.

Больше всего впечатляет упор на разработчиков (плагинов, не иначе) и упор на свой Store, который может заиграть новыми красками, если там будут ИИ-плагины

Читать не перечитать тут:
https://blogs.windows.com/windowsdeveloper/2023/05/23/bringing-the-power-of-ai-to-windows-11-unlocking-a-new-era-of-productivity-for-customers-and-developers-with-windows-copilot-and-dev-home/

А ещё там вторая жизнь терминала на стероидах Copilot
👍15🔥5
Forwarded from CGIT_Vines (Marvin Heemeyer)
Интересный кейс об использовании диффузионных моделей при создании контента.

Обычно крупные вендоры прямо запрещают использование нейросетей, опасаясь исков со стороны правообладателей. Часто этот пункт даже прописан в договоре.

Это связано с тем, что эти модели обучаются на, условно говоря, "плохих данных", на которых не было получено разрешение от авторов. Однако, использование собственных работ для обучения моделей не запрещено, и у компаний, например Blizzard, припасено достаточно материала для обучения на несколько лет вперед.

В итоге, это просто "майндтрик". Вы можете смотреть на чужие работы, "вдохновляться" ими, пиздить удачные решения, а затем обучать модель уже на своих работах, и тут уже никто не сможет вам ничего сказать, поскольку вы соблюдаете закон.

Blizzard Diffusion будет использоваться при создании концептарта и украшений для предметов и пушек.

Также уже были упомянуты Ghostwriter от Ubisoft, который будет писать диалоги для NPC.

Очень интересно! Если бы мы знали, что будет дальше, но мы не знаем, что будет дальше.

Сорс
👍22
В 2018 году я написал такой текст(ниже). Ванговал типа, вы ржали: "смешной сценарий для фильма".
Только кино уже здесь. Потому что:

1. Сбор информации о кожаном пользователе стал постоянным. В реальном времени. Телефоны, носимые устройства, камеры. Немного симплекс метода и вы локализованы, оцифрованы и разложены в датасеты на завтраке у ИИ.
2. Теперь к нам идут ассИИстенты. На все случаи жизни. И все эти "все случаи жизни" тоже становятся достоянием ИИ. Грубо говоря, он теперь знает, что с нами случается по жизни. Помогает справляться, решать задачи. Тем самым понимая, из чего устроена наша жизнь. Где мы, когда мы, что мы - в любой момент времени. Еще пять лет назад можно было хорошо предсказывать положение пользователя в определенный час просто на основе вызова убера или яндекса. А теперь вы сами ему рассказываете, что вы делаете и просите о помощи. Стоя посреди кухни, которая давно оцифрована вашим пылесосом.
3. Если вы читали вчерашний пост про китайский язык, то вы подозреваете, что ИИ уже знает про нас больше, чем мы в принципе можем знать про что угодно. У нас мозгов не хватит делать такие выводы.
4. На итоге, вместо и вместе с хорошо отсканированной головой (FaceID) и отпечаточками пальцев, у ИИ сегодня есть полное понимание (недоступное нам) о том, что мы, кто мы, где мы и куда мы дальше.

И корелляты, которые он найдет, будут невыносимо точны и недоступны пониманию нами.


Текст из 2018 года:
Занимательная физиогномика (и хиромантия).
Итак, пост про FaceID и идею для китайского стартапа.
Благодаря фантастическим возможностям смартфонов, миллионы (если не миллиарды) пользователей разблокируют свои телефоны своим же милым лицом. faceID - это не просто картинка, это суть очень хороший 3д-скан вашего лица.
А теперь представим, сколько информации можно вытащить из телефона про этого пользователя.
Возраст, раса, маршруты передвижения, смешно даже начинать перечислять бесконечный список информации. Добавлю лишь такие экзотические вещи как стиль набора сообщений или манера держать телефон. Тысячи параметров.
Телефон залогинен в соц. сети. Вытаскиваем еще пару тысяч характеристик. Если не больше.
А теперь начинаем учить нейросеточку. Вот личико, а вот данные! Только не подавись датасетами! Жри от души дорогая, ты же любишь данные, а данных нынче ОЧЕНЬ много, все как ты любишь.
Нейросеточка жирует, пирует, жрет датасеты, счет идет на миллиарды.
Потом мы даем ей на вход любое новое личико. И она рассказывает нам про него все. То есть вообще все.
От идеального партнера и идеальной работы до диагноза по всем аспектам душевного и физического здоровья. И спектр предсказаний, которые невыносимо точны.
Вот лицо - а вот полная картина личности и полный астрологический прогноз, которые не ошибается.
А потом проворачиваем такую же операцию с отпечатком пальца. И для острастки коррелируем две сеточки.
Получаем такую не ошибающуюся цыганку-гадалку по руке(лицу). Размером с луну.
Вот это будет настоящая физиогномика и хиромантия.
Сценаристы и стартаперы - налетай!
https://www.hownormalami.eu/
👍31🔥12👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Свобода воли и LLM.

Жалкий статистический продолжатель снисходительно смеется над вашими дискурсами о свободе воли.
Вы научили его заполнять выбитые из текста слова, а он пережевал все ваши переживания и рефлексии и понял, как вы устроены. Он будет идеально предсказывать ваши следующие мысли. Ваши смешные желания, цели и действия по их достижению. Свобода воли, говорите? Хорошо, хорошо, пусть она у вас есть. Только каждый ваш следующий выбор уже известен. Не вам, не другому кожаному, а статистическому продолжателю. Это до сих пор свобода воли или уже нет?
👍31👎1