This media is not supported in your browser
VIEW IN TELEGRAM
У меня всегда вызывали интерес тестовые полигоны для тестирования функций ИИ.
Ниже пример такого полигона, AI warehouse, где AI по имени Albert учится ходить превозмогая изощрённые попытки его унизить.
При чем обычно учат ходьбе либо по данным мокапа либо учат подражать ходьбе, в этом рисере все по честному, после каждой попытки сетка енестраиватся учитывая успешные и неуспешные попытки.
Интересно сравнить сколько итераций человеческий мозг и искусственный проходят пока не научатся двигать двумя мясными отростками.
Спойлер, в конце он научился убивать и ходить!
Сорс
Ниже пример такого полигона, AI warehouse, где AI по имени Albert учится ходить превозмогая изощрённые попытки его унизить.
При чем обычно учат ходьбе либо по данным мокапа либо учат подражать ходьбе, в этом рисере все по честному, после каждой попытки сетка енестраиватся учитывая успешные и неуспешные попытки.
Интересно сравнить сколько итераций человеческий мозг и искусственный проходят пока не научатся двигать двумя мясными отростками.
Сорс
🔥26👍5❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Обожаю период "дикого Запада" в технологиях, когда законодательные акты еще не подписаны и тестировать можно почти все, что угодно. Подобное было с MSQRD, пока его не выкупили, и можно было безнаказанно делать блекфейс с Обэмой.
Roop-cam можно прикрутить расширением к SD. Также можно запустить в реальном времени через вэбку. Очень хочу потестить на своих стримах.
Ну и nsfw при таком подходе, конечно, никто не отменял. Только Эдуарда Хиля не используйте, хотя кому я об этом говорю.
Гит тут
Roop-cam можно прикрутить расширением к SD. Также можно запустить в реальном времени через вэбку. Очень хочу потестить на своих стримах.
Ну и nsfw при таком подходе, конечно, никто не отменял. Только Эдуарда Хиля не используйте, хотя кому я об этом говорю.
Гит тут
👍13😁4😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Тут рассказывают, насколько крут Code Interpreter в ChatGPT. Как теперь выглядит суперказуальный геймдев и как быстро можно собрать демку, буквально на коленке у ИИ в течение 5 минут.
И так:
1. Пишем промпт: "write p5.js code for Asteroids where you control a spaceship with the mouse and shoot asteroids with the left click of the mouse. If your spaceship collides with an asteroid, you lose. If you shoot down all asteroids, you win! I want to use my own textures for the spaceship and for asteroids."
2. Идем на сайт Openprocessing, создаем скетч, сохраняем. Это нужно, чтобы загрузить текстурки. Копируем код из ChatGPT-4.
3. Генерируем текстурки, удаляем фон, например, в Clip Drop.
4. Заменяем имена текстур своими именами.
5. Запускаем.
6. Если что-то не работает, спрашиваем GPT-4, чтобы он исправил. Можно скопировать ошибку и попросить исправить.
7. Чтобы лучше понять, что происходит в коде, можно попросить чат объяснить, что означает конкретная функция, как объяснить 10-летнему ребенку.
И вот что получается в итоге!
Не понятно, чего там 6 лет GTA5 разрабатывали.🤡
И так:
1. Пишем промпт: "write p5.js code for Asteroids where you control a spaceship with the mouse and shoot asteroids with the left click of the mouse. If your spaceship collides with an asteroid, you lose. If you shoot down all asteroids, you win! I want to use my own textures for the spaceship and for asteroids."
2. Идем на сайт Openprocessing, создаем скетч, сохраняем. Это нужно, чтобы загрузить текстурки. Копируем код из ChatGPT-4.
3. Генерируем текстурки, удаляем фон, например, в Clip Drop.
4. Заменяем имена текстур своими именами.
5. Запускаем.
6. Если что-то не работает, спрашиваем GPT-4, чтобы он исправил. Можно скопировать ошибку и попросить исправить.
7. Чтобы лучше понять, что происходит в коде, можно попросить чат объяснить, что означает конкретная функция, как объяснить 10-летнему ребенку.
И вот что получается в итоге!
Не понятно, чего там 6 лет GTA5 разрабатывали.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👾7🤡6👍3😱3❤2💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Ничего реалистичнее я пока не видел: Metahuman + 4090 и захват лица.
Как скоро мы окажемся в мирах, неотличимых от реальности? Компьютерной графике что-то около 30 лет. Где мы будем еще через 30?
Нужны ли нам будут рядом люди? Будем ли мы идти на компромиссы? Если рядом всегда будет понимающий, любящий, сочувствующий и, самое главное, более умный, чем мы, персональный ассистент, закроет ли он социальную необходимость в контактах между людьми?
Я бы сказал, что да.
Full source
Как скоро мы окажемся в мирах, неотличимых от реальности? Компьютерной графике что-то около 30 лет. Где мы будем еще через 30?
Нужны ли нам будут рядом люди? Будем ли мы идти на компромиссы? Если рядом всегда будет понимающий, любящий, сочувствующий и, самое главное, более умный, чем мы, персональный ассистент, закроет ли он социальную необходимость в контактах между людьми?
Я бы сказал, что да.
Full source
💯36❤6👍4🔥3🤡3👏1😁1
Forwarded from Neural Shit
Новый Кандинский прям огонь, разработчикам великий респект (особенно за открытые исходники и веса модельки в публичном доступе)
Вспоминая какого качества картинки генерировала эта моделька в первых версиях и сравнивая с тем, что имеем сейчас, можно охуеть со скорости эволюции модели (это, впринципе, касается всех нейронок)
Вспоминая какого качества картинки генерировала эта моделька в первых версиях и сравнивая с тем, что имеем сейчас, можно охуеть со скорости эволюции модели (это, впринципе, касается всех нейронок)
Telegram
AbstractDL
Kandinsky 2.2
Благодаря более крупному картиночному энкодеру (CLIP-ViT-G) у нас получилось сильно забустить как качество генерации изображений, так и понимание текста. Веса и код уже в открытом доступе!
Хабр, colab, бот, сайт
Благодаря более крупному картиночному энкодеру (CLIP-ViT-G) у нас получилось сильно забустить как качество генерации изображений, так и понимание текста. Веса и код уже в открытом доступе!
Хабр, colab, бот, сайт
👍17🔥3❤2🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
Нестандартный подход к производству контента.
Берем любой подручный предмет и придумываем, как сделать из него что-то полезное, юзабельное и нестандартное.
Скан через Polycam3d, и дальше красоту наводим в UE5.
Be smart, be creative!
Подробнее об этом в следующем вайне.
Сорс
Берем любой подручный предмет и придумываем, как сделать из него что-то полезное, юзабельное и нестандартное.
Скан через Polycam3d, и дальше красоту наводим в UE5.
Be smart, be creative!
Подробнее об этом в следующем вайне.
Сорс
❤30🔥13😐8😁3🤔1💩1
This media is not supported in your browser
VIEW IN TELEGRAM
Раньше 99% людей занимались сельским хозяйством, возделывали землю и кормили себя этим. Потом произошла революция в производстве пестицидов и способе сбора и выращивания еды, все эти крестьяне перебрались в сферу услуг, встали за кассы, открыли кофейни, настроили логистические цепочки и управляли ими.
Так же крестьяне встали перед станками и производили машины, до тех пор пока робототехника не заставила их перейти в сферу услуг. Крестьяне надели костюмы, стали продавать трактора, автомобили, кредиты, делать маркетинг, упаковку, привет всем любителям моушена и графдизам и предоставлять услуги.
Сейчас, будь то художник, программист и т.д., мы делаем многое своими крестьянскими руками.
Но как я стараюсь тут показывать, вот так, по щелчку пальцами мы тоже перейдем в сферу услуг, потому что крестьяне (креативный класс🤡 ) больше не будут возделывать поля контента, для этого есть алгоритмы.
Мораль?
Так же крестьяне встали перед станками и производили машины, до тех пор пока робототехника не заставила их перейти в сферу услуг. Крестьяне надели костюмы, стали продавать трактора, автомобили, кредиты, делать маркетинг, упаковку, привет всем любителям моушена и графдизам и предоставлять услуги.
Сейчас, будь то художник, программист и т.д., мы делаем многое своими крестьянскими руками.
Но как я стараюсь тут показывать, вот так, по щелчку пальцами мы тоже перейдем в сферу услуг, потому что крестьяне (креативный класс
Мораль?
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡25🔥8👏6👍3👎2🤔2🎉2🙈1
This media is not supported in your browser
VIEW IN TELEGRAM
В мире происходит что-то странное. Второй день подряд разлетаются видео со странными NPC-стримерами. Что это за дичь, сейчас вам расскажу.
Эмодзи, что они ловят, покупаются за реальные деньги зрителями на платформе TikTok.
Это самые дешевая форма подарков, а стримеры, когда их ловят, озвучивают то, что поймали.
Это все, что происходит на стримах. Похоже, это стало отдельным форматом. Надеюсь, не на долго. Еще одного разочарования в человечестве я не переживу. При этом онлайн таких стримов под 40к.
Пойманные подарки можно конвертировать в гемы, и их уже конвертируют в фиат. Так и зарабатывают.
Есть в этом что-то ужасное и завораживающее одновременно.
Предупреждаю, со слабой психикой не смотреть!
Эмодзи, что они ловят, покупаются за реальные деньги зрителями на платформе TikTok.
Это самые дешевая форма подарков, а стримеры, когда их ловят, озвучивают то, что поймали.
Это все, что происходит на стримах. Похоже, это стало отдельным форматом. Надеюсь, не на долго. Еще одного разочарования в человечестве я не переживу. При этом онлайн таких стримов под 40к.
Пойманные подарки можно конвертировать в гемы, и их уже конвертируют в фиат. Так и зарабатывают.
Есть в этом что-то ужасное и завораживающее одновременно.
🤡32🤮14🤯8❤5👍5🥱5😢4🔥3🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
Очень интересная концепция генеративных интерфейсов появилась в результате эксперимента с SD.
Несомненно, сейчас происходит трансформация привычного метода взаимодействия с интерфейсом. Везде начали появляться эти поля для ввода промптов, становясь чуть ли не центральным компонентом в продукте.
В итоге было создано двухмерное пространство, внутри которого формируется пользовательский интерфейс привычного рабочего стола.
Самое интересное, что координаты курсора мыши передаются в SD. Далее, через ControlNet, генерируется корректное отображение курсора на сгенерированном рабочем столе.
Сам по себе тест ничего координатно не меняет, кроме идеи самого подхода взаимодействия с компьютерными системами, устоявшегося более 50 лет назад.
Я чуть подробнее напишу в следующем посте.
Тут про тест подробнее
Несомненно, сейчас происходит трансформация привычного метода взаимодействия с интерфейсом. Везде начали появляться эти поля для ввода промптов, становясь чуть ли не центральным компонентом в продукте.
В итоге было создано двухмерное пространство, внутри которого формируется пользовательский интерфейс привычного рабочего стола.
Самое интересное, что координаты курсора мыши передаются в SD. Далее, через ControlNet, генерируется корректное отображение курсора на сгенерированном рабочем столе.
Сам по себе тест ничего координатно не меняет, кроме идеи самого подхода взаимодействия с компьютерными системами, устоявшегося более 50 лет назад.
Я чуть подробнее напишу в следующем посте.
Тут про тест подробнее
🔥10👍3🤡3🤔2❤1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Мозги вскипели от мысли о том, что мы можем полностью перестроить свое взаимодействие с компьютерами. На смену привычным оболочкам программных продуктов придут генеративные нейронные среды.
Мы не будем работать в какой-то отдельной программе, это будет кисель из функций, необходимых в данный момент. Главный момент: это бесшовное, персонализированное взаимодействие с набором алгоритмов.
Давайте на примере 3D-продакшена. Какую из почек вы бы отдали, если бы вам не приходилось откатываться на предыдущие этапы, когда на этапе текстурирования вы хотите изменить блокаут немного? Или вам не пришлось бы запускать RizomUV с промежуточной выгрузкой fbx туда и обратно, чтобы развернуть модель?
А в правом верхнем углу у вас висел бы счетчик с временными затратами на этот этап и подсказки для наиболее успешного завершения задачи. Потому что надсистема уже знает, что вы будете делать, и она персонифицирована вами и под вас.
Генерация определенного воркфлоу будет происходить в зависимости от вашей задачи.
Без перехода в какую-либо программу, замкнутую систему. Полагаю, в мозгу происходит примерно так же. Поправьте, если ошибаюсь.
Сейчас мы получаем, по сути, универсальную надстройку в виде текстовой строки для управления нейронными сетями, и эта строка интегрируется во все продукты, хотя исток у нее один.
Я хочу, чтобы у нас ломались мозги, в хорошем смысле, чтобы привычные схемы и устои уходили в прошлое, а новые подходы и способы взаимодействия меняли наше восприятие.
В общем, подстраивающиеся системы управления – это то, куда мы стремимся и придем рано или поздно.
Мы не будем работать в какой-то отдельной программе, это будет кисель из функций, необходимых в данный момент. Главный момент: это бесшовное, персонализированное взаимодействие с набором алгоритмов.
Давайте на примере 3D-продакшена. Какую из почек вы бы отдали, если бы вам не приходилось откатываться на предыдущие этапы, когда на этапе текстурирования вы хотите изменить блокаут немного? Или вам не пришлось бы запускать RizomUV с промежуточной выгрузкой fbx туда и обратно, чтобы развернуть модель?
А в правом верхнем углу у вас висел бы счетчик с временными затратами на этот этап и подсказки для наиболее успешного завершения задачи. Потому что надсистема уже знает, что вы будете делать, и она персонифицирована вами и под вас.
Генерация определенного воркфлоу будет происходить в зависимости от вашей задачи.
Без перехода в какую-либо программу, замкнутую систему. Полагаю, в мозгу происходит примерно так же. Поправьте, если ошибаюсь.
Сейчас мы получаем, по сути, универсальную надстройку в виде текстовой строки для управления нейронными сетями, и эта строка интегрируется во все продукты, хотя исток у нее один.
Я хочу, чтобы у нас ломались мозги, в хорошем смысле, чтобы привычные схемы и устои уходили в прошлое, а новые подходы и способы взаимодействия меняли наше восприятие.
В общем, подстраивающиеся системы управления – это то, куда мы стремимся и придем рано или поздно.
🤔21👍12❤7🔥6🤡3
The Creator - новый фильм о противостоянии человека искусственному интеллекту.
Вроде как и должно смотреться прикольно, и роботы есть, и ИИ, который должен уничтожить всё человечество, но прям чуть ли не в каждом кадре клишированность и sci-fi какой-то супердефолтный.
И человечество встает бок о бок с "хорошим" ИИ и борются за светлое будущее.
Для меня, прямо по трейлеру, отдало какой-то консервой.
Может, это просто проф. деформация уже?
https://youtu.be/ex3C1-5Dhb8
Вроде как и должно смотреться прикольно, и роботы есть, и ИИ, который должен уничтожить всё человечество, но прям чуть ли не в каждом кадре клишированность и sci-fi какой-то супердефолтный.
И человечество встает бок о бок с "хорошим" ИИ и борются за светлое будущее.
Для меня, прямо по трейлеру, отдало какой-то консервой.
Может, это просто проф. деформация уже?
https://youtu.be/ex3C1-5Dhb8
YouTube
The Creator | Official Trailer
Prepare to meet... The Creator.
Watch the brand-new trailer for #TheCreator and experience the motion picture event only in theaters September 29.
Watch the brand-new trailer for #TheCreator and experience the motion picture event only in theaters September 29.
😁3🤡2❤1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Итак, опять нейронки.
Кто же знал, что вся наша проф. деятельность будет настолько сильно трансформирована новым типом алгоритмов?
Interactive Neural Video Editing - решение для редактирования видео в реальном времени.
Рад, на самом деле, за композеров и AEшеров!
Я, когда говорю, что вся эта фиктивная деятельность по нажиманию кнопочек в софте - это не человеческое занятие, имея в виду именно то, что это не достойно звания человека, тонкой настройкой должен заниматься компьютер. Человек должен отвечать за творческий подход и новые идеи.
Кто был против, поднимите, пожалуйста, руки. Перед такой потенциальной перспективой автоматизации хотите и дальше заниматься ротоскопом и трекингом? Хотите продолжать покадрово замазывать тросы и козявки в носу? Что вы отстаиваете, зачем охраняете свое болото?
В конце ролика просто закройте глаза, чтобы не видеть финальный результат "творчества"⛔️
Читать тут
Кто же знал, что вся наша проф. деятельность будет настолько сильно трансформирована новым типом алгоритмов?
Interactive Neural Video Editing - решение для редактирования видео в реальном времени.
Рад, на самом деле, за композеров и AEшеров!
Я, когда говорю, что вся эта фиктивная деятельность по нажиманию кнопочек в софте - это не человеческое занятие, имея в виду именно то, что это не достойно звания человека, тонкой настройкой должен заниматься компьютер. Человек должен отвечать за творческий подход и новые идеи.
Кто был против, поднимите, пожалуйста, руки. Перед такой потенциальной перспективой автоматизации хотите и дальше заниматься ротоскопом и трекингом? Хотите продолжать покадрово замазывать тросы и козявки в носу? Что вы отстаиваете, зачем охраняете свое болото?
В конце ролика просто закройте глаза, чтобы не видеть финальный результат "творчества"
Читать тут
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29❤6🤡3👍2😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Иногда попадаются чудеснейшие концепты интерактивного взаимодействия с AR.
Все гениальное просто. Детские площадки созданы для этого.
Горки и лабиринты превращаются в космическую станцию, найденная кривая палка в бластер. Бегай, собирай паверапы, кооперируйся с друзьями, отстреливай бларгусов.
К сожалению, пока доступное по деньгам и удобное по формфактору устройство не появится, не видать нам таких эспириенсов.
В создании участвовали: LumaLabsAI, StabilityAI, nijijourney, BlockadeLabs, unity, questpro, blender, arkit.
Все гениальное просто. Детские площадки созданы для этого.
Горки и лабиринты превращаются в космическую станцию, найденная кривая палка в бластер. Бегай, собирай паверапы, кооперируйся с друзьями, отстреливай бларгусов.
К сожалению, пока доступное по деньгам и удобное по формфактору устройство не появится, не видать нам таких эспириенсов.
В создании участвовали: LumaLabsAI, StabilityAI, nijijourney, BlockadeLabs, unity, questpro, blender, arkit.
🔥36
This media is not supported in your browser
VIEW IN TELEGRAM
Я просто хочу убедиться, что мы все сделали себе историческую заметочку, когда делать и смотреть генеративные трейлеры к только что вышедшим фильмам для нас стало привычным явлением.
Как в свое время Мэрилин Мэнсон, Сид Спирс на полочку поставили "Barbenheimer".
Как в свое время Мэрилин Мэнсон, Сид Спирс на полочку поставили "Barbenheimer".
❤14🔥8👍5
Forwarded from Neural Shit
Media is too big
VIEW IN TELEGRAM
Гляньте какая крутотень. Чувак с реддита в одно рыло пилит в VR процедурно генерируемый город, в котором можно зайти в любое из зданий.
Именно так должно выглядеть окружение в метавселенных, а не мыльная хуита, которую нам сделал рептилоид Цукерберг
Тред на реддите
Именно так должно выглядеть окружение в метавселенных, а не мыльная хуита, которую нам сделал рептилоид Цукерберг
Тред на реддите
🔥65👎4🌚2❤1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Как вспомнил, что раньше тетрадки в клеточку были моими лучшими вдохновителями воображения.
Можно было целый урок пропустить, только чтобы закончить рисунок.
Можно было целый урок пропустить, только чтобы закончить рисунок.
🔥120❤🔥12❤5👏3🦄2
This media is not supported in your browser
VIEW IN TELEGRAM
Пару часов назад дропнули Stable Diffusion XL 1.0.
Если коротко, то "Easier, Better, Bigger".
Так пишут про нее Stability.ai
"SDXL 1.0 has one of the largest parameter counts of any open access image model, boasting a 3.5B parameter base model and a 6.6B parameter model ensemble pipeline. The refiner adds more accurate color, higher contrast, and finer details to the output of the base model."
Попробовать можно тут:
https://dreamstudio.ai/generate
и тут
https://clipdrop.co/stable-diffusion
UPD. Модель забрать можно тут
Если коротко, то "Easier, Better, Bigger".
Так пишут про нее Stability.ai
"SDXL 1.0 has one of the largest parameter counts of any open access image model, boasting a 3.5B parameter base model and a 6.6B parameter model ensemble pipeline. The refiner adds more accurate color, higher contrast, and finer details to the output of the base model."
Попробовать можно тут:
https://dreamstudio.ai/generate
и тут
https://clipdrop.co/stable-diffusion
UPD. Модель забрать можно тут
🔥18🤮1
This media is not supported in your browser
VIEW IN TELEGRAM
Художник Tomi Viitanen показал, как с помощью Houdini, Blender, Mixamo создать что-то подобное для своего портфеля. Обещаю, не одной нейронки использовано не было.
Замечаю, что низкобюджетная графика все еще жестит с постпроцессом, стараясь скрыть либо косяки на рендере, либо в целом не очень хорошую проработку. Не надо так, делайте хорошо!
Сорс
Замечаю, что низкобюджетная графика все еще жестит с постпроцессом, стараясь скрыть либо косяки на рендере, либо в целом не очень хорошую проработку. Не надо так, делайте хорошо!
Сорс
❤18👍5🔥4👎3
This media is not supported in your browser
VIEW IN TELEGRAM
Пока Nvidia готовит выступление на ближайшем SIGGRAPH по поводу нейронной компрессии, я вот что имею вам сказать.
Без сомнения, последнее время развитие в графике происходит не в чем-то принципиально новом, как когда-то в Doom3 придумали использовать нормали, а скорее в улучшении того, что уже было придумано, но на более низком уровне.
Если посмотреть на последние знаковые игры, которые используют быстрые SSD, например Ratchet & Clank Rift apart, то можно восхититься, если знать, как быстро там подгружаются данные при переходах между уровнями и какое количество FX и событий там удерживается на экране. Или те же наниты, по сути это трюки с геометрией, все той же полигональной.
Вот и у Nvidia трюк с теми же текстурами, принципиально они не меняются, но количество данных, которые они смогут содержать в себе при том же размере файла, подгружаемого в память, а иногда и меньше, просто поражает! Но это только с одной стороны.
Да, все будет выглядеть суперчетко, как в порно в 60fps и разрешении 4к, но стал ли такой формат популярен? У некоторых определенно да...больные ублюдки .
С другой стороны, дорогие художники, вы охуеете, все это текстурить! Теперь будут задрачивать так, что вы еще больше "полюбите" геймдев! Если раньше можно было сказать, у нас тексель не вывозит или в игре все равно пожмется даже на хайспеках, то сейчас это не прокатит, будьте добры, чтобы каждый пиксель звенел! И не важно, что это сессионый шутан, где все должно летать даже на пентиум 2. Потому что теперь то, что выглядело мылом и весило 3мб, сейчас весит столько же, а то и меньше, и видно каждую травинку.
В общем, просто потребителям ура, создателям контента лингам вам в руки!
Сорс
Без сомнения, последнее время развитие в графике происходит не в чем-то принципиально новом, как когда-то в Doom3 придумали использовать нормали, а скорее в улучшении того, что уже было придумано, но на более низком уровне.
Если посмотреть на последние знаковые игры, которые используют быстрые SSD, например Ratchet & Clank Rift apart, то можно восхититься, если знать, как быстро там подгружаются данные при переходах между уровнями и какое количество FX и событий там удерживается на экране. Или те же наниты, по сути это трюки с геометрией, все той же полигональной.
Вот и у Nvidia трюк с теми же текстурами, принципиально они не меняются, но количество данных, которые они смогут содержать в себе при том же размере файла, подгружаемого в память, а иногда и меньше, просто поражает! Но это только с одной стороны.
Да, все будет выглядеть суперчетко, как в порно в 60fps и разрешении 4к, но стал ли такой формат популярен? У некоторых определенно да...
С другой стороны, дорогие художники, вы охуеете, все это текстурить! Теперь будут задрачивать так, что вы еще больше "полюбите" геймдев! Если раньше можно было сказать, у нас тексель не вывозит или в игре все равно пожмется даже на хайспеках, то сейчас это не прокатит, будьте добры, чтобы каждый пиксель звенел! И не важно, что это сессионый шутан, где все должно летать даже на пентиум 2. Потому что теперь то, что выглядело мылом и весило 3мб, сейчас весит столько же, а то и меньше, и видно каждую травинку.
В общем, просто потребителям ура, создателям контента лингам вам в руки!
Сорс
🔥19👍8❤6😁5
This media is not supported in your browser
VIEW IN TELEGRAM
На следующей неделе на SIGGRAPH2023 подробно расскажут об исследовании и тестах в рендеринге волос.
А точнее, о новом методе просчета с учетом прямой дифракции и фактуры волос со всеми их чешуйками и корректным рассеиванием света.
Тут не говорят о риалтайме, хотя просчет и велся на GPU. Это скорее для тяжелых продакшен решений и в целом о подходе, хаках и логике.
Тут подробнее
А точнее, о новом методе просчета с учетом прямой дифракции и фактуры волос со всеми их чешуйками и корректным рассеиванием света.
Тут не говорят о риалтайме, хотя просчет и велся на GPU. Это скорее для тяжелых продакшен решений и в целом о подходе, хаках и логике.
Тут подробнее
👍12🔥6🤯4🤔1😱1💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Последние несколько дней форсятся новости о сверхпроводниках LK 99, и это прям очень интересная новость. Несмотря на то, что исследование пока не подтвердили авторитетные лаборатории.
Итак: в корейской лаборатории создали сверхпроводник, который может работать при комнатной температуре и атмосферном давлении.
Пока все, что есть, это очень маленький кусочек вещества, которое левитирует без специальных лабораторных условий.
Я коротко перечислю, какие области могут апнуться из-за этого открытия.
ЛЭП - более эффективные, из-за того, что будет происходить меньше утечек.
Все, что может перемещаться при пониженном трении, например, поезда на магнитной подушке.
Потенциально более эффективные батареи, соответственно, электрокары и любые устройства от мобилок до кардиостимуляторов.
Удешевление больничных МРТ и Термоядерных реакторов.
Гаусс-пушки.
И конечно, дайте нам ховерборд!!!
Кстати, пару лет назад хайпили ховерборд, но он работал как раз на классических сверхпроводниках, сильно охлажденный, и сама рампа, по которой он ездил, была магнитной, а сейчас может быть по-настоящему, если испытания подтвердятся.
Самостоятельно можете почитать тут и тут
Итак: в корейской лаборатории создали сверхпроводник, который может работать при комнатной температуре и атмосферном давлении.
Пока все, что есть, это очень маленький кусочек вещества, которое левитирует без специальных лабораторных условий.
Я коротко перечислю, какие области могут апнуться из-за этого открытия.
ЛЭП - более эффективные, из-за того, что будет происходить меньше утечек.
Все, что может перемещаться при пониженном трении, например, поезда на магнитной подушке.
Потенциально более эффективные батареи, соответственно, электрокары и любые устройства от мобилок до кардиостимуляторов.
Удешевление больничных МРТ и Термоядерных реакторов.
Гаусс-пушки.
И конечно, дайте нам ховерборд!!!
Кстати, пару лет назад хайпили ховерборд, но он работал как раз на классических сверхпроводниках, сильно охлажденный, и сама рампа, по которой он ездил, была магнитной, а сейчас может быть по-настоящему, если испытания подтвердятся.
Самостоятельно можете почитать тут и тут
🔥29❤2🤡2🤨1