Ну и снова за ИИ и подсказки.
Я уже писал некоторое время назад про этот проект по автогенерации (точнее, по автодополнению) запросов к Midjourney.
Но если почитать подробнее их описание, то можно найти любопытные детали и идеи для стартапа (куда ж без них).
Итак, пара чуваков, Iulia Turc and Gaurav Nemade, ушли из Google Research и сделали свой проект succinctly.ai
Они взяли и скачали (заскрапили) около 250 000 картинок и текстовых подсказок в Дискорде, из которых были сделаны эти картинки.
И сделали датасет. Картинка, промпт. Описание по ссылке.
248k user-generated prompts and their associated generated images, out of which:
60% are requests for new images (initial or variation requests for a previously-generated image)
40% are requests for upscaling previously-generated images.
Скажите мне, кто-то уже пилит reverse engineering нейросеть, которой скормили все эти данные, а потом просят по любой картинке сгенерить подсказку, с помощью которой Midjourney сгенерил бы что-то похожее?
Этакий референс на стероидах. Вот картинка - сделай похожее, только новое, пропущенное через латентное пространство. Много. Сейчас.
Все как у кожаных заказчиков и исполнителей.
https://www.kaggle.com/datasets/succinctlyai/midjourney-texttoimage
Я уже писал некоторое время назад про этот проект по автогенерации (точнее, по автодополнению) запросов к Midjourney.
Но если почитать подробнее их описание, то можно найти любопытные детали и идеи для стартапа (куда ж без них).
Итак, пара чуваков, Iulia Turc and Gaurav Nemade, ушли из Google Research и сделали свой проект succinctly.ai
Они взяли и скачали (заскрапили) около 250 000 картинок и текстовых подсказок в Дискорде, из которых были сделаны эти картинки.
И сделали датасет. Картинка, промпт. Описание по ссылке.
248k user-generated prompts and their associated generated images, out of which:
60% are requests for new images (initial or variation requests for a previously-generated image)
40% are requests for upscaling previously-generated images.
Скажите мне, кто-то уже пилит reverse engineering нейросеть, которой скормили все эти данные, а потом просят по любой картинке сгенерить подсказку, с помощью которой Midjourney сгенерил бы что-то похожее?
Этакий референс на стероидах. Вот картинка - сделай похожее, только новое, пропущенное через латентное пространство. Много. Сейчас.
Все как у кожаных заказчиков и исполнителей.
https://www.kaggle.com/datasets/succinctlyai/midjourney-texttoimage
👍8
Промптогенераторы множатся, как фракталы после N=8.
Держите web-версию.
Это уже не гугльшит и палки, все по красоте, на стиле и по моде.
Хошь Stable diffusion, хошь Midjourney.
https://promptomania.com
Держите web-версию.
Это уже не гугльшит и палки, все по красоте, на стиле и по моде.
Хошь Stable diffusion, хошь Midjourney.
https://promptomania.com
👍8
Сейчас, конечно, все(включая меня) свихнулись на генерации картинок.
Немного разбавим визуальную истерику аудиальным вайбом.
Вот бот, который озвучивает все ваши текстовые вводы оригинальными голосами героев Warcraft.
Ребята из Silero сделали шикарного бота:
"Всем известно, что Blizzard сделали с Warcraft-ом и его божественной оригинальной озвучкой.
Поэтому мы сделали бота в телеге, которым можно озвучивать любые фразы голосом своего любимого персонажа из Warcraft 3!
Чтобы сделать свою озвучку нужно зайти в бота по ссылке, выбрать персонажа и ввести текст. И все, озвучка готова!"
Теперь вы можете делать клипы-презентации, озвучивая все ваши безумные генерации не менее безумными голосами.
• Бот
• Авторы
Немного разбавим визуальную истерику аудиальным вайбом.
Вот бот, который озвучивает все ваши текстовые вводы оригинальными голосами героев Warcraft.
Ребята из Silero сделали шикарного бота:
"Всем известно, что Blizzard сделали с Warcraft-ом и его божественной оригинальной озвучкой.
Поэтому мы сделали бота в телеге, которым можно озвучивать любые фразы голосом своего любимого персонажа из Warcraft 3!
Чтобы сделать свою озвучку нужно зайти в бота по ссылке, выбрать персонажа и ввести текст. И все, озвучка готова!"
Теперь вы можете делать клипы-презентации, озвучивая все ваши безумные генерации не менее безумными голосами.
• Бот
• Авторы
🔥20👍3
Довыпивался, не чокаясь. 🥃
После выхода stable diffusion(и моих бесконечных т/п/остов) художники не выдержали. Крышу сорвало напрочь.
Вчера досмотрел новый фильм "Элвис" - там пытались запретить Элвису двигать бедрами, потому что это плохо воздействует на зрителей.
Теперь пытаются запретить stable diffusion по той же причине. Более того, некоторые даже сравнивают нейросетку с ядерной войной. В твитторе шквал петиций, заявлений о том, как это мерзко и криков "оно нас всех уничтожит!".
А теперь вспомним, где теперь запрещатели и где Элвис.
Про stable diffusion готовлю большой материал.
А пока почитайте в красках о том, как бомбит художников повсей планете тут:
https://xn--r1a.website/mishin_learning/1299
Отлично написано, лучше не скажешь.
После выхода stable diffusion
Вчера досмотрел новый фильм "Элвис" - там пытались запретить Элвису двигать бедрами, потому что это плохо воздействует на зрителей.
Теперь пытаются запретить stable diffusion по той же причине. Более того, некоторые даже сравнивают нейросетку с ядерной войной. В твитторе шквал петиций, заявлений о том, как это мерзко и криков "оно нас всех уничтожит!".
А теперь вспомним, где теперь запрещатели и где Элвис.
Про stable diffusion готовлю большой материал.
А пока почитайте в красках о том, как бомбит художников повсей планете тут:
https://xn--r1a.website/mishin_learning/1299
Отлично написано, лучше не скажешь.
Telegram
Мишин Лернинг 🇺🇦
⚠️ В твиттере происходит что-то необычное! Новые «*этики» пытаются закенселить Нейронную Сеть!
После выхода stable diffusion у художников бомбануло пукан. Забавно. Когда художников спрашиваешь: «может ли нейросеть заменить художника?», то ответ обычно такой…
После выхода stable diffusion у художников бомбануло пукан. Забавно. Когда художников спрашиваешь: «может ли нейросеть заменить художника?», то ответ обычно такой…
👍8
Передохнем от промптов, немного ИИ и компьютервижена на ваши головы.
На которые можно одеть хоть десять масок,и даже никаб, но ИИ вас мало того что узнает и идентифицирует, он еще и определит по вашим лживым глазам (которые суть единственное, что ему досталось на входе) ваш возраст и пол (с точностью 99.9%), и даже эмоцию (с точностью 80%).
Мне кажется с возрастом иорданские и сауддитские ученые горячатся, но против International Journal of Biometrics не попрешь:
"Исследователи утверждают, что их метод глубокого обучения для распознавания лиц верен на 99,95%, даже когда человек носит никаб, который в основном скрывает лицо, за исключением глаз. Оценка возраста и распознавание пола алгоритмами верны на 99,9%. Осмотр глаз может идентифицировать человека в никабе или в маске COVID как счастливого или хмурящегося с точностью 80,9%. Для тестов использовалась база данных из 150 изображений, в том числе 109 женщин и 41 мужчина в возрасте от 8 до 78 лет. Исследователь использовал глубокий анализ. Каждый слой процесса распознавания в нейронной сети имеет 4096 признаков."
В общем глаза - зеркало души. По крайней мере для ИИ, который теперь читает по глазам с космической точностью.
P.S. Но вот что меня поразило еще больше, это темпы работы научных журналов.
Эта статья:
Received: 23 Dec 2020
Accepted: 19 Apr 2021
Published online: 11 Jul 2022
За полтора года в CV и AI столько всего происходит, а журнальчик не торопясь печатает материалы из 2020. Явшоке.
https://www.inderscience.com/info/inarticle.php?artid=124683
На которые можно одеть хоть десять масок,и даже никаб, но ИИ вас мало того что узнает и идентифицирует, он еще и определит по вашим лживым глазам (которые суть единственное, что ему досталось на входе) ваш возраст и пол (с точностью 99.9%), и даже эмоцию (с точностью 80%).
Мне кажется с возрастом иорданские и сауддитские ученые горячатся, но против International Journal of Biometrics не попрешь:
"Исследователи утверждают, что их метод глубокого обучения для распознавания лиц верен на 99,95%, даже когда человек носит никаб, который в основном скрывает лицо, за исключением глаз. Оценка возраста и распознавание пола алгоритмами верны на 99,9%. Осмотр глаз может идентифицировать человека в никабе или в маске COVID как счастливого или хмурящегося с точностью 80,9%. Для тестов использовалась база данных из 150 изображений, в том числе 109 женщин и 41 мужчина в возрасте от 8 до 78 лет. Исследователь использовал глубокий анализ. Каждый слой процесса распознавания в нейронной сети имеет 4096 признаков."
В общем глаза - зеркало души. По крайней мере для ИИ, который теперь читает по глазам с космической точностью.
P.S. Но вот что меня поразило еще больше, это темпы работы научных журналов.
Эта статья:
Received: 23 Dec 2020
Accepted: 19 Apr 2021
Published online: 11 Jul 2022
За полтора года в CV и AI столько всего происходит, а журнальчик не торопясь печатает материалы из 2020. Явшоке.
https://www.inderscience.com/info/inarticle.php?artid=124683
👍7
До сих пор многие сравнивают Unity и Epic Games.
Чтобы вы понимали масштабы компаний, вот вам такая новость.
Unity подписала трехлетний многомиллионный контракт с CACI International на разработку интеллектуальных человеко-машинных интерфейсов (human machine interfaces). Этот контракт является «стратегической сделкой, которая помогает укрепить Unity в качестве предпочтительной 3D-платформы реального времени для будущих программ проектирования систем и моделирования в правительстве США».
Что это будут за интерфейсы, остается пока гадать, но явно что-то связанное со сэкранами, шлемами и сбором данных с башки и тушки кожаного мешка.
"This win is the single largest Digital Twin Solutions deal for Unity to date and is a strategic deal that helps to solidify Unity as the preferred real-time 3D platform for future systems design and simulation programs across the U.S. Government."
Ну а CACI — это компания, занимающаяся информационными технологиями, которая предоставляет услуги многим подразделениям федерального правительства США, включая оборону, национальную безопасность, разведку и здравоохранение.
Матрица все ближе.
А, и кстати, Юнити отказалась продаваться AppLovin-у, и гордо покупает IronSource.
https://www.gamedeveloper.com/business/unity-signs-multi-million-dollar-contract-to-help-u-s-government-with-defense
Чтобы вы понимали масштабы компаний, вот вам такая новость.
Unity подписала трехлетний многомиллионный контракт с CACI International на разработку интеллектуальных человеко-машинных интерфейсов (human machine interfaces). Этот контракт является «стратегической сделкой, которая помогает укрепить Unity в качестве предпочтительной 3D-платформы реального времени для будущих программ проектирования систем и моделирования в правительстве США».
Что это будут за интерфейсы, остается пока гадать, но явно что-то связанное со сэкранами, шлемами и сбором данных с башки и тушки кожаного мешка.
"This win is the single largest Digital Twin Solutions deal for Unity to date and is a strategic deal that helps to solidify Unity as the preferred real-time 3D platform for future systems design and simulation programs across the U.S. Government."
Ну а CACI — это компания, занимающаяся информационными технологиями, которая предоставляет услуги многим подразделениям федерального правительства США, включая оборону, национальную безопасность, разведку и здравоохранение.
Матрица все ближе.
А, и кстати, Юнити отказалась продаваться AppLovin-у, и гордо покупает IronSource.
https://www.gamedeveloper.com/business/unity-signs-multi-million-dollar-contract-to-help-u-s-government-with-defense
👍13
Не знаешь как, спроси ИИ.
Если олдскульные историки до сих пор ломают голову над тем, как же были построены эти чортовы пирамиды (я, кстати, как человек проживший в Египте 12 лет, тоже не понимаю, ибо знаю реалии), то новые нормальные археологи просто берут и спрашивают у ИИ (в лице DALLE-2):
- брат, напечатай инструкцию по изготовлению египетских пирамид.
- готово!
- а теперь тоже самое, по-английски, только еще с необходимыми инструментами, ибо непонятно, чем орудовать.
- апажалста!
Шах и мат, кабинетные крысы!
Если олдскульные историки до сих пор ломают голову над тем, как же были построены эти чортовы пирамиды (я, кстати, как человек проживший в Египте 12 лет, тоже не понимаю, ибо знаю реалии), то новые нормальные археологи просто берут и спрашивают у ИИ (в лице DALLE-2):
- брат, напечатай инструкцию по изготовлению египетских пирамид.
- готово!
- а теперь тоже самое, по-английски, только еще с необходимыми инструментами, ибо непонятно, чем орудовать.
- апажалста!
Шах и мат, кабинетные крысы!
👍14🔥6👎1
Forwarded from Нейросети и Блендер
This media is not supported in your browser
VIEW IN TELEGRAM
Совмещая Гиперлапс и ИИ арт
Malick.fr создал гиперлапс видео,
А Manu.vision отвечал за ИИ арты, используя inpainting в Dalle 2 и Midjourney для фонов.
Для создания видео использовалось 1200 генерации для 1400 фоток, а вся работа было проделана за сутки.
Видео получилось шикарным!
Malick.fr создал гиперлапс видео,
таймлапс с движением и фиксации при движении объекта А Manu.vision отвечал за ИИ арты, используя inpainting в Dalle 2 и Midjourney для фонов.
Для создания видео использовалось 1200 генерации для 1400 фоток, а вся работа было проделана за сутки.
Представьте 1200 артов за сутки, где каждый арт имеет ценность.
Пока где-то отменяют ИИ арты, в других местах творцы ускоряют свой процесс работы.Видео получилось шикарным!
🔥21👍2
Вы спрашивали про ИИ-3Д. Его есть.
Смотрите, берете 2Д-изображения вашего объекта. Это может быть карандашный эскиз, фото или (внимание) весь этот генератив из нейросетей.
Кормите отрыжку одного ИИ другому ИИ, под названием Kaedim, и он вам из картинки генерит 3Д-модель.
А теперь внимание - с хорошей топологией!
Если честно, я не верю, но разработчики постят сладкие картинки и видео.
Еще раз - на вход эскиз или 2Д-генератив, на выходе - хорошая 3Д-модель.
Читаем доки:
В Kaedim мы создаем алгоритмы машинного обучения, которые превращают 2D-графику в 3D-контент.
С помощью нашего веб-приложения мы даем возможность художникам и разработчикам игр быстро создавать прототипы, создавать и повторять свои 3D-графики экономичным способом."
"Система может взять что угодно: от реалистичного изображения объекта, сделанного на телефон, до 2D-концепта или 2D-набросков карандашом/ручкой. Неважно, показана трехмерная перспектива или нет, но если она есть, это определенно полезно. Что касается нескольких изображений, алгоритм сделает обоснованное предположение о задней части, если предоставлен только один вид, но если вы предоставите больше изображений, будет меньше предположений, если это имеет смысл."
Меня если честно, больше всего подбросило от хорошей топологии, ибо этого нет ни у кого.
Дальше начинаются тонкости.
Ценообразование просто конское. Там заградительные цены.
А трехдневный "триал" стоит 6 баксов за одну (непредсказуемую) генерацию.
Поэтому смотрим видосы, читаем доки и восхищаемся.
Ждем ответа от опен-сорса.
https://www.kaedim3d.com/
https://docs.kaedim3d.com/3d-library
https://www.youtube.com/watch?v=rvHfaZIZsug
Сериал #kaedim
Смотрите, берете 2Д-изображения вашего объекта. Это может быть карандашный эскиз, фото или (внимание) весь этот генератив из нейросетей.
Кормите отрыжку одного ИИ другому ИИ, под названием Kaedim, и он вам из картинки генерит 3Д-модель.
А теперь внимание - с хорошей топологией!
Если честно, я не верю, но разработчики постят сладкие картинки и видео.
Еще раз - на вход эскиз или 2Д-генератив, на выходе - хорошая 3Д-модель.
Читаем доки:
В Kaedim мы создаем алгоритмы машинного обучения, которые превращают 2D-графику в 3D-контент.
С помощью нашего веб-приложения мы даем возможность художникам и разработчикам игр быстро создавать прототипы, создавать и повторять свои 3D-графики экономичным способом."
"Система может взять что угодно: от реалистичного изображения объекта, сделанного на телефон, до 2D-концепта или 2D-набросков карандашом/ручкой. Неважно, показана трехмерная перспектива или нет, но если она есть, это определенно полезно. Что касается нескольких изображений, алгоритм сделает обоснованное предположение о задней части, если предоставлен только один вид, но если вы предоставите больше изображений, будет меньше предположений, если это имеет смысл."
Меня если честно, больше всего подбросило от хорошей топологии, ибо этого нет ни у кого.
Дальше начинаются тонкости.
Ценообразование просто конское. Там заградительные цены.
А трехдневный "триал" стоит 6 баксов за одну (непредсказуемую) генерацию.
Поэтому смотрим видосы, читаем доки и восхищаемся.
Ждем ответа от опен-сорса.
https://www.kaedim3d.com/
https://docs.kaedim3d.com/3d-library
https://www.youtube.com/watch?v=rvHfaZIZsug
Сериал #kaedim
👍17🔥3👎2
Вопрос. Кто-то видел хоть какие работы по ретопологии полигональных моделей нейросетками?
Еще в 2019 году я видел на Сигграфе, как Автодеск взял миллион моделек с Турбосквида и обучил нейросеточку генерить UV-layout на антропоморфных сетках. И все это в 3Д. Вот полигональный болван в T-позе, вот его UV, и так миллион раз. А теперь вот новый болван – давай его UV. Ну и ИИ дает UV. Это так и называлось AIUV. В ниже ссылка на видео.
Вроде идея на поверхности. Вот 3Д-стоки с моделями, которые имеют хорошие сетки и UV, разбитые по классам притом. Бери и учи.
Но я ничего не видел по ретопу полигональных моделей. Может я что-то пропустил?
По генерации UV-разверток у Автодеска, кстати, все затихло. И ничего подобного я тоже не встречал.
Заговор?
https://vimeo.com/356211642#t=14m00s
Еще в 2019 году я видел на Сигграфе, как Автодеск взял миллион моделек с Турбосквида и обучил нейросеточку генерить UV-layout на антропоморфных сетках. И все это в 3Д. Вот полигональный болван в T-позе, вот его UV, и так миллион раз. А теперь вот новый болван – давай его UV. Ну и ИИ дает UV. Это так и называлось AIUV. В ниже ссылка на видео.
Вроде идея на поверхности. Вот 3Д-стоки с моделями, которые имеют хорошие сетки и UV, разбитые по классам притом. Бери и учи.
Но я ничего не видел по ретопу полигональных моделей. Может я что-то пропустил?
По генерации UV-разверток у Автодеска, кстати, все затихло. И ничего подобного я тоже не встречал.
Заговор?
https://vimeo.com/356211642#t=14m00s
👍6