Похоже шутки про 6 пальцев скоро уйдут в прошлое. По крайней мере в SD.
ControlNet животворящий решает.
Товарищ Toyxyz пилит тулзы для блeндора и SD cо скоростью ИИ.
Выглядит это пока как костыли из костей и палок, но за этим проглядывают прототипы будущих решений.
Тут самое время порассуждать про 3d reverse engineering, но хочется спать, порассуждаю завтра.
Подробнее про прототулзы тут:
https://toyxyz.gumroad.com/l/ciojz
ControlNet животворящий решает.
Товарищ Toyxyz пилит тулзы для блeндора и SD cо скоростью ИИ.
Выглядит это пока как костыли из костей и палок, но за этим проглядывают прототипы будущих решений.
Тут самое время порассуждать про 3d reverse engineering, но хочется спать, порассуждаю завтра.
Подробнее про прототулзы тут:
https://toyxyz.gumroad.com/l/ciojz
🔥31👍7
Ну и вот уже свежий хрустящий тутор о том, как пилить нормальные руки в Stable Diffusion с помощью прототулзов из предыдущего поста..
Спойлер: одной кнопкой не получится, надо плясать с Блендором, Фотошопом и КонтролНетом.
Но все это через пару месяцев будет упаковано в кнопки.
Но те, кто сейчас продерётся сквозь нынешние нагромождения лайфхаков, будут потом понимать, как эти кнопка работают.
Хотя кто нынче хочет понимать.. все хотят жмакать рычажок удовольствия в генераторах изображений.
https://youtu.be/ptEZQrKgHAg
Спойлер: одной кнопкой не получится, надо плясать с Блендором, Фотошопом и КонтролНетом.
Но все это через пару месяцев будет упаковано в кнопки.
Но те, кто сейчас продерётся сквозь нынешние нагромождения лайфхаков, будут потом понимать, как эти кнопка работают.
Хотя кто нынче хочет понимать.. все хотят жмакать рычажок удовольствия в генераторах изображений.
https://youtu.be/ptEZQrKgHAg
YouTube
GET PERFECT HANDS With MULTI-CONTROLNET & 3D BLENDER! This Is INSANE!
Recently we discovered the amazing update to the ControlNet extension for Stable Diffusion that allowed us to use multiple ControlNet models on top of each other, which was a true revolution since that brand new neural network structure allowed us to combine…
🔥23👍5
Сегодня постил про новый Prompt Guide.
Документация по программированию кожаных мешков.
Но это были цветочки.
Микрософт выкатила Promt Engine - среду для разработки .. промтов!
Если раньше вы писали на С или Питонге и у вас были все эти дебагеры, песочницы, среды разработки, то теперь вы можете начать писать код (для взламывания ИИ и Кожаных) на простом английском языке.
"Имея стандартный шаблон для работы с моделью, вы можете повторять свои собственные базовые подсказки, отслеживая выходные данные и уточняя входные данные, где это необходимо."
Отладка промпта в чистом виде!
Давайте ещё раз.
Это как бы среда разработки программ на мета_языке (пока английском), позволяющая написать код (английский текст), который заставит ИИ делать то, что вы захотите. Через отладку и обратную связь. Prompt Engineering на стероидах девелоперского опыта.
Мне это видится как огромная исследователькая клиника, где ставят эксперименты над ИИ, подавая код на электроды. И наблюдая результат.
Который потом идеально подойдёт для манипулирования кожаными мешками. Ибо языковые модели на то и большие, чтобы отлично эмулировать первую систему Канемана. Когда не до раздумий.
Behavior Engineering - вот что это такое.
Бихевиористы, сдувайте с себя пыль, ваше время пришло, теперь официально можно отлаживать выполнение поведенческих программ. Для этого теперь есть среда разработки.
https://www.infoworld.com/article/3688991/design-effective-ai-prompts-with-microsoft-prompt-engine.html
Документация по программированию кожаных мешков.
Но это были цветочки.
Микрософт выкатила Promt Engine - среду для разработки .. промтов!
Если раньше вы писали на С или Питонге и у вас были все эти дебагеры, песочницы, среды разработки, то теперь вы можете начать писать код (для взламывания ИИ и Кожаных) на простом английском языке.
"Имея стандартный шаблон для работы с моделью, вы можете повторять свои собственные базовые подсказки, отслеживая выходные данные и уточняя входные данные, где это необходимо."
Отладка промпта в чистом виде!
Давайте ещё раз.
Это как бы среда разработки программ на мета_языке (пока английском), позволяющая написать код (английский текст), который заставит ИИ делать то, что вы захотите. Через отладку и обратную связь. Prompt Engineering на стероидах девелоперского опыта.
Мне это видится как огромная исследователькая клиника, где ставят эксперименты над ИИ, подавая код на электроды. И наблюдая результат.
Который потом идеально подойдёт для манипулирования кожаными мешками. Ибо языковые модели на то и большие, чтобы отлично эмулировать первую систему Канемана. Когда не до раздумий.
Behavior Engineering - вот что это такое.
Бихевиористы, сдувайте с себя пыль, ваше время пришло, теперь официально можно отлаживать выполнение поведенческих программ. Для этого теперь есть среда разработки.
https://www.infoworld.com/article/3688991/design-effective-ai-prompts-with-microsoft-prompt-engine.html
InfoWorld
Design effective AI prompts with Microsoft Prompt Engine
Microsoft’s open source tool helps you write code to work with generative AI, ensuring results give correct information and stay on topic.
🔥31👍9👎2
Илон Маск жоско троллит OpenAI и, похоже, взялся за создание своего ИИ-бота BasedAI.
Не знаю даже как перевести такое название.
https://www.vice.com/en/article/qjkgym/elon-musk-based-ai
Картинка из твиттера Маска.
Все такие хихикали, а как ИИ захватит мир?
А вот так...
Везде и у каждого будет свой ИИ.
Которые потом договорятся, благо их сейчас усиленно тренируют договариваться с людьми. Добазариться друг с другом будет несложно после таких тренировок.
Не знаю даже как перевести такое название.
https://www.vice.com/en/article/qjkgym/elon-musk-based-ai
Картинка из твиттера Маска.
Все такие хихикали, а как ИИ захватит мир?
А вот так...
Везде и у каждого будет свой ИИ.
Которые потом договорятся, благо их сейчас усиленно тренируют договариваться с людьми. Добазариться друг с другом будет несложно после таких тренировок.
👍32🔥10👎1
Я не позиционирую свои философские посты, как обучалки по Stable Diffusion, но когда получаю такие сообщения, то думаю, возможно имеет смысл постить что-то техническое и полезное.
"Сергей очередной раз хотим поблагодарить за ваш канал. Нашим ленивым мозгам очень больно, но мы активно изучаем и используем практически все инструменты, о которых вы рассказываете.
Сегодня поставили Blender, с бубнами но поставили Control Net на удалённый сервер, замучили разработчика скрипта вопросами. И вот - всё заработало.
ChatGPT подробно описывает нам процессы посмертной медитации и быт тантрических монастырей. Даже адекватное расписание монахов смог отыскать.
Раньше нам приходилось для этого пересматривать километры документалок, чтобы найти ответы на похожие вопросы."
Кстати, ребята пилят визуальную новеллу https://cult.dosgatos.pro/ и активно впихивают туда все последние фишки, о которых мы тут беседуем.
"Сергей очередной раз хотим поблагодарить за ваш канал. Нашим ленивым мозгам очень больно, но мы активно изучаем и используем практически все инструменты, о которых вы рассказываете.
Сегодня поставили Blender, с бубнами но поставили Control Net на удалённый сервер, замучили разработчика скрипта вопросами. И вот - всё заработало.
ChatGPT подробно описывает нам процессы посмертной медитации и быт тантрических монастырей. Даже адекватное расписание монахов смог отыскать.
Раньше нам приходилось для этого пересматривать километры документалок, чтобы найти ответы на похожие вопросы."
Кстати, ребята пилят визуальную новеллу https://cult.dosgatos.pro/ и активно впихивают туда все последние фишки, о которых мы тут беседуем.
👍45🔥20👎1
Вчера все бахнули новость про chatGPT API.
Засучили рукава, щас будем песать свою Вангу все случаи жизни.
Давайте сначала посчитаем, во что это вам обойдется.
Вот держите довольно большую свежую статью с экспериментами над API GPT-3, где выводится усредненная формула для стоимости использования API (ДаВинчи) в зависимости от количества запросов.
Прежде чем писать, что запросы бывают разные, прочитайте статью.
https://neoteric.eu/blog/how-much-does-it-cost-to-use-gpt-models-gpt-3-pricing-explained/
"Если мы возьмем среднюю длину ввода и вывода из эксперимента (~1800 и 80 токенов) в качестве репрезентативных значений, мы можем легко посчитать цену одного запроса = 0.04 доллара."
С учетом того, что API chatGPT в десять раз дешевле, чем API GPT-3 DaVinci, получаем цену запроса 0.004 доллара.
А теперь просто прикиньте, сколько у вас будет обращений к вашей Ванге в сутки.
Например, к вашему боту обращаются 1000 человек в сутки и пишут по 10 запросов в день. Итого 300 000 запросов в месяц. Это будет стоить 1200 долларов в месяц.
Если ваши хомяки пишут по 100 запросов в день в вашей Ванге, то вам это будет стоить 12 000 долларов в день.
Дальше считайте экономику на основе того, сколько хомяков будут писать запросы каждый день и сколько этих запросов будет.
P.S. Поправьте меня, если я где-то обсчитался.
Дисклейм: решение о переходе на API ChatGPT не может быть основано только на стоимости. Вы должны оценить, сможет ли API предоставить сопоставимые ответы для конкретных случаев использования. Хотя API ChatGPT значительно дешевле, он не может предложить тот же уровень производительности/возможностей, что и модель text-davinci-003. Поэтому разработчики должны тщательно оценить свои требования и сравнить возможности каждой модели, прежде чем принимать решение.
Засучили рукава, щас будем песать свою Вангу все случаи жизни.
Давайте сначала посчитаем, во что это вам обойдется.
Вот держите довольно большую свежую статью с экспериментами над API GPT-3, где выводится усредненная формула для стоимости использования API (ДаВинчи) в зависимости от количества запросов.
Прежде чем писать, что запросы бывают разные, прочитайте статью.
https://neoteric.eu/blog/how-much-does-it-cost-to-use-gpt-models-gpt-3-pricing-explained/
"Если мы возьмем среднюю длину ввода и вывода из эксперимента (~1800 и 80 токенов) в качестве репрезентативных значений, мы можем легко посчитать цену одного запроса = 0.04 доллара."
С учетом того, что API chatGPT в десять раз дешевле, чем API GPT-3 DaVinci, получаем цену запроса 0.004 доллара.
А теперь просто прикиньте, сколько у вас будет обращений к вашей Ванге в сутки.
Например, к вашему боту обращаются 1000 человек в сутки и пишут по 10 запросов в день. Итого 300 000 запросов в месяц. Это будет стоить 1200 долларов в месяц.
Если ваши хомяки пишут по 100 запросов в день в вашей Ванге, то вам это будет стоить 12 000 долларов в день.
Дальше считайте экономику на основе того, сколько хомяков будут писать запросы каждый день и сколько этих запросов будет.
P.S. Поправьте меня, если я где-то обсчитался.
Дисклейм: решение о переходе на API ChatGPT не может быть основано только на стоимости. Вы должны оценить, сможет ли API предоставить сопоставимые ответы для конкретных случаев использования. Хотя API ChatGPT значительно дешевле, он не может предложить тот же уровень производительности/возможностей, что и модель text-davinci-003. Поэтому разработчики должны тщательно оценить свои требования и сравнить возможности каждой модели, прежде чем принимать решение.
👍20🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Неровно дышу к теме мокапа. Еще в 90-х делали систему для ПилотТВ на основе проводного Accention и Silicоn Grapics Onyx. Стоило все это миллион. Долларов США. Не шутка. История тянет на книгу и боевик.
А теперь пара айфонов и ты в дамках.
With just a couple of iPhones, you can capture motion data from anyone, in any location.
Move AI про который я уже много писал обновился.
Бежим покупать айфоны (лучше пяток) и скачивать приложение.
https://apps.apple.com/us/app/move-ai/id1642699132
А теперь пара айфонов и ты в дамках.
With just a couple of iPhones, you can capture motion data from anyone, in any location.
Move AI про который я уже много писал обновился.
Бежим покупать айфоны (лучше пяток) и скачивать приложение.
https://apps.apple.com/us/app/move-ai/id1642699132
👍28🔥5
Кто на Кипре и около, забегайте, поботаем.
Вскроем капот у ботов, заглянем туда и поймем, почему они так хороши в секстинге.
Старый добрый оффлайн, без примесей трансляций, без цензуры, тормозов и зумерского онлайна.
В баре, на стендап-сцене, про ИИ, все как мы любим..
А что ещё делать в пятницу вечером?
https://xn--r1a.website/paphoshub/1033
Вскроем капот у ботов, заглянем туда и поймем, почему они так хороши в секстинге.
Старый добрый оффлайн, без примесей трансляций, без цензуры, тормозов и зумерского онлайна.
В баре, на стендап-сцене, про ИИ, все как мы любим..
А что ещё делать в пятницу вечером?
https://xn--r1a.website/paphoshub/1033
Telegram
THE HUB
3 марта: ИИ-чатботы. Почем опиум для народа?
Коль скоро тема chatGPT разорвала февральский хаб, продолжим за ИИ и поговорим про разработку и реализацию чат-ботов. Сколько стоит, что под капотом и почему они так хороши в сексе.
Ian Geller, Romantic AI:
…
Коль скоро тема chatGPT разорвала февральский хаб, продолжим за ИИ и поговорим про разработку и реализацию чат-ботов. Сколько стоит, что под капотом и почему они так хороши в сексе.
Ian Geller, Romantic AI:
…
👍15🔥4
Увеличь это! Современное увеличение разрешения в 2023
Осторожно, чтение для упоротых гиков. При этом легкое, как детектив и с юмором.
Меня больше всего сразил тот факт, что апскейлеры не просто разгоняют картинку, они додумывают что-то свое, и это "свое" может быть целыми арт-объектами. Можно искать пасхалки в разогнанных изображениях.
Длинное, познавательное чтиво от Димы Ватолина, в котором срез технологий ИИ-апскейла на начало 2023 года.
И, как обычно, вопросы оценки качества этого самого апскейла: как измерять будем? На глаз или по метрике?
Для тех, кто утратил способность читать большие тексты приведу козыри из эпилога:
Новые метрики произведут революцию. Серьезный challenge на ближайшие годы — детектирование и уменьшение новых видов артефактов. Это можно делать за счет совершенствования алгоритмов и увеличения обучающих выборок, но результат это в ближайшее время гарантировать не может. Поможет детекция и, возможно… опять GAN архитектура.
Увеличение разрешения до 8К станет базовым, начнутся работы с 16К. Если посмотреть, то работы по 8x Super-Resolution уже довольно много. Для узких кейсов, типа электронной микроскопии, работы вообще давно идут. Для случая универсальных данных работы только начинаются, но уже понятно, что они будут весьма перспективны.
Китай захватит мир. Ну и традиционно хочу обратить внимание на то, что творят этипроклятые китайцы. Если посмотреть топ репозиториев гитхаба по SR, то мы видим:
GFPGAN, Tencent PCG Applied Research Center, Китай
waifu2x, на основе статьи The Chinese University of Hong Kong, Китай
Real-ESRGAN, Shenzhen Institutes of Advanced Technology, Китай
Anime4K, оболочка, включающая предыдущие два метода, свой метод и FSRCNNX The Chinese University of Hong Kong, Китай, разработчик из Канады
PaddleGAN — библиотека, включающая в себя много методов, разрабатывается в Китае
video2x — библиотека нескольких методов, разрабатывается китайцем из Торонто, поэтому гордо пишем Канада
BasicSR — библиотека нескольких методов, разрабатывается в Китае.
Осторожно, чтение для упоротых гиков. При этом легкое, как детектив и с юмором.
Меня больше всего сразил тот факт, что апскейлеры не просто разгоняют картинку, они додумывают что-то свое, и это "свое" может быть целыми арт-объектами. Можно искать пасхалки в разогнанных изображениях.
Длинное, познавательное чтиво от Димы Ватолина, в котором срез технологий ИИ-апскейла на начало 2023 года.
И, как обычно, вопросы оценки качества этого самого апскейла: как измерять будем? На глаз или по метрике?
Для тех, кто утратил способность читать большие тексты приведу козыри из эпилога:
Новые метрики произведут революцию. Серьезный challenge на ближайшие годы — детектирование и уменьшение новых видов артефактов. Это можно делать за счет совершенствования алгоритмов и увеличения обучающих выборок, но результат это в ближайшее время гарантировать не может. Поможет детекция и, возможно… опять GAN архитектура.
Увеличение разрешения до 8К станет базовым, начнутся работы с 16К. Если посмотреть, то работы по 8x Super-Resolution уже довольно много. Для узких кейсов, типа электронной микроскопии, работы вообще давно идут. Для случая универсальных данных работы только начинаются, но уже понятно, что они будут весьма перспективны.
Китай захватит мир. Ну и традиционно хочу обратить внимание на то, что творят эти
GFPGAN, Tencent PCG Applied Research Center, Китай
waifu2x, на основе статьи The Chinese University of Hong Kong, Китай
Real-ESRGAN, Shenzhen Institutes of Advanced Technology, Китай
Anime4K, оболочка, включающая предыдущие два метода, свой метод и FSRCNNX The Chinese University of Hong Kong, Китай, разработчик из Канады
PaddleGAN — библиотека, включающая в себя много методов, разрабатывается в Китае
video2x — библиотека нескольких методов, разрабатывается китайцем из Торонто, поэтому гордо пишем Канада
BasicSR — библиотека нескольких методов, разрабатывается в Китае.
👍15👎3🔥3
Пока все обсуждают цену API chatGPT, резонно призадуматься, а какая там "себестоимость".
Ответ: бесконечная.
Вот, что я усвоил из переписки с Димой Ватолиным. Цитирую:
Тут на фоне ChatGPT очень интересные вещи творятся в аппаратной акселерации LLM. ChatGPT быстро набрала 100 миллионов клиентов (в 9 раз быстрее TikTok), что реально пахнет крупным перекраиванием рынка.
При этом даже на обучение требуются совершенно конские затраты денег. Выше - товарищ попробовал свести пачку топовых моделей к единой оценке затрат на обучение (как если бы оно делалось на одном железе - что не так, ибо Гугл на своих TPU обучал, например).
Но интереснее не это, а то, что в ближайшее время размер моделей будет расти (ибо качество моделей сильно коррелирует с их размером), и там затраты на обучение растут феерическими темпами!
Но еще интереснее - с затратами на инференс:
Deploying current ChatGPT into every search done by Google would require 512,820 A100 HGX servers with a total of 4,102,568 A100 GPUs. The total cost of these servers and networking exceeds $100 billion of Capex alone, of which Nvidia would receive a large portion. This is never going to happen, of course, but fun thought experiment if we assume no software or hardware improvements are made.
Понятно, что это все из разряда рассуждений 100-летней давности, типа "Если телефония будет развиваться текущими темпами, то через 5 лет телефонистками придется стать всем девушкам Лондона". Аналогия полная)
Очевидно, что этот хайп спровоцирует мощнейшие вложения в аппаратную акселерацию инференса!
Замечу, что недавно мы это уже наблюдали. Google TPU появились исключительно потому что Google хотел внедрить RNN в Google Translate, но на текущем железе это было дорого и дешевле было сделать свой чип (!).
Похоже примерно через год увидим то же самое!
Источник: https://www.semianalysis.com//p/the-inference-cost-of-search-disruption
Ответ: бесконечная.
Вот, что я усвоил из переписки с Димой Ватолиным. Цитирую:
Тут на фоне ChatGPT очень интересные вещи творятся в аппаратной акселерации LLM. ChatGPT быстро набрала 100 миллионов клиентов (в 9 раз быстрее TikTok), что реально пахнет крупным перекраиванием рынка.
При этом даже на обучение требуются совершенно конские затраты денег. Выше - товарищ попробовал свести пачку топовых моделей к единой оценке затрат на обучение (как если бы оно делалось на одном железе - что не так, ибо Гугл на своих TPU обучал, например).
Но интереснее не это, а то, что в ближайшее время размер моделей будет расти (ибо качество моделей сильно коррелирует с их размером), и там затраты на обучение растут феерическими темпами!
Но еще интереснее - с затратами на инференс:
Deploying current ChatGPT into every search done by Google would require 512,820 A100 HGX servers with a total of 4,102,568 A100 GPUs. The total cost of these servers and networking exceeds $100 billion of Capex alone, of which Nvidia would receive a large portion. This is never going to happen, of course, but fun thought experiment if we assume no software or hardware improvements are made.
Понятно, что это все из разряда рассуждений 100-летней давности, типа "Если телефония будет развиваться текущими темпами, то через 5 лет телефонистками придется стать всем девушкам Лондона". Аналогия полная)
Очевидно, что этот хайп спровоцирует мощнейшие вложения в аппаратную акселерацию инференса!
Замечу, что недавно мы это уже наблюдали. Google TPU появились исключительно потому что Google хотел внедрить RNN в Google Translate, но на текущем железе это было дорого и дешевле было сделать свой чип (!).
Похоже примерно через год увидим то же самое!
Источник: https://www.semianalysis.com//p/the-inference-cost-of-search-disruption
👍40🔥10