This media is not supported in your browser
VIEW IN TELEGRAM
Зайдем с козырей. ИИ-секстинг.
Тут вначале года все склоняли цифровую тварь Emily Pellegrini, которая типа "сгенерирована ИИ" и взрывает инсту.
Ну как взрывает, 90 постов, 261К подписчиков, нагон трафика на лицо (с пробелом).
Про "сгенерирована ИИ" - тут ситуация банальная, один смышленый чувак просто тырит чужие фотки в интернете и пришпандоривает к ним одно и то же лицо (живое или синтетическое, без разницы). Про один из пришпандоривателей лица я уже писал.
Так что в следующий раз, когда вы читаете про "сгенерирована ИИ", особенно, когда речь идет про видео(как в шапке), имейте в виду, что это банальный однокнопочный дипфейк на службе интернет монетизации.
Ну мы с вами поговорим про более взрослые случаи.
Модель Lexi Love (тут кстати действительно полная генерация в Stable Diffusion) нормально так поднимает денег, причем не на какой-то нищебродской рекламе, а с помощью жесткого секстинга (это когда мужуки хотят поговорить про это с кем-то в интернете и выпрашивают фотки разных частей тела).
Лекси делает то, чего не могут делать кожаные модели: она говорит на более чем 30 языках и может общаться с подписчиками 24 часа в сутки.
Пять бесплатных сообщений, а потом иди вонзать деньги. Цены довольно жоские.
Самое интересное, в разделе "для креаторов" - вы можете сделать себе свою ИИ-модель.
ОнлиФанс сейчас реально поперхнулся - представьте себе полчища таких полиглотов, работающих по 24 часа в сутки за электричество.
По техническим особенностям - никого не трясет, что с пальцами на фотках беда, кому нужны фотки пальцев, когда основа бренда такая грудь. Генерации на уровне Stable Diffusion 1.5.
А вот с чат-ботом непонятно, реакции модели невнятные, похоже больше на скрипты, чем на LLM. Но дайте время..
Я бы начал выпивать за моделей с ОнлиФанс, но предвижу "гибридные" варианты - живая модель работает (и скорее всего только телом) и голосом в "первую смену", а все остальное время ИИ коммуницирует с алчущими прелестей общения кожаными. Причем подбор лиц идет строго таргетированный.
Продолжим в следующем посте...
Тут вначале года все склоняли цифровую тварь Emily Pellegrini, которая типа "сгенерирована ИИ" и взрывает инсту.
Ну как взрывает, 90 постов, 261К подписчиков, нагон трафика на лицо (с пробелом).
Про "сгенерирована ИИ" - тут ситуация банальная, один смышленый чувак просто тырит чужие фотки в интернете и пришпандоривает к ним одно и то же лицо (живое или синтетическое, без разницы). Про один из пришпандоривателей лица я уже писал.
Так что в следующий раз, когда вы читаете про "сгенерирована ИИ", особенно, когда речь идет про видео(как в шапке), имейте в виду, что это банальный однокнопочный дипфейк на службе интернет монетизации.
Ну мы с вами поговорим про более взрослые случаи.
Модель Lexi Love (тут кстати действительно полная генерация в Stable Diffusion) нормально так поднимает денег, причем не на какой-то нищебродской рекламе, а с помощью жесткого секстинга (это когда мужуки хотят поговорить про это с кем-то в интернете и выпрашивают фотки разных частей тела).
Лекси делает то, чего не могут делать кожаные модели: она говорит на более чем 30 языках и может общаться с подписчиками 24 часа в сутки.
Пять бесплатных сообщений, а потом иди вонзать деньги. Цены довольно жоские.
Самое интересное, в разделе "для креаторов" - вы можете сделать себе свою ИИ-модель.
ОнлиФанс сейчас реально поперхнулся - представьте себе полчища таких полиглотов, работающих по 24 часа в сутки за электричество.
По техническим особенностям - никого не трясет, что с пальцами на фотках беда, кому нужны фотки пальцев, когда основа бренда такая грудь. Генерации на уровне Stable Diffusion 1.5.
А вот с чат-ботом непонятно, реакции модели невнятные, похоже больше на скрипты, чем на LLM. Но дайте время..
Я бы начал выпивать за моделей с ОнлиФанс, но предвижу "гибридные" варианты - живая модель работает (и скорее всего только телом) и голосом в "первую смену", а все остальное время ИИ коммуницирует с алчущими прелестей общения кожаными. Причем подбор лиц идет строго таргетированный.
Продолжим в следующем посте...
🔥39👍12👎1
Вы думаете, "да кто это будет смотреть ваще?". Держите немного веры в человечество и любопытных деталей.
С момента своего дебюта на сайте в июне 2023 года Лекси установила «сильную эмоциональную связь» со многими своими платными подписчиками.
Некоторые подписчики даже убеждены, что Лекси — реальный человек: искусственный интеллект Foxy делает до 20 предложений руки и сердца в месяц.
Lexi не только предлагает платные текстовые и голосовые сообщения, но и может отправлять «непристойные фотографии» по запросу.
Популярность Love растет с каждым месяцем: Foxy AI утверждает, что скоро они будут зарабатывать более 30 000 долларов (24 000 фунтов стерлингов) в месяц на ИИ тварюге.
Хотите поразглядывать, идите сюда:
https://nypost.com/2024/01/18/lifestyle/model-lexi-love-makes-360k-a-year-sexting-men-but-theres-one-problem/
Хотите больше таких ИИ-тварей, шуруйте сюда:
https://foxy.ai/explore
И загляните в креативный отдел:
https://foxy.ai/creators
С момента своего дебюта на сайте в июне 2023 года Лекси установила «сильную эмоциональную связь» со многими своими платными подписчиками.
Некоторые подписчики даже убеждены, что Лекси — реальный человек: искусственный интеллект Foxy делает до 20 предложений руки и сердца в месяц.
Lexi не только предлагает платные текстовые и голосовые сообщения, но и может отправлять «непристойные фотографии» по запросу.
Популярность Love растет с каждым месяцем: Foxy AI утверждает, что скоро они будут зарабатывать более 30 000 долларов (24 000 фунтов стерлингов) в месяц на ИИ тварюге.
Хотите поразглядывать, идите сюда:
https://nypost.com/2024/01/18/lifestyle/model-lexi-love-makes-360k-a-year-sexting-men-but-theres-one-problem/
Хотите больше таких ИИ-тварей, шуруйте сюда:
https://foxy.ai/explore
И загляните в креативный отдел:
https://foxy.ai/creators
New York Post
Model Lexi Love makes $360K a year sexting lonely men — but there’s one problem
The blue-eyed blonde is a 21-year-old sushi addict and "pole dancing pro."
🔥32👍6👎3
This media is not supported in your browser
VIEW IN TELEGRAM
Ну за 3Д-моделлеров и 3Д-стоки.
Про китайцев из DeemosTech я уже писал в своем посте про Чатаватаров.
Это бывшая лаборатория в Шанхайском университете.
Я не знаю, сколько у них там RnD отделов, но они собирают довольно годные демки по разным вариантам применения ИИ в 3Д. Их Том Круз был довольно узнаваем.
А сейчас они собрали прям очень сладкий пайплайн из Блендора и text-to-3D генераций.
В Блендоре вы расставляете кубики и пишете для них промпты, а ИИ генерит 3Д-модельки на месте этих кубиков. Тут нет магии, просто удобство, делаете композицию на баундинг-боксах, а потом "нейрорендерите" это в 3Д, с последующим "настоящим" рендером (там даже PBR-материалы обещаны).
Фишка тут в том, что их модель Rodin Gen-1 (1,5 миллиарда параметров, если что), является самой большой из доступных нативных 3D-моделей и учитывает входящие размеры объектов.
Пример того, как можно из опен сорса и палок собирать ловкие прототипы будущих инструментов.
Просто представьте, вот есть у вас сцена, выделяете любой объект и кричите в монитор, "теперь это не тупая машинка, а винтажный опель 1947 года, цвет баклажан, тонированные стекла".
Хихикаете?
А ведь скоро можно будет "наговорить сцену".
Поройтесь у них в твитторе, там довольно много свежака про Чатаватары и другие проекты.
https://twitter.com/DeemosTech
Полезная статья про ХиперХьюманов:
https://deemostech.medium.com/hyperhuman-explained-81ec12cbe86c
P.S. Для тех, кто давно читает мои посты про 3Д, есть одна маленькая деталь: all of the assets Rodin generates "should be retopologized".
Чуда нет, тут генерация картинок по промптам с разных ракурсов, а потом генерация облаков точек на основе этих картинок.
Кстати, Rodin - это Родэн, тот который скульптор.
Про китайцев из DeemosTech я уже писал в своем посте про Чатаватаров.
Это бывшая лаборатория в Шанхайском университете.
Я не знаю, сколько у них там RnD отделов, но они собирают довольно годные демки по разным вариантам применения ИИ в 3Д. Их Том Круз был довольно узнаваем.
А сейчас они собрали прям очень сладкий пайплайн из Блендора и text-to-3D генераций.
В Блендоре вы расставляете кубики и пишете для них промпты, а ИИ генерит 3Д-модельки на месте этих кубиков. Тут нет магии, просто удобство, делаете композицию на баундинг-боксах, а потом "нейрорендерите" это в 3Д, с последующим "настоящим" рендером (там даже PBR-материалы обещаны).
Фишка тут в том, что их модель Rodin Gen-1 (1,5 миллиарда параметров, если что), является самой большой из доступных нативных 3D-моделей и учитывает входящие размеры объектов.
Пример того, как можно из опен сорса и палок собирать ловкие прототипы будущих инструментов.
Просто представьте, вот есть у вас сцена, выделяете любой объект и кричите в монитор, "теперь это не тупая машинка, а винтажный опель 1947 года, цвет баклажан, тонированные стекла".
Хихикаете?
А ведь скоро можно будет "наговорить сцену".
Поройтесь у них в твитторе, там довольно много свежака про Чатаватары и другие проекты.
https://twitter.com/DeemosTech
Полезная статья про ХиперХьюманов:
https://deemostech.medium.com/hyperhuman-explained-81ec12cbe86c
P.S. Для тех, кто давно читает мои посты про 3Д, есть одна маленькая деталь: all of the assets Rodin generates "should be retopologized".
Чуда нет, тут генерация картинок по промптам с разных ракурсов, а потом генерация облаков точек на основе этих картинок.
Кстати, Rodin - это Родэн, тот который скульптор.
🔥47👍18👎3
Держите прям совсем свежий ролик от Эппле про Vision Pro. Только что залили.
Я внимательно посмотрел, но так и не понял - а что там делать-то?!
Во всех обзорах пишут: там фото и видео смотреть очень круто.
Ок, а что там делать, кроме как смотреть фото и видео?
Единственное, что привлекло мое внимание, это приложение Mindfulness, но его как-то быстро замяли.
Что нового придумают разработчики приложений для Vision Pro, помимо того, что уже было написано для Квеста и других шлемаков?
Ибо кроме игр, ничего массового не наблюдалось на этой поляне.
Нишевого-полезного много, массового, кроме игр и просмотра кино - ничего.
Вы станете покупать лыжную маску на $3500 для просмотра видосов?
https://www.youtube.com/watch?v=Vb0dG-2huJE
P.S. Я вижу одну очень интересную нишу. Благодаря тому, что масочка умеет собирать много данных с глазок и вообще головы кожаного, приложения, связанные со здоровьем и вообще нейрофидбеком могут быть очень интересными. Это как apple watch размером с голову. Но есть ли тут массовый рынок и насколько он этичный, скажем так?
Я внимательно посмотрел, но так и не понял - а что там делать-то?!
Во всех обзорах пишут: там фото и видео смотреть очень круто.
Ок, а что там делать, кроме как смотреть фото и видео?
Единственное, что привлекло мое внимание, это приложение Mindfulness, но его как-то быстро замяли.
Что нового придумают разработчики приложений для Vision Pro, помимо того, что уже было написано для Квеста и других шлемаков?
Ибо кроме игр, ничего массового не наблюдалось на этой поляне.
Нишевого-полезного много, массового, кроме игр и просмотра кино - ничего.
Вы станете покупать лыжную маску на $3500 для просмотра видосов?
https://www.youtube.com/watch?v=Vb0dG-2huJE
P.S. Я вижу одну очень интересную нишу. Благодаря тому, что масочка умеет собирать много данных с глазок и вообще головы кожаного, приложения, связанные со здоровьем и вообще нейрофидбеком могут быть очень интересными. Это как apple watch размером с голову. Но есть ли тут массовый рынок и насколько он этичный, скажем так?
👍16🔥6👎2
Ну ладно прическа портится, тут мы потеряем только длинноволосых.
Но как быть с ушами, Карл?
Все готовы быть эльфами и хобитами?
Кстати, Netflix канселит Vision Pro и не планирует выпускать приложение для visionOS, а также не позволит запустить свое приложение для iPad на масочке. Вместо этого компания предложит пользователям смотреть Netflix через веб-браузер. https://bloomberg.com/news/articles/2024-01-17/watching-netflix-on-apple-vision-pro-you-ll-have-to-use-the-web
Так что с просмотром кино пока не очень.
Но как быть с ушами, Карл?
Все готовы быть эльфами и хобитами?
Кстати, Netflix канселит Vision Pro и не планирует выпускать приложение для visionOS, а также не позволит запустить свое приложение для iPad на масочке. Вместо этого компания предложит пользователям смотреть Netflix через веб-браузер. https://bloomberg.com/news/articles/2024-01-17/watching-netflix-on-apple-vision-pro-you-ll-have-to-use-the-web
Так что с просмотром кино пока не очень.
👍17👎7
Нейросимволическая архитектура и ускорение обучения в 700 раз.
Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.
Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.
Отсюда два следствия.
Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.
Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.
Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html
Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.
Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.
В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.
Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.
Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".
Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.
Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.
Отсюда два следствия.
Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.
Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.
Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html
Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.
Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.
В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.
Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.
Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".
Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
🔥56👍14👎2
Для тех, кто в хардкорной графике. ИИ-ротоскоп и композ.
Пост для гиков.
Мой хороший друг и легенда в мире композа Витя Перец запостил у себя новость о том, что у Фаундри (которая написала Nuke) есть A.I. Research Team и они ищут QA-инженера с опытом ротоскопа.
"Лучшая софтверная компания в мире ищет инженеров с опытом работы в AI... все мировое сообщество Nuke будет любить вас вечно, а ваше имя будет вытатуировано в сердце каждого композитора, если вы решите проблему автоматического рото с помощью AI... пиво за мой счет!"
Народ в коментах трактовал это как Фаундри ищет ML-инженера и там разгорелись битвы по поводу ИИ-ротоскопинга. Хотя в описании вакансии типичный QA-тестировщик. Есть лишь пожелание "Experience and knowledge of machine learning and A.I."
То, что Foundry пилят ML-ноды уже давно не секрет. Вопрос в темпах и в том, почему они до сих пор не прикрутили богатое наследие Stable Diffusion в Mari, и весь этот open source tracking в Nuke. Вариантов применения - тонны. Но как и все софтверные гиганты, Фаундри поднимает веки очень медленно.
И как обычное самое сладкое нашлось в коментах.
Rotofury - это набор скриптов для Нюка, которые имплементируют опен-сорсный CoTracker от Метачки - быстрая модель на основе трансформеров, которая может трекать любую точку на видео.
Про Cotracker можете почитать тут, выглядит убойно. И классно то, что народ уже прикручивает это в профессиональные софты типа Нюка в виде Rotofury, чтобы это не оставалось демками на Хаггинг Фейсе.
Там же в коментах обнаружился Omnimotion:
Имплементация работы Tracking Everything Everywhere All at Once
Ну и грех не упомянуть, что Влад Ахтырский пилит свой Мега-ИИ-Комбайн для Нюка, где есть все на свете, от рото и кея, до автоматической генерации проектов в Нюке:
https://youtu.be/lrYVCpqn8FE?si=wbLgZ7wQEGMwQEvV
Это, пожалуй, самый интересный проект по применению ИИ в композе.
p.s. На сладкое одна история с Витей Перецом. Он был одним из ключевых спикеров на одном из моих cg event-ов.
Сидит, Витя, как обычно, со своим 8-килограмовым ноутом, ядерной видеокартой и атомным процессором готовится, колдует в Нюке. Потом закрывает его, и ждет времени начала выступления. Сетапимся, подключаемся, Витя открывает ноут, но тут винда решает, что уже ночь на дворе и пора поставить обновления. И ставит. На большом экране. 5 минут, 10 минут, 15 минут. Я рассказал все свои шутки за 10 лет, задал все вопросы Вите, спросил все что мог у зала. Через полчаса винда обновилась. С тех пор я могу тянуть время на выступлениях вечно, говорить о чем угодно, и писать любое количество постов в день. Не позволяйте винде ставить обновы автоматически!
Пост для гиков.
Мой хороший друг и легенда в мире композа Витя Перец запостил у себя новость о том, что у Фаундри (которая написала Nuke) есть A.I. Research Team и они ищут QA-инженера с опытом ротоскопа.
"Лучшая софтверная компания в мире ищет инженеров с опытом работы в AI... все мировое сообщество Nuke будет любить вас вечно, а ваше имя будет вытатуировано в сердце каждого композитора, если вы решите проблему автоматического рото с помощью AI... пиво за мой счет!"
Народ в коментах трактовал это как Фаундри ищет ML-инженера и там разгорелись битвы по поводу ИИ-ротоскопинга. Хотя в описании вакансии типичный QA-тестировщик. Есть лишь пожелание "Experience and knowledge of machine learning and A.I."
То, что Foundry пилят ML-ноды уже давно не секрет. Вопрос в темпах и в том, почему они до сих пор не прикрутили богатое наследие Stable Diffusion в Mari, и весь этот open source tracking в Nuke. Вариантов применения - тонны. Но как и все софтверные гиганты, Фаундри поднимает веки очень медленно.
И как обычное самое сладкое нашлось в коментах.
Rotofury - это набор скриптов для Нюка, которые имплементируют опен-сорсный CoTracker от Метачки - быстрая модель на основе трансформеров, которая может трекать любую точку на видео.
Про Cotracker можете почитать тут, выглядит убойно. И классно то, что народ уже прикручивает это в профессиональные софты типа Нюка в виде Rotofury, чтобы это не оставалось демками на Хаггинг Фейсе.
Там же в коментах обнаружился Omnimotion:
Имплементация работы Tracking Everything Everywhere All at Once
Ну и грех не упомянуть, что Влад Ахтырский пилит свой Мега-ИИ-Комбайн для Нюка, где есть все на свете, от рото и кея, до автоматической генерации проектов в Нюке:
https://youtu.be/lrYVCpqn8FE?si=wbLgZ7wQEGMwQEvV
Это, пожалуй, самый интересный проект по применению ИИ в композе.
p.s. На сладкое одна история с Витей Перецом. Он был одним из ключевых спикеров на одном из моих cg event-ов.
Сидит, Витя, как обычно, со своим 8-килограмовым ноутом, ядерной видеокартой и атомным процессором готовится, колдует в Нюке. Потом закрывает его, и ждет времени начала выступления. Сетапимся, подключаемся, Витя открывает ноут, но тут винда решает, что уже ночь на дворе и пора поставить обновления. И ставит. На большом экране. 5 минут, 10 минут, 15 минут. Я рассказал все свои шутки за 10 лет, задал все вопросы Вите, спросил все что мог у зала. Через полчаса винда обновилась. С тех пор я могу тянуть время на выступлениях вечно, говорить о чем угодно, и писать любое количество постов в день. Не позволяйте винде ставить обновы автоматически!
Linkedin
QA Engineer, Roto - Foundry | Victor Perez | 10 comments
The best software company in the wide world is looking for engineers with experience in AI… the whole global Nuke community will love you forever and your name will be tattooed in every compositor’s heart if you solve the automatic roto with AI… you have…
🔥29👍8❤1
Kandinsky отчитался об успехах.
По данным разработчиков, было создано более 200 млн генераций по текстовым запросам, а аудитория превысила 12 млн уникальных пользователей. Модель заняла первое место по темпу роста и стала второй после Stable Diffusion по популярности среди разработчиков по версии Hugging Face, где собраны лучшие open source-решения. Сам часто пользуюсь ботами Кандинского, когда делаю интерактив на лекциях. Кидаю куар код в зал - народ начинает неистово генерить креатив, а я вывожу ленту с креативами на экран. Работает убойно, забирайте трюк. Плюс в том, что боты Кандинского работают реально быстро и не требуют регистрации. В отличие от тысяч попрошаек "щас Midjourney и DALL·E 3 за 100 рублей". Скорость помогает дать пользователям понимание того, что вообще происходит. На сайтах fusionbrain.ai, rudalle.ru работает еще быстрее. Модель также работает в сервисе GigaChat, доступна в мобильных приложении Салют, а также на умных устройствах под управлением Салют ТВ по голосовой команде «Запусти художника».
Технически Kandinsky понимает запросы на более чем на 100 языках, генерация реально безлимитная и бесплатная, хорошо умеет в стилизацию. Модель также умеет менять отдельные объекты или области на картинке, смешивать несколько рисунков, inpainting/outpainting, бесконечный зуминг, все как у людей.
Интересно, что в культурные коды тоже исполняет хорошо, знает много народного фольклора и мемов, но заставить его сгенерить цветок с семью лепестками у меня не получилось. Помните челлендж про цветик-семицветик и DALL·E 3? Видать это архетип вселенского уровня.
В общем я регулярно пользуюсь в образовательных целях из-за скорости и бесплатности.
По данным разработчиков, было создано более 200 млн генераций по текстовым запросам, а аудитория превысила 12 млн уникальных пользователей. Модель заняла первое место по темпу роста и стала второй после Stable Diffusion по популярности среди разработчиков по версии Hugging Face, где собраны лучшие open source-решения. Сам часто пользуюсь ботами Кандинского, когда делаю интерактив на лекциях. Кидаю куар код в зал - народ начинает неистово генерить креатив, а я вывожу ленту с креативами на экран. Работает убойно, забирайте трюк. Плюс в том, что боты Кандинского работают реально быстро и не требуют регистрации. В отличие от тысяч попрошаек "щас Midjourney и DALL·E 3 за 100 рублей". Скорость помогает дать пользователям понимание того, что вообще происходит. На сайтах fusionbrain.ai, rudalle.ru работает еще быстрее. Модель также работает в сервисе GigaChat, доступна в мобильных приложении Салют, а также на умных устройствах под управлением Салют ТВ по голосовой команде «Запусти художника».
Технически Kandinsky понимает запросы на более чем на 100 языках, генерация реально безлимитная и бесплатная, хорошо умеет в стилизацию. Модель также умеет менять отдельные объекты или области на картинке, смешивать несколько рисунков, inpainting/outpainting, бесконечный зуминг, все как у людей.
Интересно, что в культурные коды тоже исполняет хорошо, знает много народного фольклора и мемов, но заставить его сгенерить цветок с семью лепестками у меня не получилось. Помните челлендж про цветик-семицветик и DALL·E 3? Видать это архетип вселенского уровня.
В общем я регулярно пользуюсь в образовательных целях из-за скорости и бесплатности.
Telegram
Kandinsky
Kandinsky by Sber AI
🔥38👎35👍18
Nvidia выкатила ChatQA - продавцы лопат наконец-то вышли из тени.
Это целое семейство LLM, от 7В до 70В параметров, специально заточенных по чаты (вопрос-ответ).
Конечно, по утверждениям Nvidia они наступают на пятки GPT-4:
"Примечательно, что наш ChatQA-70B может превзойти GPT-4 по среднему баллу на 10 наборах данных разговорного QA (54,14 против 53,90), не опираясь на синтетические данные моделей GPT от OpenAI."
Пока можно сказать одно, с железом для тренировки моделей у них проблем нет.
Много интересного прямо во введении в статью - в основе лежит клан Лламы:
We build a family of ChatQA models based on Llama2-7B, Llama2-13B, Llama2-70B and a in-house 8B pretrained GPT.
10 датасетов, включая 5 наборов данных с длинными документами, которые требуют поиска(retrieval), и 3 набора данных с таблицами.
Тут вот с интернетиках пишут, что модель умеет отвечать на вопросы, которые не имеют ответов.
Это не так, она просто умеет отвечать "я не знаю ответ", вместо того, чтобы галлюционировать.
"Добавление небольшого количества «unanswerable» образцов при настройке инструкций может
управлять моделью для генерации ответа «не могу ответить» когда это необходимо, таким образом в значительной степени уменьшает галлюцинации.
Кода, как обычно у Нвидии нет, одна бумага.
Осталась одна Эппле с неотвеченными вопросами о том, доколе они будут тормозить со своей LLM..
https://analyticsindiamag.com/nvidia-introduces-chatqa-gpt-4-level-conversational-qa-models/
https://www.reddit.com/r/LocalLLaMA/comments/19as4lf/nvidias_new_paper_introduces_chatqa_model_that_is/
Это целое семейство LLM, от 7В до 70В параметров, специально заточенных по чаты (вопрос-ответ).
Конечно, по утверждениям Nvidia они наступают на пятки GPT-4:
"Примечательно, что наш ChatQA-70B может превзойти GPT-4 по среднему баллу на 10 наборах данных разговорного QA (54,14 против 53,90), не опираясь на синтетические данные моделей GPT от OpenAI."
Пока можно сказать одно, с железом для тренировки моделей у них проблем нет.
Много интересного прямо во введении в статью - в основе лежит клан Лламы:
We build a family of ChatQA models based on Llama2-7B, Llama2-13B, Llama2-70B and a in-house 8B pretrained GPT.
10 датасетов, включая 5 наборов данных с длинными документами, которые требуют поиска(retrieval), и 3 набора данных с таблицами.
Тут вот с интернетиках пишут, что модель умеет отвечать на вопросы, которые не имеют ответов.
Это не так, она просто умеет отвечать "я не знаю ответ", вместо того, чтобы галлюционировать.
"Добавление небольшого количества «unanswerable» образцов при настройке инструкций может
управлять моделью для генерации ответа «не могу ответить» когда это необходимо, таким образом в значительной степени уменьшает галлюцинации.
Кода, как обычно у Нвидии нет, одна бумага.
Осталась одна Эппле с неотвеченными вопросами о том, доколе они будут тормозить со своей LLM..
https://analyticsindiamag.com/nvidia-introduces-chatqa-gpt-4-level-conversational-qa-models/
https://www.reddit.com/r/LocalLLaMA/comments/19as4lf/nvidias_new_paper_introduces_chatqa_model_that_is/
Analytics India Magazine
NVIDIA Introduces ChatQA, GPT-4 Level Conversational QA Models | AIM
ChatQA-70B stands out by surpassing GPT-4 in average scores on 10 conversational QA datasets (54.14 vs. 53.90).
🔥30👍12
This media is not supported in your browser
VIEW IN TELEGRAM
Пока мы прокачиваем нейроаватаров, олдскульное 3Д тоже не дремлет.
Поглядите, что вытворяет CodeMiko.
Захват лица БЕЗ всяких датчиков и маркеров и шлемов - просто AI face mocap
Все это -реалтайм.
Ждем подробностей на youtube, а пока смотрим на твиче.
https://clips.twitch.tv/CuriousAmazonianWolverineWoofer-h8SQeAfJ16B-w9Ta
Поглядите, что вытворяет CodeMiko.
Захват лица БЕЗ всяких датчиков и маркеров и шлемов - просто AI face mocap
Все это -реалтайм.
Ждем подробностей на youtube, а пока смотрим на твиче.
https://clips.twitch.tv/CuriousAmazonianWolverineWoofer-h8SQeAfJ16B-w9Ta
🔥36👍10👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Для тех, кто в танке, у CodeMiko есть youtube канал, где она вытворяет всякие безобразия с Unreal Engine, захватом лица, рук и всего тела.
Не забудьте заглянуть в шортс, там очень много добра. Про AI Hands смешно.
https://www.youtube.com/@CodeMiko/featured
И поглядите на реалтаймовую одежду и волосы - как вам?
От себя замечу, что сетап этого хозяйства - это вам не картинки в Автоматике или видео в Пикалабсе генерить. Нужен мозг и некривые руки.
Кого интересует раскрытие темы сисек, я уже писал как Code Miko ее закрывает: https://xn--r1a.website/cgevent/4547
Не забудьте заглянуть в шортс, там очень много добра. Про AI Hands смешно.
https://www.youtube.com/@CodeMiko/featured
И поглядите на реалтаймовую одежду и волосы - как вам?
От себя замечу, что сетап этого хозяйства - это вам не картинки в Автоматике или видео в Пикалабсе генерить. Нужен мозг и некривые руки.
Кого интересует раскрытие темы сисек, я уже писал как Code Miko ее закрывает: https://xn--r1a.website/cgevent/4547
🔥63👍9👎5
Кому ИИ-генерации в векторы?
Я уже писал про Recraft 9 месяцев назад, там тогда не работала генерация в вектор и все было довольно сыро.
https://xn--r1a.website/cgevent/5547
Но за это время проект нехило так развился.
400 000 пользователей, 50 миллионов генераций (хотя эти цифры тоже можно генерировать))
Там заработал экспорт в SVG, я проверил. В шапке SVG.
Предлагаю в коментах обсудить качество вектора.
Но мое внимание привлекла вот такая деталь.
Авторы хотят обучить свою модель для генерации картинок. Типа замену Stable Diffusion.
И судя по тому, что они поднимают 12 миллионов, у них, возможно, получится.
Уже ведется работа над базовой моделью: «Она будет намного больше по размеру и будет иметь другую архитектуру, которая обеспечит лучшую анатомию, качество детализации и более сложные текстовые описания»
Амбициозно.
Они целят в жирную нишу для создания и редактирования векторной графики, иконок, 3D(!?) и вообще в рекламу и брендбуки.
Стартап из Лондона, но там выходцы из Яндекса, которые запилили библиотеку CatBoost - open source library for gradient boosting on decision trees. Так что их амбиции вполне себе адекватные.
https://www.recraft.ai/
Я уже писал про Recraft 9 месяцев назад, там тогда не работала генерация в вектор и все было довольно сыро.
https://xn--r1a.website/cgevent/5547
Но за это время проект нехило так развился.
400 000 пользователей, 50 миллионов генераций (хотя эти цифры тоже можно генерировать))
Там заработал экспорт в SVG, я проверил. В шапке SVG.
Предлагаю в коментах обсудить качество вектора.
Но мое внимание привлекла вот такая деталь.
Авторы хотят обучить свою модель для генерации картинок. Типа замену Stable Diffusion.
И судя по тому, что они поднимают 12 миллионов, у них, возможно, получится.
Уже ведется работа над базовой моделью: «Она будет намного больше по размеру и будет иметь другую архитектуру, которая обеспечит лучшую анатомию, качество детализации и более сложные текстовые описания»
Амбициозно.
Они целят в жирную нишу для создания и редактирования векторной графики, иконок, 3D(!?) и вообще в рекламу и брендбуки.
Стартап из Лондона, но там выходцы из Яндекса, которые запилили библиотеку CatBoost - open source library for gradient boosting on decision trees. Так что их амбиции вполне себе адекватные.
https://www.recraft.ai/
🔥41👍7
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ-нирвана.
Пост для взрослых.
Для начала прочитайте вот этот пост:
https://xn--r1a.website/cgevent/6223 про оргазмы "с умом".
Ну и похоже идея вонзать ИИ в игрушки для взрослых пошла в массы.
На выставке CES 2024 было показано «устройство стимуляции» с искусственным интеллектом для контроля эякуляции.
Если проще - искусcтвенная вагина с искусственным интеллектом.
Все это преподносится в разрезе сексуального здоровья:
Myhixel утверждает, что ее приложение Play включает в себя 8-недельную программу обучения, которая геймифицирует мастурбацию и «клинически доказано» для лечения проблем преждевременной эякуляции.
Я поискал, в каком месте там ИИ, но похоже он спрятался в приложении. Сама игрушка на рынке уже много лет, но ИИ хайп докатился и до нее.
А я вот подумал, что это шанс для Apple Vision Pro найти, наконец, свою нишу.
С одной стороны, если вы пробовали смотреть VR-порно (лучше в 4К), то это реально, скажем так впечатляет.
С другой стороны, снимание информации с башки зрителя и может, наконец, дать необходимые данные для нейробиологической обратной связи и превратить такую связку и маркетинг-буллшита в ИИ-нирвану.
Крутизна лыжной масочки от Эппле в том, что они умеют снимать реально много данных с башки кожаного, и все эти ЭЭГ из вот этого поста будут уже не нужны.
https://myhixel.com/products/myhixel-control
https://www.youtube.com/watch?v=6Irhyg3oE5M
Пост для взрослых.
Для начала прочитайте вот этот пост:
https://xn--r1a.website/cgevent/6223 про оргазмы "с умом".
Ну и похоже идея вонзать ИИ в игрушки для взрослых пошла в массы.
На выставке CES 2024 было показано «устройство стимуляции» с искусственным интеллектом для контроля эякуляции.
Если проще - искусcтвенная вагина с искусственным интеллектом.
Все это преподносится в разрезе сексуального здоровья:
Myhixel утверждает, что ее приложение Play включает в себя 8-недельную программу обучения, которая геймифицирует мастурбацию и «клинически доказано» для лечения проблем преждевременной эякуляции.
Я поискал, в каком месте там ИИ, но похоже он спрятался в приложении. Сама игрушка на рынке уже много лет, но ИИ хайп докатился и до нее.
А я вот подумал, что это шанс для Apple Vision Pro найти, наконец, свою нишу.
С одной стороны, если вы пробовали смотреть VR-порно (лучше в 4К), то это реально, скажем так впечатляет.
С другой стороны, снимание информации с башки зрителя и может, наконец, дать необходимые данные для нейробиологической обратной связи и превратить такую связку и маркетинг-буллшита в ИИ-нирвану.
Крутизна лыжной масочки от Эппле в том, что они умеют снимать реально много данных с башки кожаного, и все эти ЭЭГ из вот этого поста будут уже не нужны.
https://myhixel.com/products/myhixel-control
https://www.youtube.com/watch?v=6Irhyg3oE5M
👍33🔥15👎5
Forwarded from Голый землекоп
..
Ai и отпечатки пальцев: революционное открытие, которое поменяет мир криминалистики. Его сделал студент, который пошел против всего истеблишмента.
Считалось доказанным, что отпечатки разных пальцев одного человека — разные. Телефон не разблокируешь указательным, если он запомнил большой.
Оказалось что это не так: отпечатки всех десяти пальцев одного человека несут так много общего, что теперь мы можем их определять. То есть, если на месте одного преступления нашли отпечаток указательного, а на месте другого - отпечаток большого, мы можем точно определить, что это был один и тот же человек. И это открытие сделал ai.
Десять пальцев, разные они или одинаковые — это на чей взгляд? Когда люди сообразили, что отпечатки уникальны, они придумали свой способ смотреть на них. Способ, которому можно обучить новичка, и он сможет находить уникальный узор, сравнивать разные отпечатки и выносить вердикт. В этом мире есть догма: разные пальцы несут разные отпечатки.
А дальше наступает 21й век и ai, появляется студент-первокурсник по имени Габриел Гуо из университета Коламбия в NY, и решает, что надо бы это перепроверить. Он ничего не знает про догму, а уметь обучать нейросети.
Ai смотрит на 60000 отпечатков, сам себе придумывает способ их изучать, и говорит: вы были неправы все это время. Теперь надо будет пересмотреть множество судебных дел, удастся оправдать невиновных и найти преступников.
Самое интересное: авторам удалось вникнуть в процесс принятия решений у ai, и произошла редкая вещь. Искусственный интеллект объяснил в понятных нам словах, что мы делали не так, и как надо смотреть — см видео.
Дальше авторы посылают статью в журнал криминалистики, и получают быстрый отказ с одной фразой: “Общеизвестно, что каждый отпечаток уникален”. Не сдаются, их отфутболивают еще из одного журнала. Но они доходят до Science (Advances)! Потому что это фундаментальный факт про человека, и потому что этот способ открытия важен для разных областей науки. В чем мы еще не раз в этом году убедимся.
Ai и отпечатки пальцев: революционное открытие, которое поменяет мир криминалистики. Его сделал студент, который пошел против всего истеблишмента.
Считалось доказанным, что отпечатки разных пальцев одного человека — разные. Телефон не разблокируешь указательным, если он запомнил большой.
Оказалось что это не так: отпечатки всех десяти пальцев одного человека несут так много общего, что теперь мы можем их определять. То есть, если на месте одного преступления нашли отпечаток указательного, а на месте другого - отпечаток большого, мы можем точно определить, что это был один и тот же человек. И это открытие сделал ai.
Десять пальцев, разные они или одинаковые — это на чей взгляд? Когда люди сообразили, что отпечатки уникальны, они придумали свой способ смотреть на них. Способ, которому можно обучить новичка, и он сможет находить уникальный узор, сравнивать разные отпечатки и выносить вердикт. В этом мире есть догма: разные пальцы несут разные отпечатки.
А дальше наступает 21й век и ai, появляется студент-первокурсник по имени Габриел Гуо из университета Коламбия в NY, и решает, что надо бы это перепроверить. Он ничего не знает про догму, а уметь обучать нейросети.
Ai смотрит на 60000 отпечатков, сам себе придумывает способ их изучать, и говорит: вы были неправы все это время. Теперь надо будет пересмотреть множество судебных дел, удастся оправдать невиновных и найти преступников.
Самое интересное: авторам удалось вникнуть в процесс принятия решений у ai, и произошла редкая вещь. Искусственный интеллект объяснил в понятных нам словах, что мы делали не так, и как надо смотреть — см видео.
Дальше авторы посылают статью в журнал криминалистики, и получают быстрый отказ с одной фразой: “Общеизвестно, что каждый отпечаток уникален”. Не сдаются, их отфутболивают еще из одного журнала. Но они доходят до Science (Advances)! Потому что это фундаментальный факт про человека, и потому что этот способ открытия важен для разных областей науки. В чем мы еще не раз в этом году убедимся.
🔥126👍30👎3
⚡️ Помогают выставить счет в USD или EUR и получить оплату на карту или счет в России.
Ваш работодатель переводит средства на наш зарубежный счет, а они выплачивают вам рубли в РФ в нужной валюте (На карту, на счет, криптой)
Работают от 1500$
Их услуги подходят, как для частных специалистов - получать постоянную зарплату из-за рубежа, так и для компаний, получать средства за проектную деятельность
Отзывы и подробности в Telegram канале @moneyport
#promo
Ваш работодатель переводит средства на наш зарубежный счет, а они выплачивают вам рубли в РФ в нужной валюте (На карту, на счет, криптой)
Работают от 1500$
Их услуги подходят, как для частных специалистов - получать постоянную зарплату из-за рубежа, так и для компаний, получать средства за проектную деятельность
Отзывы и подробности в Telegram канале @moneyport
#promo
👎57👍8🔥1
Orion 14B: Новая базовая (и возможно огненная) LLM-модель от производителя подносов.
Это не шутка, это вполне себе интересная новость начала 2024 года.
Давайте по порядку.
Вышла новая базовая LLM-модель Orion 14B, которая обучена на 2.5Т многоязычном корпусе текстов, включая китайский, английский, японский, корейский и демонстрирует отличную производительность на этих языках. Есть файнтюн для чата, отлично работает при длине токена 200 тыс. и может поддерживать максимум 320 тыс.
Полный фарш из модификаций.
Orion-14B-Base
Orion-14B-Chat
Orion-14B-LongChat
Orion-14B-Chat-RAG
Orion-14B-Chat-Plugin
Orion-14B-Base-Int4
Orion-14B-Chat-Int4
Гики могут воспроследовать сюда, поглядеть спеки, скачать веса и даже есть демо (утром работало очень быстро).
https://huggingface.co/OrionStarAI/Orion-14B-Base
Демо:
https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo-EN
Теперь интересное.
Авторы модели (не файнтюна), а базовой кошерной модели - компания OrionStar. Которые производят роботов. В основном роботы-тележки-с-подносами. Которые бегают на выставках или в бизнесс-центрах и даже в аэропортах. См шапку.
Где они собирали датасеты неводомо из пдфки (ведомо что 90% - это китайский и английский). Но подумайте, производитель робототележек выпускает свою LLM!
Не стартап на сто миллионов, не гугль или микрософт. Просто промышленная компания.
Итого, что мы ожидаем в 2024 году? Полчища опен-сорсных моделей от компаний, у которых просто есть ресурсы. И это могут быть ЛЮБЫЕ крупные(пока) компании. А не только универы со стартапами и фаанги.
Не зря CBInsights пишут, что open source потихоньку сокращает разрыв с closed sourse - разрыв никуда не денется, но будет и дальше сокращаться.
Ну и следующий тренд - LLM-ки для инференска на телефонах.
Собираюсь разобрать 112 страниц этого отчета, но дайте время.
Немного смутило одно. В бенчмарках ни одного сравнения с Мистралем.
Хотите больше инфо, гляньте тут:
https://www.reddit.com/r/LocalLLaMA/comments/19ce7kw/a_new_base_model_orion_14b_trained_on_25t_tokens/
Это не шутка, это вполне себе интересная новость начала 2024 года.
Давайте по порядку.
Вышла новая базовая LLM-модель Orion 14B, которая обучена на 2.5Т многоязычном корпусе текстов, включая китайский, английский, японский, корейский и демонстрирует отличную производительность на этих языках. Есть файнтюн для чата, отлично работает при длине токена 200 тыс. и может поддерживать максимум 320 тыс.
Полный фарш из модификаций.
Orion-14B-Base
Orion-14B-Chat
Orion-14B-LongChat
Orion-14B-Chat-RAG
Orion-14B-Chat-Plugin
Orion-14B-Base-Int4
Orion-14B-Chat-Int4
Гики могут воспроследовать сюда, поглядеть спеки, скачать веса и даже есть демо (утром работало очень быстро).
https://huggingface.co/OrionStarAI/Orion-14B-Base
Демо:
https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo-EN
Теперь интересное.
Авторы модели (не файнтюна), а базовой кошерной модели - компания OrionStar. Которые производят роботов. В основном роботы-тележки-с-подносами. Которые бегают на выставках или в бизнесс-центрах и даже в аэропортах. См шапку.
Где они собирали датасеты неводомо из пдфки (ведомо что 90% - это китайский и английский). Но подумайте, производитель робототележек выпускает свою LLM!
Не стартап на сто миллионов, не гугль или микрософт. Просто промышленная компания.
Итого, что мы ожидаем в 2024 году? Полчища опен-сорсных моделей от компаний, у которых просто есть ресурсы. И это могут быть ЛЮБЫЕ крупные(пока) компании. А не только универы со стартапами и фаанги.
Не зря CBInsights пишут, что open source потихоньку сокращает разрыв с closed sourse - разрыв никуда не денется, но будет и дальше сокращаться.
Ну и следующий тренд - LLM-ки для инференска на телефонах.
Собираюсь разобрать 112 страниц этого отчета, но дайте время.
Немного смутило одно. В бенчмарках ни одного сравнения с Мистралем.
Хотите больше инфо, гляньте тут:
https://www.reddit.com/r/LocalLLaMA/comments/19ce7kw/a_new_base_model_orion_14b_trained_on_25t_tokens/
🔥18👍9
Перебеседовал с Пашкой. В Superlook.ai куча новых убойных фильтров. Это я в роли античных скульптур и прямиком из Вальхаллы. Сделано из одной единственной фотки моей морды.
Пример идеально упакованного сервиса, который на основе Stable Diffusion, который делает очень много: от полного переодевания (что само по себе топ) до десятков очень фановых фильтров. И там под капотом нехилый такой комбайн из десятков примочек к SD и сурового рисерча.
П-Продукт.
Пример идеально упакованного сервиса, который на основе Stable Diffusion, который делает очень много: от полного переодевания (что само по себе топ) до десятков очень фановых фильтров. И там под капотом нехилый такой комбайн из десятков примочек к SD и сурового рисерча.
П-Продукт.
🔥51👍9👎2
В прошлом 2023 году ИИ-хайп полностью вытеснил из повестки тему метаверсов. В принципе это и неплохо, мутная вода ушла, остались реальные проекты, которые чего-то стоят. Ниша потихоньку формируется и занимает свое место. Но сам термин "метавселенная" до сих пор является неплохим маркетинговых ходом для привлечения молодежной аудитории к бренду.
В канале Filipchik Daily | Metaverse | Tech много об этом рассказывают и знают о чем говорят, потому что сами занимаются их созданием.
#промо
В канале Filipchik Daily | Metaverse | Tech много об этом рассказывают и знают о чем говорят, потому что сами занимаются их созданием.
#промо
Telegram
Filipchik Studios Team
Всем привет!
Это Филипчик Саша и команда. Мы — агентство Filipchik Studios!
Мы поднимаем продажи крупных компаний с помощью метавселенной и несмешно шутим✨️
Чтобы узнать нас поближе, тыкай сюда: https://filipchikstudios.com/
Это Филипчик Саша и команда. Мы — агентство Filipchik Studios!
Мы поднимаем продажи крупных компаний с помощью метавселенной и несмешно шутим✨️
Чтобы узнать нас поближе, тыкай сюда: https://filipchikstudios.com/
👎10👍9🔥2