Метаверсище и ИИще
48.5K subscribers
6.08K photos
4.57K videos
47 files
6.99K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Forwarded from VAI
Продолжаем тему генерации от концепта до модели.Уже писал про концепт персонажей,локации и создание модели персонажа.Сейчас на очереди генерация моделей для локаций.

В генерации моделей ИИ пока не в состоянии вытащить полный пайплайн,так как в 3D очень много технических моментов.Но тем не менее,даже при частичном использовании, он сейчас помогает в создании моделей и локаций.

Можно:

1️⃣ Генерировать под обрисовку.Сейчас генераторы практически идеально подходят под этот тип задач.Можно сгенерировать нужный объект и обрисовать.
2️⃣ Создание полноценных 3D-концепций.Сейчас можно за относительно короткий срок собрать локацию любой сложности Да,с проблемной сеткой и разверткой,но это для таких задач и неважно.Расстояние от идеи до полноценной локации, по которой можно уже пробежаться и ощутить всю полноту, сокращается практически до точки.
3️⃣ Для несложных проектов в техническом плане. Для таких проектов генераторы уже неплохо справляются.В той же Nano Banana можно вытащить карты нормалей,рафнеса и т. д.Писал тут.
4️⃣ Для сложных проектов.Сгенерированные объекты можно также доскульптить или использовать как болванку с массами для моделирования под сабдив.И в том,и в другом варианте это экономит время на первоначальном этапе формирования масс.Да,с очень сложными моделями, где много форм, пока всё еще могут возникать проблемы.Но как вариант,эти объекты можно делить на подобъекты на концепте и генерировать по частям,а затем уже собирать всю модель целиком в редакторе.

Мы используем ИИ сейчас в основном для создания первичного представления локации.Я сажусь и по концепту за 3-4 дня собираю игровую локацию.В первую очередь это помогает избежать большого количества правок, так как локация, которая отдается на доработку,с визуальной составляющей уже практически готова.И 3D-моделлеры на основе созданной локации дорабатывают модели.Раньше всегда в процесс вмешивался обычный человеческий фактор:неправильно понятое ТЗ,непонимание,как объект должен выглядеть в конце,и т.д.Я часто слышал от ребят,что начинать очень сложно,так как сложно начать подстраиваться под новую локацию,и первые этапы зачастую шли долго.Но когда общий визуал выстраивался,доработка шла намного быстрее.

Когда собираю локацию,стараюсь сразу сделать и сетку,и текстуры (с разверткой всё еще беда).Это получается не всегда, так как модели пока плохо контролируются в технических факторах,но периодически удается.

Как выглядит пайплайн:

🔹 Про концептирование локаций я уже писал ранее.Так как концепты,по сути,уже есть,вынимаем через Banana каждый объект отдельно.Делается это несложно.Добавляем каждый объект на однотонный фон и там,где требуется,генерируем ракурсы.
🔹 Получаем модель.По максимуму пытаемся вытащить хорошую сетку и текстуру (чтобы потом перепечь).Инструменты постоянно развиваются,но пока это получается с переменным успехом.
🔹 Дальше берем модель,дорабатываем сетку,пере разворачиваем и запекаем текстуру (текстуру также дорабатываем,исправляем косяки).
🔹 Заменяем все эти объекты и настраиваем локацию.

Как я и писал,пока не получилось полностью заменить весь пайплайн,но и сейчас это сокращает разработку локации,убрав непонимание и тупняк в самом начале.

В этом году мы,скорее всего,увидим уже полные пайплайны - не идеальные,но уже работающие,которые позволяют практически на 100% делать всё через ИИ.Это видно:почти каждую неделю есть новости про новые инструменты,видно,как они развиваются,а к наиболее удачным даже присматриваются крупные игроки для внедрения к себе.

Сейчас у разных ИИ-сервисов есть свои сильные и слабые стороны, поэтому можно собирать пайплайны,используя разные ИИ.Но это, как по мне,дорога в никуда,так как нужно постоянно изучать разные сервисы и держать руку на пульсе,потому что инструменты в таком подходе очень быстро устаревают и заменяются.

Для работы также использую Hunyuan и их 3d Studio (там дается больше контроля над созданием модели,но это также не всегда нормально работает).

Ну и по традиции:если у кого-то есть свои способы и методы,буду рад,если вы поделитесь.

В комментариях допишу еще пару моментов.

@VAI_ART
#VAI_Practice
5013🔥10👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Kling 3.0

Было две модели Kling 2.6 и Kling O1, а стало снова две!

Kling 2.6 теперь называется VIDEO 3.0
Kling O1 теперь называется VIDEO 3.0 Omni


Доступ к ним в интерфейсе через кнопки Generate и Omni соответственно.

Omni - это как бы редактирующая модель, куда на вход можно подавать не только текст, но и аудио и видео.

Как я понял, доступ пока только для подписчиков Ultra, но надо смотреть внимательно, какие у них сейчас промо.

Вот тут вы найдете полный фарш про новые возможности обеих моделей, а я вынесу пока основные ништяки.

Для VIDEO 3.0:

Длина видео теперь от 3 до 15 секунд, и можно выбирать произвольную длину в этих пределах.

Multi-shot - до 6 склеек в одном видосе.

Start Frame плюс Element Reference - фиксация персонажей, предметов и сцен через Elements. Даже при смене консистентность должна сохраняться.

Больше языков (китайский, английский, японский, корейский, испанский), а также аутентичные диалекты и акценты, и даже диалоги на разных языках в одной сцене. Улучшенный нативный звук.

Улучшена работа с текстом.

Для VIDEO 3.0 Omni:


Загрузка на вход видео продолжительностью 3-8 секунд (например с участием персонажа), и модель извлечет основные черты характера и голос, сохранив внешность и общее сходство.

Ввод голоса как референса

Мультитрек работает и в Омни

Storyboard Narrative 3.0: Гибкая продолжительность, настраиваемые кадры и точный контроль до 15 секунд.

Баяре с Ultra - пишите, что да как

Черрипики в твитторе выглядят убойно.

@cgevent
🔥486👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Также обновился Kling IMAGE 3.0

Теперь это IMAGE 3.0 Omni. На входе мульти-референсы и пр.

Пакетная обработка и пакетная оптимизация. Минимизация повторяющихся задач.

Просчет в 2К и 4К без апскейла (надо проверять).

Вот тут полный список улучшений (они там в конце называют эту модель O3, чтобы нам жизнь стала еще проще)

@cgevent
🔥2912👍2😱2
This media is not supported in your browser
VIEW IN TELEGRAM
Kling 3.0 - сколько Виловсмитов?

Смотреть со звуком!

@cgevent
😱46🔥39😁14👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Вроде как Kling 3.0 начнут раскатывать на более дешевые тарифы на следующей неделе.

@cgevent
😁54👍165😱3👎2
Про нейропрожарку.

Сдается мне формат уникальный, поэтому я буду продолжать.
Прошу прощения у всех, кто заждался, но скопилась очередь где-то на 10-15 работ. Сейчас я вытаскиваю последние работы, присланные еще в декабре.
Приоритет у тех, кто присылает в первый раз, но про остальных тоже помню. Если я написал, "поставил в очередь", то ваша работа попала в отдельную папку в телеге и рано или поздно до нее дойдет черед.
Я стараюсь постить 5 работ в неделю, но все равно есть очередь.
Надеюсь на понимание.
И спасибо всем за очень дельные коменты, и то что вы не хамите друг другу. Будете хамить - буду банить.
Доступ в коменты я давно закрыл, не готов модерировать новых участников - после того как разогнал троллей и хамов, теперь в чате нормальное общение.

https://xn--r1a.website/cgevent/13240

@cgevent
54🔥11👍9😱2👎1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

🎬 Работа с реальными людьми в Sora 2 — два камео, один клип, и максимум возможностей.

Сегодня хочу показать пример того, как в Sora 2 можно работать с несколькими реальными людьми в одном кадре — и уже сейчас закладывать основу для будущих сериалов, клипов и полноценного кино.

В этом ролике мы протестировала взаимодействие двух актёров в кадре — 90 % сгенерировано в Sora 2 с сохранением реалистичной внешности.

🧑‍🎤 Актёры с использованием ИИ:
Егор Кузьмин — в роли актёра
Мария Семичастнова — в роли актрисы
🎼 Композитор: Анастасия Романова
🎨 Режиссёр / креаторы: Мария Семичастнова и Анастасия Романова

Про процесс (коротко и по делу)

Работа началась с музыки — генерировалась она в SUNO, именно трек задал эмоциональный вектор проекта.
Затем через GPT-чат была собрана текстовая история и раскадровка (без ассистентов).

Далее — генерация видео в Sora 2 с двумя камео (с разрешением партнёра на использование его образа в генерациях, чтобы избежать нарушения авторского права), чтобы персонажи ощущались как живые AI-актёры.

Для повышения реалистичности и более точного попадания губ в речь была выполнена дополнительная правка липсинка в Kling и HeyGen.

Самым сложным этапом стала сборка и монтаж: важно было удержать смысл, ритм и точное попадание в бит от начала до конца.
Монтаж и финальная сборка выполнялись в DaVinci Resolve.

Технический лайфхак

Оптимально генерировать 3–5 кадров за раз в ролике до 10 секунд, либо работать с 15-секундными сценами и не более чем с двумя камео — так получается меньше артефактов и стабильнее результат.

Дополнительные детали производства

— Вся работа заняла около недели, в среднем по 5 часов в день
— По стоимости: использовалась одна подписка Syntx Ultra, дополнительных затрат gpt офф версия для работы с камео через бот.

Что важно

Sora 2 уже сейчас позволяет удерживать внешность, взаимодействие, мимику и пластику нескольких персонажей. Да, это ранний этап — но для клипов, фэшн-роликов и тизеров возможности уже впечатляющие.

Представьте:
— персональные клипы с реальными людьми,
— мини-фильмы и коллаборации без съёмочной площадки,
— или даже пилот сериала, созданный прямо в нейросети.

Этот ролик — небольшой, но показательный шаг к персонализированному AI-кинематографу.
И да — мы уже можем играть в это будущее.

@cgevent
👎71👍44🔥1311
Скандал вокруг Higgsfield

Похоже, что Хиггсы переборщили с маркетингом и фейковыми демо-материалами.

Nick St. Pierre - евангелист Midjourney и нехилый такой инфлюенсер в твитторе (173К) - развернул настоящщую войну против Хиггсов. Ну и понеслось - в твитторе сейчас пригорает холивар за и против Higgsfield - хейтеров гораздо больше по моим ощущениям, впрочем доверять выдаче твиттора я бы не стал.

А все началось с того, КАК Хиггсы стартанули рекламную компанию про Vibe-Motion.

1. Бахнули твит (уже удален), что они только что УБИЛИ 20 креативных профессий. И что новый Vibe Motion работает на стероидах Клода.

2. Бахнули много видосов (уже удалены) о том, что может делать Vibe Motion. С бургерами в том числе.

3. И тут юзеры углядели, что на этих видосах явно угадываются эффекты для афтерэффектс от Envato и Jitter (envato - это маркетплейсы темплейтов для вордпресса, шаблонов для афтера, пресетов для разных дизайн-платформ)
Короче, спалили Хиггсов на том, что они скомпозили демо в афтере и выдали это за результат Vibe Motion.

4. В твитторе и у меня в коментах некоторые смышленые юзеры уже попробовали Vive Motion и жалуются, что не могут и близко получить результат, показанный на демо, и, что получается унылое говнолого с такой же анимацией.

5. Те, кому интересно, могут сравнить видео в шапке поста (уже удалены из твиттора) и вот такие эффекты без всякого ИИ:
https://elements.envato.com/tasty-burger-3d-intro-NXVF8KV
https://elements.envato.com/warehouse-logo-TMY5W9C
https://jitter.video/file/?id=zDzYdF1_NYSBQUIyBqigF

6. Сейчас вся лента твиттора Хиггсов забита анонсами Kling 3.0 в таком количестве, что докрутить до Vibe-Motion постов проблематично, и остался только один пост - сильно откорректированная версия одного из оригинальных старт-топиков по Vibe-Motion.

Хиггсы, в последнее время, выбрали стратегию как можно более частого выпуска вирусных фич, но работая с вирусами можно заиграться вирусный маркетинг, который часто имеет обратную сторону и может вызвать негативный вирусняк в обраточку.

Впрочем, может вся эта ситуация тоже часть маркетинга.

@cgevent
🔥44😱25😁1914👍12👎1
Большая красная кнопка. Netflix

Обнаружил, что вышел фильм "RIP" (Лакомый кусок) с Matt Damon & Ben Affleck, и срочно побежал смотреть.
Обожаю их первый фильм "Умница Уилл Хантинг", пересматривал раз 6.
Вижу, что новый фильм вышел сразу и только на Нетфликс. То есть в кино не пойдет. Насторожилсо.

Смотрю кино и понимаю, что что-то не так. Вроде все в порядке, заматеревшие Мэтт и Бен прекрасны в кадре, антураж полицейского боевика на месте, тачки, бронежилеты, оружие в больших количествах.
Фильм бодро стартует, а потом я понимаю, что меня водят по кругу, действие как будто повторяется, все одно и тоже до самой кульминации, потом бодрая кульминация и ванильная сцена, как они сидят на берегу и смотрят на море.

Ну то есть ощущение как от поддельных елочных игрушек, также ярко сверкают, но не радуют. Не зашло.

И тут обнаруживаю подкаст у Джо Рогана с Мэттом и Беном, начинаю смотреть и буквально в самом начале речь заходит про Нетфликс. О том, что если ты режиссер и делаешь фильм для Нетфликс, то тебе говорят, по каким шаблонам его делать.
https://www.youtube.com/watch?v=AVEZBy1uAk8

Первое - это начало. Надо вбухать половину бюджета в начало, чтобы удержать зрителя в самом начале просмотра, захватить его внимание, расслабить пальцы на пульте, чтобы не дай бог не соскочил с просмотра.
Тут Мэтт такой, но мы то привыкли, что надо сохранять бюджет для сцены с кульминацией, ближе ко второй половине, мы же привыкли так делать.
Не-не-не, говорит Нетфликс, бахать надо вначале.

Второе, мне фильм показался туповатым, полфильма считают деньги, и говорят про одно и то же. И тут оказывается, что у Нетфликса есть видение, что зрители смотрят кино, отвлекаясь (сидя в) на телефоны. И поэтому, чтобы зритель не потерял нить, ему надо повторить все несколько раз и разжевать, пока он отвел взгляд от телефона. А я-то думаю, где развитие героев и характеров, вот оно что..

Третье. Кино не должно "напрягать" (disturbing), иначе новый нормальный хрупкий зритель соскочит с просмотра, на что-то более лайтовое для его измученной телефоном психики.

И все это оформлено в виде требований к режиссуре фильмов для Нетфликса. Короче, Мэтт и Бен говорят об этом достаточно негативно.

Фильм в общем не зашел, на итоге скучное кино получилось (но "досматриваемое"), и подумалось мне следующее.

Сейчас требования к режиссуре от стриминга оформлены как продюсерские кожаные правила.
Но у Нетфликса нереальная статистика, о том, кто и сколько досмотрел, с какой минуты ушел, вернулся ли, где ставил на паузу, где смотрел долго не прерываясь. Все это можно поручить ИИ - как замонтировать кино так, чтобы обеспечить максимальную "досматриваемость". Сначала руками кожаных, где ИИ выступает как продюсер, просматривая материал, анализируя его и сообщая: "вот тут зрители соскочат, переделать". А потом уже компьютервижен, анализ, ИИ-перемонтаж под минимизацию потери внимания.
У Нетфликса совершенно отчетливая метрика - "внимание", им неважна касса, у них валюта другая - просмотры и удержание. Поэтому и фильмы другие, заточенные под максимизацию времени просмотра.
И что-то эти фильмы мне совсем не нравятся, старый наверное.
Не люблю Нетфликс, люблю HBO.

@cgevent
193👍56😱15🔥7😁4
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Буктрейлер. Автор Павел Иевлев (Semiurg)

То, что я хочу показать в "Нейропрожарке", немного необычно для этого паблика, потому что это буктрейлер к книге.

Я писатель-фантаст, возможно кто-то здесь читал мои книги, и с некоторых пор я делаю их иллюстрированными. Собственно, ролик представляет собой анимацию иллюстраций, использованных в книге, никакой специальной отдельной генерации не делалось (в бумажной книге около сотни цветных страниц, что сейчас редкость, а в электронке их еще больше).

На сегодня я оживляю картинки для бумажных версий (по AR-технологии, анимация подтягивается при наведению телефона на картинку), и делаю гиф-анимацию в епабах электронок. Кажется, в мире писателей такой фигней занимаюсь один я, потому что мало кто станет возиться, читателям в целом пофиг.
Это объясняет, почему клип вертикальный - он собирался из анимаций книжных страниц.

Книга "Седьмая мапа" - киберпанк, точнее "Производственный роман о трудовых буднях работников системного администрирования интим-индустрии", эстетика трейлера соответствующая.

Картинки - Midjourney, которой сохраняю верность еще с версии 3, несмотря на то, что перечислять ее недостатки устану. Если надо интересный рисунок, а не убедительный фотофейк, то мидж остается лучшей, хотя иногда неимоверно бесит беспросветным промттупизмом.

Анимация - Grok (до свежей обновы, то есть пятисекундный и плохо умеющий в русский липсинк, поэтому липсинка там нет вообще). Грок... ну, просто у меня есть там подписка и мой впн с ним работает. Наверное, клинг и нанобанана лучше, не пробовал. Мидж сильно хуже (как по мне, вообще зря они полезли на поляну видео, лучше бы научили в картинках пальцы считать наконец).

Музыка - Suno 5. Ну, тут вообще говорить не о чем - а кто ещё-то?

Монтаж CapCut, потому что Мак.

Расходов собственно на буктрейлер ноль, потому что подписки на Грок, Суно и Мидж у меня и так есть, да и картинки делались под книгу. На оживляж и монтаж ушло что-то около недели неспешных возюканий по час-два вечером.

Никакой специальной цели не ставилось, потому что на продажи книг буктрейлеры (сюрприз!) не влияют вообще никак. Просто у меня были картинки, Грок и Суно, так почему бы и нет?

Книгу можно почитать на моем сайте,
https://semiurg.ru/7map/

@cgevent
2👎94👍38🔥119😱2
Forwarded from AI Product | Igor Akimov
Сlaude Opus 4.6! Апгрейд флагманской модели Claude Opus.

• Значительно сильнее в сложных профессиональных задачах – код, поиск, анализ больших текстов и reasoning. Работает над длинными контекстами лучше, чем предшественники.

• Добавили adaptive thinking – модель сама решает, когда углублённо думать.

• Появились новые параметры управления размышлением, более длинные выводы (до 128k токенов), контекст до 1M.

• Интеграции в инструментальные цепочки – Excel прокачан, PowerPoint в превью.

• Уровень безопасности не ниже, чем у Opus 4.5.

https://www.anthropic.com/news/claude-opus-4-6
👍2310🔥6
Forwarded from AI Product | Igor Akimov
Claude зарелизил свои "команды разработки" - Claude Code: Agent Teams.

• Каждый агент — полноценная сессия Claude Code с своим контекстом.
• Они общаются не только с главным агентом, но и друг с другом.
• Есть общий список задач — он координирует работу команды.
• Подходит для сложных workflows, где надо делить работу на части, исследовать варианты, дебаты/ревью, сопоставлять результаты.

Как работает:
• Включается через флаг/переменную среды CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS.
• Говоришь Claude собрать команду с ролями/целями.
• Появляется lead-агент, который управляет задачами, и несколько teammates.
• Можно выбирать режимы отображения (в одном терминале или в split-панелях).
• Lead распределяет задачи, агенты самостоятельны, но координируются через общий список.
• Можно требовать согласования плана от агентов перед исполнением.

В итоге это мини-команда Claude, работающая как настоящая распределённая команда для твоего проекта. Как обычно убили сотню стартапов, которые подобные штуки разрабатывали.
https://code.claude.com/docs/en/agent-teams
🔥34👍112
Forwarded from эйай ньюз
Ну и OpenAI не отстаёт с GPT 5.3 Codex

Лучше по всем фронтам, при этом с сильно выше эффективностью использования токенов — достигает результатов 5.2 Codex используя в 4 раза меньше токенов. Немного жаль Opus 4.6, который побыл SOTA на Terminal Bench всего несколько минут...

@ai_newz
😁439👍6