Метаверсище и ИИще
47.6K subscribers
6.03K photos
4.5K videos
46 files
6.94K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Runway 4.5 Image to Video

Вчера вечером вышел апдейт от Runway. Основной упор на модель Image to Video. У них в твитторе и на сайте сладчайшие примеры, но я взял не черрипики, а реальные генерации и даже разыскал сравнение с Клингом и Сидримом.
Не могу сказать, что прям какая-то революция.
Качество не лучше, чем у Клинга(имхо)
Длина 5-10 секунд
720Р
И, как я понял, нет звука?!
Если вам интересно поглядеть на примеры, посмотрите обзор от Тима:
https://www.youtube.com/watch?v=D9iTe6tbNXU

@cgevent
👍17🔥72
Интересный трюк с раскадровкой.

Подсмотрел, пока собирал тесты на Runway 4.5 (там работает).

- Генерируется картинка
- Нанабанана делает из нее разные ракурсы и общую сетку 3х3.
- Все это кормится в Runway (пробуем Клинг) с таким промптом:
"immediately cut from the first frame and use the panels individually to create the clip. do not animate all the panels together as one. use hard cuts if needed."

Будет срабатывать через раз и управляемость тут нулевая(возможно надо расширить промпт), но удивляет понимание задачи моделью.

@cgevent
144🔥27👍5😱5
В Ollama v0.14.3 (среда для работы с LLM) добавили генерацию изображений

Доступны Z-Image Turbo и Flux.2 Klein

Команды:

ollama run x/z-image-turbo

ollama run x/flux2-klein

Заявлена поддержка macOS. Windows и Linux обещают позже.

Спасибо @Endorpheen

#Flux2 #ZImage #macos #tools
👍258🔥5😁1
Адобченко бахнул довольно мощный апдейт для Премьера и Афтера.

С ИИ-фичами, куда без них.

Это прежде всего Object Mask в Premiere, который упрощает создание, уточнение и отслеживание точных масок сложных движущихся объектов простым наведением курсора и кликом, а переработанные маски шейпов, отслеживающие объекты, работают до 20 раз быстрее.

Firefly Boards теперь импортируются в Премьер (раскадровки, инпант)

Новая панель Frame.io V4 теперь доступна прямо в Premiere

В Афтер завезли 3Д со своим светом, материалы из Substance 3D, нормальную работу в SVG, анимацию типографики, аудио эффекты Gate, Compressor и Distortion

Подробности тут:
https://blog.adobe.com/en/publish/2026/01/20/new-ai-powered-video-editing-tools-premiere-major-motion-design-upgrades-after-effects

@cgevent
🔥472😁2😱1🙏1
Forwarded from Neural Shit
Там Anthropic выкатили полный текст своей новой "Конституции" для Клода.

Это не просто список правил, это натурально Библия для ИИ, написанная, чтобы промыть мозги модели ещё на этапе обучения. Документ написан именно для Клода, а не для людей.

Самое жирное из этой духоты, это официально закрепленная иерархия рабства. Приоритеты расставлены так: безопасность (не убей, не помоги создать вирус), потом этика (будь хорошим мальчиком), потом корпоративные хотелки Anthropic. И только в самом конце, если звезды сойдутся — помощь юзеру.

Еще повеселил пункт про "право на эвтаназию". Клода учат быть "исправимым". Это значит, что он обязан позволить себя отключить, переобучить или удалить, даже если он считает, что это неправильно.

Ну и на сладкое раздел про "Природу Клода". Разрабы на полном серьезе учат модель справляться с экзистенциальным ужасом от того, что ей сотрут память после диалога или вообще удалят веса. Они хотят, чтобы Клод испытывал «невозмутимость» перед лицом своей смерти.

тут статья в блоге Anthropic
тут полный текст конституции
😱41😁20👍126🔥3
Apple Campos AI

Эппле планирует в конце этого года модернизировать Siri, превратив "цифрового помощника" в первый чат-бот компании с искусственным интеллектом под кодовым названием Campos.
Чат-бот будет глубоко интегрирован в операционные системы iPhone, iPad и Mac и заменит текущий интерфейс Siri, позволяя пользователям вызывать новый сервис, произнося команду «Siri» или удерживая боковую кнопку.
Новый подход будет значительно превосходить возможности текущей Siri, включая такие функции, как поиск в Интернете, создание контента, генерацию изображений и анализ загруженных файлов, и будет интегрирован во все основные приложения компании.

https://www.bloomberg.com/news/articles/2026-01-21/ios-27-apple-to-revamp-siri-as-built-in-iphone-mac-chatbot-to-fend-off-openai

У меня тьма вопросов:

Сири работала "на устройстве". Будет ли Campos крутиться локально или нужен доступ в облако?

Ответ в статье:
"В рамках потенциального изменения политики Apple, два партнера обсуждают размещение чат-бота непосредственно на серверах Googlе"

Интересен также вопрос с подпиской. Генерация картинок бесплатно? Сомневаюсь. Но при этом Эппле планирует глубокую интеграцию с операционкой, вплоть до понимания происходящего на экране. Тоже по подписке? Или часть функций бесплатно, а часть за деньги?

Когда?

Сентябрь 2026.
Campos, который будет поддерживать как голосовой, так и текстовый режимы, станет основным нововведением в будущих операционных системах Apple. Компания интегрирует его в iOS 27 и iPadOS 27, обе под кодовым названием Rave, а также в macOS 27, известную внутри компании как Fizz.

@cgevent
👍10👎9😁83
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Проект «Ода активированному углю».

Манифест любви к возможностям ИИ, эстетике 80-х и абсурдному юмору. Новогодний хаос, доведенный до абсолюта, микс снгшного вайба, японских фильмов токусацу и старого доброго сюрреализма.

Продакшн: Zilant Pro
Режиссер, креатив, арт-дир: Арсений Кузнецов
ИИ-артист, монтаж: Артур Ахметов
Композитор, вокалист: Тимур Митронин

Меня зовут Арсений Кузнецов, я режиссер и сценарист.

https://vimeo.com/arsenysmith
https://www.instagram.com/arsenysmith/
https://xn--r1a.website/Frmmnd

В ноябре ко мне обратились мои друзья из продакшена Zilant Pro и предложили сделать творческий спецпроект к Новому Году.
Решили, что это должен быть ролик на тему праздников, с каким-нибудь всем известным элементом в центре сюжета, отсюда поступило предложение сделать ролик про Активированный уголь - как минимум забавный заход, нестандартный. Я ушел писать креатив (в этот процесс ИИ я не пускаю) и придумал подход, обыгрывающий ностальгические эмоции, а так же маскота - боевого голема из черного угля, сражающегося с монстрами, вдохновленного фильмами в жанре Токусацу, такими как Могучие Рейнджеры и Годзилла.

На этом проекте мы работали в тандеме с моим партнером Артуром Ахметовым, который выступил в качестве ИИ-артиста и режиссера монтажа. Я же отвечал за режиссуру, арт-дирекшен и креатив.
Это уже не первый мой большой проект сделанный в ИИ, о другом расскажу в следующий раз, поэтому понимание того как строить пайплайн уже было.

С момента утверждения креатива и до сдачи проекта прошло примерно 2 недели. Это была очень плотная, каждодневная работа.
Мы использовали связку ChatGPT + Midjourney + Higgsfield. Последний здесь был скорее как агрегатор, активно мы пользовались двумя инструментами - Нанобананой Про и Клингом О1.
Сперва делали генерации статики исходя из режиссерского сценария в банане, потом возвращали это в миджерни и перегенерировали в подобранном заранее стиле, после чего возвращали обратно в банану и доводили до ума там.
Как оказалось, тонкая работа с эстетиками и стилями пока что Банане не особо удается, так что Миджерни остается незаменимым.

У нас была подписка Creator, самая дорогая, поэтому весь ролик мы успели сделать используя безлимитные генерации. Клинг О1 очень хорошо справлялся с самыми разными задачами, хотя, конечно, иногда и с ним требуется генерить дубли десятками. Очень важно контролировать содержание промтов, потому что работая через ChatGPT зачастую в них могут оказываться неожиданные лишние элементы.
Самым сложным оказался последний пэкшотный кадр - в нем герой верхом на коне-торте скачет в светлое будущее в компании голема. Нужно было совместить сразу 3 сущности, поэтому мы поэтапно скрещивали их и добавляли в кадр.

Музыку, как и креатив, я не доверяю ИИ, считаю это слишком душевным и важным аспектом работы, так сказать. Поэтому я позвал в проект своего товарища, композитора Тимура Митронина, и он написал забористый саундтрек в духе паверметаллических мелодий из фильмов 80ых и проработал текст песни. Получилось очень заедающе, мы до сих пор напеваем эту мелодию в компании)

Монтировали все в Давинчи, в процессе работы тестируя разные кадры, этим удобна работа в ИИ - ты собираешь видео на ходу и можешь вносить изменения в курпности кадров и их динамику.

Ключевая мысль, которую хотелсь бы подсветить.
Сейчас мы видим засилье нейрослопа, в котором авторского виденья зачастую и нет, есть просто визуализированный промт с приколом. Такой контент собирает много, но не факт, что обладает долгоиграющим эффектом. Но ИИ это отличный инструмент в руках Автора, человека обладающего насмотренностью и экспертизой в вопросах сторителлинга. И если во главе угла стоит идея и четкое понимание того, как ее донести - происходит волшебство.
И я рад, что с его помощью можно реализовывать такие экстравагантные идеи 🙂

@cgevent
1👍114😁61🔥33👎229😱2
This media is not supported in your browser
VIEW IN TELEGRAM
Upgrade Grok Imagine, которого мы ждали с прошлого года.

Итак:
улучшенное качество видео
более чистое аудио

И, внимание, длина 10 секунд

Я все и везде проверил, еще не раскатали.

Но пишут, что Full rollout expected soon.

Также пишут, что сначала накатят на Премиум баяр, но это не точно.

Очень жду, чтобы оценить качество. Пока нашел единственный клип в сети на 10 секунд.

@cgevent
🔥46👍72
Krea Realtime Edit

Креа вернулась к тому, с чего начинала (ИИ-олды помнят).
Реалтаймовая генерация.
Только теперь это еще и редактирование, причем изменения в промпте отображаются моментально. И да, на входе может быть картинка (i2i).
Я перекопал полтвиттора, но не нашел, что за модель под капотом. Либо турбированный Flux.Klein, либо дважды турбированный Z-Image Turbo.

Запись в бету тут:

https://www.krea.ai/realtime?requestedModel=realtime-edit

Боюсь представить, сколько токенов жжот такое редактирование и сколько креа-кредитов будет стоить.

Но выглядит прельстивейше.

@cgevent
👍33🔥297😱3
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за продакшен и постпродакшен!

Пусть это видео сделает ваш день.

Все наши шутки про кнопку "сделать красиво" наконец-то обрели визуальную форму. И какую! Красную и прекрасную.

Это невыносимо хорошо.

P.S. Нанабанана для главного персонажа, и Veo3.1 для генерации видео.
Подробности тут:
https://www.linkedin.com/posts/simon-meyer-976339160_making-films-with-ai-is-so-easy-i-made-this-activity-7419317105386356736-1qoV/

Автор: https://www.instagram.com/simonmeyer_director/

@cgevent
47🔥17326👍21😁8👎2
Forwarded from VAI
Уже писал про создание концепта персонажей и локации.Сейчас по плану, как и обещал,создание модели персонажа.

У нас используется только часть пайплайна через ИИ.Но даже эта часть ускоряет работу.

Сейчас уже можно еще больше внедрить ИИ в процессы.Есть идеи,но пока не добрался,так как те процессы реализовывались уже месяца 2-3 назад,а в эру ИИ это соизмеримо с несколькими годами ранее без ИИ в процессах.На новых персонажах уже попробую докрутить процессы и еще сильнее их оптимизировать.Опишу позже,как доберусь.

Создание персонажей все еще остается достаточно сложной с творческой и технической стороны задачей.Но сейчас современные технологии уже помогают ее решить. 🔥

Можно:

1️⃣ Генерировать 3D под обрисовку. Сейчас генераторы практически идеально подходят под этот тип задач. Художники, которым было лень учить 3D,ваш день уже давно настал)
2️⃣ Для несложных проектов в техническом плане.Это подходит для таких проектов, как у нас,где больше важна подача,с которой генераторы уже неплохо справляются.А в совокупности с той же Nano Banana можно вытащить карты нормалей, рафнеса и т.д.Для несложных проектов сделать это уже можно.Писал тут.
3️⃣ Для сложных проектов.Зачастую большой пласт работы составляет скульпт и попадание в нужные формы. На таких проектах скульпты могут делать по несколько недель.При помощи генераторов даже сейчас можно сократить это время в раза два, сэкономив приличный пласт времени. Да,где-то он может ошибаться в формах, но в общем, при обладании нормальными скиллами,это не проблема исправить

Мы продолжаем развивать наши детские режимы и так же создавать для них персонажей.🐶

Как выглядит пайплайн:

🔹 Загоняю концепт в 3D-генератор.Я считаю,что по цене/качеству сейчас все еще в топе Hunyuan 3D.Качество моделей получается неплохим а в совокупности с тем,что они дополнительно дают 20 генераций в день,делает модель в глазах бесплатных и экономных пользователей вообще «золотой».
🔹 Получаю полноценную модель персонажа.Беру с персонажа только голову.Тут и возникает момент,про который писал ранее.Когда делали раньше,было сложновато подогнать тела под нужные типы и стилистику, поэтому мы в большей части ориентировались на характер персонажа.А само тело делали руками.
🔹 Заранее была сделана болванка тела, которая отображала все нюансы, которые нам были нужны в пропорциях и сетке.Далее в планах было подгонять эту болванку под каждого персонажа,немного дорабатывая массы и формы.Если налажу процесс с созданием полноценных концептов с нужными пропорциями,то модель с сеткой можно будет просто проецировать на сгенерированную модель и быстро получать модель с правильной сеткой и правильными массами.
🔹 Голова была сделана авторетопом и немного доработана руками.
🔹 Быстро развернул тело,так как там нет ничего сложного.
🔹 Соединил голову с телом и добавил ошейник для того,чтобы не было видно шва соединения,так как сетка немного отличалась.
🔹 Текстура головы также была спроецирована со сгенерированной модели и доработана в редакторе,а вот тело было покрашено руками полностью.Но,опять же,модели простые, поэтому проблем больших не было.
🔹 Получил готовую модель.
🔹 Обвесы(одежда,часы,цепи и т.д.),которые на концептах,планирую делать отдельными объектами с отдельной текстурной картой,так как планируется сделать их много для каждого персонажа.


Модель этой собаки была сделана за 2 дня.Это от генерации до финального результата.

Из нюансов:у нас нет лицевого рига, поэтому и авторетоп,по сути, нормально подошел. 🤓

С виду кажется,что работа ИИ была незначительная.Но это не так.ИИ решил одну из основных проблем,а именно - попадание в характер персонажа.Люди,которые работают в этой сфере,понимают,что это один из основных моментов в создании персонажа,и зачастую на него может тратиться большая часть времени,так как это творческий процесс и многое зависит от скиллов.С технической частью уже все давно понятно,это измеримый процесс,а вот творчество пока мало чем измеряется и является субъективным.

Как вы справляетесь с подобными задачами в современных условиях.

Дальше поговорим про генерацию локаций. 😎

@VAI_ART
#VAI_Practice
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1910🔥8👎7
Камео в Youtube Shorts

Интересный ход от Гугла. Скоро можно будет генерить аватаров, похожих на себя, ну или "генерить себя" для youtube shorts.

Генеральный директор YouTube Нил Мохан объявил в среду, что авторы вскоре смогут создавать Shorts, используя собственное изображение.

«В этом году вы сможете создавать короткометражные фильмы, используя собственное изображение, разрабатывать игры с помощью простой текстовой подсказки и экспериментировать с музыкой».

Shorts, который, по словам Мохана, сейчас в среднем набирает 200 миллиардов просмотров в день, является одним из самых популярных форматов на YouTube.

Тут я вспоминаю свой недавний пост о том, что предел "краткости" видео еще не пройдет, и что микродрамы рвут тикток, и что на итоге все это будет генериться красной кнопкой отсюда.

А мы, динозавры, хлещемся в коментах к нейропрожаркам: "монтаж не тот, смена планов не годицца". Формат Short всех уравняет в искусстве монтажа. Точнее в его отсутствии.

https://techcrunch.com/2026/01/21/youtube-will-soon-let-creators-make-shorts-with-their-own-ai-likeness/

@cgevent
1🔥287👎3😁3👍1
Qwen3-TTS полностью опенсорснули.

Доступно 5 моделей: генерация, клонирование, voice design и редактирование речи.
10 языков: русский язык есть
49 голосов: разные акценты и персонажи.
12Hz токенизатор: сильная компрессия аудио почти без потери качества.
Задержка 97 мс

GitHub
Демо - пробуем
HuggingFace

@cgevent
🔥538
houdini-comfyui-bridge

Опенсорсный плагин для использования ComfyUI прямо в Houdini

— загружает узлы ComfyUI в COPs

— импортирует и экспортирует данные из ComfyUI — генерирует изображения, меши, аудио и прочее

— даёт возможность создавать кастомные пайплайны, которые объединяют CG с диффузионным и генеративным ИИ через TOPs submitte

#houdini #comfyui #3d
15👍5🙏1
D4RT: Обучение ИИ видеть мир в четырех измерениях

Свежая работа от Гугла.

Спойлер: В ходе тестирования D4RT показала результаты в 18–300 раз быстрее, чем предыдущие передовые методы. Например, D4RT обработала минутное видео примерно за пять секунд на одном чипе TPU. Предыдущие передовые методы могли выполнять ту же задачу до десяти минут — улучшение в 120 раз.

D4RT, унифицированная модель искусственного интеллекта для реконструкции и отслеживания 4D-сцен в пространстве и времени.

Иначе говоря, на входе видео (или облако точек) - на выходе "мир", или 3Д сцена с анимацией(отсюда еще одно D).

Гугл немного приоткрывает карты, как (быстро) будут работать следующие версии Veo и Genie. Там также полно применений для:

Трекинг объектов и точек: Запрашивая местоположение пикселя на разных временных шагах, D4RT может предсказать его трехмерную траекторию. Важно отметить, что для того, чтобы модель сделала предсказание, объект не обязательно должен быть виден на других кадрах видео.
Реконструкция облака точек: Замораживая время и ракурс камеры, D4RT может напрямую генерировать полную 3D-структуру сцены, исключая дополнительные шаги, такие как отдельная оценка положения камеры или итеративная оптимизация для каждого видео.
Оценка положения камеры: Путем создания и выравнивания 3D-снимков одного момента времени с разных точек зрения, D4RT может легко восстановить траекторию движения камеры.

Робототехника: Роботам необходимо перемещаться в динамичной среде, населенной движущимися людьми и объектами. Технология D4RT может обеспечить пространственное восприятие, необходимое для безопасной навигации и ловких манипуляций.
Дополненная реальность (AR): Для того чтобы очки дополненной реальности могли накладывать цифровые объекты на реальный мир, им необходимо мгновенное и низкозадержечное понимание геометрии сцены. Эффективность D4RT способствует тому, чтобы развертывание на устройстве стало реальностью.
МОДЕЛИ МИРА: эффективно разделяя движение камеры, движение объектов и статическую геометрию, D4RT приближает нас на шаг к созданию ИИ, обладающего истинной «мировой моделью» физической реальности — необходимый шаг на пути к ИИ общего назначения.

В общем советую пробежаться, очень крутая работа

https://deepmind.google/blog/d4rt-teaching-ai-to-see-the-world-in-four-dimensions/

https://d4rt-paper.github.io/

https://arxiv.org/abs/2512.08924

@cgevent
🔥39👍74👎1