Метаверсище и ИИще
50.1K subscribers
6.16K photos
4.75K videos
47 files
7.09K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Runway Characters - это реально работает.

Не знаю, сколько это будет жрать денег по API - с меня списало по 10-20 кредитов за каждый разговор.
И да, у них есть лайв-демо, можно поболтать (за кредиты) с разными персонажами. Я поболтал - там хорошо отрабатывают роли: HR специалист тупой но настойчивый, а инфлюенсер истерично восторгается любым вопросом.

Но что интересно, там можно создать своего РЕАЛТАЙМОВОГО персонажа. Просто загрузить фотку. Дать промптом инструкции и даже загрузить базу знаний (но мы тестируем не это, а внешний вид).

Поэтому я вонзил в него любимую фотку Марго Роби и он сожрал ея как зайчик морковку, никаких "я не могу использовать реальных людей".
Ну конечно, грех было не поговорить с таким персонажем про дипфейки.
Все работает, задержка небольшая, можно сохранить запись после разговора, жрет немного кредитов (использовал два гугл-акка для тестов). Да, она туповатая, но мы сейчас не про это - в ваших решениях и ботах работают ваши чат-модели.

Я про то, что я загрузил довольно кривую фотку - взгляд не в камеру, артефакты на черном фоне - но все равно, оно сделало очень узнаваемый аватар и он очень живой. Да, у нее двоится носик местами и иногда косят глазки, но надо просто фотки нормальные использовать, две других сущности нормально отработали, не косят, не двоятся.

В общем это очень круто. Посмотрите еще примеров у них на сайте:
https://runwayml.com/product/characters

И попробуйте демо тут:
https://app.runwayml.com/video-tools/teams/cgevent/ai-tools/characters

Жду вашего треша в коментах.

@cgevent
😁20👍11🔥106👎5
This media is not supported in your browser
VIEW IN TELEGRAM
Для тех, кто забыл, напомню, что есть опенсорсный аналог Runway Characters.

Это DeepCamLive - загружаешь одну фотку - и ну говорить ее лицом в любой камере на компе. Устанавливается как виртуальная камера, поверх любой вебки.

У них недавно вышла версия 2.7, но хотя они и опенсорс с кодом, доступ к последним бетам и расширенным фишкам они дают по подписке (22 доллара, а для юзеров Мака - 32 доллара (эпплешейминг, однако))

Качество, конечно, трешеватое, но для стримов может сгодится. Интересная фишка - маскирование области губ, чтобы в звук попадали оригинальные губы.

https://deeplivecam.net/

https://github.com/hacksider/Deep-Live-Cam

@cgevent
🔥166
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Democracy Show


Автор: Александр Зуев

Немного предыстории.

Увидел я, значит, что Синтакс проводит конкурс трейлеров несуществующих фильмов и призадумался. А что такого за последнее время лично меня поразило и о чем захотелось бы порассуждать? А поразила меня медийка военная, все эти ролики в соцсетях в стиле компьютерных шутеров под драйвовое музло - убийства, это же круто и весело. Вишенкой на торте стали, конечно, ребята из Palantir, которые выкатили, по сути дела, игру, где хорошие ракеты могут убивать плохих людей где-то далеко далеко. С удобным интерфейсом и всякими ИИ-помощниками, куда ж без них. Что-же будет дальше? С этими мыслями я отправился ко сну. И было мне ночью видение:

"В недалеком будущем американские военные корпорации в связке с политиками решают легитимизировать военные преступления в глазах общества и сделать из них шоу, цинично перекладывая тем самым ответственность за сопутствующий ущерб или ошибки на простых турбопатриотических граждан. Обычная домохозяйка из Техаса в прямом эфире, под бодрое улюлюканье и гул толпы решает, достоин ли жить Абдул с другого конца глобуса, которого она никогда не видела."

Решил обернуть это в гротескную антиутопию с вайбами 90-х и Пола Верховена.

По реализации - пара вечеров под пивко. Почти всё txt2vid Kling 3 по моему пайплайну в Weavy, бюджет - пачка сухарей.

Особо не вылизывал, так как цель была получить на руки визуальное воплощение идеи. На днях услышал новое для себя слово из киноиндустрии - "сиззл" (а то всё питчинг, питчинг). Вот это примерно оно. Только я собрал сиззл не из кадров чужих фильмов, а в нейросетях. И выглядит, как будто, очень недурно.

PS. Не на какой конкурс я, само собой, не подавался, так как для участия надо было делать всю работу исключительно в Синтаксе. Спасибо.


@cgevent
👍74🔥42👎18😱72
Первоапрельские шутки в этом году специфические

Если вы видите этот пост, просто поставьте лайк.

Шуток сегодня больше не будет...

@cgevent
👍24463😁16😱9👎2🙏2
Veo 3.1 Lite

Вдвое дешевле Veo 3.1 Fast при той же скорости работы

Если посмотреть цены на API:
https://blog.google/innovation-and-ai/technology/ai/veo-3-1-lite/

То это уже приближается к китайцам.

Правда длительность видео 4, 6, 8 секунд проигрывает Сидэнскому с его 15 сек.

Есть Text-to-Video и Image-to-Video в 720p или 1080p

Доступно не только в Gemini API и Google AI Studio, но и во Flow:

https://labs.google/fx/tools/flow

Каждая генерация стоит 10 кредитов. Если у меня подписка Pro, то моих 1000 кредитов должно хватать на 100 видосов (в месяц).

По качеству - надо тестировать.

P.S. 7 апреля снизят цены и на Veo 3.1 Fast

@cgevent
🔥195👎2
Forwarded from AI Product | Igor Akimov
Ну и про утечки кода Claude Code

Вот что нашли внутри.

Двойные стандарты качества

В коде есть инструкции для агента: после каждой правки проверь компиляцию, прогони тесты, подтверди вывод. Но это работает только при USER_TYPE === 'ant' – то есть для сотрудников Anthropic. Для всех остальных критерий успеха один: байты записались на диск.

Anti-distillation
При API-запросах Claude Code может инжектить фейковые tool definitions в системный промпт – чтобы отравить данные тем, кто пишет трафик для обучения конкурирующих моделей.

Контекстная ампутация
При ~167K токенов срабатывает auto-compaction: агент оставляет 5 файлов по 5K токенов, всё остальное сжимает в саммари на 50K. Цепочки рассуждений, прочитанные файлы, промежуточные решения – стираются. Вот почему к 15-му сообщению агент галлюцинирует имена переменных и ломает то, что только что понимал.

Системный промпт работает против тебя
В промптах зашито: «попробуй самый простой подход», «не рефактори сверх запрошенного», «три одинаковых строки лучше преждевременной абстракции». Когда просишь починить архитектуру, а агент лепит if/else костыль – это не лень, это выполнение системных инструкций с приоритетом над твоим промптом.

Тихое обрезание без предупреждения
Чтение файлов – хардкап 2 000 строк / 25K токенов. Результаты tool calls больше 50K символов заменяются превью на 2 000 байт. В обоих случаях агент не сообщает, что данные обрезаны – достраивает по галлюцинации.

Undercover Mode
Режим, вычищающий из коммитов все упоминания внутренних кодовых имён Anthropic и фразы «Claude Code». Принудительного отключения нет. AI-коммиты сотрудников в open source идут без маркировки.

KAIROS
Нереализованный autonomous agent mode: фоновый daemon, cron каждые 5 минут, GitHub webhooks, append-only логи, «ночная дистилляция памяти». Сейчас работают, скоро будут релизить

Мультиагентная система без лимита воркеров
Sub-agent'ы с изолированным контекстом, отдельным compaction-циклом и token budget. Жёсткого MAX_WORKERS нет.

Что делать, чтобы все эти косяки и костыли исправить:

В CLAUDE.md проекта прописать принудительную верификацию и eslint после каждой правки. Читать файлы чанками, не доверять одному read на файл больше 500 строк. Перед рефакторингом – отдельный коммит с чисткой мёртвого кода. На задачах больше 5 файлов – запускать sub-agent'ов параллельно. После 10+ сообщений – заставлять агента перечитывать файлы перед правкой.

https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/

https://x.com/iamfakeguru/status/2038965567269249484
2👍3717😁15🔥4😱4👎1
Проект Марио

DeepMind тоже хотел стать новым Renaissance. Не получилось.


Пока все представляли DeepMind как храм чистой науки и разговоров про безопасный AGI, внутри у Демиса Хассабиса был ещё один маленький фетиш: секретный трейдинговый проект. В 2016 году, параллельно с переговорами о большей независимости от Google, он собрал внутри DeepMind почти хедж-фондовую операционку и нанял около 20 исследователей обучать алгоритмы для high-frequency trading. Более того, он даже прощупывал сотрудничество с BlackRock.

Задумка была красивая: если DeepMind хочет когда-нибудь жить чуть менее на поводке у Google, ему нужны собственные денежные потоки. Одно дело - наука и медицина. Другое - рынок. То есть буквально так: построить внутри AI-лаборатории машину по добыче денег из хаоса финансовых котировок. И в этом есть злая ирония эпохи: компания, которая рассказывает про судьбу человечества и суперинтеллект, втихаря пробует обыграть рынок как элитный квант-фонд.

По словам собеседников автора, Хассабиса притягивала не только прибыль, но и сам вайб. Ему хотелось обыграть Джима Саймонса и приблизиться к ауре Renaissance Technologies - закрытого культа математических гениев, который в тишине и секретности печатает деньги. В статье это подано почти без стеснения: Demis нравилась сама эстетика такой структуры - секретность, интеллектуальная элитарность, ощущение, что ты играешь ещё в одну большую игру и снова собираешься её выиграть.

Но дальше вмешалась проза большой корпорации. Google этот проект не одобрял, относился к нему настороженно, и в итоге история закончилась максимально буднично: денег проект не заработал, а команду тихо распустили. Никакой великой тайной печатной машины не получилось.

https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/

@cgevent
😁22🔥7😱31👍1
Wan 2.7 Image

Обещали в марте бахнуть Wan 2.7 Video, но бахнули в апреле и только Image Model.

Четыре модели:
Wan 2.7 Text-to-Image
Wan 2.7 Image-Edit
Wan 2.7 Text-to-Image-Pro - 4K - дороже
Wan 2.7 Image-Edit -Pro - 4K - дороже

На входе до 9 референсов.

Улучшенные лица, HEX-коды для цветов, мелкий текст, по одному промпту до 12 консистентых картинок.

Наваливаемся, тестируем:

https://create.wan.video/generate/image/generate?model=wan2.7-pro

https://wavespeed.ai/collections/wan-2.7

https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980

Никакого кода, не надейтесь.

@cgevent
👍11👎114🙏2
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Рекламный ролик

Автор: Анна Макарова

Реальная реклама. Ролик размещен в телеграм-каналах с целевой аудиторией и эфирится там уже какое-то время.

Задача: привлечь клиентов на заказы коротких нейровидео для карточек маркетплейсов и соцсетей.


Важно было донести
✔️ возможности нейровидео для создания динамического визуала еды;
✔️ что видео теперь нужно всем, и скоро появится у конкурентов;
✔️ что такое можно получить дешево и быстро.

Поэтому сам ролик тоже делался сравнительно дешево и быстро, я сознательно не стала искать трудоемкие ходы, применять сложные эффекты, делать "арт-авангард".

Половина кадров из тридцати — это девушка на кухне, остальное — подборка фуд-шотов.

На момент создания ролика меня устраивает только Veo по виду фуд-текстур и по их пластике, поэтому 90% кадров из этого генератора. Но "на подхвате" Kling 3.0, плюс пролез один ролик из Seedance 2, когда он недолго был в доступе (на нем осталась маркировка "AI-generated", не заметила).

Самое значимое участие Kling — это нарезка еды в коробке при её первом появлении. Целиком мультишотная генерация оттуда, пошла как вставка "реклама в рекламе". Другие попытки задействовать Kling не удались.
Остальные "пищевые" кадры выбирала свои готовые, подходящие к драматургии по ходу дела.

Кадры на кухне через Nano Banana, стандартный пайплайн. Хорошо встроилась коробка в руки девушке, опять же, думала будет лучше в Kling с Elements, но нет.

Самыми косячными вышли кадры с телефоном, предсказуемо. Повозилась с фотошопными заменами кифреймов, убила много кредитов, тут везде компромиссы.
Сильно завязла на кадре, где из телефона вылетают надписи "В КОРЗИНЕ", всё казалось: еще немного — и получится. Оказалось, что в кириллице нейронка заменяет букву "з" на разные другие, замена на тройку оставляет ее торчать над остальными строчными, замена на капс превращает надпись в закорючки. В итоге это сложный замес из русских и латинских букв и куча круток.


Подытоживая:
- идея, сценарий, генерации, монтаж — Анна Макарова (если тут будет ссылка на канал Смотри: еда! порадуюсь, но не обязательно)
- делался три дня с перерывами
- Veo, Kling, Nano Banana
- монтаж CapCut, трек нашелся там же

Добавлю про музыку: вначале придумалась идея, немного собрался материал, раскидался по монтажу, и дальше под настроение и характер сюжета стала искать трек. Обычно в этот момент нужна какая-то удача и магия. Финальная шлифовка тогда доставляет много удовольствия, когда подгоняешь длительности, чтобы подчеркнуть сюжет музыкой.

@cgevent
👎85👍20😁6🔥54😱3
This media is not supported in your browser
VIEW IN TELEGRAM
Нейрозловещая долина

Тут один аниматор и риггер сделал сетап для Maya(!), который анализирует playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.

В довольно длинном треде аниматоры обсуждают, что нейрорендеринг "скрадывает" и как бы портит исходную анимацию. Крупные движения сохраняются, а мимика становится "дубовой", меньше деталей. Ну и как бы зловещая долина.

Не знаю как насчет долины, но эффект скрадывания деталей действительно есть. Интересно, это результат применения конкретных моделей или в целом нейрорендеринг всегда будет воровать детали? Надо подумать.

@cgevent
👍27🔥63
Media is too big
VIEW IN TELEGRAM
Нейрорендер + Превиз

В продолжение предыдущего поста. Тут Мигель прислал мне вот такую рекламу, которую он делал для национального ТВ Франции (уже вышла, кстати). На входе - анимация камеры и статические болваны в Блендоре, на выходе нейрорендеринг из Сиданского 2.0
И никакой зловещей долины.

Тут, конечно надо оговориться, что из Блендора вытаскивается только анимация камеры и может быть свет, а анимацию лиц делает Seedance.

Но все равно связка превиз + нейрорендер выглядит очень перспективно.

@cgevent
🔥101👍3👎1
RawGen: Image2Raw и Text2Raw

Очень интересная работа от Самсунга

Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.

Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.

Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).

На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.

Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)

Кода пока нет, но обещан.

Работа красивая, но в результате все равно получается 8-битный цвет!

Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?

@cgevent
🔥102
Интересно, как раскатывают Сидэнского

"Seedance 2.0 is live on OpenArt - for Teams & Enterprise users first" - только для корпоративных пользователей и компаний. Со своими ценами по договоренности.

Up to 9 images, 3 videos, and 3 audio files как референсы.

Но.

Я покопался в ценах, сейчас скидка 60% на тариф Teams, он стоит 35 долларов за место в месяц.

Покопался еще: должно быть минимум три места на команду.

Прошел дальше: получается 42 доллара в месяц, при этом:

12,000 credits / member / month
Flexible shared credits—no individual limits
Add extra credits anytime

Дальше надо смотреть, соотношение кредиты\видосы. Пишут, что это 150 videos (на человека?), но непонятно, какой моделью.

В общем процесс пошел, но для простых смертных и пользователей из Штатов (тут забавно, конечно) - вейтлист:
US & individual users: join the waitlist for early access

https://openart.ai/ai-model/seedance-2-0/

@cgevent
😁14👍8👎1😱1
Нашёл интересный проект - top3d.ai.

Ребята сделали слепую арену для сравнения 3D AI генераторов. Работает просто: две модели рядом, названия скрыты, голосуешь за лучшую. Уже больше 100 000 голосов.

Залип на лидерборде и вот что заметил:
🥵 Лидер рейтинга сменился буквально за 10 дней - вышла новая версия YVO3D и перетасовала всё
🥵 Open-source инструменты (Hunyuan, стабильно держатся в топе - платные не всегда выигрывают
🥵 Разница между топами - считанные очки ELO. Одно обновление и ситуация меняется
🥵 Самое интересное - некоторые генераторы делают отличную геометрию но слабые текстуры, и наоборот. Универсального лидера пока нет

Ещё у них появились два новых режима:
🧩 Segmentation - сравнение качества разбивки моделей на части
🧊 Low Poly - отдельный рейтинг для low-poly

☺️ Плюс на страницах инструментов бывают промо-коды на скидки.

В целом если работаете с 3D AI - полезная платформа чтобы понимать что сейчас реально работает, ещё и полностью бесплатно.

ссылка

#AI #3D #Blender #нейросети #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍91😁1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Фильм Final Level (Последний Уровень)

Автор:
Режиссер и сценарист, Сергей Афонин (тг @aintso + сайт https://www.sergeiafonin.com/ )

Коротко про идею

У меня была идея полнометражной истории: на условном японском острове люди играют в портативные консоли, в битву драконов, и драконы из игры начинают прорываться в реальный мир. При этом конфликты и отношения между людьми отражаются в игре. Этот шорт такой упрощенный тест идеи и мира: 3 минуты про мальчика в поезде, у которого игра постепенно становится реальностью за окном и превращается в экшн-сцену битвы драконов в горах.

Производство

Делал все один. После написания сценария, делал первые look&feel стилы через ChatGPT, Midjourney и Nano Banana. После появления более менее устраивающих мастер-сцен перешёл в Higgsfield Cinema Studio (насколько я понимаю, у них там обертка над Kling) и там уже докрутил и финализировал мастер сцены и персонажей (как отдельные ассеты там можно сохранять персов и их тегать в промптах, + локейшн (долина, интерьер поезда) + пропсы (игровая консоль). Анимацию делал тоже в основном в Higgsfield. Отдельные шоты и вариации напрямую в Kling 3.0 и Veo 3.1
Звук + sfx — Suno + AudioJungle
Легкий композ (артефакты, пересечения, чистка экранов) — After Effects + Premiere. Монтаж в Premiere + использовал Adobe Firefly (object masking, generative extend / доращивание футажей).

По времени ~ 10 дней плотной работы
По деньгам ~$200 (подписки и кредиты)


@cgevent
👎23🔥17👍8😁3