Runway Characters - это реально работает.
Не знаю, сколько это будет жрать денег по API - с меня списало по 10-20 кредитов за каждый разговор.
И да, у них есть лайв-демо, можно поболтать (за кредиты) с разными персонажами. Я поболтал - там хорошо отрабатывают роли: HR специалист тупой но настойчивый, а инфлюенсер истерично восторгается любым вопросом.
Но что интересно, там можно создать своего РЕАЛТАЙМОВОГО персонажа. Просто загрузить фотку. Дать промптом инструкции и даже загрузить базу знаний (но мы тестируем не это, а внешний вид).
Поэтому я вонзил в него любимую фотку Марго Роби и он сожрал ея как зайчик морковку, никаких "я не могу использовать реальных людей".
Ну конечно, грех было не поговорить с таким персонажем про дипфейки.
Все работает, задержка небольшая, можно сохранить запись после разговора, жрет немного кредитов (использовал два гугл-акка для тестов). Да, она туповатая, но мы сейчас не про это - в ваших решениях и ботах работают ваши чат-модели.
Я про то, что я загрузил довольно кривую фотку - взгляд не в камеру, артефакты на черном фоне - но все равно, оно сделало очень узнаваемый аватар и он очень живой. Да, у нее двоится носик местами и иногда косят глазки, но надо просто фотки нормальные использовать, две других сущности нормально отработали, не косят, не двоятся.
В общем это очень круто. Посмотрите еще примеров у них на сайте:
https://runwayml.com/product/characters
И попробуйте демо тут:
https://app.runwayml.com/video-tools/teams/cgevent/ai-tools/characters
Жду вашего треша в коментах.
@cgevent
Не знаю, сколько это будет жрать денег по API - с меня списало по 10-20 кредитов за каждый разговор.
И да, у них есть лайв-демо, можно поболтать (за кредиты) с разными персонажами. Я поболтал - там хорошо отрабатывают роли: HR специалист тупой но настойчивый, а инфлюенсер истерично восторгается любым вопросом.
Но что интересно, там можно создать своего РЕАЛТАЙМОВОГО персонажа. Просто загрузить фотку. Дать промптом инструкции и даже загрузить базу знаний (но мы тестируем не это, а внешний вид).
Поэтому я вонзил в него любимую фотку Марго Роби и он сожрал ея как зайчик морковку, никаких "я не могу использовать реальных людей".
Ну конечно, грех было не поговорить с таким персонажем про дипфейки.
Все работает, задержка небольшая, можно сохранить запись после разговора, жрет немного кредитов (использовал два гугл-акка для тестов). Да, она туповатая, но мы сейчас не про это - в ваших решениях и ботах работают ваши чат-модели.
Я про то, что я загрузил довольно кривую фотку - взгляд не в камеру, артефакты на черном фоне - но все равно, оно сделало очень узнаваемый аватар и он очень живой. Да, у нее двоится носик местами и иногда косят глазки, но надо просто фотки нормальные использовать, две других сущности нормально отработали, не косят, не двоятся.
В общем это очень круто. Посмотрите еще примеров у них на сайте:
https://runwayml.com/product/characters
И попробуйте демо тут:
https://app.runwayml.com/video-tools/teams/cgevent/ai-tools/characters
Жду вашего треша в коментах.
@cgevent
😁20👍11🔥10❤6👎5
This media is not supported in your browser
VIEW IN TELEGRAM
Для тех, кто забыл, напомню, что есть опенсорсный аналог Runway Characters.
Это DeepCamLive - загружаешь одну фотку - и ну говорить ее лицом в любой камере на компе. Устанавливается как виртуальная камера, поверх любой вебки.
У них недавно вышла версия 2.7, но хотя они и опенсорс с кодом, доступ к последним бетам и расширенным фишкам они дают по подписке (22 доллара, а для юзеров Мака - 32 доллара (эпплешейминг, однако))
Качество, конечно, трешеватое, но для стримов может сгодится. Интересная фишка - маскирование области губ, чтобы в звук попадали оригинальные губы.
https://deeplivecam.net/
https://github.com/hacksider/Deep-Live-Cam
@cgevent
Это DeepCamLive - загружаешь одну фотку - и ну говорить ее лицом в любой камере на компе. Устанавливается как виртуальная камера, поверх любой вебки.
У них недавно вышла версия 2.7, но хотя они и опенсорс с кодом, доступ к последним бетам и расширенным фишкам они дают по подписке (22 доллара, а для юзеров Мака - 32 доллара (эпплешейминг, однако))
Качество, конечно, трешеватое, но для стримов может сгодится. Интересная фишка - маскирование области губ, чтобы в звук попадали оригинальные губы.
https://deeplivecam.net/
https://github.com/hacksider/Deep-Live-Cam
@cgevent
🔥16❤6
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Democracy Show
Автор: Александр Зуев
Немного предыстории.
Увидел я, значит, что Синтакс проводит конкурс трейлеров несуществующих фильмов и призадумался. А что такого за последнее время лично меня поразило и о чем захотелось бы порассуждать? А поразила меня медийка военная, все эти ролики в соцсетях в стиле компьютерных шутеров под драйвовое музло - убийства, это же круто и весело. Вишенкой на торте стали, конечно, ребята из Palantir, которые выкатили, по сути дела, игру, где хорошие ракеты могут убивать плохих людей где-то далеко далеко. С удобным интерфейсом и всякими ИИ-помощниками, куда ж без них. Что-же будет дальше? С этими мыслями я отправился ко сну. И было мне ночью видение:
"В недалеком будущем американские военные корпорации в связке с политиками решают легитимизировать военные преступления в глазах общества и сделать из них шоу, цинично перекладывая тем самым ответственность за сопутствующий ущерб или ошибки на простых турбопатриотических граждан. Обычная домохозяйка из Техаса в прямом эфире, под бодрое улюлюканье и гул толпы решает, достоин ли жить Абдул с другого конца глобуса, которого она никогда не видела."
Решил обернуть это в гротескную антиутопию с вайбами 90-х и Пола Верховена.
По реализации - пара вечеров под пивко. Почти всё txt2vid Kling 3 по моему пайплайну в Weavy, бюджет - пачка сухарей.
Особо не вылизывал, так как цель была получить на руки визуальное воплощение идеи. На днях услышал новое для себя слово из киноиндустрии - "сиззл" (а то всё питчинг, питчинг). Вот это примерно оно. Только я собрал сиззл не из кадров чужих фильмов, а в нейросетях. И выглядит, как будто, очень недурно.
PS. Не на какой конкурс я, само собой, не подавался, так как для участия надо было делать всю работу исключительно в Синтаксе. Спасибо.
@cgevent
Democracy Show
Автор: Александр Зуев
Немного предыстории.
Увидел я, значит, что Синтакс проводит конкурс трейлеров несуществующих фильмов и призадумался. А что такого за последнее время лично меня поразило и о чем захотелось бы порассуждать? А поразила меня медийка военная, все эти ролики в соцсетях в стиле компьютерных шутеров под драйвовое музло - убийства, это же круто и весело. Вишенкой на торте стали, конечно, ребята из Palantir, которые выкатили, по сути дела, игру, где хорошие ракеты могут убивать плохих людей где-то далеко далеко. С удобным интерфейсом и всякими ИИ-помощниками, куда ж без них. Что-же будет дальше? С этими мыслями я отправился ко сну. И было мне ночью видение:
"В недалеком будущем американские военные корпорации в связке с политиками решают легитимизировать военные преступления в глазах общества и сделать из них шоу, цинично перекладывая тем самым ответственность за сопутствующий ущерб или ошибки на простых турбопатриотических граждан. Обычная домохозяйка из Техаса в прямом эфире, под бодрое улюлюканье и гул толпы решает, достоин ли жить Абдул с другого конца глобуса, которого она никогда не видела."
Решил обернуть это в гротескную антиутопию с вайбами 90-х и Пола Верховена.
По реализации - пара вечеров под пивко. Почти всё txt2vid Kling 3 по моему пайплайну в Weavy, бюджет - пачка сухарей.
Особо не вылизывал, так как цель была получить на руки визуальное воплощение идеи. На днях услышал новое для себя слово из киноиндустрии - "сиззл" (а то всё питчинг, питчинг). Вот это примерно оно. Только я собрал сиззл не из кадров чужих фильмов, а в нейросетях. И выглядит, как будто, очень недурно.
PS. Не на какой конкурс я, само собой, не подавался, так как для участия надо было делать всю работу исключительно в Синтаксе. Спасибо.
@cgevent
👍74🔥42👎18😱7❤2
Первоапрельские шутки в этом году специфические
Если вы видите этот пост, просто поставьте лайк.
Шуток сегодня больше не будет...
@cgevent
Если вы видите этот пост, просто поставьте лайк.
Шуток сегодня больше не будет...
@cgevent
👍244❤63😁16😱9👎2🙏2
Veo 3.1 Lite
Вдвое дешевле Veo 3.1 Fast при той же скорости работы
Если посмотреть цены на API:
https://blog.google/innovation-and-ai/technology/ai/veo-3-1-lite/
То это уже приближается к китайцам.
Правда длительность видео 4, 6, 8 секунд проигрывает Сидэнскому с его 15 сек.
Есть Text-to-Video и Image-to-Video в 720p или 1080p
Доступно не только в Gemini API и Google AI Studio, но и во Flow:
https://labs.google/fx/tools/flow
Каждая генерация стоит 10 кредитов. Если у меня подписка Pro, то моих 1000 кредитов должно хватать на 100 видосов (в месяц).
По качеству - надо тестировать.
P.S. 7 апреля снизят цены и на Veo 3.1 Fast
@cgevent
Вдвое дешевле Veo 3.1 Fast при той же скорости работы
Если посмотреть цены на API:
https://blog.google/innovation-and-ai/technology/ai/veo-3-1-lite/
То это уже приближается к китайцам.
Правда длительность видео 4, 6, 8 секунд проигрывает Сидэнскому с его 15 сек.
Есть Text-to-Video и Image-to-Video в 720p или 1080p
Доступно не только в Gemini API и Google AI Studio, но и во Flow:
https://labs.google/fx/tools/flow
Каждая генерация стоит 10 кредитов. Если у меня подписка Pro, то моих 1000 кредитов должно хватать на 100 видосов (в месяц).
По качеству - надо тестировать.
P.S. 7 апреля снизят цены и на Veo 3.1 Fast
@cgevent
🔥19❤5👎2
Forwarded from AI Product | Igor Akimov
Ну и про утечки кода Claude Code
Вот что нашли внутри.
Двойные стандарты качества
В коде есть инструкции для агента: после каждой правки проверь компиляцию, прогони тесты, подтверди вывод. Но это работает только при USER_TYPE === 'ant' – то есть для сотрудников Anthropic. Для всех остальных критерий успеха один: байты записались на диск.
Anti-distillation
При API-запросах Claude Code может инжектить фейковые tool definitions в системный промпт – чтобы отравить данные тем, кто пишет трафик для обучения конкурирующих моделей.
Контекстная ампутация
При ~167K токенов срабатывает auto-compaction: агент оставляет 5 файлов по 5K токенов, всё остальное сжимает в саммари на 50K. Цепочки рассуждений, прочитанные файлы, промежуточные решения – стираются. Вот почему к 15-му сообщению агент галлюцинирует имена переменных и ломает то, что только что понимал.
Системный промпт работает против тебя
В промптах зашито: «попробуй самый простой подход», «не рефактори сверх запрошенного», «три одинаковых строки лучше преждевременной абстракции». Когда просишь починить архитектуру, а агент лепит if/else костыль – это не лень, это выполнение системных инструкций с приоритетом над твоим промптом.
Тихое обрезание без предупреждения
Чтение файлов – хардкап 2 000 строк / 25K токенов. Результаты tool calls больше 50K символов заменяются превью на 2 000 байт. В обоих случаях агент не сообщает, что данные обрезаны – достраивает по галлюцинации.
Undercover Mode
Режим, вычищающий из коммитов все упоминания внутренних кодовых имён Anthropic и фразы «Claude Code». Принудительного отключения нет. AI-коммиты сотрудников в open source идут без маркировки.
KAIROS
Нереализованный autonomous agent mode: фоновый daemon, cron каждые 5 минут, GitHub webhooks, append-only логи, «ночная дистилляция памяти». Сейчас работают, скоро будут релизить
Мультиагентная система без лимита воркеров
Sub-agent'ы с изолированным контекстом, отдельным compaction-циклом и token budget. Жёсткого MAX_WORKERS нет.
Что делать, чтобы все эти косяки и костыли исправить:
В CLAUDE.md проекта прописать принудительную верификацию и eslint после каждой правки. Читать файлы чанками, не доверять одному read на файл больше 500 строк. Перед рефакторингом – отдельный коммит с чисткой мёртвого кода. На задачах больше 5 файлов – запускать sub-agent'ов параллельно. После 10+ сообщений – заставлять агента перечитывать файлы перед правкой.
https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/
https://x.com/iamfakeguru/status/2038965567269249484
Вот что нашли внутри.
Двойные стандарты качества
В коде есть инструкции для агента: после каждой правки проверь компиляцию, прогони тесты, подтверди вывод. Но это работает только при USER_TYPE === 'ant' – то есть для сотрудников Anthropic. Для всех остальных критерий успеха один: байты записались на диск.
Anti-distillation
При API-запросах Claude Code может инжектить фейковые tool definitions в системный промпт – чтобы отравить данные тем, кто пишет трафик для обучения конкурирующих моделей.
Контекстная ампутация
При ~167K токенов срабатывает auto-compaction: агент оставляет 5 файлов по 5K токенов, всё остальное сжимает в саммари на 50K. Цепочки рассуждений, прочитанные файлы, промежуточные решения – стираются. Вот почему к 15-му сообщению агент галлюцинирует имена переменных и ломает то, что только что понимал.
Системный промпт работает против тебя
В промптах зашито: «попробуй самый простой подход», «не рефактори сверх запрошенного», «три одинаковых строки лучше преждевременной абстракции». Когда просишь починить архитектуру, а агент лепит if/else костыль – это не лень, это выполнение системных инструкций с приоритетом над твоим промптом.
Тихое обрезание без предупреждения
Чтение файлов – хардкап 2 000 строк / 25K токенов. Результаты tool calls больше 50K символов заменяются превью на 2 000 байт. В обоих случаях агент не сообщает, что данные обрезаны – достраивает по галлюцинации.
Undercover Mode
Режим, вычищающий из коммитов все упоминания внутренних кодовых имён Anthropic и фразы «Claude Code». Принудительного отключения нет. AI-коммиты сотрудников в open source идут без маркировки.
KAIROS
Нереализованный autonomous agent mode: фоновый daemon, cron каждые 5 минут, GitHub webhooks, append-only логи, «ночная дистилляция памяти». Сейчас работают, скоро будут релизить
Мультиагентная система без лимита воркеров
Sub-agent'ы с изолированным контекстом, отдельным compaction-циклом и token budget. Жёсткого MAX_WORKERS нет.
Что делать, чтобы все эти косяки и костыли исправить:
В CLAUDE.md проекта прописать принудительную верификацию и eslint после каждой правки. Читать файлы чанками, не доверять одному read на файл больше 500 строк. Перед рефакторингом – отдельный коммит с чисткой мёртвого кода. На задачах больше 5 файлов – запускать sub-agent'ов параллельно. После 10+ сообщений – заставлять агента перечитывать файлы перед правкой.
https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/
https://x.com/iamfakeguru/status/2038965567269249484
Alex Kim's blog
The Claude Code Source Leak: fake tools, frustration regexes, undercover mode, and more
Anthropic accidentally shipped a source map in their npm package, exposing the full Claude Code source. Here's what I found inside.
2👍37❤17😁15🔥4😱4👎1
Colossus
How Demis Hassabis Went From Idealist to Realist
The inside story of how DeepMind’s experiments in AI safety governance transformed Demis Hassabis from an idealist into a realist
Проект Марио
DeepMind тоже хотел стать новым Renaissance. Не получилось.
Пока все представляли DeepMind как храм чистой науки и разговоров про безопасный AGI, внутри у Демиса Хассабиса был ещё один маленький фетиш: секретный трейдинговый проект. В 2016 году, параллельно с переговорами о большей независимости от Google, он собрал внутри DeepMind почти хедж-фондовую операционку и нанял около 20 исследователей обучать алгоритмы для high-frequency trading. Более того, он даже прощупывал сотрудничество с BlackRock.
Задумка была красивая: если DeepMind хочет когда-нибудь жить чуть менее на поводке у Google, ему нужны собственные денежные потоки. Одно дело - наука и медицина. Другое - рынок. То есть буквально так: построить внутри AI-лаборатории машину по добыче денег из хаоса финансовых котировок. И в этом есть злая ирония эпохи: компания, которая рассказывает про судьбу человечества и суперинтеллект, втихаря пробует обыграть рынок как элитный квант-фонд.
По словам собеседников автора, Хассабиса притягивала не только прибыль, но и сам вайб. Ему хотелось обыграть Джима Саймонса и приблизиться к ауре Renaissance Technologies - закрытого культа математических гениев, который в тишине и секретности печатает деньги. В статье это подано почти без стеснения: Demis нравилась сама эстетика такой структуры - секретность, интеллектуальная элитарность, ощущение, что ты играешь ещё в одну большую игру и снова собираешься её выиграть.
Но дальше вмешалась проза большой корпорации. Google этот проект не одобрял, относился к нему настороженно, и в итоге история закончилась максимально буднично: денег проект не заработал, а команду тихо распустили. Никакой великой тайной печатной машины не получилось.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
@cgevent
DeepMind тоже хотел стать новым Renaissance. Не получилось.
Пока все представляли DeepMind как храм чистой науки и разговоров про безопасный AGI, внутри у Демиса Хассабиса был ещё один маленький фетиш: секретный трейдинговый проект. В 2016 году, параллельно с переговорами о большей независимости от Google, он собрал внутри DeepMind почти хедж-фондовую операционку и нанял около 20 исследователей обучать алгоритмы для high-frequency trading. Более того, он даже прощупывал сотрудничество с BlackRock.
Задумка была красивая: если DeepMind хочет когда-нибудь жить чуть менее на поводке у Google, ему нужны собственные денежные потоки. Одно дело - наука и медицина. Другое - рынок. То есть буквально так: построить внутри AI-лаборатории машину по добыче денег из хаоса финансовых котировок. И в этом есть злая ирония эпохи: компания, которая рассказывает про судьбу человечества и суперинтеллект, втихаря пробует обыграть рынок как элитный квант-фонд.
По словам собеседников автора, Хассабиса притягивала не только прибыль, но и сам вайб. Ему хотелось обыграть Джима Саймонса и приблизиться к ауре Renaissance Technologies - закрытого культа математических гениев, который в тишине и секретности печатает деньги. В статье это подано почти без стеснения: Demis нравилась сама эстетика такой структуры - секретность, интеллектуальная элитарность, ощущение, что ты играешь ещё в одну большую игру и снова собираешься её выиграть.
Но дальше вмешалась проза большой корпорации. Google этот проект не одобрял, относился к нему настороженно, и в итоге история закончилась максимально буднично: денег проект не заработал, а команду тихо распустили. Никакой великой тайной печатной машины не получилось.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
@cgevent
😁22🔥7😱3❤1👍1
Wan 2.7 Image
Обещали в марте бахнуть Wan 2.7 Video, но бахнули в апреле и только Image Model.
Четыре модели:
Wan 2.7 Text-to-Image
Wan 2.7 Image-Edit
Wan 2.7 Text-to-Image-Pro - 4K - дороже
Wan 2.7 Image-Edit -Pro - 4K - дороже
На входе до 9 референсов.
Улучшенные лица, HEX-коды для цветов, мелкий текст, по одному промпту до 12 консистентых картинок.
Наваливаемся, тестируем:
https://create.wan.video/generate/image/generate?model=wan2.7-pro
https://wavespeed.ai/collections/wan-2.7
https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980
Никакого кода, не надейтесь.
@cgevent
Обещали в марте бахнуть Wan 2.7 Video, но бахнули в апреле и только Image Model.
Четыре модели:
Wan 2.7 Text-to-Image
Wan 2.7 Image-Edit
Wan 2.7 Text-to-Image-Pro - 4K - дороже
Wan 2.7 Image-Edit -Pro - 4K - дороже
На входе до 9 референсов.
Улучшенные лица, HEX-коды для цветов, мелкий текст, по одному промпту до 12 консистентых картинок.
Наваливаемся, тестируем:
https://create.wan.video/generate/image/generate?model=wan2.7-pro
https://wavespeed.ai/collections/wan-2.7
https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980
Никакого кода, не надейтесь.
@cgevent
👍11👎11❤4🙏2
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Рекламный ролик
Автор: Анна Макарова
Реальная реклама. Ролик размещен в телеграм-каналах с целевой аудиторией и эфирится там уже какое-то время.
Задача: привлечь клиентов на заказы коротких нейровидео для карточек маркетплейсов и соцсетей.
Важно было донести
✔️ возможности нейровидео для создания динамического визуала еды;
✔️ что видео теперь нужно всем, и скоро появится у конкурентов;
✔️ что такое можно получить дешево и быстро.
Поэтому сам ролик тоже делался сравнительно дешево и быстро, я сознательно не стала искать трудоемкие ходы, применять сложные эффекты, делать "арт-авангард".
Половина кадров из тридцати — это девушка на кухне, остальное — подборка фуд-шотов.
На момент создания ролика меня устраивает только Veo по виду фуд-текстур и по их пластике, поэтому 90% кадров из этого генератора. Но "на подхвате" Kling 3.0, плюс пролез один ролик из Seedance 2, когда он недолго был в доступе (на нем осталась маркировка "AI-generated", не заметила).
Самое значимое участие Kling — это нарезка еды в коробке при её первом появлении. Целиком мультишотная генерация оттуда, пошла как вставка "реклама в рекламе". Другие попытки задействовать Kling не удались.
Остальные "пищевые" кадры выбирала свои готовые, подходящие к драматургии по ходу дела.
Кадры на кухне через Nano Banana, стандартный пайплайн. Хорошо встроилась коробка в руки девушке, опять же, думала будет лучше в Kling с Elements, но нет.
Самыми косячными вышли кадры с телефоном, предсказуемо. Повозилась с фотошопными заменами кифреймов, убила много кредитов, тут везде компромиссы.
Сильно завязла на кадре, где из телефона вылетают надписи "В КОРЗИНЕ", всё казалось: еще немного — и получится. Оказалось, что в кириллице нейронка заменяет букву "з" на разные другие, замена на тройку оставляет ее торчать над остальными строчными, замена на капс превращает надпись в закорючки. В итоге это сложный замес из русских и латинских букв и куча круток.
Подытоживая:
- идея, сценарий, генерации, монтаж — Анна Макарова (если тут будет ссылка на канал Смотри: еда! порадуюсь, но не обязательно)
- делался три дня с перерывами
- Veo, Kling, Nano Banana
- монтаж CapCut, трек нашелся там же
Добавлю про музыку: вначале придумалась идея, немного собрался материал, раскидался по монтажу, и дальше под настроение и характер сюжета стала искать трек. Обычно в этот момент нужна какая-то удача и магия. Финальная шлифовка тогда доставляет много удовольствия, когда подгоняешь длительности, чтобы подчеркнуть сюжет музыкой.
@cgevent
Рекламный ролик
Автор: Анна Макарова
Реальная реклама. Ролик размещен в телеграм-каналах с целевой аудиторией и эфирится там уже какое-то время.
Задача: привлечь клиентов на заказы коротких нейровидео для карточек маркетплейсов и соцсетей.
Важно было донести
✔️ возможности нейровидео для создания динамического визуала еды;
✔️ что видео теперь нужно всем, и скоро появится у конкурентов;
✔️ что такое можно получить дешево и быстро.
Поэтому сам ролик тоже делался сравнительно дешево и быстро, я сознательно не стала искать трудоемкие ходы, применять сложные эффекты, делать "арт-авангард".
Половина кадров из тридцати — это девушка на кухне, остальное — подборка фуд-шотов.
На момент создания ролика меня устраивает только Veo по виду фуд-текстур и по их пластике, поэтому 90% кадров из этого генератора. Но "на подхвате" Kling 3.0, плюс пролез один ролик из Seedance 2, когда он недолго был в доступе (на нем осталась маркировка "AI-generated", не заметила).
Самое значимое участие Kling — это нарезка еды в коробке при её первом появлении. Целиком мультишотная генерация оттуда, пошла как вставка "реклама в рекламе". Другие попытки задействовать Kling не удались.
Остальные "пищевые" кадры выбирала свои готовые, подходящие к драматургии по ходу дела.
Кадры на кухне через Nano Banana, стандартный пайплайн. Хорошо встроилась коробка в руки девушке, опять же, думала будет лучше в Kling с Elements, но нет.
Самыми косячными вышли кадры с телефоном, предсказуемо. Повозилась с фотошопными заменами кифреймов, убила много кредитов, тут везде компромиссы.
Сильно завязла на кадре, где из телефона вылетают надписи "В КОРЗИНЕ", всё казалось: еще немного — и получится. Оказалось, что в кириллице нейронка заменяет букву "з" на разные другие, замена на тройку оставляет ее торчать над остальными строчными, замена на капс превращает надпись в закорючки. В итоге это сложный замес из русских и латинских букв и куча круток.
Подытоживая:
- идея, сценарий, генерации, монтаж — Анна Макарова (если тут будет ссылка на канал Смотри: еда! порадуюсь, но не обязательно)
- делался три дня с перерывами
- Veo, Kling, Nano Banana
- монтаж CapCut, трек нашелся там же
Добавлю про музыку: вначале придумалась идея, немного собрался материал, раскидался по монтажу, и дальше под настроение и характер сюжета стала искать трек. Обычно в этот момент нужна какая-то удача и магия. Финальная шлифовка тогда доставляет много удовольствия, когда подгоняешь длительности, чтобы подчеркнуть сюжет музыкой.
@cgevent
👎85👍20😁6🔥5❤4😱3
This media is not supported in your browser
VIEW IN TELEGRAM
Нейрозловещая долина
Тут один аниматор и риггер сделал сетап для Maya(!), который анализирует playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.
В довольно длинном треде аниматоры обсуждают, что нейрорендеринг "скрадывает" и как бы портит исходную анимацию. Крупные движения сохраняются, а мимика становится "дубовой", меньше деталей. Ну и как бы зловещая долина.
Не знаю как насчет долины, но эффект скрадывания деталей действительно есть. Интересно, это результат применения конкретных моделей или в целом нейрорендеринг всегда будет воровать детали? Надо подумать.
@cgevent
Тут один аниматор и риггер сделал сетап для Maya(!), который анализирует playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.
В довольно длинном треде аниматоры обсуждают, что нейрорендеринг "скрадывает" и как бы портит исходную анимацию. Крупные движения сохраняются, а мимика становится "дубовой", меньше деталей. Ну и как бы зловещая долина.
Не знаю как насчет долины, но эффект скрадывания деталей действительно есть. Интересно, это результат применения конкретных моделей или в целом нейрорендеринг всегда будет воровать детали? Надо подумать.
@cgevent
👍27🔥6❤3
Media is too big
VIEW IN TELEGRAM
Нейрорендер + Превиз
В продолжение предыдущего поста. Тут Мигель прислал мне вот такую рекламу, которую он делал для национального ТВ Франции (уже вышла, кстати). На входе - анимация камеры и статические болваны в Блендоре, на выходе нейрорендеринг из Сиданского 2.0
И никакой зловещей долины.
Тут, конечно надо оговориться, что из Блендора вытаскивается только анимация камеры и может быть свет, а анимацию лиц делает Seedance.
Но все равно связка превиз + нейрорендер выглядит очень перспективно.
@cgevent
В продолжение предыдущего поста. Тут Мигель прислал мне вот такую рекламу, которую он делал для национального ТВ Франции (уже вышла, кстати). На входе - анимация камеры и статические болваны в Блендоре, на выходе нейрорендеринг из Сиданского 2.0
И никакой зловещей долины.
Тут, конечно надо оговориться, что из Блендора вытаскивается только анимация камеры и может быть свет, а анимацию лиц делает Seedance.
Но все равно связка превиз + нейрорендер выглядит очень перспективно.
@cgevent
🔥101👍3👎1
RawGen: Image2Raw и Text2Raw
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
🔥10❤2
Интересно, как раскатывают Сидэнского
"Seedance 2.0 is live on OpenArt - for Teams & Enterprise users first" - только для корпоративных пользователей и компаний. Со своими ценами по договоренности.
Up to 9 images, 3 videos, and 3 audio files как референсы.
Но.
Я покопался в ценах, сейчас скидка 60% на тариф Teams, он стоит 35 долларов за место в месяц.
Покопался еще: должно быть минимум три места на команду.
Прошел дальше: получается 42 доллара в месяц, при этом:
12,000 credits / member / month
Flexible shared credits—no individual limits
Add extra credits anytime
Дальше надо смотреть, соотношение кредиты\видосы. Пишут, что это 150 videos (на человека?), но непонятно, какой моделью.
В общем процесс пошел, но для простых смертных и пользователей из Штатов (тут забавно, конечно) - вейтлист:
US & individual users: join the waitlist for early access
https://openart.ai/ai-model/seedance-2-0/
@cgevent
"Seedance 2.0 is live on OpenArt - for Teams & Enterprise users first" - только для корпоративных пользователей и компаний. Со своими ценами по договоренности.
Up to 9 images, 3 videos, and 3 audio files как референсы.
Но.
Я покопался в ценах, сейчас скидка 60% на тариф Teams, он стоит 35 долларов за место в месяц.
Покопался еще: должно быть минимум три места на команду.
Прошел дальше: получается 42 доллара в месяц, при этом:
12,000 credits / member / month
Flexible shared credits—no individual limits
Add extra credits anytime
Дальше надо смотреть, соотношение кредиты\видосы. Пишут, что это 150 videos (на человека?), но непонятно, какой моделью.
В общем процесс пошел, но для простых смертных и пользователей из Штатов (тут забавно, конечно) - вейтлист:
US & individual users: join the waitlist for early access
https://openart.ai/ai-model/seedance-2-0/
@cgevent
😁14👍8👎1😱1
Forwarded from Нейросети и Блендер
Нашёл интересный проект - top3d.ai.
Ребята сделали слепую арену для сравнения 3D AI генераторов. Работает просто: две модели рядом, названия скрыты, голосуешь за лучшую. Уже больше 100 000 голосов.
Залип на лидерборде и вот что заметил:
🥵 Лидер рейтинга сменился буквально за 10 дней - вышла новая версия YVO3D и перетасовала всё
🥵 Open-source инструменты (Hunyuan, стабильно держатся в топе - платные не всегда выигрывают
🥵 Разница между топами - считанные очки ELO. Одно обновление и ситуация меняется
🥵 Самое интересное - некоторые генераторы делают отличную геометрию но слабые текстуры, и наоборот. Универсального лидера пока нет
Ещё у них появились два новых режима:
🧩 Segmentation - сравнение качества разбивки моделей на части
🧊 Low Poly - отдельный рейтинг для low-poly
☺️ Плюс на страницах инструментов бывают промо-коды на скидки.
В целом если работаете с 3D AI - полезная платформа чтобы понимать что сейчас реально работает, ещё и полностью бесплатно.
ссылка
#AI #3D #Blender #нейросети #benchmark
Ребята сделали слепую арену для сравнения 3D AI генераторов. Работает просто: две модели рядом, названия скрыты, голосуешь за лучшую. Уже больше 100 000 голосов.
Залип на лидерборде и вот что заметил:
Ещё у них появились два новых режима:
🧩 Segmentation - сравнение качества разбивки моделей на части
🧊 Low Poly - отдельный рейтинг для low-poly
В целом если работаете с 3D AI - полезная платформа чтобы понимать что сейчас реально работает, ещё и полностью бесплатно.
ссылка
#AI #3D #Blender #нейросети #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍9❤1😁1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Фильм Final Level (Последний Уровень)
Автор:
Режиссер и сценарист, Сергей Афонин (тг @aintso + сайт https://www.sergeiafonin.com/ )
Коротко про идею
У меня была идея полнометражной истории: на условном японском острове люди играют в портативные консоли, в битву драконов, и драконы из игры начинают прорываться в реальный мир. При этом конфликты и отношения между людьми отражаются в игре. Этот шорт такой упрощенный тест идеи и мира: 3 минуты про мальчика в поезде, у которого игра постепенно становится реальностью за окном и превращается в экшн-сцену битвы драконов в горах.
Производство
Делал все один. После написания сценария, делал первые look&feel стилы через ChatGPT, Midjourney и Nano Banana. После появления более менее устраивающих мастер-сцен перешёл в Higgsfield Cinema Studio (насколько я понимаю, у них там обертка над Kling) и там уже докрутил и финализировал мастер сцены и персонажей (как отдельные ассеты там можно сохранять персов и их тегать в промптах, + локейшн (долина, интерьер поезда) + пропсы (игровая консоль). Анимацию делал тоже в основном в Higgsfield. Отдельные шоты и вариации напрямую в Kling 3.0 и Veo 3.1
Звук + sfx — Suno + AudioJungle
Легкий композ (артефакты, пересечения, чистка экранов) — After Effects + Premiere. Монтаж в Premiere + использовал Adobe Firefly (object masking, generative extend / доращивание футажей).
По времени ~ 10 дней плотной работы
По деньгам ~$200 (подписки и кредиты)
@cgevent
Фильм Final Level (Последний Уровень)
Автор:
Режиссер и сценарист, Сергей Афонин (тг @aintso + сайт https://www.sergeiafonin.com/ )
Коротко про идею
У меня была идея полнометражной истории: на условном японском острове люди играют в портативные консоли, в битву драконов, и драконы из игры начинают прорываться в реальный мир. При этом конфликты и отношения между людьми отражаются в игре. Этот шорт такой упрощенный тест идеи и мира: 3 минуты про мальчика в поезде, у которого игра постепенно становится реальностью за окном и превращается в экшн-сцену битвы драконов в горах.
Производство
Делал все один. После написания сценария, делал первые look&feel стилы через ChatGPT, Midjourney и Nano Banana. После появления более менее устраивающих мастер-сцен перешёл в Higgsfield Cinema Studio (насколько я понимаю, у них там обертка над Kling) и там уже докрутил и финализировал мастер сцены и персонажей (как отдельные ассеты там можно сохранять персов и их тегать в промптах, + локейшн (долина, интерьер поезда) + пропсы (игровая консоль). Анимацию делал тоже в основном в Higgsfield. Отдельные шоты и вариации напрямую в Kling 3.0 и Veo 3.1
Звук + sfx — Suno + AudioJungle
Легкий композ (артефакты, пересечения, чистка экранов) — After Effects + Premiere. Монтаж в Premiere + использовал Adobe Firefly (object masking, generative extend / доращивание футажей).
По времени ~ 10 дней плотной работы
По деньгам ~$200 (подписки и кредиты)
@cgevent
👎23🔥17👍8😁3