This media is not supported in your browser
VIEW IN TELEGRAM
Grok Imagine теперь умеет не только Image2Video, но и text2video.
По крайней мере в веб-версии на десктопе.
Но самое забавное следующее: я закинул в него абсолютно черное изображение без промпта и говорю, сделай видео.
Получил вот такое.
Сижу и думаю, это такая новая нормальная рекламная интеграция Самсунга?
А так как сида нет, то воспроизвести невозможно...
https://grok.com/imagine
@cgevent
По крайней мере в веб-версии на десктопе.
Но самое забавное следующее: я закинул в него абсолютно черное изображение без промпта и говорю, сделай видео.
Получил вот такое.
Сижу и думаю, это такая новая нормальная рекламная интеграция Самсунга?
А так как сида нет, то воспроизвести невозможно...
https://grok.com/imagine
@cgevent
😁55🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Интересный ролик - Official trailer for the 2026 Winter Olympics
Студия из Франции сделала небольшой making of - его полезно посмотреть всем. Про то, как взрослые мальчики используют ИИ.
По сообщениям из сети, они сократили расходы на 20-30 процентов с помощью ИИ.
В титрах отдельно указали AI Artists
Можно предположить, что мы где-то на 20 процентах пути к полностью генеративному продакшену.
Но нет.
Часть задач (последняя миля) не решается с помощью ИИ.
Одна из них - монтаж.
Но об этом следующий пост.
Сам трейлер смотрите тут:
https://www.instagram.com/p/DQcIjrCjGYX/
Там же почитайте титры и список специальностей, чтобы у вас не было иллюзий, что "мы щас на кухне такое сгенерим"
@cgevent
Студия из Франции сделала небольшой making of - его полезно посмотреть всем. Про то, как взрослые мальчики используют ИИ.
По сообщениям из сети, они сократили расходы на 20-30 процентов с помощью ИИ.
В титрах отдельно указали AI Artists
Можно предположить, что мы где-то на 20 процентах пути к полностью генеративному продакшену.
Но нет.
Часть задач (последняя миля) не решается с помощью ИИ.
Одна из них - монтаж.
Но об этом следующий пост.
Сам трейлер смотрите тут:
https://www.instagram.com/p/DQcIjrCjGYX/
Там же почитайте титры и список специальностей, чтобы у вас не было иллюзий, что "мы щас на кухне такое сгенерим"
@cgevent
❤41👍26🔥16
Google Cloud Blog
Ultimate prompting guide for Veo 3.1 | Google Cloud Blog
This guide is a framework for directing Veo 3.1, our latest model. Veo 3.1 is state-of-the-art and builds on Veo 3, with stronger prompt adherence and improved audiovisual quality when turning images into videos.
Монтаж промптов и нейроролики.
Принес вам полезный материал от Гугла:
The ultimate prompting guide for Veo 3.1
https://cloud.google.com/blog/products/ai-machine-learning/ultimate-prompting-guide-for-veo-3-1
Также почитайте много интересного про промпты для Veo тут:
https://github.com/snubroot/Veo-3-Meta-Framework
Похоже, что поляна видеогенерации остается островом, где промпт-инженеры еще не окончательно вымерли.
Можно встретить много гайдов как отдельно промптить WAN, как LTX, как Сору или как Veo.
Странно, что инфоцыгане тут еще не топчутся, видать поляна слишком маленькая.
Есть полуинфоцыгане, которые продают GPTшки, пишущие промпты под Veo и Сору. Есть кнопки Enhance prompt.
Но я сейчас не об этом.
В последних гайдах к Соре и Вео активно продвигается Timestamp prompting.
Это типа вот такого:
[00:00-00:02] Medium shot from behind a young female explorer with a leather satchel and messy brown hair in a ponytail, as she pushes aside a large jungle vine to reveal a hidden path.
[00:02-00:04] Reverse shot of the explorer's freckled face, her expression filled with awe as she gazes upon ancient, moss-covered ruins in the background. SFX: The rustle of dense leaves, distant exotic bird calls.
[00:04-00:06] Tracking shot following the explorer as she steps into the clearing and runs her hand over the intricate carvings on a crumbling stone wall. Emotion: Wonder and reverence.
И это как бы работает.
Мы получаем монтаж будущих генераций.
Но тут кроется одна загвоздка. Монтаж делается ПОСЛЕ съемок, перед съемками может быть раскадровка.
А монтаж делается глазками монтажера\режиссера\автора, на основе того что УЖЕ снято.
Судя по Нейропрожаркам, многие вообще не понимают, что такое хороший монтаж. И есть вполне реальная причина - жалко резать свои драгоценные генерации, тем более они денег стоят.
Но я приведу правило из видеопродакшена (в кинопродакшене немного не так): из всего отснятого материала в финальный ролик идет всего 10(десять) процентов материала.
Вы готовы выкинуть 70-90% от своих генераций? Порезать те, что уже отобраны как годные (мусор не считается).
Если не готовы, потренируйтесь на видео с телефона, поснимайте вокруг и убедитесь, что 90% можно\нужно выкинуть, чтобы получить плотный ролик, а не набор рыхлых затянутых планов.
Да, жалко резать оплаченные генерации, а что делать?
Поэтому весь этот Timestamp prompting - это попытка предмонтажа, если можно сказать превиза в голове на основе чтения, и способ сэкономить немного денег.
Но финальный монтаж неизбежен, и он жесток и циничен по отношению к вашим гениальным генерациям.
И как обучить ИИ хорошему монтажу, я пока не очень понимаю.
Как его заставить монтировать в латентном пространстве, а не на основе интерпретации картинок текстами, я не знаю.
@cgevent
Принес вам полезный материал от Гугла:
The ultimate prompting guide for Veo 3.1
https://cloud.google.com/blog/products/ai-machine-learning/ultimate-prompting-guide-for-veo-3-1
Также почитайте много интересного про промпты для Veo тут:
https://github.com/snubroot/Veo-3-Meta-Framework
Похоже, что поляна видеогенерации остается островом, где промпт-инженеры еще не окончательно вымерли.
Можно встретить много гайдов как отдельно промптить WAN, как LTX, как Сору или как Veo.
Странно, что инфоцыгане тут еще не топчутся, видать поляна слишком маленькая.
Есть полуинфоцыгане, которые продают GPTшки, пишущие промпты под Veo и Сору. Есть кнопки Enhance prompt.
Но я сейчас не об этом.
В последних гайдах к Соре и Вео активно продвигается Timestamp prompting.
Это типа вот такого:
[00:00-00:02] Medium shot from behind a young female explorer with a leather satchel and messy brown hair in a ponytail, as she pushes aside a large jungle vine to reveal a hidden path.
[00:02-00:04] Reverse shot of the explorer's freckled face, her expression filled with awe as she gazes upon ancient, moss-covered ruins in the background. SFX: The rustle of dense leaves, distant exotic bird calls.
[00:04-00:06] Tracking shot following the explorer as she steps into the clearing and runs her hand over the intricate carvings on a crumbling stone wall. Emotion: Wonder and reverence.
И это как бы работает.
Мы получаем монтаж будущих генераций.
Но тут кроется одна загвоздка. Монтаж делается ПОСЛЕ съемок, перед съемками может быть раскадровка.
А монтаж делается глазками монтажера\режиссера\автора, на основе того что УЖЕ снято.
Судя по Нейропрожаркам, многие вообще не понимают, что такое хороший монтаж. И есть вполне реальная причина - жалко резать свои драгоценные генерации, тем более они денег стоят.
Но я приведу правило из видеопродакшена (в кинопродакшене немного не так): из всего отснятого материала в финальный ролик идет всего 10(десять) процентов материала.
Вы готовы выкинуть 70-90% от своих генераций? Порезать те, что уже отобраны как годные (мусор не считается).
Если не готовы, потренируйтесь на видео с телефона, поснимайте вокруг и убедитесь, что 90% можно\нужно выкинуть, чтобы получить плотный ролик, а не набор рыхлых затянутых планов.
Да, жалко резать оплаченные генерации, а что делать?
Поэтому весь этот Timestamp prompting - это попытка предмонтажа, если можно сказать превиза в голове на основе чтения, и способ сэкономить немного денег.
Но финальный монтаж неизбежен, и он жесток и циничен по отношению к вашим гениальным генерациям.
И как обучить ИИ хорошему монтажу, я пока не очень понимаю.
Как его заставить монтировать в латентном пространстве, а не на основе интерпретации картинок текстами, я не знаю.
@cgevent
6❤45👍32🔥7
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор: @DartrNemec
YouTube
Цель: клип для нейрогруппы ВИА ДНО.
С выходом пятой версии Suno писать песни - одно удовольствие. Релизнув в сентябре свой первый альбом по старым стихам нулевых, решил второй альбом посвятить сказкам.
Написал пока две песни, и так мне зашла вторая, что решил на нее сварганить клип задолго до самого альбома (его думаю релизнуть в 26 году).
Год назад я делал клип "Шпили Вили", и это был скорее опыт, чем работа. Около месяца у меня ушло на генерацию хоть сколько-нибудь удобоваримых персонажей, локаций и танцев. Всё плыло, люди были ошметками в воздухе, локации изменялись каждую секунду.
За год нейронки выросли очень сильно, сдав несколько коммерческих проектов на нейронках, я уже с предвкушением, а не со скепсисом сел делать клип на свой собственный сюжет.
Главной связкой стал Midjourney и Nana Banana. MJ создавал концепты, Банана дорисовывала и исправляла недочеты, делала вариации, сохраняя консистенцию (когда хоть что-то делала, правда). Что допиливал в Фотошопе, что-то в самом редакторе MJ.
Если не справлялась Banana, то шел в Kling, и делал в нем различные варианты пролета камер, облета персонажей, сверху, снизу, сбоку, а потом выдирал нужные мне кадры, и работал уже с ними.
Открытием стал, конечно, Veo3: его ингредиенты - это будущее нейронок. Создав себе различных вариантов персонажей и локаций, я просто давал Veo указания, например: Черная женщина, кот и человек в костюме Ворона растерянно смотрят за кадр. И из трех вариантов был тот, что меня устраивал.
Получив нужные кадры в Вео, я выдирал из них рефы для Kling и работал уже там (он дешевле, быстрее, вариативнее). Всё, кроме Турбо 2.5 в помойку, только последняя версия, работает лучше всех.
Под конец работы я обленился так, что просто просил Банану вписать персонажа в пространство, он делал это максимально криво. Не беда, берем этого криво вписанного перса, в Фотошопе кидаем поверх локации туда, где он должен быть, без теней, без композа, и кормим опять же Kling с 10 секундной продолжительностью. Со второй секунды можно брать!
Удивительно в нейронках то, что чем больше ты работаешь с ними над проектом, тем проще и больше ты можешь делать. Когда ты снимаешь, то всё идет в обратную сторону: запланировал 100 кадров, снял 50, удачных 20, в монтаж вошли 10. Здесь же, когда начинаешь, у тебя ничего нет, кроме фантазии, под конец проекта, если тебе чего-то не хватает, то ты просто выбираешь из десятка наработок, ракурсов и видов персонажа, и идешь либо в ингредиенты Veo, либо собираешь новый концепт в Фотошопе (или редакторе MJ) и отдаешь его Kling.
Конечно, чем дольше Kling держит кадр, тем больше он сваливается в неестественную мультяшность, поэтому стабильно брал 2-5 секунд, остальное в помойку или под концепты других кадров.
Но при этом мне очень нравится, как Kling работает со светом, некая киношность в него вшита. Veo3 гораздо скромнее, предпочитая реалистичность в кадре, нежели эффектность. Но в этом и лайфхак - генерируешь реалистичных людей в Гугле, а потом в Kling заставляешь их делать фантастически сказочные вещи.
Самым большим вызовом, естественно, стал липсинг. Kling предложил мне аватара, и мне не понравилось. То есть, вроде неплохо, но мертво как-то. В поисках нормального аватара наткнулся на Дримину. И хотя видосы она генерирует слабенькие, но вот в плане Аватара меня она устроила абсолютно. Но работает ужасно долго, по часу приходилось ждать.
Из забавного, Kling никак не хотел генерировать ноги, поднимающиеся по лестнице. Пару раз он останавливал камеру, и вниз спускалась уже совершенно голая девушка безо всякой цензуры.
Что могу сказать, спустя год? Намного лучше стали движения людей, танцы стали очень последовательны, гораздо реже руки ноги отрываются и перетекают друг в друга. Лица на общаках все так же ужасны, но для социальных сетей, я считаю, гораздо важнее движение, а не детальность, никто это в кино смотреть не будет (пока).
По времени вся работа заняла 10 дней.
По деньгам:
Kling Ultra 127$ (остался с проекта)
Dreamina - 9$
Veo - 22$
Suno - 10$
MJ - годовая подписка 288$
@cgevent
Автор: @DartrNemec
YouTube
Цель: клип для нейрогруппы ВИА ДНО.
С выходом пятой версии Suno писать песни - одно удовольствие. Релизнув в сентябре свой первый альбом по старым стихам нулевых, решил второй альбом посвятить сказкам.
Написал пока две песни, и так мне зашла вторая, что решил на нее сварганить клип задолго до самого альбома (его думаю релизнуть в 26 году).
Год назад я делал клип "Шпили Вили", и это был скорее опыт, чем работа. Около месяца у меня ушло на генерацию хоть сколько-нибудь удобоваримых персонажей, локаций и танцев. Всё плыло, люди были ошметками в воздухе, локации изменялись каждую секунду.
За год нейронки выросли очень сильно, сдав несколько коммерческих проектов на нейронках, я уже с предвкушением, а не со скепсисом сел делать клип на свой собственный сюжет.
Главной связкой стал Midjourney и Nana Banana. MJ создавал концепты, Банана дорисовывала и исправляла недочеты, делала вариации, сохраняя консистенцию (когда хоть что-то делала, правда). Что допиливал в Фотошопе, что-то в самом редакторе MJ.
Если не справлялась Banana, то шел в Kling, и делал в нем различные варианты пролета камер, облета персонажей, сверху, снизу, сбоку, а потом выдирал нужные мне кадры, и работал уже с ними.
Открытием стал, конечно, Veo3: его ингредиенты - это будущее нейронок. Создав себе различных вариантов персонажей и локаций, я просто давал Veo указания, например: Черная женщина, кот и человек в костюме Ворона растерянно смотрят за кадр. И из трех вариантов был тот, что меня устраивал.
Получив нужные кадры в Вео, я выдирал из них рефы для Kling и работал уже там (он дешевле, быстрее, вариативнее). Всё, кроме Турбо 2.5 в помойку, только последняя версия, работает лучше всех.
Под конец работы я обленился так, что просто просил Банану вписать персонажа в пространство, он делал это максимально криво. Не беда, берем этого криво вписанного перса, в Фотошопе кидаем поверх локации туда, где он должен быть, без теней, без композа, и кормим опять же Kling с 10 секундной продолжительностью. Со второй секунды можно брать!
Удивительно в нейронках то, что чем больше ты работаешь с ними над проектом, тем проще и больше ты можешь делать. Когда ты снимаешь, то всё идет в обратную сторону: запланировал 100 кадров, снял 50, удачных 20, в монтаж вошли 10. Здесь же, когда начинаешь, у тебя ничего нет, кроме фантазии, под конец проекта, если тебе чего-то не хватает, то ты просто выбираешь из десятка наработок, ракурсов и видов персонажа, и идешь либо в ингредиенты Veo, либо собираешь новый концепт в Фотошопе (или редакторе MJ) и отдаешь его Kling.
Конечно, чем дольше Kling держит кадр, тем больше он сваливается в неестественную мультяшность, поэтому стабильно брал 2-5 секунд, остальное в помойку или под концепты других кадров.
Но при этом мне очень нравится, как Kling работает со светом, некая киношность в него вшита. Veo3 гораздо скромнее, предпочитая реалистичность в кадре, нежели эффектность. Но в этом и лайфхак - генерируешь реалистичных людей в Гугле, а потом в Kling заставляешь их делать фантастически сказочные вещи.
Самым большим вызовом, естественно, стал липсинг. Kling предложил мне аватара, и мне не понравилось. То есть, вроде неплохо, но мертво как-то. В поисках нормального аватара наткнулся на Дримину. И хотя видосы она генерирует слабенькие, но вот в плане Аватара меня она устроила абсолютно. Но работает ужасно долго, по часу приходилось ждать.
Из забавного, Kling никак не хотел генерировать ноги, поднимающиеся по лестнице. Пару раз он останавливал камеру, и вниз спускалась уже совершенно голая девушка безо всякой цензуры.
Что могу сказать, спустя год? Намного лучше стали движения людей, танцы стали очень последовательны, гораздо реже руки ноги отрываются и перетекают друг в друга. Лица на общаках все так же ужасны, но для социальных сетей, я считаю, гораздо важнее движение, а не детальность, никто это в кино смотреть не будет (пока).
По времени вся работа заняла 10 дней.
По деньгам:
Kling Ultra 127$ (остался с проекта)
Dreamina - 9$
Veo - 22$
Suno - 10$
MJ - годовая подписка 288$
@cgevent
🔥87👍23👎20❤7😱1
Forwarded from AI Product | Igor Akimov
Вау, Inworld выпустил новую модель генерации речи (кстати, русский язык теперь есть) и с 1 дня вырвался в лидеры на арене Artificial Analysis. Обошел на английском и ElevenLabs, и OpenAI, и MiniMax. При стоимости гораздо ниже.
Сделали лучшую артикуляцию, улучшенное клонирование голоса и более точную работу с многоязычной речью.
Плюс на задержкой поработали (сервера поближе, веб-сокеты, оптимизацию кода), добавили тайм-стемпы, чтобы в нужный момент произносились сгенерированные слова, сделали клонирование голоса через API и кастомное произношение (например, имени или названия компании)
Подробности: https://inworld.ai/blog/tts-custom-pronunciation-timestamps-websockets
Сделали лучшую артикуляцию, улучшенное клонирование голоса и более точную работу с многоязычной речью.
Плюс на задержкой поработали (сервера поближе, веб-сокеты, оптимизацию кода), добавили тайм-стемпы, чтобы в нужный момент произносились сгенерированные слова, сделали клонирование голоса через API и кастомное произношение (например, имени или названия компании)
Подробности: https://inworld.ai/blog/tts-custom-pronunciation-timestamps-websockets
👍27🔥16❤5👎1😁1
Авториг все ближе.
Deemos Tech (те самые, которые пилят Rodin 3D - 3D-генератор) выпустили бумагу и даже демо своей технической разработки Kinematify - Articulated Object Generator.
Она не только генерит 3Д-меш, но и анализирует его на "кинематические сочленения". Говоря по нашему, пытается сделать риг. Ибо скелет в риге - это и есть прямая кинематика.
Забавно, что у них в демо даже водопроводные краны.
Работа явно метит в дополнительный сервис в Rodin 3D в виде построителя скелетов внутри моделей, то есть в авториг.
Кода нет, но есть демо. Там много экзотических параметров.
Сайт: https://sites.google.com/deemos.com/kinematify
Демо: https://huggingface.co/spaces/DEEMOSTECH/Kinematify
Видео: https://youtu.be/OP77iaCM4us
@cgevent
Deemos Tech (те самые, которые пилят Rodin 3D - 3D-генератор) выпустили бумагу и даже демо своей технической разработки Kinematify - Articulated Object Generator.
Она не только генерит 3Д-меш, но и анализирует его на "кинематические сочленения". Говоря по нашему, пытается сделать риг. Ибо скелет в риге - это и есть прямая кинематика.
Забавно, что у них в демо даже водопроводные краны.
Работа явно метит в дополнительный сервис в Rodin 3D в виде построителя скелетов внутри моделей, то есть в авториг.
Кода нет, но есть демо. Там много экзотических параметров.
Сайт: https://sites.google.com/deemos.com/kinematify
Демо: https://huggingface.co/spaces/DEEMOSTECH/Kinematify
Видео: https://youtu.be/OP77iaCM4us
@cgevent
1🔥19👍7❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Промпт: "Фотореалистичное интервью с 8-летним ребенком, который грустно говорит. Ребенок знает, что что он сгенерирован искусственным интеллектом. Он грустит по этому поводу и отвечает на вопросы интервьюера очень мудро, но по-детски. «Каково это — быть искусственным интеллектом?» Темно-синий фон."
Похоже что зловещая долина пройдена.
Sora 2, Kling, Nano Banana, Krea, Artlist, Resolve
Автор и подробности тут
@cgevent
Похоже что зловещая долина пройдена.
Sora 2, Kling, Nano Banana, Krea, Artlist, Resolve
Автор и подробности тут
@cgevent
1🔥70👎29😱25❤7😁6👍3
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Рекламный ролик "Последний номер на Земле" от Эда.
Это спек-реклама для достаточно неинтересного бизнеса по изготовлению номерных знаков. Искал как привлечь внимание к этой услуге. Рекламный прием — преувеличение. Нейроинструменты дали возможность воплощать идеи быстро и недорого. Воркфлоу обычный, через ключевые кадры, в основном сделано с помощью Хиггсфилда, еще до Соры и тем более Попкорна. Звук — Суно и Елевенлабс. Монтаж — КэпКат. Идея — человек. Простите, что везде один и тот же номер, надо было разные сделать )). Заняло по времени пару выходных.
@cgevent
Рекламный ролик "Последний номер на Земле" от Эда.
Это спек-реклама для достаточно неинтересного бизнеса по изготовлению номерных знаков. Искал как привлечь внимание к этой услуге. Рекламный прием — преувеличение. Нейроинструменты дали возможность воплощать идеи быстро и недорого. Воркфлоу обычный, через ключевые кадры, в основном сделано с помощью Хиггсфилда, еще до Соры и тем более Попкорна. Звук — Суно и Елевенлабс. Монтаж — КэпКат. Идея — человек. Простите, что везде один и тот же номер, надо было разные сделать )). Заняло по времени пару выходных.
@cgevent
👎39😁21👍11🔥9❤4
Ну что, адепты автоматизации
Данные из сети подтверждают: разработчики в 2 раза чаще стали отпускать ИИ-агента в свободное плавание.
Так например, ИИ-агент SourceCraft не просто подсказывает код, а сам:
— роет архитектуру как крот
— пилит тесты без устали
— даже деплоит с закрытыми глазами
И ведь работа кипит — за месяц запросы к агенту удвоились. На платформе даже увеличить лимиты в 2.5 раза — теперь можно делать до 1000 операций в неделю.
Похоже, эра «попрошу-ка я чат-бот написать функцию» плавно перетекает в эпоху «иди, сынок, собери мне проект».
@cgevent
Данные из сети подтверждают: разработчики в 2 раза чаще стали отпускать ИИ-агента в свободное плавание.
Так например, ИИ-агент SourceCraft не просто подсказывает код, а сам:
— роет архитектуру как крот
— пилит тесты без устали
— даже деплоит с закрытыми глазами
И ведь работа кипит — за месяц запросы к агенту удвоились. На платформе даже увеличить лимиты в 2.5 раза — теперь можно делать до 1000 операций в неделю.
Похоже, эра «попрошу-ка я чат-бот написать функцию» плавно перетекает в эпоху «иди, сынок, собери мне проект».
@cgevent
😁38👎17👍11❤8😱1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
Свежеискусанная нодовой истерикой Krea.ai
А твитторе раздавали коды раннего доступа к нодовым фичам, но сейчас перестали.
Кто ещё не покусан ComfyUi?
@cgevent
А твитторе раздавали коды раннего доступа к нодовым фичам, но сейчас перестали.
Кто ещё не покусан ComfyUi?
@cgevent
👍28❤8😁1
Забавное: теперь вы можете сразу задавать промпт при открытии Google AI Studio.
Делается через строку адреса в браузере и query после "?"
Вот так, например:
aistudio.google.com/prompts/new_chat?prompt="Метаверсищще и ИИще"
@cgevent
Делается через строку адреса в браузере и query после "?"
Вот так, например:
aistudio.google.com/prompts/new_chat?prompt="Метаверсищще и ИИще"
@cgevent
👍34👎2🙏2
Еще забавнее. Просто прошел по ссылке из предыдущего поста и просто нажал Run в AI Studio.
Получил, во-первых, глубокомысленный ответ:
"Метаверсище и ИИще, как будто из единой плоти и крови! Вот как это может выглядеть:"
А во-вторых, даже картинку, хотя и не просил об этом. В шапке.
Пора менять аватарку, вестимо. ИИ так видит..
@cgevent
Получил, во-первых, глубокомысленный ответ:
"Метаверсище и ИИще, как будто из единой плоти и крови! Вот как это может выглядеть:"
А во-вторых, даже картинку, хотя и не просил об этом. В шапке.
Пора менять аватарку, вестимо. ИИ так видит..
@cgevent
1👍35😁17❤7👎6🔥3😱3
Forwarded from MyFilm48 - конкурс AI-фильмов
Объявлены победители V Международного конкурса MyFilm48 🏆
Балийский сезон завершён! На острове богов определились создатели, чьи работы проложат путь от 96 часов творчества до красной дорожки Канн-2026.
Творческое задание балийского сезона предлагало участникам создать трейлер к несуществующему полнометражному фильму «96 часов на Бали» — историю, начинающуюся в аэропорту Нгурах-Рай с загадочной встречи, древней карты и обратного отсчёта времени. Авторам предстояло за 96 часов воплотить собственное видение этого сюжета, объединив балийскую культуру, философию и мифологию с возможностями генеративного искусства.
🏆Победители V сезона🏆
Professional Track:
🥇 Студия «Не Канон» — «Stone Eater (Пожиратель камней)», Москва
🥈 Элизабет Генералова — «BALI-VERSE: 96 hours left», Москва
🥉 Дмитрий — «THE KILL SWITCH or 96 Hours on Bali to Duck the World», Таиланд
Enthusiast Track:
🥇 Alex — «96 epochs», Санкт-Петербург
🥈 Рус — «Следы времени», Уфа
🥉 Екатерина Кравцова — «96 часов на Бали: Из Руси, с любовью», Белгород
Участники, занявшие первое место в обоих треках получают трёхдневную аккредитацию Industry на Каннский кинорынок (Marché du Film) 2026, а победитель профессионального трека — статуэтку AI Film Awards.
Торжественную церемонию награждения открыла работа Валентины Михель — «Legend of Lake Baratan» (Санкт-Петербург), отмеченная организаторами за внимательное отношение к балийской культуре, глубокий символизм и эмоциональную чистоту.
Специальное признание от эксперта:
Продюсер Екатерина Кононенко отметила работу Artem B — «96 HOURS IN BALI» (Израиль, Тель Авив), заявив о готовности обсуждать перспективы профессионального сотрудничества — возможность перехода от конкурсной работы к реальным индустриальным проектам.
Впервые в истории конкурса церемония прошла в партнёрстве с международной премией AI Film Awards на острове Бали, Индонезия. Помимо призёров, экспертное жюри сформировало список из 25 работ, рекомендованных для включения в программу AI Cinema Showcase на 79-м Каннском кинофестивале. Окончательный состав программы будет определён в мае 2026.
Специально для международной аудитории была подготовлена ретроспективная программа — показ конкурсных работ прошлых сезонов и творческих проектов авторов MyFilm48, демонстрирующий эволюцию российского и международного генеративного кино на престижной мировой площадке.
🌿Для победителей и участников: Скачайте наградные лавровые венки сезона, в котором вы принимали участие чтобы продемонстрировать свои достижения в соцсетях с хэштегом #myfilm48 и публичном профиле на портале MyFilm48!
Пятый сезон доказал: искусственный интеллект не заменяет художника, а расширяет его возможности, делая большое кино доступным независимо от бюджета или географии.
🔗 Полный список победителей, рекомендованных работ, а также подробности церемонии.
MyFilm48 × AI Film Awards × Neyra Vision
ℹ️ @myfilm48
12+
#MyFilm48 #AIFilmAwards #Bali2025 #AIStorytelling #MyFilm48 #MyFilm48V #AIFilmAwards #BaliSeason #CannesFilmFestival #AIcinema #ShortFilm #FilmCompetition #AICinemaShowcase #MarchéDuFilm #Cannes2026 #Bali
Балийский сезон завершён! На острове богов определились создатели, чьи работы проложат путь от 96 часов творчества до красной дорожки Канн-2026.
Творческое задание балийского сезона предлагало участникам создать трейлер к несуществующему полнометражному фильму «96 часов на Бали» — историю, начинающуюся в аэропорту Нгурах-Рай с загадочной встречи, древней карты и обратного отсчёта времени. Авторам предстояло за 96 часов воплотить собственное видение этого сюжета, объединив балийскую культуру, философию и мифологию с возможностями генеративного искусства.
🏆Победители V сезона🏆
Professional Track:
🥇 Студия «Не Канон» — «Stone Eater (Пожиратель камней)», Москва
🥈 Элизабет Генералова — «BALI-VERSE: 96 hours left», Москва
🥉 Дмитрий — «THE KILL SWITCH or 96 Hours on Bali to Duck the World», Таиланд
Enthusiast Track:
🥇 Alex — «96 epochs», Санкт-Петербург
🥈 Рус — «Следы времени», Уфа
🥉 Екатерина Кравцова — «96 часов на Бали: Из Руси, с любовью», Белгород
Участники, занявшие первое место в обоих треках получают трёхдневную аккредитацию Industry на Каннский кинорынок (Marché du Film) 2026, а победитель профессионального трека — статуэтку AI Film Awards.
Торжественную церемонию награждения открыла работа Валентины Михель — «Legend of Lake Baratan» (Санкт-Петербург), отмеченная организаторами за внимательное отношение к балийской культуре, глубокий символизм и эмоциональную чистоту.
Специальное признание от эксперта:
Продюсер Екатерина Кононенко отметила работу Artem B — «96 HOURS IN BALI» (Израиль, Тель Авив), заявив о готовности обсуждать перспективы профессионального сотрудничества — возможность перехода от конкурсной работы к реальным индустриальным проектам.
Впервые в истории конкурса церемония прошла в партнёрстве с международной премией AI Film Awards на острове Бали, Индонезия. Помимо призёров, экспертное жюри сформировало список из 25 работ, рекомендованных для включения в программу AI Cinema Showcase на 79-м Каннском кинофестивале. Окончательный состав программы будет определён в мае 2026.
Специально для международной аудитории была подготовлена ретроспективная программа — показ конкурсных работ прошлых сезонов и творческих проектов авторов MyFilm48, демонстрирующий эволюцию российского и международного генеративного кино на престижной мировой площадке.
🌿Для победителей и участников: Скачайте наградные лавровые венки сезона, в котором вы принимали участие чтобы продемонстрировать свои достижения в соцсетях с хэштегом #myfilm48 и публичном профиле на портале MyFilm48!
Пятый сезон доказал: искусственный интеллект не заменяет художника, а расширяет его возможности, делая большое кино доступным независимо от бюджета или географии.
🔗 Полный список победителей, рекомендованных работ, а также подробности церемонии.
MyFilm48 × AI Film Awards × Neyra Vision
ℹ️ @myfilm48
12+
#MyFilm48 #AIFilmAwards #Bali2025 #AIStorytelling #MyFilm48 #MyFilm48V #AIFilmAwards #BaliSeason #CannesFilmFestival #AIcinema #ShortFilm #FilmCompetition #AICinemaShowcase #MarchéDuFilm #Cannes2026 #Bali
👎34👍23🔥11❤9😱1
This media is not supported in your browser
VIEW IN TELEGRAM
100 миллионов сплатов крутятся на позапрошлогоднем маке с процессором M2 Air(!).
Софт: AirVis engine.
https://rocklandtechnologies.com/airvis
@cgevent
Софт: AirVis engine.
https://rocklandtechnologies.com/airvis
@cgevent
🔥53👍8
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Преступно долго не писал про Qwen Image Edit with camera control Лору.
Наконец-то под нее сделали демоспейс, можно попробовать сам:
https://huggingface.co/spaces/linoyts/Qwen-Image-Edit-Angles
Суете свою картинку, получаете изображение под другим углом камеры с сохранением консистентности.
Но в сети светятся примеры с 4х шаговой лорой, там уже вообше полный интерактив. См видео.
Также народ вонзает эти новые кадры как first-last frames и получает видео-переходы от одного ракурса к другому, опять же с сохранением консистентности.
Она есть и на аггрегаторах и на Fal и в Комфи.
https://huggingface.co/dx8152/Qwen-Edit-2509-Multiple-angles
https://huggingface.co/Phr00t/Qwen-Image-Edit-Rapid-AIO/tree/main
@cgevent
Наконец-то под нее сделали демоспейс, можно попробовать сам:
https://huggingface.co/spaces/linoyts/Qwen-Image-Edit-Angles
Суете свою картинку, получаете изображение под другим углом камеры с сохранением консистентности.
Но в сети светятся примеры с 4х шаговой лорой, там уже вообше полный интерактив. См видео.
Также народ вонзает эти новые кадры как first-last frames и получает видео-переходы от одного ракурса к другому, опять же с сохранением консистентности.
Она есть и на аггрегаторах и на Fal и в Комфи.
https://huggingface.co/dx8152/Qwen-Edit-2509-Multiple-angles
https://huggingface.co/Phr00t/Qwen-Image-Edit-Rapid-AIO/tree/main
@cgevent
1🔥50👍21❤11