This media is not supported in your browser
VIEW IN TELEGRAM
Шедеврум. 78 минут ожидания. 4 секунды на выходе.
Промт: «бабушка идет по улице, крупный план на лицо, камера делает медленный отьезд, идет снег»
Ну да, оно самое
Промт: «бабушка идет по улице, крупный план на лицо, камера делает медленный отьезд, идет снег»
Ну да, оно самое
🤣59🙈18👍4🔥3
Большая премьера: самый полный гайд по Nano Banana Pro
Повайбкодил и сделал вам самый полный и необходимый гайд по Nano Banana Pro. Делитесь гайдом с друзьями.
Подписывайтесь на телеграм-канал "Нейронутые. Потому что здесь — все самые актуальные новости из мира ии-рекламы и ии-видео.
Плюсики в карму привествуются. Гид лежит по этой ссылке. Лайк, шер.
Повайбкодил и сделал вам самый полный и необходимый гайд по Nano Banana Pro. Делитесь гайдом с друзьями.
Подписывайтесь на телеграм-канал "Нейронутые. Потому что здесь — все самые актуальные новости из мира ии-рекламы и ии-видео.
Плюсики в карму привествуются. Гид лежит по этой ссылке. Лайк, шер.
🔥65👍32🥰7💩1
Очередной блеск на рынке ии-найма
Вакансия (мне приходят всякие, смотрю как нездоров местами этот рынок).
Итак, требования:
• Художественное образование
• Опыт работы с Kling, Runway, Sora, Veo3 — от 1 года
• Навыки генерации статичных изображений в Midjourney, Nana Banana и др.
• Уверенное владение Photoshop и Blender — от 3 лет
• Знание трендов в сфере нейросетей
• Умение работать в команде, соблюдение дедлайнов
• Готовность к ненормированному графику в отдельных задачах.
Условия:
• Возможность работать напрямую с основателем (комментарий «Нейронутых — тут меня просто разорвало, афигеть какая привилегия).
• Стабильный доход
• Участие в проектах с топовыми брендами
• Работа после подписания договора и NDA
Доход:
от50 000 ₽ в месяц
Вакансия (мне приходят всякие, смотрю как нездоров местами этот рынок).
Итак, требования:
• Художественное образование
• Опыт работы с Kling, Runway, Sora, Veo3 — от 1 года
• Навыки генерации статичных изображений в Midjourney, Nana Banana и др.
• Уверенное владение Photoshop и Blender — от 3 лет
• Знание трендов в сфере нейросетей
• Умение работать в команде, соблюдение дедлайнов
• Готовность к ненормированному графику в отдельных задачах.
Условия:
• Возможность работать напрямую с основателем (комментарий «Нейронутых — тут меня просто разорвало, афигеть какая привилегия).
• Стабильный доход
• Участие в проектах с топовыми брендами
• Работа после подписания договора и NDA
Доход:
от
🤣108🙈15🔥10
Media is too big
VIEW IN TELEGRAM
«Представляем Runway 4.5 – лучшую в мире видеомодель».
Таким громким заявлением Runway, который я поливаю в каждом посте, пытается стряхнуть пыль со своих ужасных потугов делать ИИ-видео.
Телеграм-каналы уже дружно провозгласили, что вышла убийца Sora 2 и Veo. Но я, как человек, который работает руками едва ли не со всеми существующими на рынке моделями, пока отношусь к релизу с осторожным скепсисом.
Придется оплатить и протестировать. Потом напишу объективное мнение человека, который работает с ии-видео 24/7. Пока же просто выложу демку. Но добавлю — все, что вы видите — это промо-видео, для создания которого были выбраны самые лучшие из тысяч возможных генераций кадры. В общем, как только проестирую руками все сам — дам подробный отчет.
Модель пока в бете (закрытой) — в самом Runway висит уведомление: coming soon. Ждем
Таким громким заявлением Runway, который я поливаю в каждом посте, пытается стряхнуть пыль со своих ужасных потугов делать ИИ-видео.
Телеграм-каналы уже дружно провозгласили, что вышла убийца Sora 2 и Veo. Но я, как человек, который работает руками едва ли не со всеми существующими на рынке моделями, пока отношусь к релизу с осторожным скепсисом.
Придется оплатить и протестировать. Потом напишу объективное мнение человека, который работает с ии-видео 24/7. Пока же просто выложу демку. Но добавлю — все, что вы видите — это промо-видео, для создания которого были выбраны самые лучшие из тысяч возможных генераций кадры. В общем, как только проестирую руками все сам — дам подробный отчет.
Модель пока в бете (закрытой) — в самом Runway висит уведомление: coming soon. Ждем
👍27🔥12
В банановой битве с безоговорочным отрывом (смотрю по числу лайков и реакций) победила Лариса Долина.
Промт от подписчика, по которому сделано это изображение, был таким:
"Долина на коне, тыкает копьем Лурье, лежащую на земле".
Промт от подписчика, по которому сделано это изображение, был таким:
"Долина на коне, тыкает копьем Лурье, лежащую на земле".
🤣53🔥12💩4🤬1
Media is too big
VIEW IN TELEGRAM
У Kling целая пачка обновлений. Только вчера задавался вопросом, когда уже сделают говорящих нормально героев (липсинг — но не как было раньше, через кривую загрузку аудио со звуком, и последующий липсик, а сразу генерацию говорящих голов).
Сегодня представили модель 2.6, которая это умеет. Пока сдаю большой проект и не могу протестировать как следует. Но обязательно все изучу и напишу подробный обзор.
Также у Kling вышла модель O1, которуй — та-дам — назвали убийцей Sora и Veo — но мои первые тесты на рабочем коммерческом проекте показали, что такие заявления далеки от реальности.
В общем, декабрь радует крутыми обновлениями. Это не все, будут еще новости.
Сегодня представили модель 2.6, которая это умеет. Пока сдаю большой проект и не могу протестировать как следует. Но обязательно все изучу и напишу подробный обзор.
Также у Kling вышла модель O1, которуй — та-дам — назвали убийцей Sora и Veo — но мои первые тесты на рабочем коммерческом проекте показали, что такие заявления далеки от реальности.
В общем, декабрь радует крутыми обновлениями. Это не все, будут еще новости.
👍20🔥4
Первый тест клинг 2.6 — специально написал очень длинную фразу, чтобы посмотреть, что будет делать модель.
Так вот: в отличие от того же Veo 3.1, Kling пытается впихнуть весь текст в указанный хрон.
Первый пример — 5 сек: девочка тараторит как пулемет.
Второй пример — 10 сек: девочка говорит медленнее, но все еще быстро, потому что я засадил ей очень большую реплику.
UPD: На текущий момент модель поддерживает только английский и китайский язык. Все остальное будет переводиться. На китайский.
Так вот: в отличие от того же Veo 3.1, Kling пытается впихнуть весь текст в указанный хрон.
Первый пример — 5 сек: девочка тараторит как пулемет.
Второй пример — 10 сек: девочка говорит медленнее, но все еще быстро, потому что я засадил ей очень большую реплику.
UPD: На текущий момент модель поддерживает только английский и китайский язык. Все остальное будет переводиться. На китайский.
👍27🔥18
Поймал себя на мысли, что 4 месяца назад отменил подписку на Midjourney и с тех пор ни разу не пользовался сервисом.
Просто миджа была все это время не нужна.
А ведь в общей сложности за историю своей работы с нейросетями сгенерил в MJ порядке 35 000 изображений.
Почему перестал пользоваться? Раньше не было аналогов. А теперь их очень много, и для рабочих задач они лучше и поддаются контролю.
Из основных инструментов для работы с изображениями — Seedream и Nano Banana.
А вы пользуетесь Midjourney?
Просто миджа была все это время не нужна.
А ведь в общей сложности за историю своей работы с нейросетями сгенерил в MJ порядке 35 000 изображений.
Почему перестал пользоваться? Раньше не было аналогов. А теперь их очень много, и для рабочих задач они лучше и поддаются контролю.
Из основных инструментов для работы с изображениями — Seedream и Nano Banana.
А вы пользуетесь Midjourney?
👍29💯11🔥1
Veo 4: ждете релиз в декабре? Так вот, скорее всего не ждите.
Начну с главного. Вопреки всеобщим заявлениям о том, что Veo 4 выйдет в декабре, в действительности срок релиза совсем иной: потенциальный запуск намечен на период декабрь 2025 года — май 2026-го.
Когда именно зарелизят модель, неясно. Но с учетом того, как сильно нагружались серверы Google в последний месяц, есть два возможных сценария:
1) серверы были перегружены из-за внутренних тестов и релиз уже скоро. 2) серверы перегружены из-за наплыва пользователей и к релизу Veo 4 Google сейчас точно не готов, и он состоится в следующем году.
Что, по слухам, нам принесет Veo 4 (на основе инсайдерских данных и сливов, которые я изучил)
Более длинные видео: 15–30 секунд вместо нынешних 8–10.
Стабильность персонажей и сцен: улучшенное соответствие между кадрами, меньше «дрожания» объектов, более плавные переходы.
Качественный текст в кадре и локализация: ожидается, что Veo 4 сможет уверенно работать с графикой, пояснениями, надписями на разных языках.
Мульти-ракурсы и кастомная камера: возможность менять точку зрения, угол обзора, движение камеры прямо в ИИ-видео (в духе кино, зачатки этого инструмента есть уже сейчас в Veo 3.1), еще больше контроля над визуальной эстетикой.
Более широкий арсенал генераций: text-to-video, image-to-video, возможно комбинированные сценарии, улучшенная физика, стилистическая гибкость и реалистичная анимация.
Зачем это нужно
Если вы — контент-мейкер, режиссер, сторителлер, создатель социальных роликов или просто экспериментируете с видео — Veo 4 может стать настоящим шагом вперед. Больше длительность, больше стабильности, больше контроля — меньше ручной правки.
Недостатки? Пока не могу сказать — многое основано на слухах. Официального анонса нет, и возможно, функции будут масштабировать постепенно.
А вы ждете Veo 4?
Начну с главного. Вопреки всеобщим заявлениям о том, что Veo 4 выйдет в декабре, в действительности срок релиза совсем иной: потенциальный запуск намечен на период декабрь 2025 года — май 2026-го.
Когда именно зарелизят модель, неясно. Но с учетом того, как сильно нагружались серверы Google в последний месяц, есть два возможных сценария:
1) серверы были перегружены из-за внутренних тестов и релиз уже скоро. 2) серверы перегружены из-за наплыва пользователей и к релизу Veo 4 Google сейчас точно не готов, и он состоится в следующем году.
Что, по слухам, нам принесет Veo 4 (на основе инсайдерских данных и сливов, которые я изучил)
Более длинные видео: 15–30 секунд вместо нынешних 8–10.
Стабильность персонажей и сцен: улучшенное соответствие между кадрами, меньше «дрожания» объектов, более плавные переходы.
Качественный текст в кадре и локализация: ожидается, что Veo 4 сможет уверенно работать с графикой, пояснениями, надписями на разных языках.
Мульти-ракурсы и кастомная камера: возможность менять точку зрения, угол обзора, движение камеры прямо в ИИ-видео (в духе кино, зачатки этого инструмента есть уже сейчас в Veo 3.1), еще больше контроля над визуальной эстетикой.
Более широкий арсенал генераций: text-to-video, image-to-video, возможно комбинированные сценарии, улучшенная физика, стилистическая гибкость и реалистичная анимация.
Зачем это нужно
Если вы — контент-мейкер, режиссер, сторителлер, создатель социальных роликов или просто экспериментируете с видео — Veo 4 может стать настоящим шагом вперед. Больше длительность, больше стабильности, больше контроля — меньше ручной правки.
Недостатки? Пока не могу сказать — многое основано на слухах. Официального анонса нет, и возможно, функции будут масштабировать постепенно.
А вы ждете Veo 4?
👍36
Media is too big
VIEW IN TELEGRAM
Вдохновился постом Джимми Нейрона и сделал небольшое шутливое видео
Вот ссылка на оригинальный пост.
Кстати, «Джимми Нейрон» — один из немногих каналов по ии который я действительно читаю. Там много интересного
Вот ссылка на оригинальный пост.
Кстати, «Джимми Нейрон» — один из немногих каналов по ии который я действительно читаю. Там много интересного
22🔥40👍15🤣2🙈1
This media is not supported in your browser
VIEW IN TELEGRAM
OPEN CALL «ЧЕРНОВИК БУДУЩЕГО» — вызов для креаторов, художников, фотографов и всех, кто работает с нейросетями
Если вас тянет в эксперименты, если вы привыкли не просто генерировать, а ставить перед ИИ сложные творческие задачи — это ваш квест. Медиапроект Bridge-N зовет выйти за пределы привычного пайплайна и проверить, на что способны вы и ваши модели.
ТЗ простое: бросать кольцо в пламя Роковой горы не нужно, но вот исследовать границы ИИ-креатива — обязательно. Зов к странствиям игнорировать нельзя.
Кем бы вы ни были — юным падаваном, джедаем рендера или седым йодой промт-дизайна — присылайте короткие тексты и визуал, созданные при помощи нейросетей, плюс ваш авторский комментарий о пользе и вреде ИИ.
Жанры: магический реализм, фантастика, автофикшен.
Разрешается играть с паттернами, травмами, снами, галактиками, трансформациями, идентичностью, воронами, дирижаблями и параллельными мирами. Ничего скучного — только плотная фантазия, настоящая магия и немного научной психологии.
Прием работ: 7 декабря — 7 января.
Призы: графические планшеты, денежные награды, публикация на Bridge-N. Го!
Все детали: bridgen.ru/opencall
Да пребудет с вами сила — и пусть ваши нейросети не галлюцинируют во время подачи заявки.
Если вас тянет в эксперименты, если вы привыкли не просто генерировать, а ставить перед ИИ сложные творческие задачи — это ваш квест. Медиапроект Bridge-N зовет выйти за пределы привычного пайплайна и проверить, на что способны вы и ваши модели.
ТЗ простое: бросать кольцо в пламя Роковой горы не нужно, но вот исследовать границы ИИ-креатива — обязательно. Зов к странствиям игнорировать нельзя.
Кем бы вы ни были — юным падаваном, джедаем рендера или седым йодой промт-дизайна — присылайте короткие тексты и визуал, созданные при помощи нейросетей, плюс ваш авторский комментарий о пользе и вреде ИИ.
Жанры: магический реализм, фантастика, автофикшен.
Разрешается играть с паттернами, травмами, снами, галактиками, трансформациями, идентичностью, воронами, дирижаблями и параллельными мирами. Ничего скучного — только плотная фантазия, настоящая магия и немного научной психологии.
Прием работ: 7 декабря — 7 января.
Призы: графические планшеты, денежные награды, публикация на Bridge-N. Го!
Все детали: bridgen.ru/opencall
Да пребудет с вами сила — и пусть ваши нейросети не галлюцинируют во время подачи заявки.
👍20🔥3
Давно собирался сделать этот пост: JSON-промпты
JSON-промпты — это как глянцевые маскировочные костюмы для "модных промт-инженеров". Выглядит технологично, звучит внушительно. Но работает ли это в реальности, особенно в задачах генерации изображений и видео (Veo, Nano Banana Pro и т.д)? Пора сказать правду.
JSON-промптинг: из чего он вырос
Изначально формат появился как способ систематизировать ввод: вместо «сделай мне красивую девушку на фоне заката», у нас появилась обертка, которая как бы превращает тебя в гуру генераций:
{
"subject": "beautiful woman",
"background": "sunset",
"mood": "romantic",
"lighting": "golden hour"
}
Выглядит профессионально, как будто ты не просто чувак с оплаченной нейросетью (один из тысяч), а режиссер нейронной постановки.
Но вот загвоздка: большинство моделей на вход все равно ждут текст — обычный человеческий текст. А значит, твой JSON просто становится fancy оберткой для конкатенации строк.
Серьезно. Люди с умным видом часами собирают JSON-схемы, прописывают "camera_type": "ARRI Alexa" и "mood": "melancholic optimism" в надежде, что это даст результат уровня Тарковского.
А нейросети тем временем просто ждут: ну скажи уже по-человечески, что ты хочешь. Даже Veo 3, даже Sora 2, даже Nano Banana Pro — это не API-интерфейс, это эмоции, кадры, кинематографическое мышление. А не JSON-запятые.
«Мы используем JSON для систематизации» — звучит красиво. А по факту?
Вы просто хардкодите хаос. Хотите на потоке делать 50 роликов — да, JSON может быть полезен. Но если вы думаете, что запихнете в промт "action": "epic slow motion" и получите рекламу Nike — у меня для вас плохие новости: без визуального мышления вы получите ровно то, что заказали (ерунду).
Хороший режиссер не думает о запятых, двоеточиях и модных скобках. Он думает в образах, световых пятнах, движении камеры, в драматургии сцены. Так что если вы сидите и пишете "bokeh": true и думаете, что сделали магию — я вас расстрою. Не-а. Настоящую магию делает не формат — ее делает вкус, насмотренность и понимание структуры кадра.
Когда JSON реально полезен
Есть ситуации, где JSON — мастхэв. Например:
Сквозные пайплайны: где ты автоматизируешь поток задач (промптинг → выбор модели → ассеты → видео).
API-интеграции: где каждый блок (персонаж, камера, движение, музыка) требует четкого структурирования.
Мультимодальная генерация: когда миксуешь текст, изображение, аудио и видео — и тебе нужно следить за форматами и параметрами.
А теперь по-честному
Veo 3.1? Прекрасно ест обычный промпт с «пиши по-человечески». Nano Banana Pro? Вообще не различает, запихнешь ты туда JSON или абзац в духе: «мужчина бежит по дождю в неоне». Главное — не формат, а смысл, тон, точность.
Так что когда я вижу посты в духе «сделайте себе шаблонный JSON и все будет кино», хочется напомнить: Sora, Kling, Veo и т.д. в первую очередь понимают язык эмоций, образов и кинематографической интуиции.
Не JSON делает видео вирусным, а режиссура.
Вывод
JSON-промпты — не магическая таблетка. Это просто формат. Полезный, когда надо систематизировать, особенно в команде или при масштабировании. Но для одиночного креатора, который хочет сделать вау-картинку или прокинуть драму в 30 секунд — это чаще всего избыточность. Лучше учите визуальное мышление, а не придумывайте, куда в JSON вставить “epic light flare with anamorphic distortion”.
p.s. Не использовал и никогда не планирую. И без них умею.
JSON-промпты — это как глянцевые маскировочные костюмы для "модных промт-инженеров". Выглядит технологично, звучит внушительно. Но работает ли это в реальности, особенно в задачах генерации изображений и видео (Veo, Nano Banana Pro и т.д)? Пора сказать правду.
JSON-промптинг: из чего он вырос
Изначально формат появился как способ систематизировать ввод: вместо «сделай мне красивую девушку на фоне заката», у нас появилась обертка, которая как бы превращает тебя в гуру генераций:
{
"subject": "beautiful woman",
"background": "sunset",
"mood": "romantic",
"lighting": "golden hour"
}
Выглядит профессионально, как будто ты не просто чувак с оплаченной нейросетью (один из тысяч), а режиссер нейронной постановки.
Но вот загвоздка: большинство моделей на вход все равно ждут текст — обычный человеческий текст. А значит, твой JSON просто становится fancy оберткой для конкатенации строк.
Серьезно. Люди с умным видом часами собирают JSON-схемы, прописывают "camera_type": "ARRI Alexa" и "mood": "melancholic optimism" в надежде, что это даст результат уровня Тарковского.
А нейросети тем временем просто ждут: ну скажи уже по-человечески, что ты хочешь. Даже Veo 3, даже Sora 2, даже Nano Banana Pro — это не API-интерфейс, это эмоции, кадры, кинематографическое мышление. А не JSON-запятые.
«Мы используем JSON для систематизации» — звучит красиво. А по факту?
Вы просто хардкодите хаос. Хотите на потоке делать 50 роликов — да, JSON может быть полезен. Но если вы думаете, что запихнете в промт "action": "epic slow motion" и получите рекламу Nike — у меня для вас плохие новости: без визуального мышления вы получите ровно то, что заказали (ерунду).
Хороший режиссер не думает о запятых, двоеточиях и модных скобках. Он думает в образах, световых пятнах, движении камеры, в драматургии сцены. Так что если вы сидите и пишете "bokeh": true и думаете, что сделали магию — я вас расстрою. Не-а. Настоящую магию делает не формат — ее делает вкус, насмотренность и понимание структуры кадра.
Когда JSON реально полезен
Есть ситуации, где JSON — мастхэв. Например:
Сквозные пайплайны: где ты автоматизируешь поток задач (промптинг → выбор модели → ассеты → видео).
API-интеграции: где каждый блок (персонаж, камера, движение, музыка) требует четкого структурирования.
Мультимодальная генерация: когда миксуешь текст, изображение, аудио и видео — и тебе нужно следить за форматами и параметрами.
А теперь по-честному
Veo 3.1? Прекрасно ест обычный промпт с «пиши по-человечески». Nano Banana Pro? Вообще не различает, запихнешь ты туда JSON или абзац в духе: «мужчина бежит по дождю в неоне». Главное — не формат, а смысл, тон, точность.
Так что когда я вижу посты в духе «сделайте себе шаблонный JSON и все будет кино», хочется напомнить: Sora, Kling, Veo и т.д. в первую очередь понимают язык эмоций, образов и кинематографической интуиции.
Не JSON делает видео вирусным, а режиссура.
Вывод
JSON-промпты — не магическая таблетка. Это просто формат. Полезный, когда надо систематизировать, особенно в команде или при масштабировании. Но для одиночного креатора, который хочет сделать вау-картинку или прокинуть драму в 30 секунд — это чаще всего избыточность. Лучше учите визуальное мышление, а не придумывайте, куда в JSON вставить “epic light flare with anamorphic distortion”.
p.s. Не использовал и никогда не планирую. И без них умею.
🔥52👍24💯6
Обновил сайт и портфолио
На досуге немного повайбкодил (всего-то 2192 строчки кода) и серьезно обновил дизайн сайта со своим портфолио. Сделал немного по-хулигански, люблю всякие красивые штуки.
Кстати, добавил и новые работы (ии-реклама), которые раньше не мог показывать. Так что непременно загляните по этой ссылке.
На досуге немного повайбкодил (всего-то 2192 строчки кода) и серьезно обновил дизайн сайта со своим портфолио. Сделал немного по-хулигански, люблю всякие красивые штуки.
Кстати, добавил и новые работы (ии-реклама), которые раньше не мог показывать. Так что непременно загляните по этой ссылке.
Egor Appolonov AI Director
Егор Апполонов — AI Film Director
AI-видео мирового уровня. Коммерческая реклама и кино. Смотреть портфолио.
🔥34👍16
Я вам озвучу интересный парадокс рынка 2025 года: чем доступнее инструменты, тем дороже экспертиза. Кнопки есть у всех. Вкус, опыт, все необходимые навыки и стратегическое мышление: как всегда — у единиц.
В стоимость создания ии-видео высокого уровня заложена серьезная интеллектуальная наценка.
Знаете, почему?
Потому что в случае с низкобюджетными исполнителями вы получаете ровно то, за что заплатили: плохо сгенерерированное видео, в котором все плывет и ползет. Ну там бабку на бегемоте. Или кота, который весело мяукает и заканчивает это делать через 15 секунд, когда закончился хрон сгенерированного в Sora 2 шота.
Вы получаете видео, в котором ваш бренд в принципе узнаваем, но если присмотреться, вы поймете, что все логотипы поехали к чертям (потому что нейросети не умеют держать тексты — ну например, мелкие тексты на этикетках, поэтому нужен ручной ротоскопинг, трекинг и много чего еще). Вы поймете, что сценарий — унылое го%но. Что голоса мертвые, да и вообще ролик сделан так, что сразу видно:
Это сделала нейросеть. И сделала, конечно же, очень плохо.
Существует мнение, что нейросети уравняли всех. Что студент с ноутбуком теперь равен профессионалу, который играет в высшей лиге. Но, пожалуйста, друзья, снимите розовые очки. Это не ни разу так.
Лучшие игроки рынка — это, конечно же,профессионалы индустрии (реклама, видеопродакшн, маркетинг и тд), которые просто сменили кисти. Точнее добавили в свой пайплан новые инструменты, но стоят на прочном фундаменте многолетного опыта создания рекламных кампаний.
Я еще напишу отдельно, почему работа с низкобюджетными исполнителями, если вы хотите заказать ии-видео — это всегда лотерея, в которой вы всегда проиграете.
Не переключайтесь.
В стоимость создания ии-видео высокого уровня заложена серьезная интеллектуальная наценка.
Знаете, почему?
Потому что в случае с низкобюджетными исполнителями вы получаете ровно то, за что заплатили: плохо сгенерерированное видео, в котором все плывет и ползет. Ну там бабку на бегемоте. Или кота, который весело мяукает и заканчивает это делать через 15 секунд, когда закончился хрон сгенерированного в Sora 2 шота.
Вы получаете видео, в котором ваш бренд в принципе узнаваем, но если присмотреться, вы поймете, что все логотипы поехали к чертям (потому что нейросети не умеют держать тексты — ну например, мелкие тексты на этикетках, поэтому нужен ручной ротоскопинг, трекинг и много чего еще). Вы поймете, что сценарий — унылое го%но. Что голоса мертвые, да и вообще ролик сделан так, что сразу видно:
Это сделала нейросеть. И сделала, конечно же, очень плохо.
Существует мнение, что нейросети уравняли всех. Что студент с ноутбуком теперь равен профессионалу, который играет в высшей лиге. Но, пожалуйста, друзья, снимите розовые очки. Это не ни разу так.
Лучшие игроки рынка — это, конечно же,профессионалы индустрии (реклама, видеопродакшн, маркетинг и тд), которые просто сменили кисти. Точнее добавили в свой пайплан новые инструменты, но стоят на прочном фундаменте многолетного опыта создания рекламных кампаний.
Я еще напишу отдельно, почему работа с низкобюджетными исполнителями, если вы хотите заказать ии-видео — это всегда лотерея, в которой вы всегда проиграете.
Не переключайтесь.
🔥37👍28🤣4🙈3🤬1