Нейронутые | ИИ (Егор Апполонов)
13.6K subscribers
1.18K photos
285 videos
1 file
343 links
Я — Егор Апполонов, эксперт по ии-видео. Победитель 3 международных конкурсов ии-фильмов. Связь @egorevna

Портфолио: https://egorappolonov.ru/ и @aigencydigital

Курс по ии-видео: https://aifilm.online/

РКН https://clck.ru/3NNPKh
Download Telegram
Большая премьера: самый полный гайд по Nano Banana Pro

Повайбкодил и сделал вам самый полный и необходимый гайд по Nano Banana Pro. Делитесь гайдом с друзьями.

Подписывайтесь на телеграм-канал "Нейронутые. Потому что здесь — все самые актуальные новости из мира ии-рекламы и ии-видео.

Плюсики в карму привествуются. Гид лежит по этой ссылке. Лайк, шер.
🔥65👍32🥰7💩1
Объявляю банановый понедельник.

Вы кидаете в коммент запрос — я генерю и кидаю результат в комменты. Понедельник продлится до тех пор, пока мне не надоест 😀

Го в комменты.

UPD: начинаю выкладывать в комментариях фото по вашим запросам.

UPD: Обложка к посту — Кир Витковский.
👍16🔥9🤣5🙈1
Очередной блеск на рынке ии-найма

Вакансия (мне приходят всякие, смотрю как нездоров местами этот рынок).

Итак, требования:

• Художественное образование
• Опыт работы с Kling, Runway, Sora, Veo3 — от 1 года
• Навыки генерации статичных изображений в Midjourney, Nana Banana и др.
• Уверенное владение Photoshop и Blender — от 3 лет
• Знание трендов в сфере нейросетей
• Умение работать в команде, соблюдение дедлайнов
Готовность к ненормированному графику в отдельных задачах.

Условия:

• Возможность работать напрямую с основателем (комментарий «Нейронутых — тут меня просто разорвало, афигеть какая привилегия).
Стабильный доход
• Участие в проектах с топовыми брендами
• Работа после подписания договора и NDA

Доход:

от 50 000 ₽ в месяц
🤣108🙈15🔥10
Media is too big
VIEW IN TELEGRAM
«Представляем Runway 4.5 – лучшую в мире видеомодель».

Таким громким заявлением Runway, который я поливаю в каждом посте, пытается стряхнуть пыль со своих ужасных потугов делать ИИ-видео.

Телеграм-каналы уже дружно провозгласили, что вышла убийца Sora 2 и Veo. Но я, как человек, который работает руками едва ли не со всеми существующими на рынке моделями, пока отношусь к релизу с осторожным скепсисом.

Придется оплатить и протестировать. Потом напишу объективное мнение человека, который работает с ии-видео 24/7. Пока же просто выложу демку. Но добавлю — все, что вы видите — это промо-видео, для создания которого были выбраны самые лучшие из тысяч возможных генераций кадры. В общем, как только проестирую руками все сам — дам подробный отчет.

Модель пока в бете (закрытой) — в самом Runway висит уведомление: coming soon. Ждем
👍27🔥12
В банановой битве с безоговорочным отрывом (смотрю по числу лайков и реакций) победила Лариса Долина.

Промт от подписчика, по которому сделано это изображение, был таким:

"Долина на коне, тыкает копьем Лурье, лежащую на земле".
🤣53🔥12💩4🤬1
Media is too big
VIEW IN TELEGRAM
У Kling целая пачка обновлений. Только вчера задавался вопросом, когда уже сделают говорящих нормально героев (липсинг — но не как было раньше, через кривую загрузку аудио со звуком, и последующий липсик, а сразу генерацию говорящих голов).

Сегодня представили модель 2.6, которая это умеет. Пока сдаю большой проект и не могу протестировать как следует. Но обязательно все изучу и напишу подробный обзор.

Также у Kling вышла модель O1, которуй — та-дам — назвали убийцей Sora и Veo — но мои первые тесты на рабочем коммерческом проекте показали, что такие заявления далеки от реальности.

В общем, декабрь радует крутыми обновлениями. Это не все, будут еще новости.
👍20🔥4
Первый тест клинг 2.6 — специально написал очень длинную фразу, чтобы посмотреть, что будет делать модель.

Так вот: в отличие от того же Veo 3.1, Kling пытается впихнуть весь текст в указанный хрон.

Первый пример — 5 сек: девочка тараторит как пулемет.

Второй пример — 10 сек: девочка говорит медленнее, но все еще быстро, потому что я засадил ей очень большую реплику.

UPD: На текущий момент модель поддерживает только английский и китайский язык. Все остальное будет переводиться. На китайский.
👍27🔥18
И слава богу... Ничего хорошего там обнаружено не было :-)

В то время когда ведущие мировые нейросети выкатывают такие бомбические обновления, Шедеврум застрял где-то в начале эпохи становления нейросетей.
💯35🤣27
Поймал себя на мысли, что 4 месяца назад отменил подписку на Midjourney и с тех пор ни разу не пользовался сервисом.

Просто миджа была все это время не нужна.

А ведь в общей сложности за историю своей работы с нейросетями сгенерил в MJ порядке 35 000 изображений.

Почему перестал пользоваться? Раньше не было аналогов. А теперь их очень много, и для рабочих задач они лучше и поддаются контролю.

Из основных инструментов для работы с изображениями — Seedream и Nano Banana.

А вы пользуетесь Midjourney?
👍29💯11🔥1
Veo 4: ждете релиз в декабре? Так вот, скорее всего не ждите.

Начну с главного. Вопреки всеобщим заявлениям о том, что Veo 4 выйдет в декабре, в действительности срок релиза совсем иной: потенциальный запуск намечен на период декабрь 2025 года — май 2026-го.

Когда именно зарелизят модель, неясно. Но с учетом того, как сильно нагружались серверы Google в последний месяц, есть два возможных сценария:

1) серверы были перегружены из-за внутренних тестов и релиз уже скоро. 2) серверы перегружены из-за наплыва пользователей и к релизу Veo 4 Google сейчас точно не готов, и он состоится в следующем году.

Что, по слухам, нам принесет Veo 4 (на основе инсайдерских данных и сливов, которые я изучил)

Более длинные видео: 15–30 секунд вместо нынешних 8–10. 

Стабильность персонажей и сцен: улучшенное соответствие между кадрами, меньше «дрожания» объектов, более плавные переходы. 

Качественный текст в кадре и локализация: ожидается, что Veo 4 сможет уверенно работать с графикой, пояснениями, надписями на разных языках. 

Мульти-ракурсы и кастомная камера: возможность менять точку зрения, угол обзора, движение камеры прямо в ИИ-видео (в духе кино, зачатки этого инструмента есть уже сейчас в Veo 3.1), еще больше контроля над визуальной эстетикой. 

Более широкий арсенал генераций: text-to-video, image-to-video, возможно комбинированные сценарии, улучшенная физика, стилистическая гибкость и реалистичная анимация. 

Зачем это нужно

Если вы — контент-мейкер, режиссер, сторителлер, создатель социальных роликов или просто экспериментируете с видео — Veo 4 может стать настоящим шагом вперед. Больше длительность, больше стабильности, больше контроля — меньше ручной правки.

Недостатки? Пока не могу сказать — многое основано на слухах. Официального анонса нет, и возможно, функции будут масштабировать постепенно.

А вы ждете Veo 4?
👍36
Media is too big
VIEW IN TELEGRAM
Вдохновился постом Джимми Нейрона и сделал небольшое шутливое видео

Вот ссылка на оригинальный пост.

Кстати, «Джимми Нейрон» — один из немногих каналов по ии который я действительно читаю. Там много интересного
22🔥40👍15🤣2🙈1
This media is not supported in your browser
VIEW IN TELEGRAM
OPEN CALL «ЧЕРНОВИК БУДУЩЕГО» — вызов для креаторов, художников, фотографов и всех, кто работает с нейросетями

Если вас тянет в эксперименты, если вы привыкли не просто генерировать, а ставить перед ИИ сложные творческие задачи — это ваш квест. Медиапроект Bridge-N зовет выйти за пределы привычного пайплайна и проверить, на что способны вы и ваши модели.

ТЗ простое: бросать кольцо в пламя Роковой горы не нужно, но вот исследовать границы ИИ-креатива — обязательно. Зов к странствиям игнорировать нельзя.

Кем бы вы ни были — юным падаваном, джедаем рендера или седым йодой промт-дизайна — присылайте короткие тексты и визуал, созданные при помощи нейросетей, плюс ваш авторский комментарий о пользе и вреде ИИ.

Жанры: магический реализм, фантастика, автофикшен.

Разрешается играть с паттернами, травмами, снами, галактиками, трансформациями, идентичностью, воронами, дирижаблями и параллельными мирами. Ничего скучного — только плотная фантазия, настоящая магия и немного научной психологии.

Прием работ: 7 декабря — 7 января.

Призы: графические планшеты, денежные награды, публикация на Bridge-N. Го!

Все детали: bridgen.ru/opencall

Да пребудет с вами сила — и пусть ваши нейросети не галлюцинируют во время подачи заявки.
👍20🔥3
Давно собирался сделать этот пост: JSON-промпты

JSON-промпты — это как глянцевые маскировочные костюмы для "модных промт-инженеров". Выглядит технологично, звучит внушительно. Но работает ли это в реальности, особенно в задачах генерации изображений и видео (Veo, Nano Banana Pro и т.д)? Пора сказать правду.

JSON-промптинг: из чего он вырос

Изначально формат появился как способ систематизировать ввод: вместо «сделай мне красивую девушку на фоне заката», у нас появилась обертка, которая как бы превращает тебя в гуру генераций:

{
"subject": "beautiful woman",
"background": "sunset",
"mood": "romantic",
"lighting": "golden hour"
}

Выглядит профессионально, как будто ты не просто чувак с оплаченной нейросетью (один из тысяч), а режиссер нейронной постановки.

Но вот загвоздка: большинство моделей на вход все равно ждут текст — обычный человеческий текст. А значит, твой JSON просто становится fancy оберткой для конкатенации строк.

Серьезно. Люди с умным видом часами собирают JSON-схемы, прописывают "camera_type": "ARRI Alexa" и "mood": "melancholic optimism" в надежде, что это даст результат уровня Тарковского.

А нейросети тем временем просто ждут: ну скажи уже по-человечески, что ты хочешь. Даже Veo 3, даже Sora 2, даже Nano Banana Pro — это не API-интерфейс, это эмоции, кадры, кинематографическое мышление. А не JSON-запятые.

«Мы используем JSON для систематизации» — звучит красиво. А по факту?

Вы просто хардкодите хаос. Хотите на потоке делать 50 роликов — да, JSON может быть полезен. Но если вы думаете, что запихнете в промт "action": "epic slow motion" и получите рекламу Nike — у меня для вас плохие новости: без визуального мышления вы получите ровно то, что заказали (ерунду).

Хороший режиссер не думает о запятых, двоеточиях и модных скобках. Он думает в образах, световых пятнах, движении камеры, в драматургии сцены. Так что если вы сидите и пишете "bokeh": true и думаете, что сделали магию — я вас расстрою. Не-а. Настоящую магию делает не формат — ее делает вкус, насмотренность и понимание структуры кадра.

Когда JSON реально полезен

Есть ситуации, где JSON — мастхэв. Например:

Сквозные пайплайны: где ты автоматизируешь поток задач (промптинг → выбор модели → ассеты → видео).

API-интеграции: где каждый блок (персонаж, камера, движение, музыка) требует четкого структурирования.

Мультимодальная генерация: когда миксуешь текст, изображение, аудио и видео — и тебе нужно следить за форматами и параметрами.

А теперь по-честному

Veo 3.1? Прекрасно ест обычный промпт с «пиши по-человечески». Nano Banana Pro? Вообще не различает, запихнешь ты туда JSON или абзац в духе: «мужчина бежит по дождю в неоне». Главное — не формат, а смысл, тон, точность.

Так что когда я вижу посты в духе «сделайте себе шаблонный JSON и все будет кино», хочется напомнить: Sora, Kling, Veo и т.д. в первую очередь понимают язык эмоций, образов и кинематографической интуиции.

Не JSON делает видео вирусным, а режиссура.

Вывод

JSON-промпты — не магическая таблетка. Это просто формат. Полезный, когда надо систематизировать, особенно в команде или при масштабировании. Но для одиночного креатора, который хочет сделать вау-картинку или прокинуть драму в 30 секунд — это чаще всего избыточность. Лучше учите визуальное мышление, а не придумывайте, куда в JSON вставить “epic light flare with anamorphic distortion”.

p.s. Не использовал и никогда не планирую. И без них умею.
🔥52👍24💯6
Обновил сайт и портфолио

На досуге немного повайбкодил (всего-то 2192 строчки кода) и серьезно обновил дизайн сайта со своим портфолио. Сделал немного по-хулигански, люблю всякие красивые штуки.

Кстати, добавил и новые работы (ии-реклама), которые раньше не мог показывать. Так что непременно загляните по этой ссылке.
🔥34👍16
Я вам озвучу интересный парадокс рынка 2025 года: чем доступнее инструменты, тем дороже экспертиза. Кнопки есть у всех. Вкус, опыт, все необходимые навыки и стратегическое мышление: как всегда — у единиц.

В стоимость создания ии-видео высокого уровня заложена серьезная интеллектуальная наценка.

Знаете, почему?

Потому что в случае с низкобюджетными исполнителями вы получаете ровно то, за что заплатили: плохо сгенерерированное видео, в котором все плывет и ползет. Ну там бабку на бегемоте. Или кота, который весело мяукает и заканчивает это делать через 15 секунд, когда закончился хрон сгенерированного в Sora 2 шота.

Вы получаете видео, в котором ваш бренд в принципе узнаваем, но если присмотреться, вы поймете, что все логотипы поехали к чертям (потому что нейросети не умеют держать тексты — ну например, мелкие тексты на этикетках, поэтому нужен ручной ротоскопинг, трекинг и много чего еще). Вы поймете, что сценарий — унылое го%но. Что голоса мертвые, да и вообще ролик сделан так, что сразу видно:

Это сделала нейросеть. И сделала, конечно же, очень плохо.

Существует мнение, что нейросети уравняли всех. Что студент с ноутбуком теперь равен профессионалу, который играет в высшей лиге. Но, пожалуйста, друзья, снимите розовые очки. Это не ни разу так.

Лучшие игроки рынка — это, конечно же,профессионалы индустрии (реклама, видеопродакшн, маркетинг и тд), которые просто сменили кисти. Точнее добавили в свой пайплан новые инструменты, но стоят на прочном фундаменте многолетного опыта создания рекламных кампаний.

Я еще напишу отдельно, почему работа с низкобюджетными исполнителями, если вы хотите заказать ии-видео — это всегда лотерея, в которой вы всегда проиграете.

Не переключайтесь.
🔥37👍28🤣4🙈3🤬1
Если вы ищете подрядчика на создание ии-видео и в частности ии-рекламы, то я подготовил гайд, который настоятельно рекомендую прочесть. Это, казалось бы, очевидные истины, но все же стоит ознакомиться.

Читать по этой ссылке.

#статьи
👍24🔥6🙈1
Media is too big
VIEW IN TELEGRAM
Chat GPT обновил свою делалку картинок. Пытаются влезть на поляну Nano Banana Pro.

Протестирую — напишу свои впечатления. Пока просто смотрим черри-демку.
👍24🔥9
Пока Альман судорожно пытается догнать Google, последние выкатили еще одну внушительную порцию обновлений во Flow:

Nano Banana Pro получила апскейл до 2K и 4K

Пользователи Pro и Ultra теперь могут увеличивать изображения, созданные в Nano Banana Pro, до 2K и 4K.
Чтобы апскейлить изображение, достаточно навести курсор на готовую картинку, выбрать загрузку и указать нужное разрешение.

Что важно учитывать:

— апскейл доступен только для изображений, сгенерированных в Nano Banana Pro после 12 декабря.
— 2K доступен на тарифах Pro и Ultra;
— 4K — только на Ultra.

На время новогоднего периода апскейл в 2K и 4K не расходует кредиты и ограничен 200 изображениями в день для каждого разрешения. Лимиты и условия могут измениться позже.

Исправления с аудио в Veo 3

Команда также доработала логику обработки ошибок со звуком. Если раньше Veo 3 мог возвращать видео без аудио, теперь такие генерации считаются ошибочными:

— видео не будет возвращено пользователю;
— кредиты автоматически возвращаются.

Работа над стабильным и качественным звуком продолжается, но уже сейчас это изменение избавляет от потери кредитов из-за аудиобагов.

Ну что, Альтман, догоняй 🤣
👍24🔥12
Kling Video 2.6: Voice Control — кастомные голоса для персонажей

В модели Kling VIDEO 2.6 стала доступна функция Voice Control. Теперь можно создавать собственные голоса и жtстко привязывать их к персонажам, добиваясь стабильного совпадения между образом и звучанием. Что это дает на практике:

Стабильный голос на всём видео: голос сохраняет тембр и характер от начала до конца ролика.

Гибкая адаптация под контекст: один и тот же голос автоматически подстраивается под разные форматы — закадровый текст, диалог, речь, монолог. Меняется ритм, интонация и подача без дополнительной настройки.

Естественная работа с разными языками: голос, обученный на одном языке, может органично говорить на другом (например, китайский —> английский) без ручных конфигураций, сохраняя выразительность и узнаваемость. И да, русского пока нет.

Привязка голосов через промпт: достаточно указать в запросе формат вроде [Character@VoiceName], и модель сама закрепит нужный голос за персонажем. Это сильно упрощает сцены с несколькими героями и разными голосами.

Обновление делает Kling заметно ближе к полноценной работе с персонажами — не только визуально, но и на уровне звучания. Для сторителлинга, брендов и сериализованных форматов это серьезный шаг вперед. Ждем, когда добавят русский язык. Пока ни одна модель ранее не предлагала такой функции.
👍19🔥5