This media is not supported in your browser
VIEW IN TELEGRAM
Разомнемся новостями от ТикТока.
Они выпустили новое приложение PineDrama - это суперкороткие минисериалы. Я полез разбираться с цифрами и немного потерял веру в человечество. Это феноменальный кожаный слоп. Игра актеров настолько плоха, а сценарии настолько примитивны, что трудно представить, что кто-то это будет смотреть. Эпизоды, кстати, длиной в минуту.
Но.
С запуском PineDrama TikTok бросает вызов таким популярным платформам микродрам, как ReelShort и DramaBox. Индустрия микродрам, по данным Variety, к 2030 году может иметь годовой доход в 26 миллиардов долларов.
PineDrama запустили пока в US и Бразилии
https://play.google.com/store/apps/details?id=com.ss.android.ttmd.video&hl=en_US
У меня не доступно.
Я это все к чему?
Две мысли:
1. Вот он идеальный ИИ-контент, ну то есть вот контент, который можно будет производить ИИ-генерацией. Правда, пока неизвестно, что дешевле, плохие актеры и декорации без освещения или ИИ-токены.
Ждем генеративных фабрик такого ИИ-слопа - все инструменты уже есть - и о них следующий пост, тоже про ТикТок.
2. Мне вот интересно, а какая минимальная длина видео для оптимального дофаминового цикла? Новым нормальным потребителям контента уже тяжело осваивать двухчасовые фильмы и лонгриды. Сериалы тоже становятся слишком длинными, если вон минутный формат взлетает до неба.
Может быть и этого слишком много и "постоянная Планка" для видео составляет 5 секунд? Неслучайно все видеогенераторы умеют в 5-10 секунд, а ИИ-слоп рвет ленты? Может и не надо больше?
В общем я теряю веру в кожаных и пойду писать следующий пост.
https://techcrunch.com/2026/01/16/tiktok-quietly-launches-a-micro-drama-app-called-pinedrama/
@cgevent
Они выпустили новое приложение PineDrama - это суперкороткие минисериалы. Я полез разбираться с цифрами и немного потерял веру в человечество. Это феноменальный кожаный слоп. Игра актеров настолько плоха, а сценарии настолько примитивны, что трудно представить, что кто-то это будет смотреть. Эпизоды, кстати, длиной в минуту.
Но.
С запуском PineDrama TikTok бросает вызов таким популярным платформам микродрам, как ReelShort и DramaBox. Индустрия микродрам, по данным Variety, к 2030 году может иметь годовой доход в 26 миллиардов долларов.
PineDrama запустили пока в US и Бразилии
https://play.google.com/store/apps/details?id=com.ss.android.ttmd.video&hl=en_US
У меня не доступно.
Я это все к чему?
Две мысли:
1. Вот он идеальный ИИ-контент, ну то есть вот контент, который можно будет производить ИИ-генерацией. Правда, пока неизвестно, что дешевле, плохие актеры и декорации без освещения или ИИ-токены.
Ждем генеративных фабрик такого ИИ-слопа - все инструменты уже есть - и о них следующий пост, тоже про ТикТок.
2. Мне вот интересно, а какая минимальная длина видео для оптимального дофаминового цикла? Новым нормальным потребителям контента уже тяжело осваивать двухчасовые фильмы и лонгриды. Сериалы тоже становятся слишком длинными, если вон минутный формат взлетает до неба.
Может быть и этого слишком много и "постоянная Планка" для видео составляет 5 секунд? Неслучайно все видеогенераторы умеют в 5-10 секунд, а ИИ-слоп рвет ленты? Может и не надо больше?
В общем я теряю веру в кожаных и пойду писать следующий пост.
https://techcrunch.com/2026/01/16/tiktok-quietly-launches-a-micro-drama-app-called-pinedrama/
@cgevent
1🔥25😁18😱14❤7👍4🙏2
И в продолжение к предыдущему посту я углядел новость, что тот же ТикТик только что релизнул статью про оживление кожаных любой длительности.
И не только кожаных, но и мульт-персонажей, котикаф и прочих тварей.
Я обычно не пишу про работы без кода - их 80% в инфополе и они в большинстве своем бессмысленны (аспиранты набивают индексы).
Но эта уж больно хорошо бьется с предыдущим постом.
Итак Тик-Ток бахнул FlowAct-R1 Logo : Towards Interactive Humanoid Video Generation
Фишка номер один:
он типа реалтаймовый, TTFF - время до выдачи первого кадра всего 1.5 секунды, а дальше он фигачит 25фпс в 480P, что круто.
видео любой длины(!)
липсинк и аудиосинк
Подробности, видосы и описание тут:
https://grisoon.github.io/FlowAct-R1/
А я не удивлюсь, если они бахнули такой инструмент специально для производства микродрам и минитиктоков.
@cgevent
И не только кожаных, но и мульт-персонажей, котикаф и прочих тварей.
Я обычно не пишу про работы без кода - их 80% в инфополе и они в большинстве своем бессмысленны (аспиранты набивают индексы).
Но эта уж больно хорошо бьется с предыдущим постом.
Итак Тик-Ток бахнул FlowAct-R1 Logo : Towards Interactive Humanoid Video Generation
Фишка номер один:
он типа реалтаймовый, TTFF - время до выдачи первого кадра всего 1.5 секунды, а дальше он фигачит 25фпс в 480P, что круто.
видео любой длины(!)
липсинк и аудиосинк
Подробности, видосы и описание тут:
https://grisoon.github.io/FlowAct-R1/
А я не удивлюсь, если они бахнули такой инструмент специально для производства микродрам и минитиктоков.
@cgevent
😱30👍13❤6🔥3
Хуньянь 3D Studio ver.1.2
Я уже писал, что ХУ 3D обновился до версии 3.1.
Вместе с ним обновилась их 3D Studio.
Там PartGen 1.5 и компоненты с разрешением 1536³, восемь картинок на входе и пр.
Но меня прям удивила вот такая картинка: это конвертация в лоу-поли и проториг.
Если так пойдет они залезут на территорию 3Д-пакетов.
Хотя я с трудом представляю, что кто-то будет ригать персонажей в Хуньяне - это слишком сложная, годами выстраданная технология.
Но ХУ молодцы - расщиряют чистую генерацию разными полезными фишками.
@cgevent
Я уже писал, что ХУ 3D обновился до версии 3.1.
Вместе с ним обновилась их 3D Studio.
Там PartGen 1.5 и компоненты с разрешением 1536³, восемь картинок на входе и пр.
Но меня прям удивила вот такая картинка: это конвертация в лоу-поли и проториг.
Если так пойдет они залезут на территорию 3Д-пакетов.
Хотя я с трудом представляю, что кто-то будет ригать персонажей в Хуньяне - это слишком сложная, годами выстраданная технология.
Но ХУ молодцы - расщиряют чистую генерацию разными полезными фишками.
@cgevent
👍35❤8😱3👎2🔥1
Media is too big
VIEW IN TELEGRAM
Rodin 3D Artist-Style topology
А вот смотрите, что нарулили Deemos Tech в области лоу-поли генерации.
Это, говорят, уже похоже на game asset.
Для игровых ассетов там полигонов многовато, имхо, но прогресс в области ретопа радует.
Это уже не каша, а что-то вменяемое.
Ну и видео не от самих Димосов, а от пользователя, поэтому читы маловероятны.
Но Блендор на китайском выглядит адово, конечно.
https://hyper3d.ai/
@cgevent
А вот смотрите, что нарулили Deemos Tech в области лоу-поли генерации.
Это, говорят, уже похоже на game asset.
Для игровых ассетов там полигонов многовато, имхо, но прогресс в области ретопа радует.
Это уже не каша, а что-то вменяемое.
Ну и видео не от самих Димосов, а от пользователя, поэтому читы маловероятны.
Но Блендор на китайском выглядит адово, конечно.
https://hyper3d.ai/
@cgevent
🔥18❤7👍2😁2
Forwarded from Сиолошная
OpenAI в целом и Sama в частности инвестировали в только что созданную Merge Labs — компанию, сфокусированную на создании интерфейса для подключения мозга к компьютеру (BCI). Вместе с ними, кстати, денег вкинул и Габен 💪
Компания будет являться прямым конкурентом Neuralink от Elon Musk, но ставка делается на кардинально другой подход, который потребует существенно меньше инвазивных процедур. Сейчас Neuralink сверлят в черепе дырку и устанавливают маленький имплант с электродами, погружённными в мозг на несколько миллиметров.
Такой чип охватывает лишь одну зону мозга, но в идеале сигнал нужно считывать из разных. Что же будут делать Merge Labs?
Основатели сообщили, что на первом этапе их исследования будут сосредоточены на использовании ультразвуковой технологии для отслеживания активности нейронов в сочетании с белками, способными усиливать нейронные сигналы.
Цель — доставить специальные белки в мозг и интегрировать их с нейронами. Использование свойств этих белков заставит нейроны генерировать более четкий сигнал для считывания ультразвуком.
Такие белки называются молекулярные репортеры, они "сообщают" о действиях клетки таким образом, что ультразвук может зафиксировать сигнал с гораздо более высокой точностью.
При этом в лаборатории пока отказываются говорить о том, как именно эти белки будут попадать в мозг. Можно предположить, что для доставки генетических элементов к нейронам будет использоваться метод генной терапии😳
Желаем ребятам удачи, будем следить за ними раз в год.
Если вам интересно узнать чуть больше — вот тут есть свежее интервью с одним из ко-фаундеров.
Компания будет являться прямым конкурентом Neuralink от Elon Musk, но ставка делается на кардинально другой подход, который потребует существенно меньше инвазивных процедур. Сейчас Neuralink сверлят в черепе дырку и устанавливают маленький имплант с электродами, погружённными в мозг на несколько миллиметров.
Такой чип охватывает лишь одну зону мозга, но в идеале сигнал нужно считывать из разных. Что же будут делать Merge Labs?
Основатели сообщили, что на первом этапе их исследования будут сосредоточены на использовании ультразвуковой технологии для отслеживания активности нейронов в сочетании с белками, способными усиливать нейронные сигналы.
Цель — доставить специальные белки в мозг и интегрировать их с нейронами. Использование свойств этих белков заставит нейроны генерировать более четкий сигнал для считывания ультразвуком.
Такие белки называются молекулярные репортеры, они "сообщают" о действиях клетки таким образом, что ультразвук может зафиксировать сигнал с гораздо более высокой точностью.
При этом в лаборатории пока отказываются говорить о том, как именно эти белки будут попадать в мозг. Можно предположить, что для доставки генетических элементов к нейронам будет использоваться метод генной терапии
Желаем ребятам удачи, будем следить за ними раз в год.
Если вам интересно узнать чуть больше — вот тут есть свежее интервью с одним из ко-фаундеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35😱12❤10👎4🙏1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор видео @peAilizm
Видео создавалось на конкурс, забугорный) Поэтому не на русском.
К сожалению, а может и к счастью,ролик ничего не получил и не занял. Но это же не повод положить его на полку и даже не попытаться узнать мнение о нем. Пусть и негативное, но желательно с конструктивной критикой. Будет полезно для дальнейшего роста.
Что использовалось для создания: для генераций изображений Сидрим в основном , для видеогенераций был в основном Клинг, так как ролик сделан примерно полгода назад. Вео и Сора тогда еще не котировались) Озвучка в Хедре)
Звуковые эффекты взяты с бесплатных платформ,коих сейчас много.
@cgevent
Автор видео @peAilizm
Видео создавалось на конкурс, забугорный) Поэтому не на русском.
К сожалению, а может и к счастью,ролик ничего не получил и не занял. Но это же не повод положить его на полку и даже не попытаться узнать мнение о нем. Пусть и негативное, но желательно с конструктивной критикой. Будет полезно для дальнейшего роста.
Что использовалось для создания: для генераций изображений Сидрим в основном , для видеогенераций был в основном Клинг, так как ролик сделан примерно полгода назад. Вео и Сора тогда еще не котировались) Озвучка в Хедре)
Звуковые эффекты взяты с бесплатных платформ,коих сейчас много.
@cgevent
👎64😁32👍12❤6🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Wan 2.6 Image to Video Flash
Пока только по первому кадру.
Длина до 15 секунд.
Можно грузить свое аудио\Генерация аудио тоже есть
Есть shot_type - один план или несколько в одном видео
Очень быстрый
https://fal.ai/models/wan/v2.6/image-to-video/flash
https://wavespeed.ai/models/alibaba/wan-2.6/image-to-video-flash
@cgevent
Пока только по первому кадру.
Длина до 15 секунд.
Можно грузить свое аудио\Генерация аудио тоже есть
Есть shot_type - один план или несколько в одном видео
Очень быстрый
https://fal.ai/models/wan/v2.6/image-to-video/flash
https://wavespeed.ai/models/alibaba/wan-2.6/image-to-video-flash
@cgevent
👍30👎8❤5😱1
This media is not supported in your browser
VIEW IN TELEGRAM
А ночью, пока никто не видит, я буду постить нейрослоп с котиками
Они же классные..
И утром стирать. И делать серьезное лицо.
@cgevent
Они же классные..
И утром стирать. И делать серьезное лицо.
@cgevent
3😁141❤99🔥17👎12👍11😱6
1🔥78👍16❤9
Для взрослых мальчиков
Radiance: Professional HDR Image Processing Suite for ComfyUI
Набор нод для Комфи для композа и работы с HDR
- ARRI LogC3/4, S-Log3, V-Log, ACEScct,
- 30+ camera sensor, 20+ film stock,
- 3D LUTs (.cube, .3dl),
- Industry Scopes - Histogram, Waveform, Vectorscope
-GPU Accelerated - 10-50x faster with CUDA
-Camera Simulation - White balance, lens effects, presets
-EXR/HDR Support - Full OpenEXR read/write
И для пользователей Нюка:
- Nuke-style viewer for industry-grade color grading.
https://github.com/fxtdstudios/radiance
@cgevent
Radiance: Professional HDR Image Processing Suite for ComfyUI
Набор нод для Комфи для композа и работы с HDR
- ARRI LogC3/4, S-Log3, V-Log, ACEScct,
- 30+ camera sensor, 20+ film stock,
- 3D LUTs (.cube, .3dl),
- Industry Scopes - Histogram, Waveform, Vectorscope
-GPU Accelerated - 10-50x faster with CUDA
-Camera Simulation - White balance, lens effects, presets
-EXR/HDR Support - Full OpenEXR read/write
И для пользователей Нюка:
- Nuke-style viewer for industry-grade color grading.
https://github.com/fxtdstudios/radiance
@cgevent
🔥32👍9
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за Нолана.
Принес вам позалипать мозгорвущие видосы.
Еще в прошлой жизни, когда все упарывались по фотореалистичным рендерам (рендерман, ментал рей), мне всегда был интересен NPR (non-photirealistic render) и всякие туны, штрихи.
И первые нейронки были прекрасны - они как бы "не сходились" к нормальной картинке, а выходили чуть за рамки привычного.
Вот и сейчас, когда все фетишизируют реалистичность, мне интересно воздействие картинкой на зрителя чистой формой, минуя содержание или историю.
Держите промпт:
<instructions> Input Variable: [INSERT CITY] System rules: Act as a Reality Warping Artist. Generate a city that folds at a sharp 90-degree angle. Forensic Analysis: The Icons: Identify wide landmarks that can bridge the fold. The Transit: Cars acting as the connection between the two planes. The Base Element: Asphalt or cobblestone. Geometry: The Shape: An "L" shape on a massive scale. The ground is flat, then hits a "wall" which is actually just more city running vertically up. Construction: The "Wall" is fully populated with roads and buildings. Kinetic Flow: The Transition: Cars drive flat, then drive up the vertical wall seamlessly. Perspective: Shot from the corner looking into the fold. Foundation: The Edge: The sides of the city drop off into an infinite void or blue sky. Lighting & Atmosphere: Style: Mathematical Surrealism. Lighting: Hard shadows cast by the vertical city onto the flat city. Output: 8k Resolution, Photorealistic. </instructions>
А инструкции, как подставить сюда другие города и их особенности найдете тут.
Попробуйте сами, начните с Грока, можно в Клинге, а потом уж и в Veo.
@cgevent
Принес вам позалипать мозгорвущие видосы.
Еще в прошлой жизни, когда все упарывались по фотореалистичным рендерам (рендерман, ментал рей), мне всегда был интересен NPR (non-photirealistic render) и всякие туны, штрихи.
И первые нейронки были прекрасны - они как бы "не сходились" к нормальной картинке, а выходили чуть за рамки привычного.
Вот и сейчас, когда все фетишизируют реалистичность, мне интересно воздействие картинкой на зрителя чистой формой, минуя содержание или историю.
Держите промпт:
<instructions> Input Variable: [INSERT CITY] System rules: Act as a Reality Warping Artist. Generate a city that folds at a sharp 90-degree angle. Forensic Analysis: The Icons: Identify wide landmarks that can bridge the fold. The Transit: Cars acting as the connection between the two planes. The Base Element: Asphalt or cobblestone. Geometry: The Shape: An "L" shape on a massive scale. The ground is flat, then hits a "wall" which is actually just more city running vertically up. Construction: The "Wall" is fully populated with roads and buildings. Kinetic Flow: The Transition: Cars drive flat, then drive up the vertical wall seamlessly. Perspective: Shot from the corner looking into the fold. Foundation: The Edge: The sides of the city drop off into an infinite void or blue sky. Lighting & Atmosphere: Style: Mathematical Surrealism. Lighting: Hard shadows cast by the vertical city onto the flat city. Output: 8k Resolution, Photorealistic. </instructions>
А инструкции, как подставить сюда другие города и их особенности найдете тут.
Попробуйте сами, начните с Грока, можно в Клинге, а потом уж и в Veo.
@cgevent
4👍66🔥20❤10😁4👎2😱1