Метаверсище и ИИще
47.1K subscribers
5.98K photos
4.44K videos
45 files
6.89K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Разомнемся новостями от ТикТока.

Они выпустили новое приложение PineDrama - это суперкороткие минисериалы. Я полез разбираться с цифрами и немного потерял веру в человечество. Это феноменальный кожаный слоп. Игра актеров настолько плоха, а сценарии настолько примитивны, что трудно представить, что кто-то это будет смотреть. Эпизоды, кстати, длиной в минуту.
Но.
С запуском PineDrama TikTok бросает вызов таким популярным платформам микродрам, как ReelShort и DramaBox. Индустрия микродрам, по данным Variety, к 2030 году может иметь годовой доход в 26 миллиардов долларов.
PineDrama запустили пока в US и Бразилии
https://play.google.com/store/apps/details?id=com.ss.android.ttmd.video&hl=en_US
У меня не доступно.
Я это все к чему?
Две мысли:
1. Вот он идеальный ИИ-контент, ну то есть вот контент, который можно будет производить ИИ-генерацией. Правда, пока неизвестно, что дешевле, плохие актеры и декорации без освещения или ИИ-токены.
Ждем генеративных фабрик такого ИИ-слопа - все инструменты уже есть - и о них следующий пост, тоже про ТикТок.
2. Мне вот интересно, а какая минимальная длина видео для оптимального дофаминового цикла? Новым нормальным потребителям контента уже тяжело осваивать двухчасовые фильмы и лонгриды. Сериалы тоже становятся слишком длинными, если вон минутный формат взлетает до неба.
Может быть и этого слишком много и "постоянная Планка" для видео составляет 5 секунд? Неслучайно все видеогенераторы умеют в 5-10 секунд, а ИИ-слоп рвет ленты? Может и не надо больше?

В общем я теряю веру в кожаных и пойду писать следующий пост.
https://techcrunch.com/2026/01/16/tiktok-quietly-launches-a-micro-drama-app-called-pinedrama/

@cgevent
1🔥25😁18😱147👍4🙏2
И в продолжение к предыдущему посту я углядел новость, что тот же ТикТик только что релизнул статью про оживление кожаных любой длительности.

И не только кожаных, но и мульт-персонажей, котикаф и прочих тварей.

Я обычно не пишу про работы без кода - их 80% в инфополе и они в большинстве своем бессмысленны (аспиранты набивают индексы).

Но эта уж больно хорошо бьется с предыдущим постом.

Итак Тик-Ток бахнул FlowAct-R1 Logo : Towards Interactive Humanoid Video Generation

Фишка номер один:

он типа реалтаймовый, TTFF - время до выдачи первого кадра всего 1.5 секунды, а дальше он фигачит 25фпс в 480P, что круто.

видео любой длины(!)

липсинк и аудиосинк

Подробности, видосы и описание тут:
https://grisoon.github.io/FlowAct-R1/

А я не удивлюсь, если они бахнули такой инструмент специально для производства микродрам и минитиктоков.

@cgevent
😱30👍136🔥3
Хуньянь 3D Studio ver.1.2

Я уже писал, что ХУ 3D обновился до версии 3.1.

Вместе с ним обновилась их 3D Studio.

Там PartGen 1.5 и компоненты с разрешением 1536³, восемь картинок на входе и пр.

Но меня прям удивила вот такая картинка: это конвертация в лоу-поли и проториг.

Если так пойдет они залезут на территорию 3Д-пакетов.

Хотя я с трудом представляю, что кто-то будет ригать персонажей в Хуньяне - это слишком сложная, годами выстраданная технология.

Но ХУ молодцы - расщиряют чистую генерацию разными полезными фишками.

@cgevent
👍358😱3👎2🔥1
Media is too big
VIEW IN TELEGRAM
Rodin 3D Artist-Style topology

А вот смотрите, что нарулили Deemos Tech в области лоу-поли генерации.

Это, говорят, уже похоже на game asset.
Для игровых ассетов там полигонов многовато, имхо, но прогресс в области ретопа радует.

Это уже не каша, а что-то вменяемое.

Ну и видео не от самих Димосов, а от пользователя, поэтому читы маловероятны.

Но Блендор на китайском выглядит адово, конечно.

https://hyper3d.ai/

@cgevent
🔥187👍2😁2
Forwarded from Сиолошная
OpenAI в целом и Sama в частности инвестировали в только что созданную Merge Labs — компанию, сфокусированную на создании интерфейса для подключения мозга к компьютеру (BCI). Вместе с ними, кстати, денег вкинул и Габен 💪

Компания будет являться прямым конкурентом Neuralink от Elon Musk, но ставка делается на кардинально другой подход, который потребует существенно меньше инвазивных процедур. Сейчас Neuralink сверлят в черепе дырку и устанавливают маленький имплант с электродами, погружённными в мозг на несколько миллиметров.

Такой чип охватывает лишь одну зону мозга, но в идеале сигнал нужно считывать из разных. Что же будут делать Merge Labs?

Основатели сообщили, что на первом этапе их исследования будут сосредоточены на использовании ультразвуковой технологии для отслеживания активности нейронов в сочетании с белками, способными усиливать нейронные сигналы.

Цель — доставить специальные белки в мозг и интегрировать их с нейронами. Использование свойств этих белков заставит нейроны генерировать более четкий сигнал для считывания ультразвуком.

Такие белки называются молекулярные репортеры, они "сообщают" о действиях клетки таким образом, что ультразвук может зафиксировать сигнал с гораздо более высокой точностью.

При этом в лаборатории пока отказываются говорить о том, как именно эти белки будут попадать в мозг. Можно предположить, что для доставки генетических элементов к нейронам будет использоваться метод генной терапии 😳

Желаем ребятам удачи, будем следить за ними раз в год.

Если вам интересно узнать чуть больше — вот тут есть свежее интервью с одним из ко-фаундеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35😱1210👎4🙏1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Автор видео @peAilizm                                   
                           
Видео создавалось на конкурс, забугорный) Поэтому не на русском.

К сожалению, а может и к счастью,ролик ничего не получил и не занял. Но это же не повод положить его на полку и даже не попытаться узнать мнение о нем. Пусть и негативное, но желательно  с конструктивной критикой. Будет полезно для дальнейшего роста.

Что использовалось для создания: для генераций изображений Сидрим в основном , для видеогенераций был в основном Клинг, так как ролик сделан примерно полгода назад. Вео и Сора тогда еще не котировались) Озвучка в Хедре)

Звуковые эффекты взяты с бесплатных платформ,коих сейчас много.


@cgevent
👎64😁32👍126🔥2
Wan 2.6 Image to Video Flash

Пока только по первому кадру.

Длина до 15 секунд.

Можно грузить свое аудио\Генерация аудио тоже есть

Есть shot_type - один план или несколько в одном видео

Очень быстрый

https://fal.ai/models/wan/v2.6/image-to-video/flash

https://wavespeed.ai/models/alibaba/wan-2.6/image-to-video-flash

@cgevent
👍30👎85😱1
This media is not supported in your browser
VIEW IN TELEGRAM
А ночью, пока никто не видит, я буду постить нейрослоп с котиками

Они же классные..

И утром стирать. И делать серьезное лицо.

@cgevent
3😁14199🔥17👎12👍11😱6
Меня кто-то спрашивал, можно ли генерировать изображения в 360 градусов.

Нанабана умеет.

Забирайте промпт и детали тут.

Промпт слишком большой и тут не помещаецца.

@cgevent
1🔥78👍169
Для взрослых мальчиков

Radiance: Professional HDR Image Processing Suite for ComfyUI

Набор нод для Комфи для композа и работы с HDR

- ARRI LogC3/4, S-Log3, V-Log, ACEScct,
- 30+ camera sensor, 20+ film stock,
- 3D LUTs (.cube, .3dl),
- Industry Scopes - Histogram, Waveform, Vectorscope
-GPU Accelerated - 10-50x faster with CUDA
-Camera Simulation - White balance, lens effects, presets
-EXR/HDR Support - Full OpenEXR read/write

И для пользователей Нюка:
- Nuke-style viewer for industry-grade color grading.

https://github.com/fxtdstudios/radiance

@cgevent
🔥32👍9
Ну, за Нолана.

Принес вам позалипать мозгорвущие видосы.

Еще в прошлой жизни, когда все упарывались по фотореалистичным рендерам (рендерман, ментал рей), мне всегда был интересен NPR (non-photirealistic render) и всякие туны, штрихи.
И первые нейронки были прекрасны - они как бы "не сходились" к нормальной картинке, а выходили чуть за рамки привычного.
Вот и сейчас, когда все фетишизируют реалистичность, мне интересно воздействие картинкой на зрителя чистой формой, минуя содержание или историю.

Держите промпт:
<instructions> Input Variable: [INSERT CITY] System rules: Act as a Reality Warping Artist. Generate a city that folds at a sharp 90-degree angle. Forensic Analysis: The Icons: Identify wide landmarks that can bridge the fold. The Transit: Cars acting as the connection between the two planes. The Base Element: Asphalt or cobblestone. Geometry: The Shape: An "L" shape on a massive scale. The ground is flat, then hits a "wall" which is actually just more city running vertically up. Construction: The "Wall" is fully populated with roads and buildings. Kinetic Flow: The Transition: Cars drive flat, then drive up the vertical wall seamlessly. Perspective: Shot from the corner looking into the fold. Foundation: The Edge: The sides of the city drop off into an infinite void or blue sky. Lighting & Atmosphere: Style: Mathematical Surrealism. Lighting: Hard shadows cast by the vertical city onto the flat city. Output: 8k Resolution, Photorealistic. </instructions>

А инструкции, как подставить сюда другие города и их особенности найдете тут.

Попробуйте сами, начните с Грока, можно в Клинге, а потом уж и в Veo.

@cgevent
4👍66🔥2010😁4👎2😱1