Метаверсище и ИИще
47.3K subscribers
6.02K photos
4.49K videos
46 files
6.92K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
OmniX: From Unified Panoramic Generation and Perception to Graphics-Ready 3D Scenes

Тут спрашивали за генерацию панорам.

Держите вот такую опенсорсную работу от Клинга.

Они не только генерят панорамы, но и по дороге достают из них разные свойства: карты глубины, normal, albedo, roughness, and metallic.
Но самое интересное в том, что они утверждают, что могут конвертировать панорамы в 3D, причем в обычные меши, которые можно потом грузить в Блендор. Правда, хотя этот пункт на Гитхабе помечен как выполненный, мелким шрифтом написано, что пока это работает криво, типа бета.

Проект: https://yukun-huang.github.io/OmniX/
Код: https://github.com/HKU-MMLab/OmniX
Веса: https://huggingface.co/KevinHuang/OmniX

@cgevent
👍323🔥1
Офигейте и попадайте со стульев! Университет Мэриленда и Microsoft протестировали 26 языков на всех топовых LLM — и английские промпты оказались НЕ самыми эффективными! 🤯

Результаты просто дикие:
- Польский — 88% (первое место!)
- Русский — 84% (пятое место)
- Английский — только 83.9% (шестое место!)

Пока все годами мучаются с английскими промптами, думая что так «правильнее», оказывается наш родной русский работает лучше!

Протестировали на OpenAI, Gemini, Llama — везде одинаковый результат. Даже китайский с огромной базой данных показал один из худших результатов.

Практический вывод: Сложные задачи теперь можно спокойно задавать ИИ по-русски — это эффективнее английского. Особенно когда нужна точность выполнения.

Кто бы мог подумать, что польский станет языком №1 для общения с искусственным интеллектом! 🙂

🔮 Хранители Легиона
3😱64😁43👍3119🔥11👎7
Media is too big
VIEW IN TELEGRAM
Нейпрожарка

Коммерческий ролик от Артема

Виктория Остара - Кошка🔥

Не просто коммерция.
Эмоции, чувства, красота, любовь. 🥰

Наш уже постоянный клиент Виктория, третья работа, второе стихотворение.
Она снова доверилась нам и мы снова ее не подвели.
Когда она прислала стихотворение и сказала - хочу.
Мы ей ответили - круто.
Мы не знаем, что это будет, НО это точно будет в Стамбуле.
Она сказала идею, мы ее доработали, сделали музыку и отправились в путешествие.
Самый сложный коммерческий заказ, самый эмоциональный и самый лучший.

Погрузитесь с нами и Викторией в те чувства, которые она хотела передать.

Инструменты:
Видео: клинг, вео.
Изображения: миджорни, банана.
Апскейл: магнифик, топаз.
Музыка: суно
Голос: живой
Работа 70 часов.

Добро пожаловать в Иллюзию.

Добро пожаловать в Стамбул.


@cgevent
👎46👍31🔥114😁1
MotionStream: Real-Time Video Generation with Interactive Motion Controls

Принес интересную работу от Адобченко - дальнейшее развитие идей DragDiffusion (постил аж в 2023 году).

Спойлер: Гитхаб есть, но кода там нет, вместо этого там написано, что мы отдали код на внутреннее ревью, но если они его не пропустят, то вы уж сами по нашей статье как-нибудь.

А примечательно здесь то, что все это шевелится на одной H100 с 29 FPS и 0.4s latency. То есть как бы реалтайм. Все примеры - запись экрана без ускорения.

Но поглядите внимательно на псину, когда ей поднимают правую лапу, левая неистово шеверится - родовые проблемы Diffusion моделей.

А давайте мысленно промотаем туда, где лапы не дергаются, качество огненное, крутится все гладко.

И вот есть у вас мышка для анимации - вы как собираетесь шевелить персонажа или камеру? На глазок?
Олды тут сразу смекнут, что нужен таймлайн, ключи, тангенсы и прочий обвес анимации.

Поэтому, имхо, надо запиливать такую интеграцию сразу в Блендор\Афтер. Хотя это Адобченко, могут и в свой Сабстанс вкрутить. Но вряд ли...

А пока все как обычно - для мемасов и тиктокаф сойдет.

P.S. Мне понравились анимации-симуляции: волна, чашка кофе. Если бы не кипение, то наруливание эффектов имело бы право на жизнь.

Фарш тут: https://joonghyuk.com/motionstream-web/

@cgevent
🔥129👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Юнити сделала очень странный ход.

Они бахнули Unity Studio.


Это такой недо-Блендор без моделирования (с анимацией и шейдингом), БЕЗ КОДА и с каким-то уродливым Logic Builder (одни цвета чего стоят).

В общем это сборка сцен из уже сделанных где-то ассетов, анимация и нодовый построитель взаимодействий между объектами. Ну то есть взяли и выкинули из Unity C# и сложные инструменты и сделали "создатель интерактивных 3Д-приложений".

Зачем? Для кого?

У меня от одного интерфейса Юнити уже глаза начинают кровоточить, а они собираются загонять сюда ранимых зумеров и кто там после них идет...

Можно записаться в бету тут:
https://unity.com/campaign/unity-studio

Но если просто хотите увидеть все это великолепие изнутри, то быстро пролистайте туториал:
https://learn.unity.com/tutorial/introduction-to-unity-studio

Маск нам обещает вайб-гейм-дев в следующем году, а тут такое..

@cgevent
😁24😱32👍2
This media is not supported in your browser
VIEW IN TELEGRAM
В llama.cpp сделали свой Automatic1111, ну то есть свой WebUI.

В отличие от картинок, тут нет ста тыщ параметров, поэтому все это больше похоже на Qwen Chat или chatGPT.

Точно также надо запустить свой сервак, вбить локальный адрес типа 127.0.0.1 в браузер и получить веб-интерфейс. И доступ к сотне тыщ открытых моделей. И да, можно загружать картинки или документы.

Инструкции тут: https://github.com/ggml-org/llama.cpp#hot-topics

@cgevent
👍24
Еще один генератор картинок.

Микрософт выкатил в доступ СВОЙ генератор картинок MAI-Image-1


Причем вы можете его бесплатно поюзать и пощупать лимиты тут:
https://www.bing.com/images/ (чтобы увидеть эту модель нужен штатовский впн)

У них на сайте и в твитторе все сладенько, но я чуть поковырялся.

1. Очень странный выбор аспектов: 1:1, 2:3, 3:2. И все.
2. Довольно жесткий лимит на количество символов в промпте. Мало.
3. Следование промпту хорошее, но качество.. в общем потестируйте сами.
4. Цензура жоская.
5. Можно выбрать модели DALLE-3(!) и GPT-4o.
6. Есть кнопки Edit Image и Animate Image(10 генераций в режиме Fast, в Standard - несколько часов на видео).
7. Есть видеогенерация - это Сора 2, 480P, 5 sec. 10 генераций.


Го теститровать.

@cgevent
👍16
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Автор: Екатерина Пинаева @pin_ai_eva

Darkness / «Темнота»

Анимационный AI-ролик о внутреннем исцелении. О том, как страх темноты оказывается не про ночь, а про детскую травму. Когда взрослый приходит в это воспоминание из прошлого, «темнота» перестаёт быть врагом.

Цель: сгенерировать широкоформатный ролик (16:9), обязательно: говорящий персонаж в одном из кадров, естественная анимация лица, целостность идеи.

Срок: 5 дней

Уровень: занимаюсь нейросетями с августа 2025 года, до этого – руководитель SMM-направления в СМИ.

Идея: основана на реальной психотерапевтической практике. По совету одного режиссёра решила пойти от самой сильной пережитой эмоции за последнее время. И для меня это – страх темноты, причину которого удалось найти на психотерапии, а значит решить проблему.

Сюжет: взрослый мужчина, у него бессонница, он не может заснуть, включает и выключает свет. Смотрит в темноту и ему мерещится что-то жуткое в двери комнаты.

▪️Генерация картинок: MJ (--sref 2856012573) + Nano Banana + Seedream 4
▪️Анимация видео: Veo 3.1 Fast + Kling 2.1 (генерация по 2 кадрам для морфинга) + Topaz (2X)
▪️Звук: Suno – музыка в конце, бесплатные стоки звуков, звуки в CapCut
▪️Монтаж: CapCut

Отдельно расскажу про шрифт в названии и в конце ролика: делала с помощью MJ. Написала название обычным шрифтом на черном фоне, добавила в MJ в --omni reference 1000 тем же --sref 2856012573. Он выдал с ошибками, поэтому в Nano Banana исправила на корректное название. Так же делала свое имя в конце, чтобы все было в единой стилистике.

Траты:
Подписка MJ $30 (15 Fast-часов)
Подписка ELITE у Syntx (все остальное) – $65 (потрачено не всё)


@cgevent
👍83🔥2617👎10
Forwarded from AI Product | Igor Akimov
LMSYS запустили Arena Expert – новую систему оценки LLM на реальных экспертных задачах.

В чём идея:
Обычная Chatbot Arena отлично работает для средних задач, но не показывает, как модели справляются с реальным экспертным уровнем – задачами математиков, врачей, программистов, юристов. Теперь появился отдельный лидерборд для таких промптов.

Как определяют "эксперта":
Только 5.5% всех промптов попадают в категорию Expert
Используют DeepSeek-v3 для автоматической разметки по признакам глубокого понимания домена
Промпты должны демонстрировать продвинутое рассуждение, а не просто сложность

В прошлом году была категория Arena Hard – она захватывала ~33% промптов. Expert гораздо жёстче – всего 5.5%.
Ключевое отличие: Hard промпты могут быть просто технически сложными. Expert – это когда промпт явно от человека, который глубоко разбирается в теме.

Результаты топ-6:
Claude Sonnet 4.5 (thinking-32k)
Claude Opus 4.1 (thinking-16k)
Gemini 2.5 Pro
Qwen3 Max Preview
Qwen3-235b Thinking
GPT-5 High

Дополнительно ввели разбивку промптов по 23 профессиональным категориям. Самые популярные:

Software and IT Services – 28%
Writing, Literature, and Language – 25%
Life, Physical, and Social Science – 17%

Итого получилось, что
Claude доминирует в Software и Mathematical, Gemini 2.5 Pro лидирует в Writing и Science, OpenAI модели сильны в Medicine

Для определения лучшего "универсала" пересчитали рейтинг с равными весами по всем категориям. Результат:

1) Gemini 2.5 Pro
2) Claude Opus 4.1
3) o3 и GPT-5

Еще сравнили арену с GDPal (экспертных задачах с человеческой разметкой). LMArena использует автоматическую разметку LLM.
Порядок моделей в обоих случаях почти идентичен, что говорит: автоматическая разметка большого объёма данных может конкурировать с аккуратно размеченными бенчмарками.

В общем, если используете LLM для экспертных задач (код, математика, наука), смотрите на Expert лидерборд и специализированные категории, а не только на Overall.

Полный отчёт с примерами промптов: https://news.lmarena.ai/arena-expert/
Dataset: https://huggingface.co/lmarena-ai

Смотреть результаты тут: https://lmarena.ai/leaderboard/text/expert
👍189🔥4
Media is too big
VIEW IN TELEGRAM
Embodied Avatar: Full-body Teleoperation Platform

Unitree продолжает приближать восстание машин.

В первой части видео, кожаные в мокап датчиках переносят движение на робатов с поразительной точностью. Ну и это не удивительно. И приятно видеть, что ноги не проскальзывают, как обычно на мокапе.

Потом поглядите на чувака в футболке, без датчиков. Это уже нейромокап, движения считываются с видео.

Ну а потом идет демонстрация того, чему робаты научились у кожаных.

Глядя на это секс-индустрия должна немедленно взяться за дело: удаленный секс или вебкам приобретают совершенно новые оттенки. Движения можно передавать на расстояния и воплощать в секс-кукол нового уровня.

@cgevent
🔥177👍2😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Мир Дикого запада все ближе.

Хорошее дополнение к предыдущему посту: XPeng выпустили женщину-робата с характерными признаками и фигурой.
И это правильно, а то все предыдущие показаные робаты были похожи на тупых мужиков.

Соединяем с мокапом из предыдущего поста и получаем прототип Мира Дикого Запада.

@cgevent
👍236🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Ну ладно, мир дикого запада пока откладывается...

@cgevent
😁90😱2👍1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Grok Imagine теперь умеет не только Image2Video, но и text2video.

По крайней мере в веб-версии на десктопе.
Но самое забавное следующее: я закинул в него абсолютно черное изображение без промпта и говорю, сделай видео.

Получил вот такое.

Сижу и думаю, это такая новая нормальная рекламная интеграция Самсунга?

А так как сида нет, то воспроизвести невозможно...

https://grok.com/imagine

@cgevent
😁55🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Интересный ролик - Official trailer for the 2026 Winter Olympics

Студия из Франции сделала небольшой making of - его полезно посмотреть всем. Про то, как взрослые мальчики используют ИИ.
По сообщениям из сети, они сократили расходы на 20-30 процентов с помощью ИИ.

В титрах отдельно указали AI Artists

Можно предположить, что мы где-то на 20 процентах пути к полностью генеративному продакшену.

Но нет.

Часть задач (последняя миля) не решается с помощью ИИ.

Одна из них - монтаж.

Но об этом следующий пост.

Сам трейлер смотрите тут:
https://www.instagram.com/p/DQcIjrCjGYX/

Там же почитайте титры и список специальностей, чтобы у вас не было иллюзий, что "мы щас на кухне такое сгенерим"

@cgevent
41👍26🔥16