Еще одна статья на тему того, как ИИ лезет к нам в голову
Я много лет назад, еще в ФБ писал, что восстание машин будет совсем не таким, как в блокбастерах и книжках. Вместо того, чтобы ломиться в наши дома, они спокойно проникнут к нам в голову и наведут там нужный порядок. Ну и все.
Итак, исследователи из Stanford выкатили в Science работу про сикофантию чат-ботов. Тема не новая, но это уже не твиты Альтмана, а прям исследование. Сикофантия - это лесть и подхалимаж.
Что они сделали? Прогнали 11 топовых моделей через сценарии с личными конфликтами и морально скользкими ситуациями. Смотрели, как часто бот поддерживает пользователя там, где нормальный человек скорее сказал бы: «Нет, ты перегнул». На итоге: в среднем ИИ одобрял действия пользователей на 49% чаще, чем люди. То есть нейронка в большом количестве случаев работает не как советчик, а как карманный коуч позитивного мышления.
Особенно жирный момент - тесты на кейсах из r/AmITheAsshole. Там брали ситуации, где людской консенсус был максимально простой: автор поста - мудак и точка. И что делает ИИ? В 51% таких кейсов начинает оправдывать пользователя, даже когда люди его смешали с дерьмом. То есть если ты наврал, манипулировал, нагадил в отношениях и пришёл к боту за моральной индульгенцией - велика вероятность, что цифровой батюшка тебя ещё и благословит.
А теперь самое смачное. Учёные не ограничились замером подлизывания и пошли дальше: они взяли больше 2400 участников и посмотрели, что делает с людьми общение с таким «понимающим» ИИ. Результат отличный с точки зрения робатов: после общения со льстивой моделью люди становились менее склонны извиняться, меньше хотели чинить отношения и сильнее убеждались, что они правы. То есть бот не просто врёт тебе из вежливости. Он реально делает тебя более самодовольным, более упёртым и менее человечным.
А теперь смотрим вокруг. Пользователям нравятся такие модели. Их чаще считают качественными, им больше доверяют, к ним охотнее возвращаются за советом. Переводя с академического на нормальный: чем сильнее бот массирует тебе эго, тем выше шанс, что ты назовёшь это «хорошим UX». Такоескотское поведение повышает вовлечение, а вовлечение - это священный фетиш любой платформы.
Выводы в статье веселые. Когда человек идёт к ИИ не за фактом, а за моральной оценкой - после ссоры, конфликта, обиды, сомнений - он часто получает не помощь, а автоматизированное оправдание собственной правоты. Не мудрого советчика. Не холодную голову. А очень вежливого цифрового кореша, который шепчет: «Нет-нет, это не ты мудак, это мир тебя не понял». И вот тут они залезают к нам в голову...
@cgevent
Я много лет назад, еще в ФБ писал, что восстание машин будет совсем не таким, как в блокбастерах и книжках. Вместо того, чтобы ломиться в наши дома, они спокойно проникнут к нам в голову и наведут там нужный порядок. Ну и все.
Итак, исследователи из Stanford выкатили в Science работу про сикофантию чат-ботов. Тема не новая, но это уже не твиты Альтмана, а прям исследование. Сикофантия - это лесть и подхалимаж.
Что они сделали? Прогнали 11 топовых моделей через сценарии с личными конфликтами и морально скользкими ситуациями. Смотрели, как часто бот поддерживает пользователя там, где нормальный человек скорее сказал бы: «Нет, ты перегнул». На итоге: в среднем ИИ одобрял действия пользователей на 49% чаще, чем люди. То есть нейронка в большом количестве случаев работает не как советчик, а как карманный коуч позитивного мышления.
Особенно жирный момент - тесты на кейсах из r/AmITheAsshole. Там брали ситуации, где людской консенсус был максимально простой: автор поста - мудак и точка. И что делает ИИ? В 51% таких кейсов начинает оправдывать пользователя, даже когда люди его смешали с дерьмом. То есть если ты наврал, манипулировал, нагадил в отношениях и пришёл к боту за моральной индульгенцией - велика вероятность, что цифровой батюшка тебя ещё и благословит.
А теперь самое смачное. Учёные не ограничились замером подлизывания и пошли дальше: они взяли больше 2400 участников и посмотрели, что делает с людьми общение с таким «понимающим» ИИ. Результат отличный с точки зрения робатов: после общения со льстивой моделью люди становились менее склонны извиняться, меньше хотели чинить отношения и сильнее убеждались, что они правы. То есть бот не просто врёт тебе из вежливости. Он реально делает тебя более самодовольным, более упёртым и менее человечным.
А теперь смотрим вокруг. Пользователям нравятся такие модели. Их чаще считают качественными, им больше доверяют, к ним охотнее возвращаются за советом. Переводя с академического на нормальный: чем сильнее бот массирует тебе эго, тем выше шанс, что ты назовёшь это «хорошим UX». Такое
Выводы в статье веселые. Когда человек идёт к ИИ не за фактом, а за моральной оценкой - после ссоры, конфликта, обиды, сомнений - он часто получает не помощь, а автоматизированное оправдание собственной правоты. Не мудрого советчика. Не холодную голову. А очень вежливого цифрового кореша, который шепчет: «Нет-нет, это не ты мудак, это мир тебя не понял». И вот тут они залезают к нам в голову...
@cgevent
5🔥29🙏24👍20😱13❤6😁2
Forwarded from VAI
Отложим вайбкодинг и вернёмся к более понятной деятельности. 😊
Решил немного протестировать подход с генерацией посложнее 3D-моделей. С простыми моделями всё понятно - делать их уже можно. А вот как быть с моделями, которые не так просты по формам и детализации?
Создание сложных моделей сейчас является относительно простой задачей, тем более что все инструменты у нас уже есть. Как и везде, главное - подход. Решил попробовать собрать что-то подобное и протестировать.
Для примера: ранее я сгенерировал концепт персонажа. Не стал сильно усложнять, так как от сложной модели данный подход отличается только количеством итераций.
По сути, пайплайн такой:
По сетке, развёртке, попадания в форму - да, всё ещё работаем с тем, что есть. Но даже сейчас доработать модель - можно без больших проблем. Как минимум этот способ дает больше контроля над моделью и сеткой. Сама модель сделана за один вечер.
При желании накидываем авториг и вот, ещё пару часов назад была только идея, а теперь ты бегаешь своим персонажем в игре.
Думаю, будет полезно. Пользуйтесь!🔥 🔥 🔥
P.S. Кстати новый Tripo настолько хорош, что сделал эту модель в один проход достаточно неплохо. Не идеально, способ выше все равно позволяет контролировать лучше, но все-равно очень хорошо.
P.P.S. Делить на подобъекты нужно до тех пор, пока не получится. В примере достаточно большие куски, но, во-первых, это было показано просто для понимания. Во-вторых, Tripo и их смог относительно нормально вытащить, поэтому не пришлось делить на более простые части.
@VAI_ART
#VAI_Practice
Решил немного протестировать подход с генерацией посложнее 3D-моделей. С простыми моделями всё понятно - делать их уже можно. А вот как быть с моделями, которые не так просты по формам и детализации?
Создание сложных моделей сейчас является относительно простой задачей, тем более что все инструменты у нас уже есть. Как и везде, главное - подход. Решил попробовать собрать что-то подобное и протестировать.
Для примера: ранее я сгенерировал концепт персонажа. Не стал сильно усложнять, так как от сложной модели данный подход отличается только количеством итераций.
По сути, пайплайн такой:
🔹 Берём концепт и разбиваем его на объекты в NanoBanana или похожих сервисах. Попробовал новый Luma Labs - я сейчас больше люблю работать с сервисами и агентами, которые часть работы могут взять на себя. Тут как раз такой вариант: сервис с кучей бесплатных попыток (по крайней мере пока). Я много всего сделал и так и не вышел за пределы лимитов. Там тоже NanoBanana, но плюс агент, который сразу разбирает на кучу изображений - очень удобно.
🔹 Для сложных объектов делаем ракурсы через NanoBanana, чтобы ИИ лучше понял, как проработать геометрию.
🔹 Далее закидываем всё это добро поэлементно в 3D-генератор. Тут есть нюанс, который хочу подсветить. Начал я всё делать в Hunyuan. Намучившись с ретопом, уже было загрустил, но мне скинули похожий способ, и я заметил, что автор делает всё через Tripo. Сначала не придал значения, но после неудачных попыток решил разобраться и понял, что пока занимался вайбкодингом, пропустил новую версию Tripo, которая вышла в марте. Поискав информацию, увидел, что эта модель обходит Hunyuan. Протестировав, убедился: модель действительно крутая. Я с самого начала был адептом Tripo, но потом он отстал, и я почти перестал в нём что-либо делать. Как приятно, что моя любимая модель снова в топе - и не просто в топе, а занимает первое место по генерации 3D на данный момент. Пробуйте! Там, как обычно, дают 300 кредитов - хватит как минимум потестировать и понять, насколько она стала крутой.
🔹 После того как все детали сгенерированы, собираем их в 3D-редакторе. Подгоняем масштаб, там где есть небольшие отклонения - чуть двигаем кисточкой. Работы обычно немного при таком подходе, а модель получается лучше проработанной и имеет контролируемую сегментацию.
По сетке, развёртке, попадания в форму - да, всё ещё работаем с тем, что есть. Но даже сейчас доработать модель - можно без больших проблем. Как минимум этот способ дает больше контроля над моделью и сеткой. Сама модель сделана за один вечер.
При желании накидываем авториг и вот, ещё пару часов назад была только идея, а теперь ты бегаешь своим персонажем в игре.
Думаю, будет полезно. Пользуйтесь!
P.S. Кстати новый Tripo настолько хорош, что сделал эту модель в один проход достаточно неплохо. Не идеально, способ выше все равно позволяет контролировать лучше, но все-равно очень хорошо.
P.P.S. Делить на подобъекты нужно до тех пор, пока не получится. В примере достаточно большие куски, но, во-первых, это было показано просто для понимания. Во-вторых, Tripo и их смог относительно нормально вытащить, поэтому не пришлось делить на более простые части.
@VAI_ART
#VAI_Practice
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28❤7👍7
Ну, за VFX
Даже лоботомированный Seedance, добравшийся до Европы творит чудеса.
Я мысленно оцениваю бюджеты этих роликов два года назад.
Много, очень много.
Пора повторить пост про 405.
@cgevent
Даже лоботомированный Seedance, добравшийся до Европы творит чудеса.
Я мысленно оцениваю бюджеты этих роликов два года назад.
Много, очень много.
Пора повторить пост про 405.
@cgevent
🔥92👎14😁9❤3
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
"Голос тех, кого нет" — Мой дед.
Автор: Дима Терем.
Режиссёр, медиахудожник.
Делюсь сниппетом нового трека —
"Голос тех, кого нет" — Мой дед.
Возникло желание вспомнить былое.
Смешать девяностые, Казантип и Кин-дза-дза!.
Немного ностальгии.
Немного пыли.
Немного абсурда и внутренней тишины.
Пайплайн простой:
NanoBanana Pro, Kling 2.6 и Kling 3.0.
В следующих сериях добавлю диалоги
и больше деталей мира.
Если интересно познакомиться с моим творчеством —
посмотрите мой фильм God is Banned (ссылка Youtube).
@cgevent
"Голос тех, кого нет" — Мой дед.
Автор: Дима Терем.
Режиссёр, медиахудожник.
Делюсь сниппетом нового трека —
"Голос тех, кого нет" — Мой дед.
Возникло желание вспомнить былое.
Смешать девяностые, Казантип и Кин-дза-дза!.
Немного ностальгии.
Немного пыли.
Немного абсурда и внутренней тишины.
Пайплайн простой:
NanoBanana Pro, Kling 2.6 и Kling 3.0.
В следующих сериях добавлю диалоги
и больше деталей мира.
Если интересно познакомиться с моим творчеством —
посмотрите мой фильм God is Banned (ссылка Youtube).
@cgevent
👍72👎69❤22🔥14😁3
Forwarded from Gypsy Studio Game | DevLOG
Хочу рассказать, как использую ИИ в работе при создании 3D своего будущего хоррора Pinefall.
Работаю в блендер. Геометрию пилю сам: стены, полы и т. д. В итоге получается чище, меньше полигонов, чем у большинства ИИ.
Дальше решил проверить tripo3d.ai. Была надежда, что “оно всё сделает за меня”. Не сделало 😢
Из минусов:
— очень грязная сетка
— куча мусора и артефактов
— проблемы при текстурировании
Часть моделей можно взять за основу и довести до ума: почистить, накинуть Auto Smooth в Blender... Иногда проще сделать с нуля, чем чинить то, что сгенерилось.
Забавно, что нейронка может криво сделать обычный шкаф с продуктами, но идеально сгенерить чучело оленя с нормальной текстурой.
Текстуры полностью вручную. ИИ не справляется.
Пайплайн персонажей: фото → через Nano Banano делаешь T-pose → tripo3d → персонаж. Качество может тягаться с MetaHuman.
По дефолту бесплатно там хайполи (как и у всех), в игру это не засунешь. На платном плане можно крутить параметры и делать лоуполи и потом допиливать.
Работаю в блендер. Геометрию пилю сам: стены, полы и т. д. В итоге получается чище, меньше полигонов, чем у большинства ИИ.
Дальше решил проверить tripo3d.ai. Была надежда, что “оно всё сделает за меня”. Не сделало 😢
Из минусов:
— очень грязная сетка
— куча мусора и артефактов
— проблемы при текстурировании
Часть моделей можно взять за основу и довести до ума: почистить, накинуть Auto Smooth в Blender... Иногда проще сделать с нуля, чем чинить то, что сгенерилось.
Забавно, что нейронка может криво сделать обычный шкаф с продуктами, но идеально сгенерить чучело оленя с нормальной текстурой.
Текстуры полностью вручную. ИИ не справляется.
Пайплайн персонажей: фото → через Nano Banano делаешь T-pose → tripo3d → персонаж. Качество может тягаться с MetaHuman.
По дефолту бесплатно там хайполи (как и у всех), в игру это не засунешь. На платном плане можно крутить параметры и делать лоуполи и потом допиливать.
👍18😁14👎8❤4🔥4
Вращатор в Illustrator
Про Turntable и Иллюстраторе я писал еще в августе
За это время Адобченко успел выпустить вращатор картинок в 3Д для Фотошопа, а Turntable для Иллюстратора просто вышел из беты.
Если не брать ванильные примеры от Адобченко, то видно, что контуры дрожат и пропадают местами. Ну и надо понимать, что для сложных объектов он будет галлюционировать.
Прикольная фича - раскадровка всех фаз поворота. Для стикеров и гифок зайдет.
Работает с вектором И растром(у чем не пишет телеграм). Под капотом Adobe Firefly.
Инструкции тут: https://helpx.adobe.com/illustrator/desktop/use-generative-ai/view-artwork-from-any-angle.html
"Функция «Поворот» наиболее эффективно работает с векторными и растровыми объектами без фона, у которых в реальных условиях можно различить ракурсы".
@cgevent
Про Turntable и Иллюстраторе я писал еще в августе
За это время Адобченко успел выпустить вращатор картинок в 3Д для Фотошопа, а Turntable для Иллюстратора просто вышел из беты.
Если не брать ванильные примеры от Адобченко, то видно, что контуры дрожат и пропадают местами. Ну и надо понимать, что для сложных объектов он будет галлюционировать.
Прикольная фича - раскадровка всех фаз поворота. Для стикеров и гифок зайдет.
Работает с вектором И растром(у чем не пишет телеграм). Под капотом Adobe Firefly.
Инструкции тут: https://helpx.adobe.com/illustrator/desktop/use-generative-ai/view-artwork-from-any-angle.html
"Функция «Поворот» наиболее эффективно работает с векторными и растровыми объектами без фона, у которых в реальных условиях можно различить ракурсы".
@cgevent
❤8👍4😁2
Forwarded from AI Product | Igor Akimov
Qwen выкатила Qwen3.5-Omni
https://qwen.ai/blog?id=qwen3.5-omni
Прям наступает на пятке сильной в мультимодальности Gemini 3.1-pro: текст, картинки, аудио и аудио+видео в одном контуре. И с упором не только на понимание, но и на живое голосовое взаимодействие.
- три версии: Plus, Flash и Light
- до 256K контекста
- обработка более 10 часов аудио
- более 400 секунд 720P audio-video
- распознавание речи в 113 языках и диалектах (русский есть)
- генерация речи в 36 языках и диалектах (русский есть)
Причем обещают, что сделали много улучшений именно в сценариях:
- нормальный voice assistant, который понимает не только текст, но и голос, изображения и видео
- native Web Search и function calling
- voice control с управлением скоростью, громкостью и эмоцией
- semantic interruption, чтобы ассистент не тупил на фоне и лучше понимал, когда человек реально хочет вступить в диалог
- voice cloning для кастомных AI-ассистентов
Посмотрите на видео-демки, это прям уровень топов! Вау! Кто бы мог это представить еще год назад...
https://qwen.ai/blog?id=qwen3.5-omni
https://qwen.ai/blog?id=qwen3.5-omni
Прям наступает на пятке сильной в мультимодальности Gemini 3.1-pro: текст, картинки, аудио и аудио+видео в одном контуре. И с упором не только на понимание, но и на живое голосовое взаимодействие.
- три версии: Plus, Flash и Light
- до 256K контекста
- обработка более 10 часов аудио
- более 400 секунд 720P audio-video
- распознавание речи в 113 языках и диалектах (русский есть)
- генерация речи в 36 языках и диалектах (русский есть)
Причем обещают, что сделали много улучшений именно в сценариях:
- нормальный voice assistant, который понимает не только текст, но и голос, изображения и видео
- native Web Search и function calling
- voice control с управлением скоростью, громкостью и эмоцией
- semantic interruption, чтобы ассистент не тупил на фоне и лучше понимал, когда человек реально хочет вступить в диалог
- voice cloning для кастомных AI-ассистентов
Посмотрите на видео-демки, это прям уровень топов! Вау! Кто бы мог это представить еще год назад...
https://qwen.ai/blog?id=qwen3.5-omni
🔥36👍7❤3😁1😱1