ДОСТОЙНЫ ЛИ РОБОТЫ СОСТРАДАНИЯ?
#робототехника #психология #общество
Исследователи Йельского университета выяснили, как люди относятся к насилию над роботами.
В серии экспериментов люди и роботы строили заданные им фигуры из кубиков.
В процессе один из роботов якобы случайно рушил постройку, а ученый, скрытый среди участников, ругал и бил неуклюжую машину.
В одном случае другие роботы игнорировали происходящее, в другом – выражали печаль.
Опыты показали, что чувства роботов людей не волнуют: независимо от реакции окружающих машин на насилие посторонние с равной долей вероятности вступались за робота.
https://clck.ru/QUwWc
#робототехника #психология #общество
Исследователи Йельского университета выяснили, как люди относятся к насилию над роботами.
В серии экспериментов люди и роботы строили заданные им фигуры из кубиков.
В процессе один из роботов якобы случайно рушил постройку, а ученый, скрытый среди участников, ругал и бил неуклюжую машину.
В одном случае другие роботы игнорировали происходящее, в другом – выражали печаль.
Опыты показали, что чувства роботов людей не волнуют: независимо от реакции окружающих машин на насилие посторонние с равной долей вероятности вступались за робота.
https://clck.ru/QUwWc
ВРЕДНЫЕ СОВЕТЫ ОТ РОБОТА
#ИИ #общество #психология
Группа ученых из США и Европы изучили, как ИИ влияет на честность людей.
Подбрасывая кубик и сообщая друг другу результаты, 1500 испытуемых стремились выиграть наибольший приз.
В ходе игры-эксперимента искусственный интеллект GPT-2 и простые люди давали игрокам советы врать или оставаться честным. При этом только некоторые испытуемые знали, кто говорит с ними.
Оказалось, что ИИ склоняет людей к обману даже лучше, чем другие люди. Напротив, призывы к честности у ИИ получались плохо.
Эксперимент показал, что ИИ способен влиять на этический выбор человека, а также подтвердил выводы более раннего исследования, в котором ученые выяснили способность GPT-3 писать эффективные экстремистские меморандумы.
Clck.ru/TKhfJ
#ИИ #общество #психология
Группа ученых из США и Европы изучили, как ИИ влияет на честность людей.
Подбрасывая кубик и сообщая друг другу результаты, 1500 испытуемых стремились выиграть наибольший приз.
В ходе игры-эксперимента искусственный интеллект GPT-2 и простые люди давали игрокам советы врать или оставаться честным. При этом только некоторые испытуемые знали, кто говорит с ними.
Оказалось, что ИИ склоняет людей к обману даже лучше, чем другие люди. Напротив, призывы к честности у ИИ получались плохо.
Эксперимент показал, что ИИ способен влиять на этический выбор человека, а также подтвердил выводы более раннего исследования, в котором ученые выяснили способность GPT-3 писать эффективные экстремистские меморандумы.
Clck.ru/TKhfJ