Чат-боты, которые используют машинное обучение, могут быть несовершенными и легко поддаются обману. Например, обновленный чат-бот Bing от Microsoft был взломан студентом из Стэнфорда. Кевин Лю использовал недавно обнаруженный метод взлома под названием «Prompt Injection». С его помощью он заставил ИИ от Microsoft раскрыть внутреннюю засекреченную информацию.
@SecLabNews #Чатботы #МашинноеОбучение #Безопасность #ИскусственныйИнтеллект
@SecLabNews #Чатботы #МашинноеОбучение #Безопасность #ИскусственныйИнтеллект
SecurityLab.ru
Новый чат-бот от Microsoft «разболтал» пользователям все свои внутренние директивы
Похоже, продвинутая языковая модель не сильно озабочена проблемами конфиденциальности.