Осторожно, чат-боты! Новые ИИ, такие как Google's Bard или ChatGPT, используют для работы огромные объёмы данных. Никого из пользователей интернета не спросили, может ли OpenAI использовать эти данные. Иными словами, все «грязные» секреты могут быть раскрыты нейросетью любому человеку, который достаточно точно сформулирует запрос.
😡 Как вы думаете, является ли использование данных, собранных без разрешения, неэтическим поведением компании OpenAI?
#OpenAI, #Privacy, @SecLabNews
#OpenAI, #Privacy, @SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
ChatGPT — ночной кошмар для конфиденциальности
Любое ваше сообщение, попавшее в Интернет, может быть использовано нейросетью для ответа другому человеку.
Два разработчика использовали модель DALL-E2 от OpenAI для создания программы Forensic Sketch AI-rtist, которая может создавать сверхреалистичные эскизы подозреваемых на основе текстового описания. Цель программы - сократить время поиска подозреваемого.
В чем могут заключаться риски использования генеративного ИИ в полицейской криминалистике?
#AI #OpenAI #Криминалистика @SecLabNews
В чем могут заключаться риски использования генеративного ИИ в полицейской криминалистике?
#AI #OpenAI #Криминалистика @SecLabNews
SecurityLab.ru
Создана нейросеть для генерации фоторобота преступников
Теперь ИИ будет выбирать, кого сажать в тюрьму, основываясь на человеческих предубеждениях и стереотипах.