CSAM-Erkennung auf dem iPhone: Apple hält lokalen Kinderporno-Scanner für sicher
#Datenschutz #Kinderpornographie #Missbrauch #Sicherheit #iCloud #iOS #iOS15 #iPadOS #iPadOS15
In einem Thread Model Review beschreibt der Konzern Angriffsszenarien․ Da die Technik Teil von iOS ist, sei sie von Security-Experten "intrinsisch überprüfbar"․
#Datenschutz #Kinderpornographie #Missbrauch #Sicherheit #iCloud #iOS #iOS15 #iPadOS #iPadOS15
In einem Thread Model Review beschreibt der Konzern Angriffsszenarien․ Da die Technik Teil von iOS ist, sei sie von Security-Experten "intrinsisch überprüfbar"․
iPhone meldet Missbrauchsfotos: Journalisten sehen Verstoß gegen Pressefreiheit
#Apple #CSAM #Datenschutz #Kinderpornographie #iOS15
Apples CSAM-Scanning per iPhone ist eine Gefahr für den Journalismus und ein klarer DSGVO-Verstoß, meinen Journalistenverbände – das müsse gestoppt werden․
#Apple #CSAM #Datenschutz #Kinderpornographie #iOS15
Apples CSAM-Scanning per iPhone ist eine Gefahr für den Journalismus und ein klarer DSGVO-Verstoß, meinen Journalistenverbände – das müsse gestoppt werden․