heise online Ticker
227 subscribers
72.7K links
News rund um IT und darüber hinaus

Powered by @DerNewsChannel
Download Telegram
Lokales Kinderporno-Scanning auf dem iPhone: Gegenwind auch bei Apple selbst
#Apple #CSAM #Datenschutz #Kinderpornographie #Missbrauch #iCloud #iOS15 #iPad #iPadOS15 #iPhone

In internen Chats machen Mitarbeiter des iPhone-Konzerns ihrem Ärger über das umstrittene neue Feature Luft․ SIe fürchten Reputationsschäden․
CSAM-Erkennung auf dem iPhone: Apple hält lokalen Kinderporno-Scanner für sicher
#Datenschutz #Kinderpornographie #Missbrauch #Sicherheit #iCloud #iOS #iOS15 #iPadOS #iPadOS15

In einem Thread Model Review beschreibt der Konzern Angriffsszenarien․ Da die Technik Teil von iOS ist, sei sie von Security-Experten "intrinsisch überprüfbar"․
iPhone meldet Missbrauchsfotos: Journalisten sehen Verstoß gegen Pressefreiheit
#Apple #CSAM #Datenschutz #Kinderpornographie #iOS15

Apples CSAM-Scanning per iPhone ist eine Gefahr für den Journalismus und ein klarer DSGVO-Verstoß, meinen Journalistenverbände – das müsse gestoppt werden․
Kommentar: Apples CSAM-Scans – Ein Tabubruch, der in die Totalüberwachung führt
#Apple #Autonomie #Bürgerrechte #CSAM #Kinderpornographie #Staat #Überwachung

CSAM ist doch gar nicht so schlimm und auch clever? Nein, meint Jürgen Schmidt: Überwachung auf Gerätebasis ist ein Dammbruch, der verhindert werden muss․
"Große Gefahr": CSAM-Scanning auf iPhones stößt auf Kritik aus dem Bundestag
#Apple #Bundestag #CSAM #CryptoWars #Datenschutz #Kinderpornographie #Verschlüsselung #iOS15 #iPhone

Der Vorsitzende des Ausschusses Digitale Agenda hat Apple aufgerufen, die geplante Scan-Funktion einzustampfen․ Sie untergrabe vertrauliche Kommunikation․
"Scannt unsere iPhones nicht": Bürgerrechtler wollen Druck auf Apple aufbauen
#Apple #CSAM #CryptoWars #Datenschutz #EFF #Kinderpornographie #Verschlüsselung #iOS15 #iPhone

Die iPhone-Bildprüfung untergräbt laut EFF Datenschutz und bricht das Versprechen starker Verschlüsselung․ Auch die Sicherheit für Kinder werde nicht erhöht․
Kinderporno-Scanner im iPhone: Bereits Hash-Kollisionen erzeugt
#Apple #CSAM #Datenschutz #Hash #Kinderpornographie #Kollision #Missbrauch #NeuralHash #iOS15 #iPadOS15 #iPhone

Der NeuralHash-Algorithmus steckt teilweise in iOS 14․3, berichten Hacker – die das System bereits einem Reengineering unterzogen haben․ Apple wies das zurück․
iPhone erkennt illegale Inhalte: Informatiker warnen vor Apples Scanning-Plänen
#Apple #CSAM #Datenschutz #Kinderpornographie #Verschlüsselung #iOS15 #iPhone

Zwei Princeton-Forscher, die ein Apple-ähnliches System zur lokalen Erkennung von Missbrauchsfotos entwickelt haben, halten die Technik für gefährlich․
Apple-Manager: iCloud "beste Plattform" für Pädokriminalität
#Apple #CSAM #Datenschutz #Kinderpornographie #iMessage #iOS #iOS15 #iPhone

Apple lege den Fokus auf Datenschutz und schaue bewusst nicht genau hin, so ein Manager in einem internen Chat․ Auch Grooming per iMessage sei eine Bedrohung․
iCloud: Apple scannt bislang nur E-Mails auf Missbrauchsfotos
#Apple #CSAM #Datenschutz #EMail #Kinderpornographie #iCloud #iCloudFotos #iCloudMail #iOS15 #iPhone

Das Scannen von Fotos auf illegale Inhalte behält Apple sich seit 2019 vor, das greift aber nur bei E-Mails․ iCloud-Fotos sollen auf iPhones geprüft werden․