POINT PLEASANT, W.Va. — Der Generalstaatsanwalt von West Virginia, JB McCuskey, hat Apple im Mason County Circuit Court verklagt und wirft dem Unternehmen vor, dass die unerbittliche Privatsphäre der iCloud das Cloud-Speicher-System zu einem Zufluchtsort für Materialien zur sexuellen Ausbeutung von Kindern gemacht hat. McCuskey, ein Republikaner, behauptet, Apple setze die Geheimhaltung der Nutzer über die Sicherheit von Kindern, und verweist auf eine interne iMessage-Nachricht aus dem Jahr 2020, in der der Apple-Executive Eric Friedman die iCloud als „größte Plattform zur Verbreitung von Kinderpornografie“ bezeichnete.
Das Gespräch zwischen Friedman, damals Chef des Antifälschungsbereichs bei Apple, und dem Sicherheitsleiter Herve Sibert wurde während des Gerichtsverfahrens Apple v. Epic Games im Jahr 2021 bekannt. Friedman kritisierte die Fokus auf Privatsphäre und bemerkte, dass das Unternehmen „entschieden hat, nicht alles über die volle Ausbreitung von CSAM in ihren Systemen zu wissen“. Die 45-seitige Klage von West Virginia nutzt diese Aussage, um zu argumentieren, dass die End-to-End-Verschlüsselung der iCloud die Zugänglichkeit für die Polizei blockiert, sogar für Apple selbst.
Mccuskey fordert gesetzliche Schadensersatz, Strafen und einen Gerichtsbeschluss, dass Apple CSAM-Erkennungstools implementiert. „Diese Bilder sind eine permanente Aufzeichnung der Trauma eines Kindes, und dieses Kind wird jedes Mal erneut verletzt, wenn das Material geteilt oder angesehen wird“, sagte er in einer Erklärung. Die Klage wirft Apple vor, die Bemühungen des Bundesstaates zur Schutz von Kindern zu schädigen, indem es Berichte an das National Center for Missing and Exploited Children umgeht.
Apple meldete nur 267 Fälle von CSAM an das NCMEC im Jahr 2023. Diese Zahl übertrifft die von Google (1,47 Millionen) und Meta (mehr als 30 Millionen). Die Ankläger werfen Apple vor, dass ihre begrenzte Scanning-Funktion, die nur auf iCloud Mail beschränkt ist, keine End-to-End-Verschlüsselung hat und Zugang durch Gerichtsbeschlüsse ermöglicht. Die meisten Fotos und Dateien in iCloud wurden nicht gescannt, bis Nutzer die erweiterte Datenverschlüsselung aktivierten, die Daten hinter Nutzer-Keys verschlüsselt.
Apple reagierte mit einer Erklärung, in der bestehende Sicherheitsmaßnahmen hervorgehoben wurden. Das Unternehmen verbietet Kindern, Nacktbilder über Messages zu senden oder zu empfangen. Am Donnerstag stellte es eine Schaltfläche „An Apple melden“ für US-Nutzer vor, um unerwünschten Inhalt direkt an das Unternehmen zu melden. Sprecher bestätigten, dass das Tool vor der Klage existierte und darauf abzielt, eine breite Palette von Schäden auf Geräten und Apps zu bekämpfen.
Dieser Streit spiegelt jahrelange Spannungen um Verschlüsselung wider. Die Polizei kritisiert sie als Schutz für Kriminelle. Datenschutzgruppen loben sie als unverzichtbar gegen Überwachung. Apple hatte bereits Lösungen in Betracht gezogen. Im Jahr 2021 schlug es NeuralHash vor, eine Software, um bekannte CSAM auf Geräten vor dem Hochladen zu erkennen, ohne die Dateien zu entschlüsseln. Der Widerstand von Gruppen wie der Electronic Frontier Foundation führte zum Scheitern des Plans aus Angst vor Missbrauch der Zensur.
Unbeeindruckt stellte Apple den optionalen erweiterten Datenverschlüsselung dennoch bereit. Sie verschlüsselt die meisten iCloud-Daten end-to-end. Kritiker, einschließlich West Virginia, sagen, dass dies Geheimhaltung über Scanning priorisiert und so Tätern Freiraum lässt. Der Bundesstaat verweist auf die abgeschaffte Standardverschlüsselung für iCloud-Backups, die auf Druck des FBI abgeschafft wurde, als Beweis, dass Apple die Risiken kennt, aber Privatsphäre gewählt hat.
Der Druck auf die Technologiebranche wächst. Google und Meta scannen Hochläufe gegen NCMEC-Datenbanken. Apple weigerte sich, aufgrund von Privatsphäre. Jetzt, nach der Klage, muss es innerhalb von 30 Tagen antworten. Das Büro von McCuskey betrachtet die Klage als öffentliche Gesundheitsnotwendigkeit, nicht nur als reine Polizeiangelegenheit. Sie argumentieren, dass fehlende Erkennung Ressourcen strapaziert und Opfer erneut traumatisiert, deren Bilder ungehindert verbreitet werden.
Dieser Fall könnte Vorbilder setzen. Kein Bundesstaat hatte zuvor einen Tech-Giganten wegen CSAM im Cloud-Speicher verklagt. Gruppen für Kindersicherheit begrüßen es; eine Klage aus Louisiana im Jahr 2023 verlangte 1,2 Milliarden Dollar von Apple auf ähnlichen Gründen. Während Smartphones und soziale Medien mit giftigem Inhalt voll sind, beobachten Regulierer die großen Tech-Unternehmen genauer. Apple, mit 2,2 Milliarden aktiven Geräten, steht im Zentrum.
Comments
No comments yet
Be the first to share your thoughts