Datenschutz vor Opferschutz?
Apple wegen Umgang mit Missbrauchsmaterial auf iCloud verklagt
Eine neue Klage in den Vereinigten Staaten widmet sich einmal mit dem Umgang Apples mit kinderpornografischem Material auf seiner iCloud-Plattform. Eine 27-jährige Frau, selbst Opfer sexuellen Missbrauchs, wirft Apple vor, mit seinem Verhalten ihre Rechte und die zahlreicher weiterer Betroffener verletzt zu haben.
Kommunikationssicherheit: iMessage erkennt Nacktfotos und fragt nach
Die Klage wurde am vergangenen Samstag beim US-Bezirksgericht in Nordkalifornien eingereicht und fordert eine Entschädigung von über 1 Milliarden Euro für eine Gruppe potenziell betroffener Opfer.
Die Klägerin argumentiert, dass Apple es versäumt habe, Maßnahmen zur Identifizierung und Entfernung von Missbrauchsmaterial umzusetzen, obwohl es 2021 ein entsprechendes System vorgestellt hatte. Apples Werkzeuge sollten bekannte digitale Signaturen entsprechender Bilder erkennen. Apple nahm das Tool nach massiver Kritik von Sicherheitsexperten zurück, die befürchteten, es könnte zu einem Einfallstor für staatliche Überwachung werden.
Datenschutz vor Opferschutz?
Die Klage bezeichnet Apple-Produkte als „fehlerhaft“, da das Unternehmen Schutzmechanismen angekündigt, aber nicht implementiert habe. Nach Angaben der Anwälte könnten fast 3.000 Opfer in die Sammelklage einbezogen werden, die eine gesetzliche Mindestentschädigung von 150.000 US-Dollar pro Fall vorsieht.
Apple betonte in einer Stellungnahme gegenüber der New York Times, dass man weiterhin an der Bekämpfung von Kindesmissbrauch arbeite und neue Sicherheitsfunktionen entwickelt habe. Beispielsweise werde in der Nachrichten-App vor Nacktbildern gewarnt.
Problematische Meldequoten
Die Kritik an Apples Umgang mit Missbrauchsmaterial ist nicht neu. Apple meldete in der Vergangenheit deutlich weniger Fälle als andere Technologiekonzerne wie Google oder Meta. Während die Branche jährlich Millionen verdächtiger Inhalte an die Nationale Stelle für vermisste und ausgebeutete Kinder (NCMEC) weiterleitet, lag Apples Beitrag 2020 bei lediglich 265 Meldungen.
Apples Zurückhaltung wurde wiederholt mit der Wahrung der Privatsphäre der iCloud-Nutzer begründet. Dies steht jedoch im Widerspruch zu Forderungen von Kinderschutzorganisationen, die dem Konzern vorwerfen, nicht genug gegen die Verbreitung von Missbrauchsmaterial zu tun.
Die Klage könnte nicht nur finanzielle Folgen haben, sondern auch den Druck auf den Konzern erhöhen, weitere Maßnahmen zur Bekämpfung von Missbrauchsmaterial umzusetzen.
Wer das wohl sein könnte… April? Oder vielleicht Polly? Masha ist ja schon 29
Verstehe ich nicht.
Was sind das für Namen?
Tja, wieder einmal eine fiese Zwickmühle.
Hier kann man kaum argumentieren. Ich finde es aber schlimm wenn meine persönlichen Fotos gläsern werden.
1.) Bist du schon gläsern und deine Bilder erst recht. (Insta, WhatsApp, Facebook, uvm.)
2.) Wird hier wieder mal ein abstraktes Recht (Datenschutz) vor einem persönlichen Recht (Opferschutz) gestellt und beide gegeneinander ausgespielt mit den blödem „was wäre wenn“!
Man sollte echt aufhören mit allgemeinen und diffusen Datenschutzbedenken sinnvolle und wichtige Maßnahmen zu blockieren. Einmal das Wort „Datenschutz“ oder noch schlimmer DSGVO und alle Zucken zusammen und alle Vorhaben/Projekte scheitern/ werden auf Eis gelegt. Es ist einfach nur noch lächerlich.
Nach dir sollten alle Rechte, Privatsphäre, Verschlüsselung ect abgeschafft werden, weil wir jetzt schon „Gläsern“ wären…
Denk mal dran was das Bedeutet! Auch für dich.
Dass es hier auch um die Analyse und bei Verdacht Prüfung von nicht der Öffentlichkeit zugängliche Bildinhalte geht, ist dir nicht bewusst, hu? Und automatisierte Bildanalyse hat bei sowas eine hohe Gefahr False-Positives zu melden. Wo dann zumindest mal ein wildfremder Mensch über eventuell intimes Material drüber gucken muss. Das ist durchaus problematisch und ein kritischer Eingriff in die Privatsphäre, der einer Hausdurchsuchung ohne richtigen Verdachtsmoment und ohne richterlichen Beschluss ähneln würde.
Moderator es macht einen riesigen Unterschied ob ich mich selbst dazu Entscheide bei Insta, WhatsApp, Facebook, Tiktok, Snapchat, etc. etc. etc. zu sein und dort meine Fotos hochlade / die Foto Mediathek freigebe oder ob mein iPhone nach einen iOS Update auf einmal meint es müsste meine ganzen Fotos nach so etwas Scannen. Wo unter Garantie auch Fotos als verdächtig gemeldet werden würden, obwohl sie nicht darunterfallen, denn ich habe nun mal einen Sohn der auch mal im Sommer Nackt am See rumläuft und dabei trotzdem von mir Fotografiert wird, da es seine ersten Schritte waren oder weil er seinen Kinderwaagen selbst geschoben hat oder oder oder.
Viel Spaß wenn wegen so einer Falschmeldung dann die Polizei bei dir vor der Türe steht, die Nachbarschaft weis schneller warum die da ist, als wie du dir Vorstellen kannst. Den Stempel des Kinderschänders bekommst du dann nicht mehr komplett weg.
+1
Das galt @tomtom
@Moderator, nein, Datenschutz ist kein „abstraktes Recht“. Hier geht es darum, dass verdachtsunabhängig von allen Usern die Fotos durchsucht werden, damit man die wirklich üblen schwarzen Schafe darunter finden kann.
Vergleichbar wäre das damit, dass anlasslose Hausdurchsuchungen bei allen Bürgern durchgeführt würden, auch da könnte man ja auch ausgedrucktes Missbrauchsmaterial stoßen, übrigens auch bei der Gelegenheit auf Waffen, aber auch gleich auf Unterlagen, die eine Steuerhinterziehung beweisen. Wo fängt es an, wo hört es auf.
Ganz abgesehen von den „false positives“ bei so einem systematischen Scannen, durch die unbescholtene Leute in Verdacht geraten.
Du siehst: Datenschutz heißt: Privatsphäre. Und nein, der Vergleich mit den Fotos auf Insta un Co zieht nicht. Ich zum Beispiel hab dort bewusst keine Bilder.
Meine Bilder können sie gerne scannen…wenn dadurch ein Missbrauch verhindert wird, isses das wert. Ich möchte euch erleben wenn eure Frauen Kinder o.ä. betroffen wären wie ihr dann denken würdet. Was habt ihr für Fotos , nur darum geht es, habt ihr denn das die so schützenswert sind? Sobald die in der iCloud sind sind sie gläsern.
Die Methode hatte nichts mit Gläsern zu tun.
Es wurden Dateien gehashed, und diese Hashes mit den Hashes bekannter Dateien verglichen.
Somit wertlos? Macht man halt mal eine grüne linie quer durchs bild schon ist der hash ein ganz andere…
Und was spricht gegen missbräuchliche Hashes, die Gesichter, Geräte, Gebäude, Nummernschilder, Wohngegenden, Einrichtungen etc. zum Inhalt haben?
Wobei es kein Hash-Algorithmus zur Erstellung einer genauen Prüfsumme ist. Sondern via machine learning („KI“) ähnliche Bilder mit einem identischen Hash versehen werden sollen. Das mag dennoch „relativ präzise“ sein, ist aber keinesfalls unfehlbar.
Was sollte es bringen?
„Was sollte es bringen?“ ging an oli
Naja, man könnte schon argumentieren. Aber das Problem ist, dass dieses Thema so emotional aufgeladen ist, dass man es gut zu Kampagnen missbrauchen kann, und so Argumente am Ende keine Rolle mehr spielen.
Vermutlich ist es so, dass die von Apple damals vorgeschlagen Maßnahmen in der Realität keine echte Verbesserung bringen, denn Apple bietet ja im Grunde gar keine Plattform an, über die Missbrauchsdarstellungen geteilt/verbreitet werden. Das echte Problem dürfte eher im „Darkweb“ liegen, dort werden dann auch tatsächlich immer wieder Verbrecherringe aufgedeckt und hochgenommen.
In privaten (nicht öffentlich zugänglichen) Fotoalben zu stöbern, birgt eher grosse Gefahren für Unschuldige, wie z.b. dem Familienvater dem zu Coronazeiten beim kleinen Sohn ein Hautausschlag auffiel, wegen Lockdown nicht einfach zum Arzt fahren konnte, und daher vom Arzt erst mal gebeten wurde, Fotos für die erste Untersuchung/Diagnose zu schicken. Die Fotos wurden dann von den Google-Algorithmen fälschlicherweise als Kindesmissbrauch gewertet, was zur Folge hatte, dass Google alle Konten gesperrt hatte, die Polizei einschaltete und so der Familie erst mal das Leben komplett zerstört hatte. D.h. der Datenschutz ist jetzt nicht so ein abstrakter Störfaktor „für“ die Sicherheit, sondern kann durchaus essentiell sein.
Gerade im Bereich Kindesmissbrauch kann schon ein falscher Verdacht Existenz vernichtend sein. Daher müsste man hier viel sorgfältiger arbeiten, sich nicht von Gefühlen leiten lassen. Leider ist genau das Gegenteil der Fall.
Es gab ja eine Initiative von Apple um das mehr durchzugreifen. Allerdings gab es ja einen riesigen Aufschrei wegen Datenschutz, woraufhin Apple es zurück nahm.
Wirklich eine Zwickmühle. Egal wie man es macht, man wird verklagt.
Wenn der Datenschutz weg ist, war’s das mit Privatsphäre und der staatl. und willkürlichen Überwachung ist Tür und Tor weit geöffnet.
Mein Datenspeicher in der Cloud ist eine Erweiterung meines privaten Umfelds, das auch analog nicht „einfach so” durchsucht werden darf.
So leid es mir für die Betroffenen auch tut, aber ein Aufweichen des Datenschutzes geht gar nicht.
+1
+1
+1
++++1
+1
Hört sich für mich nach einer Geldmacherei an.
+1
Ich habe den Text so verstanden.
Eine jetzt 27 jährige Frau, von der es Medien geben könnte, welche als Kinder- oder Jugendpornografie gelten, verklagt Apple.
Grund:
Es ist möglich, dass diese Medien auf mindestens einem privaten iCloud Account gespeichert sind und Apple nichts dagegen tut, da sie nicht die iCloud Speicher aller Nutzer durchsuchen, obwohl sie die Technologie dafür haben.
Einen bestimmten Account oder Nutzer nennt sie nicht.
Na dann…
Möge im Land of the Free bitte irgendwer im Gegenzug diese Frau dafür verklagen, dass sie versucht die Privatsphäre unbescholtener Bürger aufzuweichen.
Es geht hierbei immerhin um die Forderung nicht-öffentliches Bildmaterial in privaten Konten zu analysieren. Solche automatisierten Bildanalyseverfahren sind jedoch nicht fehlerfrei und das Material muss dann händisch von wildfremden Menschen auf False-Positives überprüft werden. Wie problematisch sowas werden kann haben bereits andere Dienstleister (*hust*Microsoft*hust*) bewiesen. Hoffentlich wird die Klage abgeschmettert.
+1
Nicht normal was heutzutage alles möglich ist.Jemanden verklagen der keine Straftat begangen hat. Sie scheint wirklich ein Opfer zu sein!
Haha, ich habe erst am Wochenende genau zu diesem Thema auf einem anderen Blog kommentiert:
„Naja, mal sehen wann die Diskussion rund um (client-side) scanning wieder losgeht, kann ja nicht mehr lange dauern.“
Tja, und zack, hier sind wir. Und wen es interessiert, hier ein paar Details zu dieser NCMEC-Datenbank von einem Leak eines der Entwickler:
„The NCMEC database that Apple is likely using to match hashes, contains countless non-CSAM pictures that are entirely legal not only in the U.S. but globally.“
Und das ist ja klar, wenn jeder HansWurscht (wie ich am Wochenende z.B.) einfach Bilder hashen und den Hash dort eintragen kann. Anscheinend werden wohl auch automatisch **alle** bei Tätern gefundenen Bildern eingetragen, selbst von Räumen oder Aussenaufnahmen auf welchen nicht einmal Menschen abgebildet sind.
Und übrigens: nichts davon ist wirklich transparent, geschweige denn die DB mit Hashes. Und natürlich ist alles von der US-Regierung finanziert. Was könnte da bloss schiefgehen?
Der Fall zeigt keinen direkten Zusammenhang zwischen Apples Handlungen und dem Missbrauch der Klägerin. Maßnahmen wie das Scannen privater Daten gefährden die Privatsphäre von Millionen Nutzern und erhöhen die Wahrscheinlichkeit von Datenmissbrauch erheblich. Der Schutz von Opfern ist wichtig, aber die Risiken solcher Überwachung, wie der Missbrauch persönlicher Daten oder Bilder, überwiegen deutlich.
Ja, so eine Milliarde Dollar kann man immer mal gebrauchen.
Ohne konkrete Beweise, dass verbotene pornografische Inhalte auf der iCloud geteilt bzw. verwaltet werden.
Einfach mal so verklagen, weil man es kann.
Und wenn das so wäre,dann hat sich nicht Apple schuldig gemacht,sondern der,der den Schmutz da hoch läd. Sonst müsste ich ja auch Autohersteller verklagen,wenn jemand absichtlich mit dem Auto jemand tot fährt. So ein Schwachsinn scheint Mode zu werden.
Oder die deutsche post da sie die waren von Shiny flakes ausgetragen haben
@Pitkaffe: Nein, der Vergleich ist nicht richtig. Besser:
Die Autoindustrie hat etwas entwickelt, das verhindert, dass jemand überfahren wird, integriert es aber nicht in die Fahrzeuge, weil z.B. Datenschutzgründe dagegen sprechen und sich deshalb viele Leute darüber beschwert haben.
Genau mit dem Argument könnte man auch das Brief/Post/Paket Geheimnis aufheben.
Was wohl so alles verschickt wird? Waffen, Drogen, Organe, Todeslisten, Bauanleitungen für……..
Also darüber kann ich mich echt mal freuen und ich hoffe, dass das nicht das Ende der Fahnenstange ist.
Nur eine Frage dazu:
Wer oder was ist Apple? Gesundheitspolizei oder ein Konzern der IT Geräte herstellt?
Ich finde Apple hat nicht die Aufgabe unsere Fotos zu kontrollieren. Das sollten gefälligst andere Institutionen machen die eigens dafür da sind. Fertig.
Die Klägerin könnte von überall aus der Welt komm, aber dann ausgerechnet Nordkalifornien, wo Apple seinen Sitz hat…?!
Kinderpornografie (so fürchterlich das ist, keine Frage!) ist der der neue Terror. Bislang wurden alle massiven Eingriffe in die Persönlichkeit seit dem 11. Sept. mit Terror begründet. Der Schuh ist langsam ausgetreten. Also brauchen wir was neues. Tadaaaa, ein Thema dem sich in der öffentlichen Debatte niemand verschließen DARF. Und Kinder funktionieren für sowas immer. Ich empfehle dazu den Wikipedia-Artikel zur Brutkastenlüge.
Ekelhaft ist das. Dafür ist das Thema viel zu wichtig!
Da kann ich nur den Kopf schütteln. Als Vater von drei Kindern würde ich ein Produkt, was meine Bilder analysiert, auch wenn „nur anonym“ auf KI Basis, direkt aufhören zu benutzen. Absolut richtige Entscheidung von Apple Datenschutz zu priorisieren. Unfug kann mit allem gemacht werden: ein Küchenmesser kann in den falschen Händen töten, ein Auto vom falschen Fahrer usw. Da ist nicht Apple in der Verantwortung die Welt zu retten, sondern unsere Regierungen. Das Leid der Dame tut mir vom Herzen leid, aber ihre Vorgehensweise kann ich nur als Geldmacherei bezeichnen.