
Glaubwürdigen Berichten zufolge plant Apple, in den USA mit der Installation von Software auf iPhones zu beginnen, die automatisch lokale Fotos nach Bildern von Kindesmissbrauch durchsucht. Apple wird angeblich nur Fotos scannen, die mit dieser Technologie in iCloud hochgeladen wurden —zunächst zumindest.
Update: Apple hat einen Großteil dieser Berichte in . bestätigt ein ausführliches Dokument.
Was macht Apple?
Die Berichte über die Pläne von Apple stammten von The Financial Times und Matthew Green von der Johns Hopkins University, beides allgemein zuverlässige Quellen. Bis Apple dies bestätigt, besteht natürlich immer die Möglichkeit, dass dies nicht passiert. Apple hat den Plan Berichten zufolge Anfang dieser Woche einigen US-Akademikern demonstriert.
Ich habe von mehreren Personen unabhängige Bestätigung erhalten, dass Apple morgen ein clientseitiges Tool für CSAM-Scans veröffentlicht. Das ist eine wirklich schlechte Idee.
– Matthew Green (@matthew_d_green) 4. August 2021
Den Berichten zufolge wird Apple ein System verwenden, das “neuralMatch” um amerikanische iPhones auf Bilder von Kindesmissbrauch zu scannen.
Im Wesentlichen würde ein automatisiertes System ein Team von menschlichen Prüfern benachrichtigen, wenn es glaubt, dass illegale Bilder entdeckt wurden. Von dort aus überprüfte ein Mitglied des Teams die Bilder und kontaktierte die Strafverfolgungsbehörden.
Technisch gesehen ist das nichts Neues, Cloud-basierte Fotospeichersysteme und soziale Netzwerke führen diese Art des Scannens bereits durch. Der Unterschied hier ist, dass Apple dies auf Geräteebene tut. Laut Matthew Green scannt es zunächst nur Fotos, die in iCloud hochgeladen wurden, aber es würde diesen Scan auf dem Telefon des Benutzers durchführen. “Anfangs” ist hier das Stichwort, da man damit sehr gut irgendwann alle Fotos lokal scannen könnte.
Werbung
Damit soll das System weniger invasiv werden, da das Scannen auf dem Telefon und nur bei Übereinstimmung zurückgesendet. Das bedeutet, dass nicht jedes hochgeladene Foto den Augen von Fremden ausgesetzt ist.
Laut den Teilnehmern des Briefings erhält jedes in iCloud hochgeladene Foto einen “Sicherheitsgutschein” sagen, ob es verdächtig ist oder nicht. Wenn eine bestimmte Anzahl von Bildern als verdächtig markiert wird, entschlüsselt Apple sie und sendet sie an die Behörden, wenn etwas mit Kindesmissbrauch gefunden wird.
Wie unterscheidet das System zwischen Bildern von Kindesmissbrauch und anderen Bildern? Dem Bericht zufolge wurde es an 200.000 Bildern von sexuellem Missbrauch getestet, die vom gemeinnützigen US-amerikanischen National Center for Missing and Exploited Children gesammelt wurden.
Bilder werden durch Hashing in eine Zahlenfolge umgewandelt und dann mit den Bildern in der Datenbank verglichen.
Nachdem all dies herausgekommen war, lehnte Apple es ab, sich gegenüber der Financial Times zu den Ereignissen zu äußern. Wir gehen jedoch davon aus, dass das Unternehmen an einer offiziellen Erklärung arbeitet, bevor die Nachricht zu diesem Schritt außer Kontrolle gerät.
Dies schafft einen gefährlichen Präzedenzfall
Wir müssen Ihnen wahrscheinlich nicht sagen, wie beängstigend das sein kann. Menschen, die Kinder missbrauchen, sollten gefasst und bestraft werden, aber es ist leicht zu erkennen, wie so etwas für weitaus invasivere Zwecke verwendet werden könnte.
Werbung
Wird ähnliche Technologie eingeführt? andere Plattformen wie Macs, Windows-PCs und Android-Telefone? Könnten Länder wie China es nutzen, um subversive Bilder ihrer Bürger zu erkennen? Telefone? Wenn es weithin akzeptiert wird, könnte die Urheberrechtsindustrie es in ein paar Jahren nutzen, um nach Raubkopien zu suchen?
Und selbst wenn es wie angekündigt funktioniert: Werden unschuldige Menschen ins Kreuzfeuer geraten?
Hoffentlich ist dies nicht so besorgniserregend, wie es aussieht.
WEITER LESEN
- › So deaktivieren Sie Snap-Layouts in Windows 11
- › So sehen Sie sich das Samsung Galaxy Unpacked Event am 11. August an
- › So richten Sie einen Community-Server auf Discord ein
- › Das Speichern von Webseiten als PDFs wird schneller (wenn Sie Edge verwenden)
- › So schneiden Sie Fotos auf dem iPhone und iPad zu