Apple enthüllt neue Bemühungen zur Bekämpfung von Bildern von Kindesmissbrauch
In einem Briefing am Donnerstagnachmittag bestätigte Apple zuvor gemeldete Pläne zum Performance neuer Technologien in iOS, macOS, watchOS und iMessage, die potenzielle Bilder vonseiten Kindesmissbrauch erkennen, wohl wichtige Details alle dem laufenden Vorhaben wurden klargestellt. Für Geräte in den USA eröffnen neue Versionen von Seiten iOS noch dazu iPadOS, die diesen Herbst eingeführt werden, „neue Anwendungen der Kryptographie, um die Verteiltheit vonseiten CSAM [Material zum sexuellen Missbrauch von Kindern] erreichbar zu begrenzen mehr noch gleichzeitig die Privatsphäre dieser Anwender zu bewachen“. Das Streben wird selbst uff einer neuen Seite „Kindersicherheit“ aufwärts welcher Apple-Webseite in allen Einzelheiten beschrieben. Die invasivste noch dazu eventuell umstrittenste Implementierung ist dasjenige System, dies Scans hinaus dem Einheit durchführt, ehe ein Skizze in iCloud ungefährdet wird. Punktum jener Erklärung geht hervor, dass das Scannen erst erfolgt, sowie eine Datei in iCloud behütet wird, und Apple erhält nur hier Daten über eine Übereinstimmung, wenn die kryptografischen Gutscheine (zwischen dem Grafik in iCloud hochgeladen) bei ein bestimmtes Bankverbindung zusammenführen Schwellenwert c/o die Übereinstimmung mit bekanntem CSAM erfüllen . Seit Jahren verwendet Apple Hash-Systeme, um unter Einsatz von Mail gesendete Bilder vonseiten Kindesmissbrauch zu scannen, im Einklang unter Zuhilfenahme von ähnlichen Systemen unter Gmail darüber hinaus anderen Cloud-E-Mail-Nachricht-Anbietern. Das momentan angekündigte Programm wird dieselben Scans auf in iCloud Photos gespeicherte Benutzerbilder anwenden, wenn schon wenn die Bilder absolut nie an zusammenführen anderen Benutzer gesendet oder jenseitig getrennt werden. In einem nebst dem Briefing bereitgestellten PDF begründete Apple seine Tat zum Scannen von Seiten Bildern mittels welcher Beschreibung mehrerer Einschränkungen, die zum Sicherheit der Privatbereich tragen sind: Apple erfährt nichts mittels Bilder, die in… dem bekannten CSAM entsprechen Datenbank. Apple kann nicht hinauf Metadaten oder visuelle Derivate zusammen mit übereinstimmende CSAM-Bilder zupacken, erst wenn a Der Schwellenwert bei Übereinstimmungen wurde für ein iCloud-Fotos-Kontoverbindung überschritten. Das Risiko, dass dasjenige Gedankenfolge ein Kontoverbindung vermeintlich kennzeichnet, ist voll gering. In Ergänzung, Apple überprüft jeglicher an NCMEC übermittelten Berichte manuell, um die Gewissenhaftigkeit welcher Berichte sicherzustellen. User einbringen non… auf die Datenbank bekannter CSAM-Bilder zupacken oder welche anzeigen. Nutzer können non… erkennen, solche Bilder vom System denn CSAM gekennzeichnet wurden Die neuen Finessen konstruieren hinauf Zwiespalt hinaus, die Herkunft dieser Woche durchgesickert sind, fügen daher ebenfalls eine Menge seitens Sicherheitsvorkehrungen hinzu, die im Vorhinein den Datenschutzrisiken eines solchen Systems bewachen sollen. Insbesondere stellt das Schwellenwertsystem sicher, solange wie einzelne Flüchtigkeitsfehler keine Warnungen generieren, sodass Apple eine Fehlerrate von Seiten einer Fehlwarnung z. Hd. Billion Anwender z. Hd. Anno anvisieren kann. Das Hashing-System ist sogar auf Werkstoff beschränkt, dasjenige vom National Center for Missing and Exploited Children (NCMEC) gekennzeichnet wurde, und auf Bilder, die gen iCloud Photos hochgeladen wurden. Sobald eine Vorwarnung generiert wurde, wird ebendiese von Seiten Apple und NCMEC überprüft, im Voraus die Strafverfolgungsbehörden alarmiert werden, welches kombinieren zusätzlichen Schutz davor bietet, sofern dasjenige System verwendet wird, um Nicht-CSAM-Inhalte zu erkennen.