Apple iPhone

Neue Funktion: Apple scannt Fotos von Nutzern auf bekanntes Material von sexuellem Missbrauch

Apple hat eine Vorschau auf neue Kindersicherheitsfunktionen gegeben, die im Laufe diesen Jahres mit Software-Updates auf seine Plattformen kommen werden. Das Unternehmen sagte, dass die Funktionen zum Start nur in den USA verfügbar sind und im Laufe der Zeit auf andere Regionen ausgeweitet werden.

Apple iPhone Kommunikationssicherheit

Apple iPhone-Kommunikationssicherheit

Kommunikationssicherheit

Erstens erhält die Messages-App auf dem iPhone, iPad und Mac eine neue Kommunikationssicherheitsfunktion, um Kinder und ihre Eltern zu warnen, wenn sie sexuell eindeutige Fotos empfangen oder senden. Apple sagte, dass die Nachrichten-App maschinelles Lernen auf dem Gerät verwendet, um Bildanhänge zu analysieren. Wenn festgestellt wird, dass ein Foto sexuell eindeutig ist, wird das Foto automatisch unscharf und das Kind wird gewarnt.

Wenn ein Kind versucht, ein in der Nachrichten-App als sensibel gekennzeichnetes Foto anzuzeigen, wird es darauf hingewiesen, dass das Foto möglicherweise sensible Inhalte zeigt und/oder verletzend ist. Je nach Alter des Kindes besteht auch die Möglichkeit, dass Eltern eine Benachrichtigung erhalten, wenn ihr Kind das sensible Foto weiter ansieht oder nach einer Warnung ein sexuell eindeutiges Foto an einen anderen Kontakt sendet.

Apple sagte, dass die neue Kommunikationssicherheitsfunktion im Laufe des Jahres über Updates für iOS 15, iPadOS 15 und macOS Monterey für iCloud Familien-Konten eingeführt wird. Apple hat dafür gesorgt, dass iMessage-Konversationen durch eine End-to-End-Verschlüsselung geschützt bleiben, sodass private Chats von Apple nicht gelesen werden können.

Scannen von Fotos auf Child Sexual Abuse Material (CSAM)

Zweitens wird Apple ab diesem Jahr mit iOS 15 und iPadOS 15 in der Lage sein, in iCloud Photos gespeicherte Bilder von bekanntem Child Sexual Abuse Material (CSAM) zu erkennen. Die Bilder können dann dem National Center for Missing and Exploited Children (NCMEC) gemeldet werden. Dabei handelt es sich um eine gemeinnützige Organisation, die mit den amerikanischen Strafverfolgungsbehörden zusammenarbeitet.

Die Methode zur Erkennung von bekanntem CSAM sei unter Berücksichtigung der Privatsphäre der Nutzer entwickelt worden. Anstatt Bilder in der Cloud zu scannen, gleicht das System die Bilder mit einer Datenbank mit bekannten CSAM-Bild-Hashes ab, die von der NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden. Laut Apple wird diese Datenbank in eigene Hashes umgewandelt, die sicher auf den Geräten der Nutzer gespeichert werden. Die zugrundeliegende Technologie heißt NeuralHash. NeuralHash analysiert ein Bild und wandelt es laut Apple in eine eindeutige Nummer um, die für dieses Bild spezifisch ist.

„Der Hauptzweck des Hashs besteht darin, sicherzustellen, dass identische und optisch ähnliche Bilder zu demselben Hash führen, während Bilder, die sich voneinander unterscheiden, zu unterschiedlichen Hashes führen“, sagte Apple in seinem neuen Whitepaper „Erweiterter Schutz für Kinder“. „Beispielsweise wird ein Bild, das leicht beschnitten, verkleinert oder von Farbe in Schwarzweiß umgewandelt wurde, genauso behandelt wie das Original und hat den gleichen Hash.“

Apple CSAM Funktionsweise

Apple CSAM Funktionsweise

Bevor ein Bild in iCloud Photos gespeichert wird, wird das Bild laut Apple mit einem nicht lesbaren Satz bekannter CSAM-Hashes abgeglichen. Bei Übereinstimmung erstellt das Gerät einen verschlüsselten „Safety Voucher“. Der Voucher wird anschließend zusammen mit dem Bild in iCloud Photos hochgeladen. Sobald ein nicht bekannter Schwellenwert an Übereinstimmungen überschritten wird, kann Apple die Safety Voucher-Bilder auf Übereinstimmungen mit bekanntem CSAM vergleichen. Apple überprüft dann manuell jeden Bericht, um zu bestätigen, dass eine Übereinstimmung vorliegt. Das iCloud-Konto des Nutzers wird deaktiviert und ein Bericht an NCMEC gesendet. Das System arbeite mit „extrem hoher Genauigkeit“ und stelle sicher, dass Konten nicht falsch gekennzeichnet werden.

Apples Methode zur Erkennung von bekanntem CSAM biete nach eigener Aussage gegenüber bestehenden Techniken „erhebliche Vorteile für die Privatsphäre“:

  • „Das System ist eine effektive Methode, um bekannte CSAMs zu identifizieren, die in iCloud Photos-Konten gespeichert sind, und gleichzeitig die Privatsphäre der Nutzer zu schützen.
  • Als Teil des Prozesses können Nutzer auch nichts über den Satz bekannter CSAM-Images erfahren, der für den Abgleich verwendet wird. Dies schützt den Inhalt der Datenbank vor böswilliger Verwendung.
  • Das System ist sehr genau, mit einer extrem niedrigen Fehlerquote von weniger als einem von einer Billion Konten pro Jahr.
  • Das System schützt die Privatsphäre deutlich mehr als Cloud-basiertes Scannen, da es nur Benutzer meldet, die eine Sammlung bekannter CSAMs in iCloud Photos gespeichert haben.“

„Der erweiterte Schutz von Apple für Kinder ist ein Wendepunkt. Da so viele Menschen Apple-Produkte verwenden, haben diese neuen Sicherheitsmaßnahmen lebensrettendes Potenzial für Kinder, die online gelockt werden und deren schreckliche Bilder in Material zum sexuellen Missbrauch von Kindern verbreitet werden“, sagte John Clark , der Präsident und CEO des National Center for Missing & Exploited Children. „Wir vom National Center for Missing & Exploited Children wissen, dass dieses Verbrechen nur bekämpft werden kann, wenn wir uns konsequent für den Schutz von Kindern einsetzen. Wir können dies nur tun, weil Technologiepartner wie Apple sich engagieren und ihr Engagement bekannt machen. Die Realität ist, dass Privatsphäre und Kinderschutz nebeneinander existieren können. Wir applaudieren Apple und freuen uns darauf, zusammenzuarbeiten, um diese Welt zu einem sichereren Ort für Kinder zu machen.“

CSAM und Siri / Suche

Apple iPhone CSAM Siri

Apple iPhone CSAM melden über Siri

Drittens sagte Apple, dass es Hilfestellungen für Siri und Spotlight Search für alle Geräte anbieten wird. Zusätzliche Ressourcen sollen bereitgestellt werden, die Kindern und Eltern helfen, sich online sicher zu bewegen und Hilfe in unsicheren Situationen zu erhalten. Beispielsweise werden Nutzer, die Siri fragen, wie sie CSAM oder die Ausbeutung von Kindern melden können, auf Ressourcen hingewiesen, die den Meldeprozess erklären. Die Updates für Siri und Search kommen laut Apple noch in diesem Jahr in Updates für iOS 15, iPadOS 15, watchOS 8 und macOS Monterey.

Fotos
Apple
Quelle
www.apple.com/child-safety
Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
Alle Kommentare zeigen
Schaltfläche "Zurück zum Anfang"
0
Kommentar schreiben!x
()
x