Warum Experten besorgt sind über Apples Plan, jedes Bild auf Ihrem iPhone zu scannen
Letzte Nacht hat Apple angekündigt, iPhones in den USA auf Material zum sexuellen Missbrauch von Kindern (CSAM) zu scannen. Als Teil dieser Initiative arbeitet das Unternehmen mit der Regierung zusammen und nimmt Änderungen an iCloud, iMessage, Siri und Search vor.
Sicherheitsexperten machen sich jedoch Sorgen über die Überwachung und die Risiken von Datenlecks. Bevor wir uns diese Bedenken ansehen, wollen wir verstehen, was Apple genau tut?
Apple scannt Ihre iCloud-Fotos und zeigt sie mit der NCMEC-Datenbank an, um festzustellen, ob CSAM-Bilder vorhanden sind. Nun, das Unternehmen macht dies nicht wirklich in der Cloud, aber es führt diese Aktionen auf Ihrem Gerät aus. Es besagt, dass der Algorithmus vor dem Senden eines Bildes an den iCloud-Speicher eine Prüfung gegen bekannte CSAM-Hashes durchführt.
Wenn ein Foto in iCloud hochgeladen wird, erstellt Apple einen kryptografischen Sicherheitsgutschein, der mit ihm gespeichert wird. Der Gutschein enthält Details, um festzustellen, ob das Bild mit bekannten CSAM-Hashes übereinstimmt. Nun, der Technologieriese wird diese Details nicht kennen, es sei denn, die Anzahl der CSAM-Bilder auf Ihrem iCloud-Konto überschreitet einen bestimmten Betrag.
Denken Sie daran, dass das Scannen nicht funktioniert, wenn Sie die iCloud-Synchronisierung auf Ihrem Telefon deaktiviert haben.
Für iMessage führt Apple einen Scan durch und verwischt CSAM-Bilder. Wenn ein Kind ein solches Bild ansieht, erhalten die Eltern darüber hinaus eine Benachrichtigung, damit sie entsprechende Maßnahmen ergreifen können.
Wenn ein Kind versucht, ein solches Bild zu senden, wird es gewarnt, und wenn es fortfährt, wird eine Benachrichtigung an die Eltern gesendet.
Es ist wichtig zu beachten, dass die Elternbenachrichtigung nur gesendet wird, wenn das Kind unter 13 Jahre alt ist. Jugendliche im Alter von 13 bis 17 Jahren erhalten nur eine Warnbenachrichtigung auf ihrem eigenen Telefon.
Das Unternehmen optimiert auch Siri und Search, um zusätzliche CSAM-bezogene Ressourcen für Eltern und Kinder bereitzustellen. Wenn jemand CSAM-bezogene Suchen durchführt, kann Siri außerdem eingreifen und ihn über den Inhalt warnen.