Apple überprüft iCloud-Fotos auf Kindesmissbrauch

Die auf iCloud geladenen Fotos werden vom Mac-Hersteller auf illegale Inhalte hin überprüft, insbesondere bezüglich Kinderausbeutung. Apples «Chief Privacy Officer» Jane Horvath hat dies an der CES anlässlich einer Podiumsdiskussion rund um Privatsphäre, Datenschutz und Verschlüsselungen bestätigt. Die Datenschutzchefin sagte, eine Schwächung von Verschlüsselungen sei nicht der richtige Weg um «solcherlei Probleme» zu lösen. Vielmehr setze man bei Apple bestimmte Technologien ein, um Inhalte die Kindesmissbrauch zeigen aufzuspüren. Bei Apple habe man sich dem Schutz von Kindern «im ganzen Ökosystem» verschrieben und investiere deshalb stets in Innovationen in diesem Bereich. Laut Horvath und wie es auch auf einer neuen Webseite heisst, setzt Apple auf elektronische Signaturen, ähnlich wie bei einem SPAM-Filter bei E-Mails, um besagte Inhalte ausfindig zu machen. Apple nutzt dazu wohl bereits als kindsausbeutend identifizierte Bilder und vergleicht diese automatisch mit Bildern, die auf iCloud hochgeladen werden. Individuelle Bilder dürfte Apple demzufolge nicht direkt analysieren. Findet das System einen Treffer, wird dieser von Hand validiert. iCloud-Konten, bei denen entsprechendes Material ausfindig gemacht wurde, verstossen gegen die Nutzungsbestimmungen des Dienstes und werden deshalb deaktiviert.

Von Stefan Rechsteiner
Veröffentlicht am

Gönner-Abo

Ab CHF 5.– im Monat

👉🏼 Wir benötigen deine Unterstützung! Unterstütze macprime mit einem freiwilligen Gönner-Abo und mache die Zukunft unseres unabhängigen Apple-Mediums aus der Schweiz mit möglich.

macprime unterstützen