Ab CHF 5.– im Monat
👉🏼 Wir benötigen deine Unterstützung! Unterstütze macprime mit einem freiwilligen Gönner-Abo und mache die Zukunft unseres unabhängigen Apple-Mediums aus der Schweiz mit möglich.
Apple beerdigt Pläne für Scan nach «Child Sexual Abuse Material»
Im August 2021 kündigte Apple an, künftig ein System auf iCloud einführen zu wollen, mit welchem Material erkannt werden soll, das sexuellen Kindesmissbrauch («Child Sexual Abuse Material», kurz «CSAM») zeigt. Apples Bestrebungen in diese Richtung wurden von Datenschutz-Organisationen und Sicherheitsforschern stark kritisiert. Nun hat Apple laut heise.de gegenüber dem «Wired»-Magazin bekannt gegeben, mit dem Vorhaben «nicht voranzuschreiten». Das Unternehmen konzentriert sich stattdessen auf die vor einem Jahr eingeführte iMessages-Sicherheits-Funktion bei Nacktfotos an Kinder.
Von Stefan Rechsteiner
Veröffentlicht am