Apple beerdigt Pläne für Scan nach «Child Sexual Abuse Material»
Unsere Sponsoren
-
Apps with love entwickelt digitale Produkte, die das Leben vereinfachen.
-
Dich als Sponsor präsentieren und macprime mit möglich machen.
Im August 2021 kündigte Apple an, künftig ein System auf iCloud einführen zu wollen, mit welchem Material erkannt werden soll, das sexuellen Kindesmissbrauch («Child Sexual Abuse Material», kurz «CSAM») zeigt. Apples Bestrebungen in diese Richtung wurden von Datenschutz-Organisationen und Sicherheitsforschern stark kritisiert. Nun hat Apple laut heise.de gegenüber dem «Wired»-Magazin bekannt gegeben, mit dem Vorhaben «nicht voranzuschreiten». Das Unternehmen konzentriert sich stattdessen auf die vor einem Jahr eingeführte iMessages-Sicherheits-Funktion bei Nacktfotos an Kinder.
Von Stefan Rechsteiner
Veröffentlicht am
Ab CHF 5.– im Monat
👉🏼 Wir benötigen deine Unterstützung! Unterstütze macprime mit einem freiwilligen Gönner-Abo und mache die Zukunft unseres unabhängigen Apple-Mediums aus der Schweiz mit möglich.