Apple will den Komfort künstlicher Intelligenz ohne Einbussen für die Privatsphäre

Apple positioniert sich als Beschützer der Privatsphäre in einer Welt, in der Unternehmen zur Monetisierung wo nur möglich und grösstenteils ohne Rücksicht auf Privatsphäre Daten sammeln. Für AI-Dienste wie Siri muss Apple einen Spagat machen zwischen dem Komfort der künstlichen Intelligenz und der Aufrechterhaltung der dem Unternehmen heilig geltenden Privatsphäre und Datenschutz. Nutzerprofile sollen keine erstellt werden, Daten sollen nur anonymisiert gesammelt werden. Dabei bleiben viele Fragen offen.

Stefan Rechsteiner

«Deep Learning» oder «Maschinelles Lernen» ist der Grundpfeiler der «künstlichen Intelligenz». Die Zutaten dafür sind massive Rechenpower und enorme Datenmengen. Damit sollen die Computer-Systeme Bilder analysieren können, darauf Gesichter und Aktivitäten erkennen können, Texte untersuchen und Sprache verstehen können, Proaktiv Vorschläge geben und Probleme lösen können.

Ohne Deep Learning wären zum Beispiel die meisten Dienste von Google langweilig. Die Google-Suche würde meist nicht das finden, was wir tatsächlich suchen. Die Suche wüsste nichts über mich als Nutzer und hätte unterstützend dazu nicht tausende Verhaltensmuster, auf die sie zurückgreifen könnte, um ein von mir womöglich zu allgemein und unscharf definiertes Problem lösen zu können. Doch Google hat eben diese Daten. Google weiss wer ich bin, was ich mag, wo ich war und wohin ich noch gehen werde. Google weiss das, weil ich verschiedene kostenlose Google-Dienste nutze. Und Google weiss das, weil Google alle Daten, die ich dem Unternehmen über diese Dienste in den Rachen werfe, nutzt, auswertet und für die Verbesserung seiner Dienste einsetzt — und gleichzeitig auch monetisiert, also den Werbekunden weiterverkauft.

Erst kürzlich stellte Google mit «Allo» einen neuen Messenger vor. Dieser Messenger hat standardmässig keine Verschlüsselung aktiviert. Aus für Google einem guten Grund. Ist in Allo die verfügbare Ende-zu-Ende-Verschlüsselung aktiviert, kann Google nicht mehr «mitlesen», und dem Nutzer basierend auf dem im Messenger Geschriebenen und Diskutierten keine Vorschläge und Angebote mehr unterbieten, über welche Google entweder direkt oder indirekt Geld verdient. Doch genau davon lebt Google. Das ist Googles «Business-Modell».
Wer den Komfort der Google Dienste will, muss dafür auf einen grossen Teil seiner Privatsphäre verzichten.

Eine andere Richtung hat Apple eingeschlagen. Top-Manager des Unternehmens wie CEO Tim Cook betonen immer wieder, dass es nicht Apples Ziel sei, durch das Sammeln und Weiterverwenden und Verkaufen von Daten Geld zu machen. iMessage/Nachrichten, FaceTime, HomeKit — alle kommunizieren mit fester Ende-zu-Ende-Verschlüsselung. Nicht mal Apple weiss, was da genau kommuniziert wird. Trotzdem muss auch der iPhone-Hersteller auf künstliche Intelligenz und maschinelles Lernen setzen, um Dienste wie den digitalen Assistenten «Siri», oder proaktive Funktionen wie die «QuickType» genannten Text-Vorschläge bei der iOS-Tastatur oder den System-Suchen «Spotlight», jene in «Karten» und die Inhalt-Vorschläge in der iOS-App «News» anbieten zu können.

Apple muss dabei einen Spagat machen zwischen dem Komfort der künstlichen Intelligenz und der Aufrechterhaltung der dem Unternehmen heilig geltenden Privatsphäre und Datenschutz. Dazu setzt Apple auf einen anderen Ansatz als beispielsweise Google — Apple setzt auf «Differential Privacy».

Wer den Fotodienst «Google Photos» nutzt, überlässt dem Suchmaschinengigant seine Foto-Bibliothek. Die Fotos werden in die Google Cloud geladen und dort von der geballten Rechenpower, die das Unternehmen in der Cloud hat, analysiert: Gesichter werden erkannt, abgebildete Szenen ausgewertet.

Diese Angebote liefert Apple mit «Fotos» in iOS 10 und macOS 10.12 Sierra ebenfalls. Doch, und Apples Software-Chef Craig Federighi erwähnte dies am Montag während der Keynote gleich mehrmals: das Analysieren und Auswerten der Fotos passiert nicht auf den Servern von Apple, sondern auf dem eigenen Gerät. Das ganze maschinelle Lernen und die Prozesse der künstlichen Intelligenz finden auf dem persönlichen Gerät statt. Nutzerprofile sollen keine erstellt werden — auch nicht bei Websuchen, den QuickType-Vorschlägen oder anderen Diensten. Bei maschinellem Lernen ist es aber trotzdem essentiell, dass Verhaltensmuster erstellt werden können. Als Beispiel nannte Federighi die Möglichkeit, den Nutzern Wörter vorzuschlagen, die «im Trend liegen».

Mit «Differential Privacy» nutzt Apple hierbei eine Technologie, über die Nutzungsmuster einer grossen Anzahl von Anwendern erkennt werden können, ohne dabei den Datenschutz des Einzelnen zu kompromittieren. Differential Privacy bedeutet also, dass das System möglichst viel über eine Nutzergruppe lernt, dabei aber so wenig wie möglich über den einzelnen Nutzer. Dazu werden die Verhaltensmuster des Einzelnen anonymisiert — durch Techniken wie Hashing, Subsectioning und das Hinzufügen von zufälligem Datenrauschen. Theoretisch wird es so sehr schwierig, Muster zum eigentlichen Nutzer zurückzuverfolgen. Gleichzeitig erlaubt dies Apples Servern maschinelles Lernen. Dienste wie der digitale Assistent Siri, oder die Vorschläge in «Karten», in «News», bei der Autokorrektur oder in «Notizen» funktionieren auf diese Weise.

Federighi zitierte an der Keynote die Differential-Privacy-Koryphäe Aaron Roth. Apple lud den auf Privatsphäre spezialisierten Informatikprofessor der University of Pennsylvania ein und zeigte ihm die Anstrengungen des Unternehmens auf diesem Gebiet. Roth soll begeistert gewesen sein und bei Apple «Bahnbrechendes» gesehen haben. Der Professor positioniert Apple als das «klar führende Technologieunternehmen in Sachen Privatsphäre».

Auch wenn sich die Versprechen von Apple sehr gut anhören, bleiben noch viele Fragen offen. Allen voran beispielsweise, ob Apples Spagat zwischen AI und Privatsphäre überhaupt zu ähnlich guten Resultaten führen kann, wie beispielsweise die dem bezüglich Privatsphäre gänzlich anderen Grundsatz von Google beruhenden Angeboten. Herauszufinden bleibt ausserdem, wie gut maschinelles Lernen auf dem lokalen Gerät performt im Vergleich zu den gigantischen Server-Farmen die Cloud-Diensten zu Grunde liegen. Und wie viel des wertvollen lokalen Speicherplatzes muss für die Prozesse der künstlichen Intelligenz auf dem persönlichen Gerät geopfert werden? Während sich die Qualität der Resultate mit der Lancierung neuer Dienste relativ schnell überprüfen lassen, dürften sich die Fragen bezüglich der tatsächlichen Sicherheit des Datenschutzes und der Privatsphäre erst im Laufe der Zeit beantworten. Anonymisierte Daten sind nicht selten gar nicht so anonym wie sie sein sollten, und wie jüngst aufgetauchte gravierende Sicherheitslücken in altbewährten Technologien zeigen (bspw. «Heartbleed», «Drown Attack» oder Shellshock), zeigen sich Probleme oft erst mit der Zeit.

Gönner-Abo

Ab CHF 5.– im Monat

👉🏼 Wir benötigen deine Unterstützung! Unterstütze macprime mit einem freiwilligen Gönner-Abo und mache die Zukunft unseres unabhängigen Apple-Mediums aus der Schweiz mit möglich.

macprime unterstützen

Kommentare

Anmelden um neue Kommentare zu verfassen

Allegra Leser! Nur angemeldete Nutzer können bei diesem Inhalt Kommentare hinterlassen. Jetzt kostenlos registrieren oder mit bestehendem Benutzerprofil anmelden.