Wie kann Differential Privacy Ihre Daten schützen? Marco Verch / Flickr, CC BY 

Technologieunternehmen können die differenzielle Privatsphäre nutzen, um aggregierte Daten über Benutzergewohnheiten zu sammeln und gemeinsam zu nutzen, während die individuelle Privatsphäre geschützt wird.

Es ist kein Geheimnis, dass große Technologieunternehmen wie Facebook, Google, Apple und Amazon unsere persönlichen und sozialen Interaktionen zunehmend infiltrieren, um täglich riesige Datenmengen über uns zu sammeln. Gleichzeitig machen Datenschutzverletzungen im Cyberspace regelmäßig Schlagzeilen.

Wie sollte Datenschutz in einer Welt geschützt werden, in der Daten mit zunehmender Geschwindigkeit und Einfallsreichtum gesammelt und weitergegeben werden?

Differenzielle Privatsphäre ist ein neues Modell der Cyber-Sicherheit, von dem Befürworter behaupten, dass sie persönliche Daten weitaus besser schützen können als traditionelle Methoden.

Die Mathematik, auf der es basiert, wurde vor Jahren 10 entwickelt, und die Methode wurde von Apple und Google in den letzten Jahren.


Innerself-Abonnieren-Grafik


Was ist differenzielle Privatsphäre?

Differentieller Datenschutz ermöglicht es Tech-Unternehmen, zusammengefasste Informationen über Benutzergewohnheiten zu sammeln und gemeinsam zu nutzen, während die Privatsphäre der einzelnen Benutzer gewahrt bleibt.

Angenommen, Sie möchten die beliebtesten Routen anzeigen, die Menschen durch einen Park führen. Sie verfolgen die Routen von 100-Leuten, die regelmäßig durch den Park laufen und ob sie auf dem Pfad oder durch das Gras gehen.

Anstatt die spezifischen Personen zu teilen, die jede Route nutzen, teilen Sie die gesammelten Daten im Laufe der Zeit. Leute, die Ihre Ergebnisse sehen, wissen vielleicht, dass 60 aus 100-Leuten lieber eine Abkürzung durch das Gras machen, aber nicht welche 60-Leute.

Warum brauchen wir es?

Viele der Regierungen der Welt haben strenge Richtlinien, wie Technologieunternehmen Benutzerdaten sammeln und teilen. Unternehmen, die sich nicht an die Regeln halten, können mit hohen Geldstrafen rechnen. EIN Das belgische Gericht hat kürzlich Facebook bestellt um zu verhindern, dass Daten über die Surfgewohnheiten der Nutzer auf externen Websites gesammelt werden, oder dass ihnen Bußgelder in Höhe von € 250,000 pro Tag auferlegt werden.

Für viele Unternehmen, insbesondere für multinationale Unternehmen, die in verschiedenen Ländern tätig sind, sind sie in einer schwierigen Situation, wenn es um die Erhebung und Nutzung von Kundendaten geht.

Auf der einen Seite benötigen diese Unternehmen Nutzerdaten, damit sie qualitativ hochwertige Dienste anbieten können, die den Nutzern nützen, wie zum Beispiel personalisierte Empfehlungen. Auf der anderen Seite können ihnen Gebühren entstehen, wenn sie zu viele Benutzerdaten sammeln oder wenn sie versuchen, Daten von einer Gerichtsbarkeit in eine andere zu verschieben.

Herkömmliche Tools zum Schutz der Privatsphäre wie die Kryptographie können dieses Dilemma nicht lösen, da sie Tech-Unternehmen daran hindert, auf die Daten zuzugreifen. Und Anonymität reduziert den Wert von Daten - ein Algorithmus kann Ihnen keine persönlichen Empfehlungen bieten, wenn er Ihre Gewohnheiten nicht kennt.

Wie funktioniert es?

Lassen Sie uns das Beispiel von Wanderwegen durch einen Park fortsetzen. Wenn Sie die Identitäten der in der Studie enthaltenen Personen kennen, aber nicht wissen, wer welchen Weg eingeschlagen hat, könnten Sie davon ausgehen, dass die Privatsphäre geschützt ist. Aber das ist vielleicht nicht der Fall.

Sagen Sie, jemand, der Ihre Daten anzeigt, möchte herausfinden, ob Bob es vorzieht, durch das Gras oder auf dem Pfad zu gehen. Sie haben Hintergrundinformationen über die anderen 99-Leute in der Studie erhalten, die ihnen sagen, dass 40-Leute lieber auf dem Pfad gehen und 59 lieber durch das Gras gehen. Daher können sie folgern, dass Bob, der die 100th-Person in der Datenbank ist, die 60th-Person ist, die es vorzieht, durch das Gras zu gehen.

Diese Art von Angriff wird als differenzierter Angriff bezeichnet, und es ist ziemlich schwierig, dagegen zu verteidigen, da Sie nicht kontrollieren können, wie viel Hintergrundwissen jemand erlangen kann. Differential Privacy zielt darauf ab, sich gegen diese Art von Angriffen zu verteidigen.

Jemand, der Ihre Gehstrecke ableitet, klingt vielleicht nicht zu ernst, aber wenn Sie Wanderrouten durch HIV-Testergebnisse ersetzen, dann können Sie sehen, dass es eine ernsthafte Verletzung der Privatsphäre gibt.

Das differenzielle Datenschutzmodell garantiert, dass selbst dann, wenn jemand vollständige Informationen über 99 von 100-Personen in einem Datensatz besitzt, die Informationen über die endgültige Person noch immer nicht abgeleitet werden können.

Der primäre Mechanismus, um dies zu erreichen, besteht darin, den aggregierten Daten zufälliges Rauschen hinzuzufügen. Im Pfadbeispiel können Sie sagen, dass die Anzahl der Personen, die es bevorzugen, das Gras zu überqueren, 59 oder 61 ist und nicht die genaue Anzahl von 60. Die ungenaue Zahl kann die Privatsphäre von Bob bewahren, hat aber wenig Einfluss auf das Muster: Um 60 bevorzugen Menschen eine Abkürzung.

Der Lärm ist sorgfältig gestaltet. Als Apple in iOS 10 differenzielle Privatsphäre anwandte, fügte es den einzelnen Benutzereingaben Rauschen hinzu. Das heißt, es kann zum Beispiel die am häufigsten verwendeten Emojis verfolgen, aber die Emoji-Verwendung eines einzelnen Benutzers wird maskiert.

Cynthia Dwork, die Erfinder der differenziellen Privatsphäre, hat wunderbare mathematische Beweise dafür geliefert, wie viel Rauschen ausreicht, um die Anforderung der differenziellen Privatsphäre zu erfüllen.

Was sind seine praktischen Anwendungen?

Differenzielle Vertraulichkeit kann auf alles angewendet werden, von Empfehlungssystemen zu standortbasierten Diensten und sozialen Netzwerken. Apfel verwendet differenzielle Privatsphäre um anonyme Nutzungseinblicke von Geräten wie iPhones, iPads und Macs zu sammeln. Die Methode ist benutzerfreundlich und rechtlich klar.

Differentieller Datenschutz würde es auch einem Unternehmen wie Amazon ermöglichen, auf Ihre persönlichen Einkaufspräferenzen zuzugreifen und gleichzeitig vertrauliche Informationen über Ihre historische Einkaufsliste zu verbergen. Facebook könnte damit Verhaltensdaten für gezielte Werbung sammeln, ohne die Datenschutzrichtlinien eines Landes zu verletzen.

Wie könnte es in der Zukunft verwendet werden?

Verschiedene Länder haben unterschiedliche Datenschutzrichtlinien, und sensible Dokumente müssen derzeit manuell überprüft werden, bevor sie von einem Land in ein anderes wechseln. Dies ist zeitaufwendig und teuer.

Vor kurzem hat ein Team von Deakin Universität hat eine differenzielle Datenschutztechnologie entwickelt, um Datenschutzprozesse innerhalb von Cloud-Sharing-Communities länderübergreifend zu automatisieren.

Das GesprächSie schlagen vor, mathematische Formeln zu verwenden, um die Datenschutzgesetze jedes Landes zu modellieren, die in "Middleware" (Software) übersetzt werden könnten, um sicherzustellen, dass die Daten konform sind. Die Verwendung von differenzieller Privatsphäre auf diese Weise könnte die Privatsphäre von Benutzern schützen und Kopfschmerzen bei der gemeinsamen Nutzung von Daten für Technologieunternehmen auflösen.

Über den Autor

Tianqing Zhu, Dozent für Cybersicherheit, Fakultät für Naturwissenschaften, Ingenieurwesen und gebaute Umwelt, Deakin Universität

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema

at InnerSelf Market und Amazon