Es ist Zeit, ein Licht auf die Algorithmen, die Macht Big Brother To Shine

Sortieren nach Algorithmen bringt uns in Boxen. Woher wissen wir, dass sie die richtigen sind? generiert, CC BYSortieren nach Algorithmen bringt uns in Boxen. Woher wissen wir, dass sie die richtigen sind? generiert, CC BY

Die Gesellschaft scheint so weit auf Kurs zu sein, dass unser Leben der Kontrolle von Computeralgorithmen unterliegt. Die Daten, die wir generieren, werden durchforstet und analysiert, sei es von Regierungen für die nationale Sicherheit oder von Unternehmen für Profit, und dies wird sich wahrscheinlich nicht ändern - die Stärke und Attraktivität der Datenanalyse, sobald sie gefunden wird, wird nicht einfach aufgegeben werden.

Aber in Wahrheit frage ich mich, ob es mehr darum geht, dass unsere Daten gesammelt werden oder dass wir nichts über die Algorithmen wissen, die uns ein Urteil aussprechen.

Der Grad an Details über unser Leben und unsere Gewohnheiten, die aus den Daten, die wir hinterlassen, herausgefiltert werden können, wurde bereits diskutiert und wird als Teil der Debatte über den britischen Entwurf neu belebt Investigatory Powers Bill. Wir wissen zumindest etwas darüber, welche Daten gesammelt werden und wie lange sie gespeichert sind. Einige davon unterliegen dem britischen und europäischen Recht.

In dem Text des GesetzentwurfsZum Beispiel wissen wir, dass die britische Regierung "nur" (unberechtigten) Zugriff auf Kommunikationsmetadaten, die Kopfzeilen und Themen von E-Mails und Telefonanrufdatensätze verlangen wird. Wir wissen aber auch, wie aufschlussreiche Metadaten allein sein können: Werfen Sie einen Blick auf die Das Immersionsprojekt des MIT Media Lab für ein kraftvolles Beispiel, wie viel Detail daraus ermittelt werden kann. Es ist sicherlich überhaupt nicht vergleichbar mit einer detaillierten Telefonrechnungwie beansprucht.

Zum besseren oder schlechteren haben wir, die Öffentlichkeit, einen Hinweis darauf, was aufgezeichnet wird. Aber wir haben keine Ahnung, welche Analysewerkzeuge und -techniken auf diese Daten angewendet werden - und deren Bedeutung sollte nicht unterschätzt werden.

Was knirscht die Zahlen?

Wir können fundierte Vermutungen anstellen. Wahrscheinlich nutzen die nationalen Sicherheitsbehörden unsere Metadaten, um soziale Netzwerke zwischen Menschen und Orten zu erzeugen, die uns unter anderem miteinander verbinden. Diese Beziehungsnetzwerke werden dann analysiert, um zu bestimmen, ob wir eine Person von Interesse sind, die dadurch bestimmt wird, wie Sie mit anderen Personen von Interesse vergleichen, und wie Sie mit bestehenden Personen von Interesse oder mit ihnen in Verbindung stehenden Personen in Verbindung treten.

Forscher, die diese Techniken verwenden, verstehen ihre Grenzen, und dass die Algorithmen, die sie antreiben, Fehler oder zugrunde liegende Annahmen enthalten können, die eine tiefgreifende Auswirkung auf ihre Ergebnisse haben. In diesem Fall kann das bedeuten, ob Sie als Terrorist gekennzeichnet sind oder nicht, oder ob Sie für einen Kredit oder eine Hypothek in Frage kommen.


Holen Sie sich das Neueste von InnerSelf


Es ist auch nicht genau klar, wo in den unscharfen Grenzbereichen die Existenz einer Beziehung definiert ist. Bedeutet der bloße Besuch der gleichen Website als Terrorist gemeinsame Werte, oder fährt man jeden Tag dieselbe Buslinie, um sich mit Terroristen zu unterhalten? Aus legitimen Gründen ist es durchaus möglich, Orte zu besuchen, die von bekannten Terroristen frequentiert werden. Wenn Sie Ihre Nachrichten von den gleichen Websites wie Terroristen erhalten, sind Sie eher ein Terrorist? Diskriminierung und Voreingenommenheit kann zum Zeitpunkt der Datenerfassung eingeführt werden, und dann wieder, wenn Entscheidungen getroffen werden, wie diese Daten zu analysieren sind. Algorithmen können auch unterscheiden.

Unscharfe Grenzen

Die Möglichkeit, dass Algorithmen unerwünschte Verzerrungen einführen, ist sehr real. Zum Beispiel werden diejenigen, die von den Sicherheitsdiensten verwendet werden, in Datensätzen von bekannten Terroristen und bekannten Nicht-Terroristen trainiert. Bedeutet das, als die meisten bekannten Terroristen sind Männer im Alter von 20-30Es ist wahrscheinlicher, dass Sie als Terrorist eingestuft werden, wenn Sie nur männlich und ungefähr 20-30 gealtert sind, ungeachtet Ihrer anderen Eigenschaften. Wenn ja, hat das einen signifikanten Einfluss darauf, wie die Daten verwendet werden?

Das Problem rührt von der Tatsache her, dass ich und andere akademische Forscher, die komplexe Netzwerkanalyse, maschinelles Lernen, Mustervergleich oder künstliche Intelligenz verwenden, diese Techniken öffentlich begutachtet haben, um die Stärke der Techniken und die Validität der Schlussfolgerungen zu bestimmen; Sicherheitsdienste der Regierung und Organisationen des Privatsektors nicht. Wir haben keine Ahnung von der Qualität ihrer Methoden und wie sie sie einsetzen. Gibt es dafür eine Lösung?

Jene aus einem anderen Bereich der Sicherheit, der Kryptographie, haben vor langer Zeit gelernt, dass der beste Weg, die Qualität und damit die Sicherheit ihrer Algorithmen zu verbessern, darin besteht, sie öffentlich zu machen. Kryptografische Implementierungen und Chiffren werden veröffentlicht, und Forscher werden ermutigt, Fehler oder Mängel zu finden, um so die Sicherheit für alle Benutzer zu verbessern. Darüber hinaus ist im Allgemeinen jede Implementierung von kryptogaphischen Algorithmen mit geschlossener Quelle (nicht öffentlich) mit Argwohn betrachtet. Wenn sie lebensverändernde Urteile über uns aussprechen - ob wir als Terroristen oder finanziell unwürdig eingestuft werden -, sollte das gleiche Modell auf Sicherheitsalgorithmen angewendet werden.

Ein Argument gegen einen solchen Schritt ist, dass offene und transparente Algorithmen dazu führen könnten, dass Terroristen ihr Verhalten in der realen Welt verändern, um nicht entdeckt zu werden. Dies würde bedeuten, Dinge wie ihre Interaktionen, Assoziationen, Surfgewohnheiten und mögliche Bewegungen zu ändern. Aber wenn die Algorithmen richtig funktionieren, würden sie im Grunde aufhören, sich wie Terroristen zu verhalten. Wenn unsere zukünftige Sicherheit, Freiheit und Sicherheit von diesen Algorithmen abhängig sein wird, müssen wir genau wissen, wie - und das - sie funktionieren.

Über den AutorDas Gespräch

Philip Garnett, Dozent, Universität von York.

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Verwandte Buch:

{amazonWS: searchindex = Bücher; keywords = 0393244814; maxresults = 1}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

Folge InnerSelf weiter

facebook-icontwitter-iconRSS-Symbol

Holen Sie sich das Neueste per E-Mail

{Emailcloak = off}