4-Wege Ihre Google-Suchanfragen und Social Media beeinflussen Ihre Chancen im Leben

4-Wege Ihre Google-Suchanfragen und Social Media beeinflussen Ihre Chancen im Leben
Shutterstock.

Unabhängig davon, ob Sie es verstehen oder ihm zustimmen, können Big Data Sie und Ihr Leben beeinflussen. Die Daten, die wir bei der Nutzung von Social Media erstellen, im Internet surfen und tragen Fitness-Tracker sind alle gesammelt, kategorisiert und verwendet von Unternehmen und der der Staat um Profile von uns zu erstellen. Diese Profile werden dann verwendet, um Werbung für Produkte und Dienstleistungen auf diejenigen zu richten, die sie am wahrscheinlichsten kaufen, oder um Regierungsentscheidungen zu treffen.

Big Data ermöglichen es Staaten und Unternehmen, auf unsere Informationen zuzugreifen, sie zu kombinieren und zu analysieren und aufschlussreiche Informationen zu erstellen unvollständig und möglicherweise ungenau - Profile unseres Lebens. Sie tun dies, indem sie Korrelationen und Muster in Daten über uns und Menschen mit ähnlichen Profilen identifizieren, um Vorhersagen darüber zu treffen, was wir tun könnten.

Aber nur weil Big-Data-Analysen auf Algorithmen und Statistiken basieren, heißt das nicht, dass sie es sind genau, neutral oder von Natur aus objektiv. Und während Big Data Einblicke in das Gruppenverhalten geben kann, sind diese nicht unbedingt ein verlässlicher Weg, um individuelles Verhalten zu bestimmen. In der Tat können diese Methoden Öffnen Sie die Tür für Diskriminierung und der die Menschenrechte der Menschen gefährden - Sie könnten sogar gegen dich arbeiten. Hier sind vier Beispiele, bei denen Big-Data-Analysen zu Ungerechtigkeiten führen können.

1. Guthaben berechnen

Über Big Data können Entscheidungen getroffen werden Kreditwürdigkeit, ob Sie eine Hypothek erhalten oder wie hoch Ihre Hypothek ist KFZ-Versicherung Prämien sollten sein. Diese Entscheidungen können von Ihnen mitgeteilt werden Social-Media-Beiträge und Daten aus anderen Apps, die Ihr Risiko oder Ihre Zuverlässigkeit angeben.

Aber Daten wie Ihr Bildungshintergrund oder Ihr Wohnort sind für solche Bewertungen möglicherweise nicht relevant oder verlässlich. Diese Art von Daten kann als Proxy für den rassischen oder sozioökonomischen Status dienen, und ihre Verwendung für Entscheidungen über das Kreditrisiko könnte zu Diskriminierung führen.

2. Jobsuche

Große Daten können verwendet werden, um zu bestimmen Wer sieht eine Stellenanzeige oder wird für ein Vorstellungsgespräch nominiert?. Stellenanzeigen können auf bestimmte Altersgruppen ausgerichtet sein, wie 25 zu 36-Jährigen, die jüngere und ältere Arbeitnehmer davon abhält, sogar bestimmte Stellenanzeigen zu sehen, und ein Risiko der Altersdiskriminierung darstellt.

Automatisierung wird auch verwendet, um Kandidaten effizienter zu filtern, zu sortieren und zu klassifizieren. Aber dieser Screening - Prozess kann Menschen auf der Basis von Indikatoren wie der Entfernung ihrer Pendelstrecke. Die Arbeitgeber könnten davon ausgehen, dass Personen mit längerem Pendelverkehr weniger wahrscheinlich langfristig einen Arbeitsplatz haben, aber dies kann aufgrund der Lage von erschwinglichem Wohnraum tatsächlich Menschen, die weiter vom Stadtzentrum entfernt wohnen, diskriminieren.

3. Parole und Kautionsentscheidungen

In den USA und im Vereinigten Königreich werden Risikobewertungsmodelle für Big Data verwendet, um Beamten zu helfen, zu entscheiden, ob Menschen bewilligt werden Bewährung oder Kautionoder bezeichnet Rehabilitationsprogramme. Sie können auch verwendet werden, um zu beurteilen, wie viel Risiko ein Täter der Gesellschaft bietet, was ein Faktor ist, den ein Richter bei der Entscheidung über die Länge eines Satzes berücksichtigen könnte.

Es ist nicht genau klar, welche Daten verwendet werden, um diese Bewertungen zu machen, sondern als der Schritt in Richtung digitale Polizeiarbeit nimmt an Tempo zu, wird es immer wahrscheinlicher, dass diese Programme Open-Source-Informationen wie z soziale mediale Aktivität - wenn sie es nicht schon tun.

Bei diesen Bewertungen wird nicht nur das Profil einer Person betrachtet, sondern auch, wie sie mit anderen verglichen wird. Einige Polizeikräfte haben historisch überkontrolliert bestimmte Minderheitengemeinschaften, was zu einer unverhältnismäßig hohen Anzahl von gemeldeten kriminellen Vorfällen führt. Wenn diese Daten in einen Algorithmus eingegeben werden, werden die Risikobewertungsmodelle verzerrt und führen zu einer Diskriminierung, die sich direkt auswirkt das Recht eines Menschen auf Freiheit.

4. Visumanträge prüfen

Im vergangenen Jahr gab die Einwanderungs- und Zollbehörde der Vereinigten Staaten (ICE) bekannt, dass sie ein automatisiertes "extreme Visa-Überprüfung" Programm. Es würde automatisch und kontinuierlich Social-Media-Konten scannen, um zu beurteilen, ob die Antragsteller einen "positiven Beitrag" zu den Vereinigten Staaten leisten und ob nationale Sicherheitsprobleme auftreten können.

Neben Risiken für die Gedanken-, Meinungs-, Rede- und Vereinigungsfreiheit bestand die Gefahr, dass dieses Programm Menschen bestimmter Nationalitäten oder Religionen diskriminieren würde. Kommentatoren charakterisierte es als "Muslim Verbot durch Algorithmus".

Das Programm wurde kürzlich zurückgezogen, angeblich auf der Grundlage, dass "es keine 'Out-of-the-Box'-Software gab, die die Qualität der Überwachung der Agentur liefern könnte". Die Einbeziehung solcher Ziele in Beschaffungsdokumente kann jedoch schlechte Anreize für die Tech-Industrie schaffen, diskriminierende Programme zu entwickeln.

Das GesprächEs steht außer Frage, dass Big-Data-Analysen auf eine Art und Weise funktionieren, die die Möglichkeiten des Einzelnen im Leben beeinflussen kann. Aber die Mangel an Transparenz darüber, wie große Daten gesammelt, genutzt und geteilt werden, macht es für Menschen schwierig zu wissen, welche Informationen wann und wie verwendet werden. Big Data Analytics ist einfach zu kompliziert, als dass Einzelpersonen ihre Daten vor unangemessener Nutzung schützen könnten. Stattdessen müssen Staaten und Unternehmen Vorschriften erlassen und befolgen, um sicherzustellen, dass ihre Verwendung von Big Data nicht zu Diskriminierung führt.

Über den Autor

Lorna McGregor, Direktorin, Menschenrechtszentrum, PI und Co-Direktorin, ESRC Menschenrechte, Big Data and Technology Large Grant, Universität von Essex; Daragh Murray, Dozent für internationales Menschenrechtsrecht an der Essex Law School, Universität von Essexund Vivian Ng, leitende Forscherin für Menschenrechte, Universität von Essex

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher dieser Autoren:

{amazonWS: searchindex = Bücher; Schlüsselwörter = Lorna McGregor; maxresults = 1}

{amazonWS: searchindex = Bücher; Schlüsselwörter = Daragh Murray; maxresults = 2}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

Folge InnerSelf weiter

facebook-icontwitter-iconRSS-Symbol

Holen Sie sich das Neueste per E-Mail

{Emailcloak = off}