4-Wege Ihre Google-Suchanfragen und Social Media beeinflussen Ihre Chancen im Leben
Shutterstock.

Unabhängig davon, ob Sie sich dessen bewusst sind oder nicht, Big Data kann Auswirkungen auf Sie und Ihre Lebensweise haben. Die von uns bei der Nutzung sozialer Medien erhobenen Daten, im Internet surfen und das Tragen von Fitnesstrackern werden gesammelt, kategorisiert und genutzt von Unternehmen und der Staat um Profile von uns zu erstellen. Diese Profile werden dann verwendet, um Werbung für Produkte und Dienstleistungen gezielt auf diejenigen auszurichten, die sie am wahrscheinlichsten kaufen, oder um Regierungsentscheidungen zu informieren.

Big Data ermöglicht es Staaten und Unternehmen, auf unsere Informationen zuzugreifen, sie zu kombinieren und zu analysieren und aufschlussreiche Informationen zu erstellen – aber unvollständig und möglicherweise ungenau – Profile unseres Lebens. Dazu identifizieren sie Korrelationen und Muster in Daten über uns und Menschen mit ähnlichen Profilen wie wir, um Vorhersagen darüber zu treffen, was wir tun könnten.

Aber nur weil Big-Data-Analysen auf Algorithmen und Statistiken basieren, heißt das nicht, dass sie es auch sind genau, neutral oder grundsätzlich objektiv. Und obwohl Big Data Einblicke in das Gruppenverhalten liefern kann, sind diese nicht unbedingt eine zuverlässige Methode, um individuelles Verhalten zu bestimmen. Tatsächlich können diese Methoden Öffnen Sie der Diskriminierung Tür und Tor und gefährden die Menschenrechte der Menschen – Sie könnten sogar gegen Sie arbeiten. Hier sind vier Beispiele, bei denen Big-Data-Analysen zu Ungerechtigkeit führen können.

1. Berechnung der Kreditwürdigkeit

Big Data kann zur Entscheidungsfindung genutzt werden KreditwürdigkeitDies hat Einfluss darauf, ob Ihnen eine Hypothek gewährt wird und wie hoch diese ist KFZ-Versicherung Prämien sollten sein. Diese Entscheidungen können von Ihnen getroffen werden Social-Media-Beiträge und Daten von anderen Apps, die als Hinweis auf Ihr Risikoniveau oder Ihre Zuverlässigkeit dienen.

Aber Daten wie Ihr Bildungshintergrund oder Ihr Wohnort sind für solche Bewertungen möglicherweise nicht relevant oder zuverlässig. Diese Art von Daten können als Indikator für die Rasse oder den sozioökonomischen Status dienen und ihre Verwendung zur Entscheidungsfindung über das Kreditrisiko könnte zu Diskriminierung führen.


Innerself-Abonnieren-Grafik


2. Jobsuche

Zur Bestimmung kann Big Data herangezogen werden wer eine Stellenanzeige sieht oder für ein Vorstellungsgespräch in die engere Auswahl kommt. Stellenanzeigen können gezielt auf bestimmte Altersgruppen ausgerichtet werden, etwa 25- bis 36-Jährige, was jüngere und ältere Arbeitnehmer davon ausschließt, bestimmte Stellenausschreibungen überhaupt zu sehen, und das Risiko einer Altersdiskriminierung birgt.

Automatisierung wird auch eingesetzt, um das Filtern, Sortieren und Ranking von Kandidaten effizienter zu gestalten. Dieser Screening-Prozess kann jedoch Personen aufgrund von Indikatoren wie dem ausschließen Entfernung ihres Arbeitswegs. Arbeitgeber gehen möglicherweise davon aus, dass diejenigen, die länger pendeln, weniger wahrscheinlich langfristig einen Arbeitsplatz behalten. Dies kann jedoch tatsächlich zu einer Diskriminierung von Menschen führen, die aufgrund der Lage bezahlbaren Wohnraums weiter vom Stadtzentrum entfernt wohnen.

3. Bewährungs- und Kautionsentscheidungen

In den USA und im Vereinigten Königreich werden Big-Data-Risikobewertungsmodelle verwendet, um Beamten bei der Entscheidung zu helfen, ob Personen gewährt werden Bewährung oder Kaution, oder darauf verwiesen Rehabilitationsprogramme. Sie können auch verwendet werden, um zu beurteilen, wie groß das Risiko ist, das ein Täter für die Gesellschaft darstellt. Dies ist ein Faktor, den ein Richter bei der Entscheidung über die Länge einer Strafe berücksichtigen könnte.

Es ist nicht genau klar, welche Daten für diese Bewertungen verwendet werden, aber wie der Schritt dahin geht digitale Polizeiarbeit nimmt Fahrt auf, es ist immer wahrscheinlicher, dass diese Programme Open-Source-Informationen wie z soziale mediale Aktivität - falls noch nicht geschehen.

Bei diesen Bewertungen wird möglicherweise nicht nur das Profil einer Person berücksichtigt, sondern auch, wie sie im Vergleich zu anderen abschneidet. Einige Polizeikräfte haben Historisch gesehen übermäßig überwacht bestimmte Minderheitengemeinschaften, was zu einer unverhältnismäßig hohen Zahl gemeldeter krimineller Vorfälle führt. Wenn diese Daten in einen Algorithmus eingespeist werden, führt dies zu einer Verzerrung der Risikobewertungsmodelle und zu einer Diskriminierung, die unmittelbare Auswirkungen hat das Recht einer Person auf Freiheit.

4. Prüfung von Visumanträgen

Im vergangenen Jahr kündigte die Einwanderungs- und Zollbehörde der Vereinigten Staaten (ICE) an, dass sie eine automatisierte „extreme Visumsprüfung" Programm. Es würde automatisch und kontinuierlich Social-Media-Konten scannen, um zu beurteilen, ob Antragsteller einen „positiven Beitrag“ für die Vereinigten Staaten leisten und ob möglicherweise nationale Sicherheitsprobleme auftreten könnten.

Neben Risiken für die Gedanken-, Meinungs-, Meinungs- und Vereinigungsfreiheit bestand auch die erhebliche Gefahr, dass dieses Programm Menschen bestimmter Nationalitäten oder Religionen diskriminieren würde. Kommentatoren charakterisierte es als „muslimisches Verbot durch Algorithmus“.

Das Programm wurde kürzlich zurückgezogen, Berichten zufolge mit der Begründung, dass „es keine ‚out-of-the-box‘-Software gab, die die von der Agentur gewünschte Qualität der Überwachung liefern konnte“. Die Aufnahme solcher Ziele in Beschaffungsdokumente kann jedoch schlechte Anreize für die Technologiebranche schaffen, Programme zu entwickeln, die von Natur aus diskriminierend sind.

Das GesprächEs steht außer Frage, dass Big-Data-Analysen auf eine Weise funktionieren, die sich auf die Lebenschancen des Einzelnen auswirken kann. Aber die Mangel an Transparenz Die Art und Weise, wie große Datenmengen erfasst, genutzt und weitergegeben werden, macht es für Menschen schwierig zu wissen, welche Informationen wie und wann verwendet werden. Big-Data-Analysen sind einfach zu kompliziert, als dass Einzelpersonen ihre Daten vor missbräuchlicher Verwendung schützen könnten. Stattdessen müssen Staaten und Unternehmen Vorschriften erlassen und befolgen, um sicherzustellen, dass die Nutzung von Big Data nicht zu Diskriminierung führt.

Über den Autor

Lorna McGregor, Direktorin, Human Rights Centre, PI und Co-Direktorin, ESRC Human Rights, Big Data and Technology Large Grant, Universität von Essex; Daragh Murray, Dozent für internationales Menschenrechtsrecht an der Essex Law School, Universität von Essex, und Vivian Ng, leitende Forscherin für Menschenrechte, Universität von Essex

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher von diesen

Über den Autor

at