Die neue digitale Kluft besteht zwischen Menschen, die sich gegen Algorithmen entscheiden, und Menschen, die dies nicht tun Wissen Sie, was passiert, wenn Sie Ihre Daten teilen? mtkang/shutterstock.com

Jeder Aspekt des Lebens kann von künstlichen Intelligenzalgorithmen geleitet werden - von der Wahl des Wegs für den morgendlichen Pendelverkehr über die Entscheidung, wen man sich für ein Datum entscheidet, bis hin zu komplexen rechtlichen und juristischen Angelegenheiten, wie beispielsweise der vorausschauenden Polizeiarbeit.

Große Technologieunternehmen wie Google und Facebook nutzen KI, um Einblicke in ihren riesigen Fundus an detaillierten Kundendaten zu erhalten. Dies ermöglicht es ihnen, die kollektiven Präferenzen der Nutzer durch Praktiken wie Micro-Targeting zu monetarisieren, eine Strategie, die von Werbetreibenden verwendet wird, um bestimmte Nutzergruppen gezielt anzusprechen.

Parallel dazu vertrauen viele Menschen mittlerweile Plattformen und Algorithmen mehr als ihren eigenen Regierungen und der Zivilgesellschaft. Eine Studie vom Oktober 2018 ergab, dass Menschen „zeigen“Wertschätzung von Algorithmen„In dem Maße, dass sie sich eher auf Ratschläge verlassen würden, wenn sie denken, dass sie von einem Algorithmus stammen als von einem Menschen.

In der Vergangenheit machten sich Technologieexperten Sorgen über a "digitale Kluft" zwischen denen, die Zugang zu Computern und dem Internet hatten, und denen, die keinen Zugang dazu hatten. Haushalte mit geringerem Zugang zu digitalen Technologien sind in dieser Fähigkeit im Nachteil Geld verdienen und Fähigkeiten erwerben.


Innerself-Abonnieren-Grafik


Doch mit der zunehmenden Verbreitung digitaler Geräte geht es bei der Kluft nicht mehr nur um den Zugang. Wie gehen Menschen mit der Informationsüberflutung und der Fülle algorithmischer Entscheidungen um, die jeden Aspekt ihres Lebens durchdringen?

Die versierteren Benutzer verzichten auf Geräte und werden sich bewusst, wie sich Algorithmen auf ihr Leben auswirken. Unterdessen verlassen sich Verbraucher, die über weniger Informationen verfügen, noch mehr auf Algorithmen, um ihre Entscheidungen zu treffen.

Sollten Sie in Verbindung bleiben – oder den Netzstecker ziehen? pryzmat/shutterstock.com

Das Geheimnis der künstlichen Intelligenz

Der Hauptgrund für die neue digitale Kluft ist meiner Meinung nach als jemand, der Wirtschaftsinformatik studiert, dieser So wenige Menschen verstehen, wie Algorithmen funktionieren. Für die Mehrheit der Nutzer werden Algorithmen als Black Box angesehen.

KI-Algorithmen nehmen Daten auf, passen sie an ein mathematisches Modell an und geben eine Vorhersage ab welche Lieder Ihnen gefallen könnten zu Wie viele Jahre sollte jemand im Gefängnis verbringen?. Diese Modelle werden auf der Grundlage früherer Daten und des Erfolgs früherer Modelle entwickelt und optimiert. Die meisten Menschen – manchmal sogar die Algorithmenentwickler selbst – wissen nicht wirklich, was in dem Modell enthalten ist.

Forscher schon lange besorgt über algorithmische Fairness. Beispielsweise hat sich das KI-basierte Rekrutierungstool von Amazon bewährt weibliche Kandidaten entlassen. Das System von Amazon extrahierte selektiv implizit geschlechtsspezifische Wörter – Wörter, die Männer in der Alltagssprache eher verwenden, wie zum Beispiel „hingerichtet“ und „gefangen genommen“.

Andere Studien haben gezeigt, dass Justizalgorithmen rassistisch voreingenommen sind und arme schwarze Angeklagte länger verurteilen als andere.

Im Rahmen der kürzlich verabschiedeten Datenschutz-Grundverordnung in der Europäischen Union haben die Menschen dies getan „ein Recht auf Erklärung“ der Kriterien, die Algorithmen bei ihren Entscheidungen verwenden. Diese Gesetzgebung behandelt den Prozess der algorithmischen Entscheidungsfindung wie ein Rezeptbuch. Man geht davon aus, dass man verstehen kann, wie sich der Algorithmus auf Ihr Leben auswirkt, wenn Sie das Rezept verstehen.

Inzwischen haben einige KI-Forscher auf Algorithmen gedrängt, die dies tun fair, rechenschaftspflichtig und transparent, sowie interpretierbarDas bedeutet, dass sie ihre Entscheidungen durch Prozesse treffen sollten, die Menschen verstehen und denen sie vertrauen können.

Welchen Effekt wird Transparenz haben? In einer StudieDie Schüler wurden von einem Algorithmus benotet und ihnen wurde auf verschiedenen Ebenen erklärt, wie die Ergebnisse ihrer Mitschüler angepasst wurden, um eine Abschlussnote zu erhalten. Die Schüler mit transparenteren Erklärungen vertrauten dem Algorithmus tatsächlich weniger. Auch dies deutet auf eine digitale Kluft hin: Algorithmisches Bewusstsein führt nicht zu mehr Vertrauen in das System.

Doch Transparenz ist kein Allheilmittel. Selbst wenn der Gesamtprozess eines Algorithmus skizziert wird, die Details könnten noch zu komplex sein damit Benutzer es verstehen. Transparenz wird nur Benutzern helfen, die über ausreichende Kenntnisse verfügen, um die Feinheiten von Algorithmen zu verstehen.

Im Jahr 2014 war beispielsweise zunächst Ben Bernanke der ehemalige Vorsitzende der Federal Reserve eine Hypothekenrefinanzierung durch ein automatisiertes System verweigert. Die meisten Personen, die eine solche Hypothekenrefinanzierung beantragen, würden nicht verstehen, wie Algorithmen ihre Kreditwürdigkeit bestimmen könnten.

Was sagt der Algorithmus heute zu tun? Maria Savenko/shutterstock.com

Ausstieg aus dem neuen Informationsökosystem

Während Algorithmen einen großen Teil des Lebens der Menschen beeinflussen, ist nur ein kleiner Bruchteil der Teilnehmer hochentwickelt genug, um sich voll darauf einzulassen wie Algorithmen ihr Leben beeinflussen.

Es gibt nicht viele Statistiken über die Anzahl der Menschen, die sich Algorithmen bewusst sind. Studien haben Beweise dafür gefunden algorithmische Angst, was zu einem tiefen Machtungleichgewicht zwischen Plattformen führt, die Algorithmen bereitstellen und die Benutzer, die auf sie angewiesen sind.

Eine Studie zur Facebook-Nutzung fanden heraus, dass, als die Teilnehmer auf den Algorithmus von Facebook zum Kuratieren von Newsfeeds aufmerksam gemacht wurden, etwa 83 % der Teilnehmer ihr Verhalten änderten, um zu versuchen, den Algorithmus zu nutzen, während etwa 10 % ihre Nutzung von Facebook verringerten.

Ein Bericht des Pew Research Center vom November 2018 stellte fest, dass eine breite Mehrheit der Öffentlichkeit erhebliche Bedenken hinsichtlich der Verwendung von Algorithmen für bestimmte Zwecke hatte. Es stellte sich heraus, dass 66 % der Befragten es für unfair hielten, wenn Algorithmen persönliche Finanzergebnisse berechnen würden, während 57 % dasselbe über die automatische Überprüfung von Lebensläufen sagten.

Ein kleiner Teil der Menschen übt eine gewisse Kontrolle darüber aus, wie Algorithmen ihre persönlichen Daten verwenden. Beispielsweise ermöglicht die Hu-Manity-Plattform Benutzern eine Option, um zu steuern, wie viele ihrer Daten erfasst werden. Online-Enzyklopädie Everipedia bietet Benutzern die Möglichkeit, am Kurationsprozess beteiligt zu sein, was bedeutet, dass Benutzer auch steuern können, wie Informationen aggregiert und ihnen präsentiert werden.

Die überwiegende Mehrheit der Plattformen bietet ihren Endnutzern jedoch weder eine solche Flexibilität noch das Recht zu wählen, wie der Algorithmus ihre Präferenzen bei der Kuratierung ihres Newsfeeds oder bei der Empfehlung von Inhalten nutzt. Wenn es Optionen gibt, wissen Benutzer möglicherweise nichts davon. Etwa 74 % der Facebook-Nutzer gaben in einer Umfrage an, dass dies der Fall sei nicht bewusst, wie die Plattform ihre persönlichen Interessen charakterisiert.

Meiner Ansicht nach besteht die neue digitale Kompetenz nicht darin, einen Computer zu benutzen oder im Internet zu sein, sondern darin, die Konsequenzen eines Lebensstils zu verstehen und einzuschätzen, der immer am Stromnetz angeschlossen ist.

Dieser Lebensstil hat einen bedeutenden Einfluss auf wie Menschen mit anderen interagieren; auf ihre Fähigkeit dazu Achten Sie auf neue Informationen; und weiter die Komplexität ihrer Entscheidungsprozesse.

Die zunehmende Angst vor Algorithmen könnte sich auch in parallelen Veränderungen in der Wirtschaft widerspiegeln. Eine kleine Gruppe von Einzelpersonen sind Erfassen der Vorteile der Automatisierung, während viele Arbeiter in einem sind prekäre Position.

Sich von der algorithmischen Kuration abzumelden, ist ein Luxus – und könnte eines Tages ein Symbol für Wohlstand sein, der nur wenigen Auserwählten zugänglich ist. Die Frage ist dann, was der messbare Schaden für diejenigen sein wird, die sich auf der anderen Seite der digitalen Kluft befinden.

Über den Autor

Anjana Susarla, außerordentliche Professorin für Informationssysteme Michigan State University

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bücher zum Thema

at InnerSelf Market und Amazon