Die Algorithmen von YouTube könnten Menschen radikalisieren - aber das eigentliche Problem ist, dass wir keine Ahnung haben, wie sie funktionieren

Die Algorithmen von YouTube könnten Menschen radikalisieren - aber das eigentliche Problem ist, dass wir keine Ahnung haben, wie sie funktionieren Herr Tempter / Shutterstock

Erschafft YouTube Extremisten? EIN aktuellen Studie löste bei Wissenschaftlern Streit aus, indem er argumentierte, dass die Algorithmen, mit denen die Website betrieben wird, nicht dazu beitragen, die Menschen zu radikalisieren, indem sie immer extremere Videos empfehlen, wie z wurde vorgeschlagen, in den letzten Jahren.

Das Papier, das am ersten Montag im Open-Access-Journal eingereicht wurde, jedoch noch nicht von Fachleuten begutachtet wurde, analysierte Videoempfehlungen, die von verschiedenen Kanaltypen erhalten wurden. Es wurde behauptet, der YouTube-Algorithmus bevorzuge Mainstream-Medienkanäle gegenüber unabhängigen Inhalten, was zu dem Schluss führt, dass Radikalisierung mehr mit den Menschen zu tun hat, die schädliche Inhalte erstellen, als mit dem Algorithmus der Website.

Spezialisten auf dem Gebiet waren schnell dabei Antworten auf die Studiemit etwas Kritik die Methoden des Papiers und andere argumentierten, der Algorithmus sei einer von ihnen mehrere wichtige Faktoren und diese Datenwissenschaft allein wird uns die Antwort nicht geben.

Das Problem bei dieser Diskussion ist, dass wir die Frage, welche Rolle der YouTube-Algorithmus bei der Radikalisierung von Menschen spielt, nicht wirklich beantworten können, weil wir nicht verstehen, wie er funktioniert. Und dies ist nur ein Symptom für ein viel umfassenderes Problem. Diese Algorithmen spielen eine zunehmende Rolle in unserem täglichen Leben, es fehlt ihnen jedoch jede Art von Transparenz.

Es ist schwer zu argumentieren, dass YouTube keine Rolle bei der Radikalisierung spielt. Dies wurde zuerst von dem Technologiesoziologen Zeynep Tufekci herausgestellt, der illustrierte, wie empfohlene Videos die Benutzer nach und nach antreiben zu extremeren Inhalten. In Tufekcis Worten führen Videos zum Joggen zu Videos zum Laufen von Ultramarathons, Videos zu Impfstoffen zu Verschwörungstheorien und Videos zur Politik zu „Holocaustleugnungen und anderen störenden Inhalten“.

Dies wurde auch darüber geschrieben im Detail von Ex-YouTube-Mitarbeiter Guillaume Chaslot, der am Empfehlungsalgorithmus der Website gearbeitet hat. Seitdem Chaslot das Unternehmen verlassen hat, hat Chaslot weiterhin versucht, diese Empfehlungen abzugeben transparenter. Er sagt, dass YouTube-Empfehlungen voreingenommen sind Verschwörungstheorien und sachlich ungenaue Videos, die die Leute trotzdem dazu bringen, mehr Zeit auf der Website zu verbringen.

In der Tat Maximierung der Beobachtungszeit ist der springende Punkt der YouTube-Algorithmen und ermutigt die Videokünstler, auf jede erdenkliche Weise um Aufmerksamkeit zu kämpfen. Das schiere Unternehmen Mangel an Transparenz Wie genau dies funktioniert, macht es nahezu unmöglich, Radikalisierung auf der Website zu bekämpfen. Denn ohne Transparenz ist es schwierig zu wissen, was geändert werden kann, um die Situation zu verbessern.


Holen Sie sich das Neueste von InnerSelf


Die Algorithmen von YouTube könnten Menschen radikalisieren - aber das eigentliche Problem ist, dass wir keine Ahnung haben, wie sie funktionieren Wie der YouTube-Algorithmus funktioniert, bleibt ein Rätsel. Wer ist Danny / Shutterstock?

Aber YouTube ist in dieser Hinsicht nicht ungewöhnlich. Mangelnde Transparenz über die Funktionsweise von Algorithmen ist normalerweise der Fall, wenn sie in großen Systemen von privaten Unternehmen oder öffentlichen Stellen verwendet werden. Maschinelles Lernen entscheidet nicht nur darüber, welches Video als Nächstes angezeigt wird, sondern ist auch an Algorithmen gewöhnt Kinder in Schulen unterbringen, entscheiden über Gefängnisstrafenbestimmen Kredit-Scores und Versicherung Preisesowie das Schicksal von Einwanderer, Bewerber und Studienbewerber. Und normalerweise verstehen wir nicht, wie diese Systeme ihre Entscheidungen treffen.

Forscher haben kreative Wege gefunden, um die Auswirkungen dieser Algorithmen auf die Gesellschaft aufzuzeigen, sei es durch die Untersuchung der Aufstieg des reaktionären Rechts bzw. unter der Verbreitung von Verschwörungstheorien auf YouTube oder indem Sie zeigen, wie Suchmaschinen spiegeln die rassistischen Vorurteile wider der Menschen, die sie schaffen.

Maschinell lernende Systeme sind normalerweise groß, komplex und undurchsichtig. Passenderweise werden sie oft als beschrieben Blackboxen, wo Informationen hereinkommen und Informationen oder Handlungen herauskommen, aber niemand kann sehen, was dazwischen passiert. Dies bedeutet, dass wir, da wir nicht genau wissen, wie Algorithmen wie das YouTube-Empfehlungssystem funktionieren, versuchen, die Funktionsweise der Website zu ermitteln, als würden wir versuchen, ein Auto zu verstehen, ohne die Motorhaube zu öffnen.

Dies bedeutet wiederum, dass der Versuch, Gesetze zu schreiben, um zu regeln, was Algorithmen tun oder nicht tun sollten, ein blinder Prozess oder Versuch und Irrtum wird. Das passiert mit YouTube und so vielen anderen Algorithmen für maschinelles Lernen. Wir versuchen, ein Mitspracherecht bei ihren Ergebnissen zu haben, ohne wirklich zu verstehen, wie sie wirklich funktionieren. Wir müssen diese patentierten Technologien öffnen oder zumindest so transparent machen, dass wir sie regulieren können.

Erklärungen und Tests

Eine Möglichkeit, dies zu tun, besteht darin, Algorithmen bereitzustellen kontrafaktische Erklärungen zusammen mit ihren Entscheidungen. Dies bedeutet, die Mindestbedingungen zu ermitteln, die erforderlich sind, damit der Algorithmus eine andere Entscheidung trifft, ohne seine vollständige Logik zu beschreiben. Zum Beispiel könnte ein Algorithmus, der Entscheidungen über Bankdarlehen trifft, eine Ausgabe erzeugen, die besagt, dass "wenn Sie über 18 Jahre alt wären und keine vorherige Verschuldung hätten, würden Sie Ihr Bankdarlehen akzeptieren lassen". Dies kann jedoch bei YouTube und anderen Websites, die Empfehlungsalgorithmen verwenden, schwierig sein, da theoretisch jedes Video auf der Plattform zu jedem Zeitpunkt empfohlen werden kann.

Ein weiteres leistungsstarkes Tool ist das Testen und Prüfen von Algorithmen, das sich besonders für die Diagnose von voreingenommenen Algorithmen eignet. In einem kürzlich durchgeführten Fall stellte ein professionelles Unternehmen für die Überprüfung von Lebensläufen fest, dass es sich um einen Algorithmus handelt Priorisierung zweier Faktoren als beste Prädiktoren für die Arbeitsleistung: ob der Kandidat Jared hieß und ob er in der Highschool Lacrosse spielte. Dies ist der Fall, wenn die Maschine unbeaufsichtigt bleibt.

In diesem Fall hatte der Algorithmus zur Überprüfung des Lebenslaufs festgestellt, dass weiße Männer eine höhere Anstellungswahrscheinlichkeit hatten und dass entsprechende Proxy-Eigenschaften (wie der Name Jared oder das Spielen von Lacrosse) in den Anstellungskandidaten vorhanden waren. Mit YouTube können Sie mithilfe der Algorithmusprüfung besser nachvollziehen, welche Arten von Videos für die Empfehlung priorisiert werden - und möglicherweise die Debatte darüber beilegen, ob YouTube-Empfehlungen zur Radikalisierung beitragen oder nicht.

Die Einführung kontrafaktischer Erklärungen oder die Verwendung von Algorithmus-Audits ist ein schwieriger und kostspieliger Prozess. Aber es ist wichtig, weil die Alternative schlechter ist. Wenn Algorithmen ungeprüft und unreguliert bleiben, könnten sich allmählich Verschwörungstheoretiker und Extremisten in unsere Medien einschleichen und unsere Aufmerksamkeit wird von dem kontrolliert, der den profitabelsten Inhalt produzieren kann.Das Gespräch

Über den Autor

Chico Q. Camargo, Postdoktorand für Datenwissenschaft, University of Oxford

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

Folge InnerSelf weiter

facebook-icontwitter-iconRSS-Symbol

Holen Sie sich das Neueste per E-Mail

{Emailcloak = off}