Facebooks Problem ist komplizierter als gefälschte Nachrichten

Nach dem unerwarteten Sieg von Donald Trump haben viele Fragen Es wurden Fragen zur Rolle von Facebook gestellt die Förderung ungenauer und höchst parteiischer Informationen während des Präsidentschaftswahlkampfs und ob diese Fake News den Wahlausgang beeinflusst haben.

Einige haben heruntergespielt Facebooks Einfluss, einschließlich CEO Mark Zuckerberg, der sagte, dass dies der Fall sei "äußerst unwahrscheinlich" dass Fake News die Wahl hätten beeinflussen können. Aber Fragen nach der politischen Bedeutung des sozialen Netzwerks verdienen mehr als nur flüchtige Aufmerksamkeit.

Machen Sie Facebooks Filteralgorithmen Erklären Sie, warum so viele Liberale das Vertrauen in einen Clinton-Sieg fehlgeleitet hatten (was den Fehler widerspiegelt, den Clinton gemacht hat). Romney-Anhänger im Jahr 2012)? Und ist Die Fake-News werden auf Facebook verbreitet Der Grund dafür, dass so viele Trump-Anhänger nachweislich falsche Aussagen ihres Kandidaten unterstützt haben?

Die weit verbreitete Behauptung, dass „Filterblasen“ der Grund dafür seien, dass Fake News auf Facebook gedeihen, ist mit ziemlicher Sicherheit falsch. Wenn das Netzwerk Menschen dazu ermutigt, Unwahrheiten zu glauben – und das ist ein großes Problem – liegt das Problem eher darin, wie die Plattform mit grundlegenden menschlichen sozialen Tendenzen interagiert. Das ist viel schwieriger zu ändern.

Eine falsch informierte Öffentlichkeit

Die Rolle von Facebook bei der Verbreitung politischer Nachrichten ist unbestreitbar. Im Mai 2016, 44 Prozent der Amerikaner sagte, sie hätten Neuigkeiten von der Social-Media-Site erhalten. Und die Verbreitung von Fehlinformationen, die über Facebook verbreitet werden, ist groß unbestreitbar.


Innerself-Abonnieren-Grafik


Es ist daher plausibel, dass die Menge an Fake News auf einer Plattform, auf der so viele Menschen ihre Nachrichten erhalten, erklären kann, warum So viele Amerikaner sind über Politik falsch informiert.

Es ist jedoch schwer zu sagen, wie wahrscheinlich dies ist. Während der Wahl 2008 begann ich, die Rolle des Internets bei der Verbreitung falscher Überzeugungen zu untersuchen, und wandte mich 2012 den sozialen Medien zu. In der laufenden Forschung habe ich kaum konsistente Beweise dafür gefunden, dass die Nutzung sozialer Medien die Akzeptanz falscher Behauptungen über die Kandidaten förderte, obwohl dies der Fall war Verbreitung vieler Unwahrheiten. Stattdessen scheint es, dass im Jahr 2012, wie auch im Jahr 2008, E-Mail war weiterhin ein einzigartig leistungsstarker Kanal für Lügen und Verschwörungstheorien. Soziale Medien hatten keinen zuverlässig nachweisbaren Einfluss auf die Überzeugungen der Menschen.

Nehmen wir jedoch für einen Moment an, dass 2016 anders war als 2012 und 2008. (Die Wahl war sicherlich in vielerlei Hinsicht einzigartig.)

Wenn Facebook eine Plattform fördert, auf der die Bürger weniger in der Lage sind, Wahrheit von Fiktion zu unterscheiden, es würde eine ernsthafte Bedrohung für die amerikanische Demokratie darstellen. Aber es reicht nicht aus, das Problem zu benennen. Um den Fluss von Fehlinformationen über soziale Medien zu bekämpfen, ist es wichtig zu verstehen, warum es dazu kommt.

Geben Sie nicht den Filterblasen die Schuld

Facebook möchte, dass seine Nutzer engagiert und nicht überfordert werden. Deshalb setzt das Unternehmen proprietäre Software ein, die die Newsfeeds der Nutzer filtert und die Inhalte auswählt, die angezeigt werden sollen. Das Risiko liegt in der Art und Weise, wie diese Anpassung erfolgt.

Es gibt genügend Beweise dass Menschen von Nachrichten angezogen werden, die ihren politischen Standpunkt bestätigen. Die Software von Facebook lernt aus den vergangenen Aktionen der Nutzer; Es wird versucht zu erraten, welche Geschichten sie in Zukunft wahrscheinlich anklicken oder teilen werden. Im Extremfall ergibt dies ein Filterblase, bei dem Benutzer nur mit Inhalten konfrontiert werden, die ihre Vorurteile bekräftigen. Das Risiko besteht also darin Filterblasen begünstigen Fehleinschätzungen indem man die Wahrheit verheimlicht.

Der Reiz dieser Erklärung liegt auf der Hand. Es ist leicht zu verstehen, also lässt es sich vielleicht leicht beheben. Beseitigen Sie personalisierte Newsfeeds und Filterblasen gibt es nicht mehr.

Das Problem mit der Filterblasen-Metapher besteht darin, dass sie davon ausgeht, dass Menschen vollkommen isoliert von anderen Perspektiven sind. In der Tat, und viele Es wurden Studien haben gezeigt dass die Mediendiäten von Einzelpersonen fast immer Informationen und Quellen enthalten, die ihre politischen Einstellungen in Frage stellen. Und eine Studie über Facebook-Nutzerdaten fanden heraus, dass Begegnungen mit bereichsübergreifenden Informationen weit verbreitet sind. Mit anderen Worten: Es ist unwahrscheinlich, dass Menschen falsche Überzeugungen erklären können Mangel an Kontakt mit genaueren Nachrichten.

Stattdessen die bereits bestehenden politischen Identitäten der Menschen prägen ihren Glauben tiefgreifend. Selbst wenn man also mit den gleichen Informationen konfrontiert wird, ob es sich um eine handelt News-Artikel oder eine Faktencheck, Menschen mit unterschiedlichen politischen Orientierungen extrahieren oft dramatisch unterschiedliche Bedeutungen.

Ein Gedankenexperiment könnte helfen: Wenn Sie ein Clinton-Anhänger wären, wussten Sie, dass die hoch angesehene Prognoseseite FiveThirtyEight gab Clinton nur eine Siegchance von 71 Prozent? Diese Chancen sind besser als bei einem Münzwurf, aber alles andere als sicher. Ich vermute, dass viele Demokraten schockiert waren, obwohl sie diese unbequemen Beweise sahen. In der Tat, Viele hatten dieser Projektion kritisch gegenübergestanden in den Tagen vor der Wahl.

Wenn Sie für Trump gestimmt haben, sind Sie dann jemals auf Beweise gestoßen, die Trumps Behauptung widerlegen, dass Wahlbetrug in den USA an der Tagesordnung ist? Faktenprüfer und Nachrichtenorganisationen haben dieses Thema ausführlich behandelt und stichhaltige Beweise dafür vorgelegt, dass die Behauptung unwahr ist. Ein Trump-Anhänger könnte jedoch ungerührt sein: In einer Umfrage vom September 201690 Prozent der Trump-Anhänger gaben an, dass sie den Faktenprüfern nicht trauen.

Facebook = wütende Partisanen?

Wenn die Isolation von der Wahrheit wirklich die Hauptquelle für ungenaue Informationen ist, liegt die Lösung auf der Hand: Die Wahrheit sichtbarer machen.

Leider ist die Antwort nicht so einfach. Das bringt uns zurück zur Frage von Facebook: Gibt es andere Aspekte des Dienstes, die die Überzeugungen der Nutzer verzerren könnten?

Es wird einige Zeit dauern, bis Forscher diese Frage sicher beantworten können, aber als jemand, der untersucht hat, wie die verschiedenen Möglichkeiten anderer Internet-Technologien Menschen dazu bringen können, falsche Informationen zu glauben, bin ich bereit, ein paar fundierte Vermutungen anzustellen.

Es gibt zwei Dinge, die wir bereits über Facebook wissen und die die Verbreitung falscher Informationen begünstigen könnten.

Erstens sind Emotionen ansteckend und können sich auf Facebook verbreiten. Eine groß angelegte Studie hat gezeigt, dass sich kleine Veränderungen in den Newsfeeds von Facebook-Nutzern ergeben können die Emotionen prägen, die sie in späteren Beiträgen ausdrücken. In dieser Studie waren die emotionalen Veränderungen gering, aber auch die Veränderungen im Newsfeed, die sie verursachten, waren gering. Stellen Sie sich vor, wie Facebook-Nutzer auf die weit verbreiteten Vorwürfe der Korruption, kriminellen Aktivitäten und Lügen der Kandidaten reagieren. Das ist nicht verwunderlich fast die Hälfte (49 Prozent) aller Nutzer bezeichneten die politische Diskussion in den sozialen Medien als „wütend“.

Wenn es um Politik geht, ist Wut ein starkes Gefühl. Es hat sich gezeigt, dass es Menschen hervorbringt eher bereit, parteiische Unwahrheiten zu akzeptieren und eher zum Posten und Teilen politische Informationen, vermutlich einschließlich Fake-News-Artikeln, die ihre Überzeugungen bekräftigen. Wenn die Facebook-Nutzung Parteigänger verärgert und sie gleichzeitig parteipolitischen Unwahrheiten aussetzt, ist es möglicherweise nicht von großer Bedeutung, sicherzustellen, dass korrekte Informationen vorhanden sind. Ob Republikaner oder Demokrat, wütende Menschen vertrauen auf Informationen, die ihre Seite gut aussehen lassen.

Zweitens scheint Facebook die politische Identität der Menschen zu stärken – und damit eine bereits große zu fördern Partisanenteilung. Auch wenn Facebook Menschen nicht vor Informationen schützt, mit denen sie nicht einverstanden sind, macht es es auf jeden Fall einfacher, Gleichgesinnte zu finden. Unsere sozialen Netzwerke Dazu gehören in der Regel viele Menschen, die unsere Werte und Überzeugungen teilen. Und dies könnte ein weiterer Weg sein, mit dem Facebook politisch motivierte Unwahrheiten verstärkt. Überzeugungen erfüllen oft eine soziale Funktion und helfen Menschen dabei, zu definieren, wer sie sind und wie sie in die Welt passen. Je leichter es den Menschen fällt, sich politisch zu verstehen, desto stärker hängen sie an den Überzeugungen, die diese Identität bekräftigen.

Diese beiden Faktoren – die Art und Weise, wie sich Wut über die sozialen Netzwerke von Facebook ausbreiten kann und wie diese Netzwerke die politische Identität einzelner Personen stärker in den Mittelpunkt ihrer Identität rücken können – erklären die falschen Überzeugungen der Facebook-Nutzer wahrscheinlich besser als die sogenannte Filterblase.

Wenn das wahr ist, dann stehen wir vor einer ernsthaften Herausforderung. Facebook wird wahrscheinlich davon überzeugt sein, seinen Filteralgorithmus zu ändern, um genauere Informationen zu priorisieren. Google hat es bereits getan ein ähnliches Unterfangen unternommen. Und aktuelle Berichte deuten darauf hin, dass Facebook es sein könnte das Problem ernster nehmen als Zuckerbergs Kommentare vermuten lassen.

Dies trägt jedoch nicht dazu bei, die zugrunde liegenden Kräfte anzugehen, die falsche Informationen verbreiten und verstärken: Emotionen und die Menschen in Ihren sozialen Netzwerken. Es ist auch nicht offensichtlich, dass diese Merkmale von Facebook „korrigiert“ werden können oder sollten. Ein soziales Netzwerk ohne Emotionen scheint ein Widerspruch zu sein, und unsere Gesellschaft sollte nicht kontrollieren, mit wem Menschen interagieren.

Es kann sein, dass Facebook teilt einige der Schuld für einige der Lügen, die in diesem Wahljahr verbreitet wurden – und dass sie den Verlauf der Wahl verändert haben.

Wenn dies zutrifft, besteht die Herausforderung darin, herauszufinden, was wir dagegen tun können.

Das Gespräch

Über den Autor

R. Kelly Garrett, Associate Professor für Kommunikation, Die Ohio State University

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema

at InnerSelf Market und Amazon