Facebooks Problem ist komplizierter als gefälschte Nachrichten

Demokratie

Facebooks Problem ist komplizierter als gefälschte Nachrichten

Im Gefolge von Donald Trumps unerwartetem Sieg viele Fragen über die Rolle von Facebook in die Förderung ungenauer und parteipolitischer Informationen während des Präsidentschaftsrennens und ob diese falschen Nachrichten das Wahlergebnis beeinflusst haben.

Einige haben heruntergespielt Facebook Einfluss, einschließlich CEO Mark Zuckerberg, der das gesagt hat "äußerst unwahrscheinlich" dass falsche Nachrichten die Wahl beeinflusst haben könnten. Aber Fragen nach der politischen Bedeutung des sozialen Netzwerks verdienen mehr als Aufmerksamkeit.

Mach's Facebook Filteralgorithmen erklären, warum so viele Liberale das Vertrauen in einen Clinton - Sieg verlegt hatten Romney Unterstützer in 2012) Und ist Die gefälschten Nachrichten werden auf Facebook verbreitet der Grund, warum so viele Trump-Anhänger nachweislich falsche Aussagen ihres Kandidaten unterstützt haben?

Die populäre Behauptung, dass "Filterbläschen" der Grund dafür sind, dass gefälschte Nachrichten auf Facebook gedeihen, ist mit ziemlicher Sicherheit falsch. Wenn das Netzwerk Menschen dazu verleitet, Unwahrheiten zu glauben - und das ist ein großes Wenn -, liegt das Problem eher darin, wie die Plattform mit grundlegenden menschlichen sozialen Tendenzen interagiert. Das ist viel schwieriger zu ändern.

Eine falsch informierte Öffentlichkeit

Facebooks Rolle bei der Verbreitung politischer Nachrichten ist unbestreitbar. Im Mai 2016, 44 Prozent der Amerikaner Sie haben Neuigkeiten von der Social Media Seite bekommen. Und die Verbreitung von Fehlinformationen, die über Facebook verbreitet werden, ist unbestreitbar.

Es ist also plausibel, dass die Menge gefälschter Nachrichten auf einer Plattform, auf der so viele Leute ihre Nachrichten erhalten, erklären kann, warum so viele Amerikaner sind falsch über Politik informiert.

Aber es ist schwer zu sagen, wie wahrscheinlich das ist. Ich fing an, die Rolle des Internets bei der Verbreitung von falschen Überzeugungen während der 2008-Wahl zu studieren und wandte mich in 2012 den sozialen Medien zu. In der laufenden Forschung habe ich wenig übereinstimmende Beweise gefunden, dass die Verwendung von Social Media die Akzeptanz falscher Behauptungen über die Kandidaten trotz der Prävalenz vieler Unwahrheiten. Stattdessen scheint es, dass in 2012, wie in 2008, E-Mail war weiterhin ein einzigartig leistungsfähiger Conduit für Lügen und Verschwörungstheorien. Soziale Medien hatten keine zuverlässig nachweisbare Wirkung auf die Überzeugungen der Menschen.

Für einen Moment nehmen wir an, dass 2016 sich von 2012 und 2008 unterscheidet. (Die Wahl war sicherlich in vielerlei Hinsicht einzigartig.)

Wenn Facebook eine Plattform fördert, auf der die Bürger weniger in der Lage sind, die Wahrheit von der Fiktion zu unterscheiden, es würde eine ernsthafte Bedrohung für die amerikanische Demokratie darstellen. Aber das Problem zu benennen ist nicht genug. Um den Fluss von Fehlinformationen durch soziale Medien zu bekämpfen, ist es wichtig zu verstehen, warum es passiert.

Gib Filterbläschen nicht die Schuld

Facebook möchte, dass seine Nutzer nicht überfordert sind. Deshalb setzt es auf proprietäre Software, die die News-Feeds der Nutzer filtert und die Inhalte auswählt, die angezeigt werden. Das Risiko besteht darin, wie diese Schneiderei gemacht wird.

Es gibt reichlich Beweise dass Leute zu Nachrichten angezogen werden, die ihren politischen Standpunkt bestätigen. Die Facebook-Software lernt aus den vergangenen Aktionen der Benutzer; Sie versucht zu erraten, auf welche Geschichten sie in Zukunft wahrscheinlich klicken oder teilen werden. Auf ein Extrem gebracht, erzeugt dies ein Filterblase, in denen Benutzer nur Inhalt ausgesetzt sind, der ihre Voreingenommenheit wieder bestätigt. Das Risiko ist also das Filterblasen fördern Fehleinschätzungen indem du die Wahrheit versteckst.

Der Reiz dieser Erklärung liegt auf der Hand. Es ist leicht zu verstehen, vielleicht ist es einfach zu beheben. Befreien Sie sich von personalisierten News-Feeds und filtern Sie Blasen nicht mehr.

Das Problem mit der Filterblasemetapher ist, dass es davon ausgeht, dass Menschen perfekt von anderen Perspektiven isoliert sind. Eigentlich, zahlreich Studium haben gezeigt dass die Mediendiäten von Individuen fast immer Informationen und Quellen enthalten, die ihre politischen Einstellungen in Frage stellen. Und eine Studie von Facebook-Benutzerdaten festgestellt, dass Begegnungen mit übergreifenden Informationen weit verbreitet sind. Mit anderen Worten, es ist unwahrscheinlich, dass falsche Überzeugungen von Menschen erklärt werden Mangel an Kontakt mit genauer Nachrichten.

Stattdessen die bereits vorhandenen politischen Identitäten der Menschen prägen ihre Überzeugungen grundlegend. Selbst wenn man mit den gleichen Informationen konfrontiert ist, ob es ein News-Artikel oder nach einem FaktencheckMenschen mit unterschiedlichen politischen Orientierungen gewinnen oft dramatisch unterschiedliche Bedeutungen.

Ein Gedankenexperiment könnte helfen: Wenn Sie Clinton-Anhänger wären, wüssten Sie, dass die hoch angesehene Vorhersage-Site FiveThirtyEight gab Clinton nur eine 71 Prozent Chance zu gewinnen? Diese Chancen sind besser als ein Münzwurf, aber alles andere als sicher. Ich vermute, dass viele Demokraten schockiert waren, obwohl sie diese unbequemen Beweise gesehen hatten. Tatsächlich, Viele hatten diese Projektion kritisiert in den Tagen vor der Wahl.

Wenn Sie für Trump gestimmt haben, haben Sie jemals Beweise gefunden, die Trumps Behauptung widerlegen, dass Wahlbetrug in den USA üblich ist? Faktenprüfer und Nachrichtenorganisationen haben dieses Thema ausführlich behandelt und bieten stichhaltige Beweise dafür, dass die Behauptung unwahr ist. Ein Trump-Unterstützer könnte jedoch unbewegt sein: In einer 2016-Umfrage im September90-Prozent der Trump-Unterstützer sagten, dass sie Faktencheckern nicht trauten.

Facebook = wütende Partisanen?

Wenn die Isolation von der Wahrheit wirklich die Hauptquelle für ungenaue Informationen ist, wäre die Lösung offensichtlich: Machen Sie die Wahrheit sichtbarer.

Leider ist die Antwort nicht so einfach. Was uns auf die Facebook-Frage zurückbringt: Gibt es andere Aspekte des Dienstes, die die Überzeugungen der Nutzer verfälschen könnten?

Es wird einige Zeit dauern, bis die Forscher diese Frage mit Sicherheit beantworten können, aber als jemand, der untersucht hat, wie die verschiedenen Internettechnologien Menschen dazu verleiten können, falsche Informationen zu glauben, bin ich bereit, ein paar fundierte Vermutungen anzustellen.

Es gibt zwei Dinge, die wir bereits über Facebook wissen, die die Verbreitung falscher Informationen fördern könnten.

Erstens sind Emotionen ansteckend und sie können sich auf Facebook verbreiten. Eine groß angelegte Studie hat gezeigt, dass sich die Feeds der Facebook-Nutzer leicht verändern kann die Emotionen formen, die sie in späteren Posts ausdrücken. In dieser Studie waren die emotionalen Veränderungen gering, aber auch die Veränderungen in den Nachrichten, die sie verursachten. Stellen Sie sich vor, wie Facebook-Nutzer auf weit verbreitete Vorwürfe über Korruption, kriminelle Aktivitäten und Lügen von Kandidaten reagieren. Es ist nicht überraschend, dass fast die Hälfte (49 Prozent) aller Nutzer beschrieben politische Diskussionen in sozialen Medien als "wütend".

Wenn es um Politik geht, ist Wut eine starke Emotion. Es wurde gezeigt, dass es Menschen macht eher bereit, Partisanenlügen zu akzeptieren und eher zum Posten und Teilen politische Informationvermutlich gefälschte Nachrichtenartikel, die ihren Glauben stärken. Wenn die Verwendung von Facebook die Partisanen verärgert macht und sie gleichzeitig parteilichen Unwahrheiten aussetzt, ist es vielleicht nicht wichtig, die Anwesenheit genauer Informationen sicherzustellen. Republikanische oder Demokraten, wütende Menschen vertrauen auf Informationen, die ihre Seite gut aussehen lassen.

Zweitens scheint Facebook die politische Identität der Menschen zu stärken - ein bereits großes zu fördern Partisanenteilung. Auch wenn Facebook Menschen nicht vor Informationen schützt, mit denen sie nicht einverstanden sind, ist es sicherlich leichter, Gleichgesinnte zu finden. Unsere sozialen Netzwerke tendieren dazu, viele Menschen einzubeziehen, die unsere Werte und Überzeugungen teilen. Und dies könnte eine andere Art sein, wie Facebook politisch motivierte Unwahrheiten verstärkt. Überzeugungen dienen oft einer sozialen Funktion und helfen den Menschen zu definieren, wer sie sind und wie sie in die Welt passen. Je einfacher es für die Menschen ist, sich politisch zu sehen, desto mehr hängen sie von den Überzeugungen ab, die diese Identität bestätigen.

Diese beiden Faktoren - die Art und Weise, dass Wut die sich über Facebook kann die soziale Netzwerke, und wie diese Netzwerke können Einzelpersonen politische Identität stärker in den Mittelpunkt, wer sie sind - wahrscheinlich Facebook-Nutzer erklären machen ungenaue Vorstellungen effektiver als die sogenannte Filterblase.

Wenn das stimmt, haben wir eine ernsthafte Herausforderung vor uns. Facebook wird wahrscheinlich davon überzeugt sein, seinen Filteralgorithmus zu ändern, um genauere Informationen zu priorisieren. Google hat es bereits getan ein ähnliches Unterfangen unternommen. Und jüngste Berichte deuten darauf hin, dass Facebook sein könnte das Problem ernster nehmen als Zuckerbergs Kommentare vorschlagen.

Aber das tut nichts, um die zugrunde liegenden Kräfte anzugehen, die falsche Informationen verbreiten und verstärken: Emotionen und die Menschen in Ihren sozialen Netzwerken. Ebenso wenig ist es offensichtlich, dass diese Eigenschaften von Facebook können oder sollten „korrigiert“ werden. Ein soziales Netzwerk ohne Emotion scheint wie ein Widerspruch, und Polizei der Individuen interagieren ist nicht etwas, das unsere Gesellschaft umfassen sollte.

Es kann sein, dass Facebook teilt etwas der Schuld für etwas von den Lügen, die dieses Wahljahr in Umlauf gebracht haben - und dass sie den Verlauf der Wahl verändert haben.

Wenn das stimmt, wird die Herausforderung darin bestehen, herauszufinden, was wir dagegen tun können.

Das Gespräch

Über den Autor

R. Kelly Garrett, Associate Professor für Kommunikation, Die Ohio State University

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema

{amazonWS: searchindex = Bücher; Schlüsselwörter = falsche Nachrichten; maxresults = 3}

Demokratie
enafarzh-CNzh-TWtlfrdehiiditjamsptrues

Folge InnerSelf weiter

Google-Plus-Symbolfacebook-icontwitter-iconRSS-Symbol

Holen Sie sich das Neueste per E-Mail

{Emailcloak = off}

Folge InnerSelf weiter

Google-Plus-Symbolfacebook-icontwitter-iconRSS-Symbol

Holen Sie sich das Neueste per E-Mail

{Emailcloak = off}