Kann uns Technologie vor Fehlinformationen in sozialen Medien bewahren?

Wenn Sie Ihre Nachrichten von sozialen Medien erhalten, wie die meisten Amerikaner tun esSie sind einer täglichen Dosis von Hoaxes, Gerüchten, Verschwörungstheorien und irreführenden Nachrichten ausgesetzt. Wenn alles mit verlässlichen Informationen aus ehrlichen Quellen vermischt ist, kann die Wahrheit sehr schwer zu erkennen sein.

In der Tat analysiert mein Forschungsteam Daten von der Columbia University Emergent Gerüchtesprecher schlägt vor, dass dies Fehlinformationen werden genauso viral als zuverlässige Information.

Viele fragen sich, ob dieser Ansturm digitaler Fehlinformationen vorliegt beeinflusst das Ergebnis der 2016 US-Wahl. Die Wahrheit ist, wir wissen es nicht, obwohl es Gründe gibt zu glauben, dass es möglich ist, basierend auf vergangene Analyse und Konten aus anderen Ländern. Jede Fehlinformation trägt zur Meinungsbildung bei. Insgesamt kann der Schaden sehr real sein.

Als ein Forscher über die Verbreitung von Fehlinformationen durch soziale Medien weiß ich, dass die Fähigkeit von Nachrichtenfälschern eingeschränkt wird, Anzeigen zu verkaufen, wie kürzlich von Google und Facebook, ist ein Schritt in die richtige Richtung. Aber es wird keinen Missbrauch durch politische Motive verhindern.

Soziale Medien nutzen

Über 10 vor Jahren liefen meine Kollegen und ich ein Experiment in denen wir 72-Prozent der College-Studenten vertraute Links kennen gelernt haben, die von Freunden zu stammen schienen - bis hin zur Eingabe von persönlichen Login-Informationen auf Phishing-Seiten. Diese weitverbreitete Sicherheitslücke lässt auf eine weitere Form der böswilligen Manipulation schließen: Menschen glauben möglicherweise auch an Fehlinformationen, die sie erhalten, wenn sie auf einen Link von einem sozialen Kontakt klicken.

Um diese Idee zu erkunden, habe ich ein gefälschte Webseite mit zufälligen, computergenerierten Klatschnachrichten - Dinge wie "Celebrity X im Bett gefangen mit Celebrity Y!" Besucher der Website, die nach einem Namen suchten, würden das Skript veranlassen, automatisch eine Geschichte über die Person zu verfassen. Ich habe auf der Website einen Disclaimer eingefügt, der besagt, dass die Seite bedeutungslosen Text und erfundene "Fakten" enthält. Ich habe auch Anzeigen auf der Seite platziert. Am Ende des Monats bekam ich einen Scheck mit den Einnahmen aus den Anzeigen. Das war mein Beweis: Falsche Nachrichten könnten Geld verdienen, indem sie das Internet mit Unwahrheiten verschmutzen.


Innerself-Abonnieren-Grafik


Leider war ich nicht der Einzige mit dieser Idee. Zehn Jahre später haben wir eine Industrie von gefälschten Nachrichten und digitale Fehlinformation. Clickbait-Sites produzieren Hoaxes, um mit Anzeigen Geld zu verdienen, während sogenannte Hyperpartisan-Sites Gerüchte und Verschwörungstheorien veröffentlichen und verbreiten, um die öffentliche Meinung zu beeinflussen.

Diese Industrie wird durch die einfache Erstellung unterstützt soziale Bots, gefälschte Konten, die von Software gesteuert werden, die wie echte Menschen aussehen und daher echten Einfluss haben können. Forschung in meinem Labor Entdeckt viele Beispiele von gefälschten Basiskampagnen, auch genannt politisches Astroturfing.

Als Antwort haben wir das entwickelt BotOrNicht Werkzeug zur Erkennung von Social Bots. Es ist nicht perfekt, aber genau genug Überzeugungskampagnen in den Brexit- und Antivax-Bewegungen aufzudecken. Mit BotOrNot haben unsere Kollegen festgestellt, dass a Großteil von Online-Chatter über die 2016-Wahlen wurde von Bots generiert.

Informationsbläschen erstellen

Wir Menschen sind anfällig für Manipulationen durch digitale Fehlinformationen dank einer komplexen Reihe von sozialen, kognitiven, ökonomischen und algorithmischen Vorurteilen. Einige von diesen haben sich aus guten Gründen entwickelt: Vertrauenssignale aus unseren sozialen Kreisen und die Ablehnung von Informationen, die unserer Erfahrung widersprechen, haben uns sehr geholfen, als sich unsere Spezies den Räubern entziehen konnte. Aber in den heutigen schrumpfenden Online-Netzwerken hilft eine Verbindung zu einem sozialen Netzwerk mit einem Verschwörungstheoretiker auf der anderen Seite des Planeten nicht, meine Meinungen zu vermitteln.

Das Kopieren unserer Freunde und das Entfalten von Personen mit unterschiedlichen Meinungen geben uns Echo-Kammern polarisierte dass die Forscher mit hoher Genauigkeit sagen können, ob Sie es sind liberal oder konservativ indem du einfach deine Freunde ansiehst. Die Netzwerkstruktur ist so dicht dass jede Fehlinformation sich fast augenblicklich innerhalb einer Gruppe ausbreitet und so getrennt ist, dass sie die andere nicht erreicht.

Innerhalb unserer Blase sind wir selektiv Informationen ausgesetzt, die mit unseren Überzeugungen übereinstimmen. Das ist ein ideales Szenario, um das Engagement zu maximieren, aber ein schädliches für die Entwicklung einer gesunden Skepsis. Bestätigungsfehler bringt uns dazu, eine Schlagzeile zu teilen ohne auch nur zu lesen der Artikel.

Unser Labor hat hier eine persönliche Lektion bekommen, als unser eigenes Forschungsprojekt zum Thema wurde bösartige Fehlinformation Kampagne im Vorfeld der 2014 US-Zwischenwahlen. Als wir untersuchten, was geschah, fanden wir falsche Nachrichten über unsere Forschung, die vor allem von Twitter-Nutzern innerhalb einer Partisanen-Echokammer, einer großen und homogenen Gemeinschaft politisch aktiver Nutzer, geteilt wurden. Diese Leute waren schnell retweet und unempfänglich für die Entlarvung von Informationen.

Virale Zwangsläufigkeit

Unsere Forschung zeigt, dass es angesichts der Struktur unserer sozialen Netzwerke und unserer begrenzten Aufmerksamkeit ist unvermeidlich daß einige Meme werden viral, unabhängig von ihrer Qualität. Selbst wenn Einzelpersonen dazu neigen, Informationen von höherer Qualität zu teilen, ist das Netzwerk als Ganzes nicht in der Lage, zwischen zuverlässiger und künstlich hergestellter Information zu unterscheiden. Dies hilft, alle viralen Hoaxes zu erklären, die wir in der Wildnis beobachten.

Das Aufmerksamkeit Wirtschaft kümmert sich um den Rest: Wenn wir auf ein bestimmtes Thema achten, werden weitere Informationen zu diesem Thema erstellt. Es ist billiger, Informationen herzustellen und als Tatsache weiterzugeben, als die tatsächliche Wahrheit zu melden. Und die Herstellung kann auf jede Gruppe zugeschnitten werden: Die Konservativen lesen, dass der Papst Trump unterstützt hat, die Liberalen lesen, dass er Clinton unterstützt hat. Er tat es auch nicht.

An Algorithmen gebunden

Da wir nicht auf alle Posts in unseren Feeds achten können, bestimmen Algorithmen, was wir sehen und was nicht. Die Algorithmen, die heute von Social-Media-Plattformen verwendet werden, sind so konzipiert, dass sie interessante Beiträge priorisieren - auf die wir wahrscheinlich klicken, auf die wir reagieren und sie teilen. Aber eine kürzlich durchgeführte Analyse fand zumindest absichtlich irreführende Seiten so viel online teilen und Reaktion als echte Nachrichten.

Diese algorithmische Voreingenommenheit gegenüber dem Engagement für die Wahrheit verstärkt unsere sozialen und kognitiven Vorurteile. Wenn wir Links folgen, die in sozialen Medien geteilt werden, besuchen wir in der Regel kleinere, homogener Satz von Quellen als wenn wir eine Suche durchführen und die besten Ergebnisse besuchen.

Bestehende Forschung zeigt, dass in einer Echokammer Menschen sein können leichtergläubig über unbestätigte Gerüchte. Aber wir müssen viel mehr darüber wissen, wie verschiedene Menschen auf einen einzigen Scherz reagieren: Manche teilen es sofort, andere überprüfen es zuerst.

Das aware_ ein soziales Netzwerk simulieren diesen Wettbewerb zwischen Teilen und Fakten überprüfen. Wir hoffen, widersprüchliche Beweise zu entwirren wenn die Faktenprüfung hilft, Hoaxes zu stoppen ausbreiten und wenn nicht. Unsere vorläufigen Ergebnisse legen nahe, dass je länger die Gemeinschaft von Falschspielern getrennt ist, desto länger der Schwindel überlebt. Auch hier geht es nicht nur um den Scherz, sondern auch um das Netzwerk.

Viele Leute versuchen herauszufinden was ist mit all dem zu tun?. Laut Mark Zuckerbergs neuesten Ankündigung, Facebook-Teams testen mögliche Optionen. Und eine Gruppe von College-Studenten hat einen einfachen Weg vorgeschlagen beschriftete Links als "verifiziert" oder nicht.

Einige Lösungen bleiben zumindest für den Augenblick unerreichbar. Zum Beispiel können wir künstlichen Intelligenzsystemen noch nicht beibringen, wie zwischen Wahrheit und Unwahrheit unterscheiden. Aber wir können Ranking Algorithmen sagen, um zuverlässigeren Quellen höhere Priorität zu geben.

Die Verbreitung von gefälschten Nachrichten studieren

Wir können unseren Kampf gegen gefälschte Nachrichten effizienter gestalten, wenn wir besser verstehen, wie schlecht sich Informationen verbreiten. Wenn zum Beispiel Bots für viele der Unwahrheiten verantwortlich sind, können wir uns darauf konzentrieren, sie zu erkennen. Wenn das Problem alternativ bei Echokammern liegt, könnten wir vielleicht Empfehlungssysteme entwickeln, die unterschiedliche Ansichten nicht ausschließen.

Zu diesem Zweck baut unser Labor eine Plattform namens Hoaxie Verfolgung und Visualisierung der Verbreitung nicht überprüfter Ansprüche und entsprechender Faktenprüfung in sozialen Medien. Das wird uns reale Daten liefern, mit denen wir unsere simulierten sozialen Netzwerke informieren können. Dann können wir mögliche Ansätze zur Bekämpfung gefälschter Nachrichten testen.

Hoaxy kann den Leuten auch zeigen, wie einfach es ist, dass ihre Meinungen durch Online-Informationen manipuliert werden - und sogar, wie wahrscheinlich es ist, dass einige von uns Unwahrheiten online teilen. Hoaxy wird sich einer Reihe von Werkzeugen in unserem Team anschließen Observatorium für soziale Medien, mit dem jeder sehen kann, wie sich Meme auf Twitter verbreiten. Die Verknüpfung solcher Tools mit menschlichen Fakt-Checkern und Social-Media-Plattformen könnte die Minimierung von Doppelarbeit vereinfachen Support den Umgang miteinander.

Es ist unerlässlich, dass wir Ressourcen in die Erforschung dieses Phänomens investieren. Wir brauchen alle Hände an Deck: Informatiker, Sozialwissenschaftler, Wirtschaftswissenschaftler, Journalisten und Industriepartner müssen zusammenarbeiten gegen die Verbreitung von Fehlinformationen standhalten.

Das Gespräch

Über den Autor

Filippo Menczer, Professor für Informatik und Informatik; Direktor des Zentrums für komplexe Netzwerke und Systemforschung, Indiana Universität, Bloomington

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema:

at InnerSelf Market und Amazon