Wenn Journalisten die Wahrheit bestimmen wollen, können künstliche Intelligenz helfen

Als ich vor drei Jahrzehnten im Fernsehjournalismus anfing, wurden noch Bilder auf Film gesammelt. Als ich die BBC in 2015 verließ, wurden Smartphones verwendet, um Bilder live zum Publikum zu übertragen. Nach der digitalen Revolution und dem Aufkommen von Online-Giganten wie Facebook und Google haben wir erlebt, was Joseph Schumpeter als "Die Welt" bezeichnete "Kreative Zerstörung" der alten Ordnung und seine Ersetzung durch die innovativen Praktiken der neuen Medien.

Es gab eine Menge wütender - und oft hyperbolischer - Diskussionen im Gefolge der US-Wahlen, Schuld an der "Echo-Kammer" des Internets - und vor allem Facebook - um den politischen Diskurs zu verzerren und die Online-Öffentlichkeit in "Fake News" zu ertränken. Gegenmittel werden nun gesucht, um sicherzustellen, dass "Wahrheitsfilter" Facebook-Nutzern - und ihren Nutzern - vor Missbrauch durch Trickbetrüger schützen, die Algorithmen anwenden.

Facebook und Google sind jetzt die großen Biester des Internets, wenn es um die Verbreitung von Nachrichten geht - und da sie versucht haben, Werbeeinnahmen zu sichern, ist das, was langsam aber sicher auftauchte, eine Art "Klick-Manie". So funktioniert es: Die Social-Media-Plattformen und Suchmaschinen werben um Nachrichten, was bedeutet, dass je mehr Klicks eine Geschichte bekommt, desto mehr sieht man die Werbung auf den Social Media-Seiten, die für sie Einnahmen generiert. In dieser Medienumgebung bedeuten mehr Klicks mehr Einnahmen - daher sind die Inhalte, die sie priorisieren, zwangsläufig auf "Clickbait" ausgerichtet - Geschichten, die aufgrund ihrer Wahrscheinlichkeit ausgewählt werden, viele und viele Leser dazu zu bringen, darauf zu klicken. Qualität und Wahrheit stehen auf der Liste der Anforderungen für diese Geschichten.

Es ist schwer zu argumentieren, dass dies keine Auswirkungen auf die redaktionellen Prioritäten des Online-Marketings hatte, da die hyperbolischen Schlagzeilen immer mehr auf dieses Ziel ausgerichtet wurden. Manchmal kam es auf einigen Plattformen zu was Nick Davies synchronisiert "Churnalism", wobei die Geschichten nicht richtig überprüft oder recherchiert wurden.

Erosion des Vertrauens

Konsummuster werden unvermeidlich von all diesen kreativen Zerstörungs- und Social-Media-Sites beeinflusst haben schnell "die Presse" ersetzt als führende Nachrichtenquelle. Und doch besteht die Gefahr, dass die daraus resultierende Informationsüberflutung das Vertrauen in Informationsanbieter erodiert.


Innerself-Abonnieren-Grafik


Der scheidende US-Präsident Barack Obama hat das Dilemma der Öffentlichkeit erfasst auf seiner letzten Reise nach Deutschland:

Wenn wir die Fakten nicht ernst nehmen, was wahr ist und was nicht, wenn wir nicht zwischen ernsthaften Argumenten und Propaganda unterscheiden können, dann haben wir Probleme.

Es gibt eine erneute Anerkennung, dass die traditionellen "Gatekeeper" - Journalisten, die in Nachrichtenredaktionen arbeiten - einen nützlichen Filtermechanismus für den Überfluss an Informationen bieten, mit denen der Verbraucher konfrontiert wird. Aber ihre einst stabilen Werbeeinnahmen werden schnell auf Facebook und Google umgeleitet. Als Folge verbluten die traditionellen Nachrichtenunternehmen - und die derzeit populäre Strategie, Paywalls und Subscriptions einzuführen, macht die Verluste nicht wett. Schlimmer noch, viele Zeitungen sind weiterhin zweistellig im Umlauf, so dass die Gatekeeper "rationalisiert" werden und die Öffentlichkeit dafür umso ärmer ist.

Anstieg des Algorithmus

Eine der Antworten liegt in der Umnutzung moderner Redaktionen, wie es die Washington Post tut unter seinem neuen Besitzer Jeff Bezos. Sicherlich müssen Journalisten Wege finden, Menschen zu ermutigen, sich weniger auf soziale Medien zu verlassen oder skeptischer zu werden. Selbst Facebook hat erkannt, dass es mehr tun muss, um zu vermeiden, dass Fälschungen auf seiner Plattform gewaschen und normalisiert werden.

Wie kann man vermeiden, auf Fälschung zu fallen? Eine Option beinhaltet den Einsatz intelligenter Maschinen. Wir leben in einem Medienzeitalter von Algorithmen und es gibt das Potenzial zu verwenden Artificial Intelligence als eine grundlegende Ergänzung des journalistischen Prozesses - und nicht einfach als ein Werkzeug, um die Werbung besser zu lenken oder dem Leser personalisierte redaktionelle Prioritäten zu liefern.

Softwareentwickler wissen bereits, wie man eine digitale Architektur mit Programmiersprachen in natürlicher Sprache erstellt, um grundlegende Handlungsstränge zu erkennen. Was soll sie daran hindern, eine Reihe von Versionen einer Geschichte aus verschiedenen validierten Quellen zu samplen, um einen Datensatz zu erstellen und dann Algorithmen zu verwenden, um Verzerrungen aus dem Weg zu räumen und die wichtigsten bestätigten Fakten eines bestimmten Ereignisses zu rekonstruieren.

Aggregations- und Summierungstechniken beginnen, Ergebnisse zu liefern. Ich kenne mindestens ein britisches Technologie-Start-up, das zwar in der Forschungs- und Entwicklungsphase eine Engine entwickelt hat, die einen natürlichen Sprachverarbeitungsansatz nutzt, um Daten aus mehreren Quellen zu verdichten, eine Storyline zu identifizieren und eine künstlich intelligente Zusammenfassung zu liefern glaubwürdig. Es ist eine Frage der Interpretation. Es ist, wenn man so will, ein Prototyp eines "Schwachsinn-Detektors", bei dem eine algorithmische Lösung den altmodischen journalistischen Wert der Suche nach der Wahrheit nachahmt.

Wenn wir uns die Unordnung ansehen, in die unsere Demokratien aufgrund des neuen Zeitalters der Informationsfreiheit geraten sind, ist es klar, dass wir dringend künstliche Intelligenz einsetzen müssen, um offene Debatten zu schützen - nicht zu ersticken. Dies ist ein Anker unserer Demokratien, den wir nicht aufgeben können.

Das Gespräch

Über den Autor

Kurt Barling, Professor für Journalismus, Middlesex University

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema

at InnerSelf Market und Amazon