KI-generierte Fotos?

Auch wenn Sie denken, dass Sie gut darin sind, Gesichter zu analysieren, Forschung zeigt, Viele Menschen können nicht zuverlässig zwischen Fotos von echten Gesichtern und computergenerierten Bildern unterscheiden. Dies ist besonders problematisch, da Computersysteme realistisch wirkende Fotos von Menschen erstellen können, die nicht existieren.

Kürzlich machte ein gefälschtes LinkedIn-Profil mit einem computergenerierten Profilbild Schlagzeilen, weil es so war erfolgreich mit US-Beamten und anderen einflussreichen Personen verbunden auf der Networking-Plattform zum Beispiel. Experten der Spionageabwehr sagen sogar, dass Spione mit solchen Bildern routinemäßig Phantomprofile erstellen ausländische Ziele über soziale Medien ausfindig machen.

Diese Deep Fakes verbreiten sich zunehmend in der Alltagskultur, was bedeutet, dass die Menschen sich bewusster darüber sein sollten, wie sie in Marketing, Werbung und sozialen Medien verwendet werden. Die Bilder werden auch für böswillige Zwecke wie politische Propaganda, Spionage und Information Warfare verwendet.

Zu ihrer Herstellung gehört ein sogenanntes Deep Neural Network, ein Computersystem, das die Art und Weise nachahmt, wie das Gehirn lernt. Dieses wird „trainiert“, indem es immer größeren Datensätzen von echten Gesichtern ausgesetzt wird.

Tatsächlich treten zwei tiefe neuronale Netze gegeneinander an und konkurrieren darum, die realistischsten Bilder zu erzeugen. Infolgedessen werden die Endprodukte als GAN-Bilder bezeichnet, wobei GAN für Generative Adversarial Networks steht. Der Prozess erzeugt neuartige Bilder, die statistisch nicht von den Trainingsbildern zu unterscheiden sind.


Innerself-Abonnieren-Grafik


In unserer in iScience veröffentlichten Studiehaben wir gezeigt, dass die Unfähigkeit, diese künstlichen Gesichter von echten Gesichtern zu unterscheiden, Auswirkungen auf unser Online-Verhalten hat. Unsere Forschung deutet darauf hin, dass die gefälschten Bilder unser Vertrauen in andere untergraben und die Art und Weise, wie wir online kommunizieren, grundlegend verändern können.

Meine Kollegen und ich stellten fest, dass Menschen GAN-Gesichter als noch echter empfanden als echte Fotos von echten Gesichtern. Es ist zwar noch nicht klar, warum das so ist, aber dieser Befund tut es die jüngsten Fortschritte in der Technologie hervorheben verwendet, um künstliche Bilder zu erzeugen.

Und wir fanden auch einen interessanten Zusammenhang zur Attraktivität: Gesichter, die als weniger attraktiv bewertet wurden, wurden auch als echter bewertet. Weniger attraktive Gesichter könnten als typischer angesehen werden das typische Gesicht kann als Referenz verwendet werden gegen die alle Gesichter ausgewertet werden. Daher würden diese GAN-Gesichter echter aussehen, weil sie mentalen Vorlagen ähnlicher sind, die Menschen aus dem Alltag gebaut haben.

Aber diese künstlichen Gesichter als authentisch zu sehen, kann auch Konsequenzen für das allgemeine Vertrauen haben, das wir einem Kreis unbekannter Menschen entgegenbringen – ein Konzept, das als „soziales Vertrauen“ bekannt ist.

Wir interpretieren oft zu viel in die Gesichter, die wir sehen, und die Erste Eindrücke, die wir bilden, leiten unsere sozialen Interaktionen. In einem zweiten Experiment, das Teil unserer neuesten Studie war, haben wir festgestellt, dass Menschen eher Informationen vertrauen, die von Gesichtern übermittelt werden, die sie zuvor als echt eingeschätzt haben, selbst wenn sie künstlich erzeugt wurden.

Es überrascht nicht, dass Menschen Gesichtern, die sie für echt halten, mehr vertrauen. Aber wir stellten fest, dass das Vertrauen untergraben wurde, sobald die Menschen über das potenzielle Vorhandensein künstlicher Gesichter in Online-Interaktionen informiert wurden. Sie zeigten dann insgesamt weniger Vertrauen – unabhängig davon, ob die Gesichter echt waren oder nicht.

Dieses Ergebnis könnte in gewisser Weise als nützlich angesehen werden, da es die Menschen in einer Umgebung, in der gefälschte Benutzer tätig sein können, misstrauischer machte. Aus einer anderen Perspektive kann es jedoch allmählich die Art und Weise, wie wir kommunizieren, untergraben.

Im Allgemeinen neigen wir dazu, zu operieren eine Standardannahme, dass andere Menschen grundsätzlich ehrlich und vertrauenswürdig sind. Die Zunahme gefälschter Profile und anderer künstlicher Online-Inhalte wirft die Frage auf, wie sehr ihre Präsenz und unser Wissen über sie diesen „Wahrheitsstandard“-Zustand verändern und schließlich das soziale Vertrauen untergraben können.

Ändern unserer Standardeinstellungen

Der Übergang zu einer Welt, in der das, was real ist, von dem, was nicht ist, nicht zu unterscheiden ist, könnte auch die Kulturlandschaft von einer primär wahrheitsgemäßen zu einer primär künstlichen und täuschenden Kultur verändern.

Wenn wir regelmäßig die Wahrhaftigkeit dessen in Frage stellen, was wir online erleben, kann es erforderlich sein, dass wir unsere geistige Anstrengung von der Verarbeitung der Nachrichten selbst auf die Verarbeitung der Identität des Boten umstellen. Mit anderen Worten, die weit verbreitete Verwendung von sehr realistischen, aber künstlichen Online-Inhalten könnte uns dazu zwingen, anders zu denken – auf eine Weise, die wir nicht erwartet hatten.

In der Psychologie verwenden wir einen Begriff namens „Realitätsüberwachung“ dafür, wie wir richtig erkennen, ob etwas aus der Außenwelt oder aus unserem Gehirn kommt. Der Fortschritt von Technologien, die gefälschte, aber sehr realistische Gesichter, Bilder und Videoanrufe erzeugen können, bedeutet, dass die Realitätsüberwachung auf anderen Informationen als unserem eigenen Urteil basieren muss. Es fordert auch eine breitere Diskussion darüber, ob die Menschheit es sich noch leisten kann, der Wahrheit nicht gerecht zu werden.

Es ist entscheidend, dass Menschen bei der Bewertung digitaler Gesichter kritischer sind. Dies kann die Verwendung von umgekehrten Bildsuchen umfassen, um zu überprüfen, ob Fotos echt sind, Vorsicht bei Social-Media-Profilen mit wenigen persönlichen Informationen oder einer großen Anzahl von Followern und sich bewusst zu sein, dass Deepfake-Technologie möglicherweise für schändliche Zwecke verwendet wird.

Die nächste Grenze für diesen Bereich sollten verbesserte Algorithmen zur Erkennung gefälschter digitaler Gesichter sein. Diese könnten dann in Social-Media-Plattformen eingebettet werden, um uns zu helfen, das Echte vom Falschen zu unterscheiden, wenn es um die Gesichter neuer Verbindungen geht.

Über den Autor

Manos Tsakiris, Professor für Psychologie, Direktor des Center for the Politics of Feelings, Royal Holloway University of London

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.