Männer - und Länder - im Krieg
Napoleon hätte aus der Vergangenheit lernen können. Gemälde von Adolph Northen/Wikipedia

Es ist ein Klischee, dass man die Geschichte wiederholen muss, wenn man sie nicht kennt. Wie viele Leute auch darauf hingewiesen haben, ist das Einzige, was wir aus der Geschichte lernen, dass wir selten etwas aus der Geschichte lernen. Menschen engagieren sich Landkriege in Asien über und über. Sie wiederholen auch immer wieder die gleichen Datierungsfehler. Aber warum passiert das? Und wird die Technologie dem ein Ende bereiten?

Ein Thema ist Vergesslichkeit und „Kurzsichtigkeit“: Wir sehen nicht, wie relevant vergangene Ereignisse für aktuelle sind, wenn wir das sich entfaltende Muster übersehen. Napoleon hätte die Ähnlichkeiten zwischen seinem Marsch auf Moskau und dem schwedischen König bemerken müssen Der gescheiterte Versuch Karls XII., dies ebenfalls zu tun etwa ein Jahrhundert vor ihm.

Wir sind auch schlecht lernen wenn Dinge schief laufen. Anstatt herauszufinden, warum eine Entscheidung falsch war und wie wir sie vermeiden können, versuchen wir oft, die peinliche Wendung der Ereignisse zu ignorieren. Das bedeutet, dass wir das nächste Mal, wenn eine ähnliche Situation auftritt, die Ähnlichkeit nicht sehen – und den Fehler wiederholen.

Beide offenbaren Probleme mit Informationen. Im ersten Fall erinnern wir uns nicht an persönliche oder historische Informationen. Im zweiten versäumen wir es, Informationen zu kodieren, wenn sie verfügbar sind.


Innerself-Abonnieren-Grafik


Allerdings machen wir auch Fehler, wenn wir nicht effizient ableiten können, was passieren wird. Vielleicht ist die Situation zu komplex oder zu zeitaufwändig, um darüber nachzudenken. Oder wir sind voreingenommen, falsch zu interpretieren, was vor sich geht.

Die nervige Macht der Technik

Aber die Technologie kann uns sicherlich helfen? Wir können jetzt Informationen außerhalb unseres Gehirns speichern und Computer verwenden, um sie abzurufen. Das sollte das Lernen und Erinnern einfach machen, oder?

Das Speichern von Informationen ist nützlich, wenn sie gut abgerufen werden können. Aber Erinnern ist nicht dasselbe wie das Abrufen einer Datei von einem bekannten Ort oder Datum. Erinnern bedeutet, Ähnlichkeiten zu erkennen und Dinge in Erinnerung zu rufen.

Eine künstliche Intelligenz (KI) muss auch in der Lage sein, uns spontan Ähnlichkeiten vor Augen zu führen – oft unerwünschte Ähnlichkeiten. Aber wenn es gut darin ist, mögliche Ähnlichkeiten zu bemerken (schließlich könnte es das gesamte Internet und alle unsere persönlichen Daten durchsuchen), werden ihm oft auch falsche auffallen.

Bei gescheiterten Verabredungen kann angemerkt werden, dass es sich bei allen um ein Abendessen handelte. Aber es war nie das Essen, das das Problem war. Und es war reiner Zufall, dass Tulpen auf dem Tisch standen – kein Grund, sie zu meiden. Wir wiederholen oft Datierungsfehler. 

Das bedeutet, dass es uns vor Dingen warnt, die uns nicht interessieren, möglicherweise auf ärgerliche Weise. Wenn Sie die Empfindlichkeit verringern, erhöht sich das Risiko, dass Sie bei Bedarf keine Warnung erhalten.

Dies ist ein grundlegendes Problem und gilt für jeden Berater gleichermaßen: Der vorsichtige Berater wird zu oft Wolf heulen, der optimistische Berater wird Risiken übersehen.

Ein guter Berater ist jemand, dem wir vertrauen. Sie sind ungefähr genauso vorsichtig wie wir, und wir wissen, dass sie wissen, was wir wollen. Dies ist bei einem menschlichen Berater schwer zu finden, und noch mehr bei einer KI.

Wo stoppt die Technik Fehler? Idiotensicher funktioniert. Schneidemaschinen erfordern, dass Sie Tasten gedrückt halten und Ihre Hände von den Klingen fernhalten. Ein „Totmannschalter“ stoppt eine Maschine, wenn der Bediener handlungsunfähig wird.

Mikrowellenherde schalten die Strahlung ab, wenn die Tür geöffnet wird. Um Raketen abzufeuern, müssen zwei Personen gleichzeitig Schlüssel in einem Raum umdrehen. Hier macht sorgfältiges Design Fehler schwer zu machen. Aber wir kümmern uns nicht genug um weniger wichtige Situationen, was das Design dort weit weniger idiotensicher macht.

Wenn Technologie gut funktioniert, vertrauen wir ihr oft zu sehr. Verkehrspiloten haben heute aufgrund der erstaunlichen Effizienz von Autopilotsystemen weniger echte Flugstunden als früher. Dies ist eine schlechte Nachricht, wenn der Autopilot ausfällt und der Pilot weniger Erfahrung hat, um die Situation zu korrigieren.

Der erste von a Eine neue Art von Ölplattform (Sleipnir A) sank weil die Ingenieure auf die Softwareberechnung der einwirkenden Kräfte vertrauten. Das Modell war falsch, aber es präsentierte die Ergebnisse so überzeugend, dass sie zuverlässig aussahen.

Ein Großteil unserer Technologie ist erstaunlich zuverlässig. So merken wir zum Beispiel nicht, wie hinter den Kulissen immer wieder verlorene Datenpakete im Internet gefunden werden, wie fehlerkorrigierende Codes Rauschen beseitigen oder wie Sicherungen und Redundanz Geräte sicher machen.

Aber wenn wir Ebene für Ebene der Komplexität anhäufen, sieht es sehr unzuverlässig aus. Wir bemerken, wenn das Zoom-Video verzögert, das KI-Programm falsch antwortet oder der Computer abstürzt. Fragen Sie jedoch jeden, der vor 50 Jahren einen Computer oder ein Auto benutzte, wie sie tatsächlich funktionierten, und Sie werden feststellen, dass sie sowohl weniger leistungsfähig als auch weniger zuverlässig waren.

Wir machen Technologie komplexer, bis sie zu lästig oder unsicher wird. Da die Teile besser und zuverlässiger werden, entscheiden wir uns oft dafür, neue aufregende und nützliche Funktionen hinzuzufügen, anstatt bei dem zu bleiben, was funktioniert. Dies macht die Technologie letztendlich weniger zuverlässig, als sie sein könnte.

Es werden Fehler gemacht

Auch deshalb ist KI ein zweischneidiges Schwert zur Fehlervermeidung. Automatisierung macht die Dinge oft sicherer und effizienter, wenn sie funktioniert, aber wenn sie versagt, macht sie die Probleme viel größer. Autonomie bedeutet, dass intelligente Software unser Denken ergänzen und uns entlasten kann, aber wenn sie nicht so denkt, wie wir es wollen, kann sie sich daneben benehmen.

Je komplexer es ist, desto fantastischer können die Fehler sein. Jeder, der mit hochintelligenten Gelehrten zu tun hatte, weiß, wie gut sie mit großem Einfallsreichtum Dinge durcheinander bringen können, wenn ihr gesunder Menschenverstand sie versagt – und KI hat sehr wenig menschlichen Menschenverstand.

Dies ist auch ein wichtiger Grund, sich Sorgen um die Entscheidungsfindung durch KI zu machen: Sie machen neue Arten von Fehlern. Wir Menschen kennen menschliche Fehler, das heißt, wir können auf sie aufpassen. Aber Intelligente Maschinen können Fehler machen, die wir uns nie vorstellen könnten.

Zudem werden KI-Systeme von Menschen programmiert und trainiert. Und es gibt viele Beispiele für solche Systeme voreingenommen und sogar bigott werden. Sie ahmen die Vorurteile nach und wiederholen die Fehler aus der Menschenwelt, selbst wenn die beteiligten Personen ausdrücklich versuchen, sie zu vermeiden.

Am Ende werden immer wieder Fehler passieren. Es gibt fundamentale Gründe, warum wir uns in Bezug auf die Welt irren, warum wir uns nicht an alles erinnern, was wir sollten, und warum unsere Technologie uns nicht perfekt dabei helfen kann, Ärger zu vermeiden.

Aber wir können daran arbeiten, die Folgen von Fehlern zu verringern. Die Rückgängig-Schaltfläche und das automatische Speichern haben unzählige Dokumente auf unseren Computern gespeichert. Das Denkmal in London, Tsunami-Steine in Japan und andere Denkmäler dienen dazu, uns an bestimmte Risiken zu erinnern. Gute Designpraktiken machen unser Leben sicherer.

Schließlich ist es möglich, etwas aus der Geschichte zu lernen. Unser Ziel sollte es sein, zu überleben und aus unseren Fehlern zu lernen, nicht zu verhindern, dass sie jemals passieren. Technologie kann uns dabei helfen, aber wir müssen sorgfältig darüber nachdenken, was wir eigentlich von ihr wollen – und entsprechend gestalten.

Über den Autor

Anders Sandberg, James Martin Research Fellow, Future of Humanity Institute & Oxford Martin School, University of Oxford

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.