Wenn in einer automatisierten Welt etwas schief läuft, wissen wir noch, was zu tun ist?

Wir leben in einer Welt, die zunehmend komplexer und komplexer ist automatisierte. Genauso wie wir uns mit komplexeren Problemen auseinandersetzen müssen, führt Automatisierung zu einer Verkümmerung menschlicher Fähigkeiten, die uns anfälliger machen können, wenn wir auf unerwartete Situationen reagieren oder wenn etwas schief geht. Das Gespräch

Betrachten Sie die letzte Minuten von Air France Flight 447, der im Mai 2009 in den Atlantik stürzte, nachdem er Rio de Janeiro, Brasilien, für Paris, Frankreich verlassen hatte.

Sein Flugschreiber offenbarte völlige Verwirrung im Cockpit. Das Flugzeug wurde bei 15º mit einer automatischen Stimme, die wiederholt "Stall, Stall" nannte, nach oben geneigt. Doch die Piloten taumelten und riefen: "[...] wir verstehen nichts."

Dies ist nicht der richtige Ort, um sich in die Schlamassel dieses unglückseligen Fluges zu begeben, außer zu bemerken, dass jedes System, das die meiste Zeit automatisch mit Eventualitäten zu tun hat, eine verminderte Fähigkeitsbasis für die wenigen Situationen der Designer übrig lässt Ich sehe es voraus.

Im Gespräch mit Vanity FairNadine Sarter, eine Wirtschaftsingenieurin an der Universität von Michigan, erinnert sich an ein Gespräch mit fünf Ingenieuren, die am Bau eines bestimmten Flugzeugs beteiligt waren.


Innerself-Abonnieren-Grafik


Ich begann zu fragen: "Nun, wie funktioniert das oder das?" Und sie konnten sich nicht auf die Antworten einigen. Ich dachte also, wenn diese fünf Ingenieure nicht zustimmen können, der arme Pilot, wenn er jemals auf diese besondere Situation trifft ... nun, viel Glück.

In der Tat wurde die Komplexität des vernünftigen Fliegens hochkomplizierter High-Tech-Flugzeuge zu einem Roboter ausgelagert, mit Flugingenieure in jeder Hinsicht verschwunden von Cockpits. Nur ältere Piloten und ehemalige Luftwaffenpiloten behalten diese detaillierten Fähigkeiten.

Zurück auf der Erde, in einer autonom fahrenden Welt könnte es ganze zukünftige Generationen geben, ohne jegliche praktische Erfahrung Fahren und Navigieren ein Fahrzeug.

Wir sehen bereits einen Hinweis darauf Was kann schon schief gehen wenn Menschen die Kontrolle verlassen autonome Systeme.

Eine Untersuchung der tödlicher Absturz eines Tesla Model S mit Autopilot stellte fest, dass das Unternehmen den Fahrern Informationen über "Systemeinschränkungen" zur Verfügung stellte. In diesem Fall müssen die Fahrer aufpassen.

Aber welche Chance hätte eine Person, irgendwelche Kontrollen zu übernehmen, sollten die Dinge in ihrer Zukunft schiefgehen? völlig autonomes Fahrzeug. Würden sie überhaupt die ersten Anzeichen einer bevorstehenden Katastrophe erkennen?

Unser Weg verlieren?

Dies zu steuern ist ein technologischer Determinismus, der glaubt, dass jede Innovation von Natur aus gut ist. Während aufstrebende Technologien noch definieren können, was es heißt, ein Mensch zu sein, besteht die Herausforderung darin, erkenne das Risiko und was zu tun ist, um sicherzustellen, dass die Dinge nicht schiefgehen.

Das wird immer schwieriger, da wir die Komplexität erhöht haben, besonders beim autonomen Fahren von Vorortzüge, Lufttaxis und Lieferdrohnen.

Systementwickler haben größere und ineinandergreifende Systeme gebaut, um die Computerverarbeitungslast zu teilen, obwohl dies ihre Kreationen zu idealen Kandidaten für einen Ausfall macht. Sie übersehen die Tatsache, dass Probleme, sobald sie miteinander verbunden sind, sich ebenso schnell verbreiten können wie Lösungen, manchmal sogar noch mehr.

Die wachsende und immense Komplexität einer automatisierten Welt birgt ähnliche Risiken.

Gefahrenpunkte

Im Nachhinein ist es notwendig, Netzwerke frei zu machen, wenn es Fehler gibt, oder zumindest Teile eines einzelnen Netzwerks abzudichten, wenn es anderswo Fehler gibt.

Dieses "Islanding" ist ein Merkmal intelligenter Stromnetze, die es ermöglichen, das Netz in Fragmente zu zerlegen, die in der Lage sind, ihren internen Energiebedarf selbst zu decken. Modellierung hat gezeigt, dass Weniger Verbindungen können zu mehr Sicherheit führen.

Könnte die aufkommende Komplexität der Wissenschaft helfen, genau zu bestimmen, wo die Gefahrenstellen in stark miteinander verbundenen Netzwerken liegen könnten? Marten Scheffer und Kollegen dachte so. Er hatte Ähnlichkeiten zwischen dem Verhalten seiner natürlichen Systeme und den Wirtschafts- und Finanzsystemen gesehen.

Sein frühere Arbeit auf Seen, Korallenriffen, Meeren, Wäldern und Grasland, festgestellt, dass Umgebungen, die allmählichen Veränderungen wie Klima, Nährstoffbelastung und Lebensraumverlust unterliegen, Kipppunkte erreichen können, die sie in einen manchmal irreversiblen unteren Zustand versetzen.

Können Banker und Ökonomen, die sich mit der Stabilität der Finanzmärkte auseinandersetzen, von Forschern in den Bereichen Ökologie, Epidemiologie und Klimatologie lernen, Marker für die Nähe zu kritischen Schwellenwerten und zum Systemzusammenbruch zu entwickeln?

Im Februar 2016 kam das alles zusammen in Form von ein Papier über Komplexitätstheorie und Finanzregulierung Co-Autor von einer breiten Palette von Experten, darunter ein Ökonom, Bankier, Physiker, Klimatologe, Ökologe, Zoologe, Tierarzt und Epidemiologe.

Sie empfahlen eine Online-Integration von Daten, Methoden und Indikatoren, die fast in Echtzeit in Stresstests für globale sozioökonomische und finanzielle Systeme einfließen. Ersteres ähnelt dem, was im Umgang mit anderen komplexen Systemen wie dem Wetter erreicht wurde.

Wir können beginnen zu sehen, wie unser Beispiel einer autonomen treibenden Welt in Fragen der Netzwerkstabilität übergeht. Stellen Sie sich ein stark vernetztes Netzwerk autonomer Fahrzeuge vor.

Es besteht ein klares Bedürfnis zu wissen, wie mögliche Fehlerpunkte in einem solchen Netzwerk erkannt und isoliert werden können, bevor es zu Problemen mit möglicherweise tragischen Konsequenzen kommt. Dies ist mehr, als nur Fahrer und Beifahrer vor Systemausfällen in einem einzigen autonomen Fahrzeug zu schützen.

Es ist an der Zeit, darüber nachzudenken, wie wir diese multidisziplinären Fortschritte beim Verständnis der Stabilität solcher großen Netzwerke nutzen können, um drastische Konsequenzen zu vermeiden.

Über den Autor

Peter Fisher, Adjunct Professor, Global, Stadt- und Sozialwissenschaften, RMIT Universität

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema

at InnerSelf Market und Amazon