Vertrauen finden und in autonomen Technologien verstehenFoto von: Norbert Aepli, Schweiz (Benutzer: Noebu)

In 2016 wurden selbstfahrende Autos zum Mainstream. Uber autonome Fahrzeuge wurde allgegenwärtig in Vierteln, in denen ich in Pittsburgh lebe, und kurz in San Francisco. Das US-Verkehrsministerium ausgestellt neue regulatorische Anleitung für Sie. Unzählig Papiere und Spalten diskutiert, wie selbstfahrende Autos sollte lösen ethische Dilemmas wenn Dinge schief laufen. Und leider sah 2016 auch die erster Todesfall mit einem autonomen Fahrzeug.

Autonome Technologien breiten sich schnell über den Transportsektor hinaus aus Gesundheitspflege, fortgeschrittene Cyber-Verteidigung und sogar autonome Waffen. In 2017 müssen wir uns entscheiden, ob wir diesen Technologien vertrauen können. Das wird viel schwieriger als wir es erwarten.

Vertrauen ist komplex und vielfältig, aber auch ein wichtiger Teil unseres Lebens. Wir vertrauen oft der Technologie basierend auf Vorhersagbarkeit: Ich vertraue etwas, wenn ich weiß, was es in einer bestimmten Situation tun wird, auch wenn ich nicht weiß warum. Zum Beispiel vertraue ich meinem Computer, weil ich weiß, wie es funktioniert, auch wenn es zusammenbrechen wird. Ich höre auf zu vertrauen, wenn es sich anders oder überraschend verhält.

Im Gegensatz dazu basiert mein Vertrauen in meine Frau auf Verständnis ihrer Überzeugungen, Werte und Persönlichkeit. Im Allgemeinen bedeutet interpersonelles Vertrauen nicht, genau zu wissen, was die andere Person tun wird - meine Frau überrascht mich sicherlich manchmal! - sondern warum sie so handeln wie sie. Und natürlich können wir jemandem (oder etwas) auf beide Arten vertrauen, wenn wir beide wissen, was sie tun werden und warum.

Ich habe mögliche Grundlagen für unser Vertrauen in selbstfahrende Autos und andere autonome Technologien aus ethischen und psychologischen Perspektiven untersucht. Dies sind Geräte, so dass Vorhersagbarkeit als Schlüssel erscheint. Aufgrund ihrer Autonomie müssen wir jedoch die Bedeutung und den Wert - und die Herausforderung - berücksichtigen, indem wir lernen, ihnen zu vertrauen, wie wir anderen Menschen vertrauen.


Innerself-Abonnieren-Grafik


Autonomie und Vorhersagbarkeit

Wir wollen, dass sich unsere Technologien, einschließlich selbstfahrender Autos, so verhalten, wie wir es vorhersagen und erwarten können. Natürlich können diese Systeme sehr empfindlich für den Kontext sein, einschließlich anderer Fahrzeuge, Fußgänger, Wetterbedingungen und so weiter. Im Allgemeinen können wir jedoch erwarten, dass sich ein selbstfahrendes Auto, das sich wiederholt in der gleichen Umgebung befindet, vermutlich jedes Mal ähnlich verhält. Aber in welchem ​​Sinne wären diese höchst vorhersehbaren Autos autonom und nicht nur automatisch?

Es gibt war viele anders Versuche zu definieren die Akkulaufzeitaber alle haben das gemeinsam: Autonome Systeme können ihre (inhaltlichen) Entscheidungen und Pläne treffen und dadurch anders als erwartet agieren.

Ein Grund, Autonomie (im Gegensatz zur Automatisierung) zu nutzen, besteht gerade darin, dass diese Systeme unerwartete und überraschende, wenn auch berechtigte Handlungsoptionen verfolgen können. Beispielsweise, DeepMinds AlphaGo Das zweite Spiel seiner jüngsten Go-Serie gegen Lee Sedol gewann er teilweise wegen ein Schritt, den kein menschlicher Spieler jemals machen würde, aber dennoch der richtige Schritt war. Aber dieselben Überraschungen machen es schwierig, auf Vorhersehbarkeit beruhendes Vertrauen herzustellen. Ein starkes Vertrauen, das nur auf Vorhersagbarkeit beruht, ist wohl nur für automatisierte oder automatische Systeme möglich, gerade weil sie vorhersehbar sind (vorausgesetzt, das System funktioniert normal).

Umfassende Überraschungen

Natürlich überraschen uns andere oft, und doch können wir ihnen in einem bemerkenswerten Grad vertrauen und ihnen sogar Leben und Tod über uns selbst geben. Soldaten vertrauen ihren Kameraden in komplexen, feindlichen Umgebungen; eine Patientin vertraut ihrem Chirurgen, einen Tumor zu entfernen; und in einer mondäneren Ader vertraut meine Frau mir, sicher zu fahren. Dieses zwischenmenschliche Vertrauen ermöglicht es uns, die Überraschungen anzunehmen, und vielleicht könnten wir so etwas wie zwischenmenschliches Vertrauen in selbstfahrende Autos entwickeln?

Im Allgemeinen erfordert zwischenmenschliches Vertrauen ein Verständnis dafür, warum jemand auf eine bestimmte Art und Weise gehandelt hat, selbst wenn Sie die genaue Entscheidung nicht vorhersagen können. Meine Frau weiß vielleicht nicht genau, wie ich fahren werde, aber sie kennt die Art von Argumentation, die ich benutze, wenn ich fahre. Und es ist eigentlich relativ einfach zu verstehen, warum jemand anderes etwas macht, gerade weil wir alle ähnlich denken und argumentieren, wenn auch mit verschiedenen "rohen Zutaten" - unseren Überzeugungen, Wünschen und Erfahrungen.

In der Tat machen wir ständig und unbewusst Rückschlüsse auf die Überzeugungen und Wünsche anderer Menschen aufgrund ihrer Handlungen, zum großen Teil durch die Annahme, dass sie grob denken, denken und entscheiden wie wir. All diese Rückschlüsse und Überlegungen, die auf unserer gemeinsamen (menschlichen) Wahrnehmung basieren, ermöglichen es uns, die Gründe anderer zu verstehen und dadurch zwischenmenschliches Vertrauen im Laufe der Zeit aufzubauen.

Denken wie Menschen?

Autonome Technologien - vor allem selbstfahrende Autos - denken und entscheiden nicht wie Menschen. Es gab Bemühungen, beides passt und kürzlich, Computersysteme zu entwickeln, die wie Menschen denken und denken. Ein konsistentes Thema des maschinellen Lernens in den letzten zwei Jahrzehnten waren jedoch die enormen Gewinne, die gerade dadurch erzielt wurden, dass unsere Systeme künstlicher Intelligenz nicht auf menschenähnliche Weise betrieben werden mussten. Stattdessen waren Maschinenlernalgorithmen und -systeme wie AlphaGo oft in der Lage übertreffen menschliche Experten indem man sich auf spezifische, lokalisierte Probleme konzentriert und sie dann ganz anders löst als Menschen.

Als Ergebnis können Versuche, eine autonome Technologie in Bezug auf menschenähnliche Überzeugungen und Wünsche zu interpretieren, spektakulär schiefgehen. Wenn ein menschlicher Fahrer einen Ball auf der Straße sieht, werden die meisten von uns automatisch langsamer, um zu vermeiden, ein Kind zu treffen, das hinterher jagt. Wenn wir in einem autonomen Auto fahren und einen Ball auf die Straße rollen sehen, erwarten wir, dass das Auto es erkennt und darauf vorbereitet ist, für laufende Kinder anzuhalten. Das Auto könnte jedoch nur ein zu vermeidendes Hindernis sehen. Wenn es ausbricht, ohne sich zu verlangsamen, könnten die Menschen an Bord alarmiert sein - und ein Kind könnte in Gefahr sein.

Unsere Rückschlüsse auf die "Überzeugungen" und "Sehnsüchte" eines selbstfahrenden Autos werden fast sicher in wichtigen Punkten falsch sein, gerade weil das Auto keine menschenähnlichen Überzeugungen oder Wünsche hat. Wir können kein zwischenmenschliches Vertrauen in ein selbstfahrendes Auto entwickeln, indem wir einfach nur auf das Autofahren achten, da wir nicht richtig auf die Hintergründe seiner Handlungen schließen können.

Natürlich könnten die Kunden der Gesellschaft oder des Marktes darauf bestehen, dass selbstfahrende Autos menschenähnliche (psychologische) Merkmale haben, genau so, dass wir zwischenmenschliches Vertrauen in sie entwickeln und entwickeln können. Diese Strategie würde "eine völlig neue Bedeutung verleihen".menschzentriertes Design, "Da die Systeme so entworfen werden, dass ihre Handlungen von Menschen interpretierbar sind. Aber es würde auch erfordern, Roman einzuschließen Algorithmen und Techniken im selbstfahrenden Auto, was eine massive Veränderung von den gegenwärtigen Forschungs- und Entwicklungsstrategien für selbstfahrende Autos und andere autonome Technologien darstellen würde.

Selbstfahrende Autos haben das Potenzial, unsere Transportinfrastruktur in vielerlei Hinsicht grundlegend zu verändern, aber nur, wenn wir ihnen genug vertrauen können, um sie tatsächlich zu nutzen. Und ironischerweise ist gerade die Eigenschaft, die selbstfahrende Autos wertvoll macht - ihre flexible, autonome Entscheidungsfindung in verschiedenen Situationen - genau das, was es schwierig macht, ihnen zu vertrauen.

Das Gespräch

Autorin

David Danks, Professor für Philosophie und Psychologie, Carnegie Mellon University

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema:

at InnerSelf Market und Amazon