Wird künstliche Intelligenz jemals menschliche Emotionen verstehen?

Wie würden Sie sich fühlen, Therapie von einem Roboter zu bekommen? Emotional intelligente Maschinen sind vielleicht nicht so weit weg wie es scheint. Künstliche Intelligenz (KI) ist in den letzten Jahrzehnten immer besser in der Lage, emotionale Reaktionen beim Menschen zu lesen.

Aber Lesen ist nicht dasselbe wie Verstehen. Wenn KI selbst keine Emotionen erleben kann, können sie uns jemals wirklich verstehen? Und wenn nicht, besteht das Risiko, dass wir Robotern Eigenschaften zuschreiben, die sie nicht haben?

Die neueste Generation von KIs ist dank einer Zunahme der Daten verfügbar, von denen Computer lernen können, sowie ihrer verbesserten Verarbeitungsleistung. Diese Maschinen konkurrieren zunehmend mit Aufgaben, die schon immer als menschlich wahrgenommen wurden.

AI kann jetzt unter anderem Gesichter erkennen, Gesichtskizzen in Fotos umwandeln, Rede erkennen und spiele gehen.

Kriminelle identifizieren

Kürzlich haben Forscher eine KI entwickelt, die anhand ihrer Gesichtszüge erkennen kann, ob eine Person ein Krimineller ist. Das System wurde anhand einer Datenbank mit chinesischen ID-Fotos und die Ergebnisse sind atemberaubend. Die KI kategorisierte Unschuldige fälschlicherweise nur in 6% der Fälle als Kriminelle, während sie in der Lage war, 83% der Kriminellen erfolgreich zu identifizieren. Dies führt zu einer erstaunlichen Gesamtgenauigkeit von fast 90%.

Das System basiert auf einem Ansatz, der "Deep Learning" genannt wird und bei Wahrnehmungsaufgaben wie der Gesichtserkennung erfolgreich war. Hier ermöglicht ein intensives Lernen in Kombination mit einem "Gesichtsrotationsmodell", dass die KI überprüft, ob zwei Gesichtsfotos dieselbe Person darstellen, selbst wenn die Beleuchtung oder der Blickwinkel zwischen den Fotos wechselt.


Innerself-Abonnieren-Grafik


Tiefes Lernen baut ein "neuronales Netzwerk" auf, das dem menschlichen Gehirn locker nachempfunden ist. Diese besteht aus Hunderttausenden Neuronen, die in verschiedenen Schichten organisiert sind. Jede Ebene transformiert die Eingabe, z. B. ein Gesichtsbild, in eine höhere Abstraktionsebene, z. B. eine Gruppe von Kanten an bestimmten Orientierungen und Stellen. Dadurch werden automatisch die Funktionen hervorgehoben, die für die Ausführung einer bestimmten Aufgabe am relevantesten sind.

Angesichts des Erfolgs von Deep Learning ist es nicht verwunderlich, dass künstliche neuronale Netze Kriminelle von Nicht-Kriminellen unterscheiden können - wenn es tatsächlich Gesichtsmerkmale gibt, die zwischen ihnen unterscheiden können. Die Forschung legt nahe, dass es drei gibt. Einer ist der Winkel zwischen der Nasenspitze und den Mundwinkeln, der für Kriminelle durchschnittlich um 19.6% kleiner war. Die Krümmung der Oberlippe war für Kriminelle im Durchschnitt ebenfalls 23.4% größer, während der Abstand zwischen den inneren Augenwinkeln durchschnittlich um 5.6% geringer war.

Auf den ersten Blick scheint diese Analyse darauf hinzuweisen veraltete Ansichten dass Kriminelle durch physische Attribute identifiziert werden können, ist nicht völlig falsch. Es mag jedoch nicht die ganze Geschichte sein. Es ist interessant, dass zwei der relevantesten Merkmale mit den Lippen in Verbindung stehen, die unsere ausdrucksstärksten Gesichtszüge sind. ID-Fotos, wie sie in der Studie verwendet werden, müssen einen neutralen Gesichtsausdruck haben, aber es könnte sein, dass die KI in diesen Fotos versteckte Emotionen findet. Diese sind vielleicht so unbedeutend, dass die Menschen Schwierigkeiten hatten, sie zu bemerken.

Es ist schwer der Versuchung zu widerstehen, die Beispielfotos zu betrachten, die in dem noch zu begutachenden Papier gezeigt werden. In der Tat, ein sorgfältiger Blick offenbart ein leichtes Lächeln auf den Fotos von Nichtkriminellen - überzeugen Sie sich selbst. Es sind jedoch nur einige Beispielfotos verfügbar, sodass wir unsere Schlussfolgerungen nicht auf die gesamte Datenbank übertragen können.

Die Macht des affektiven Rechnens

Dies wäre nicht das erste Mal, dass ein Computer menschliche Emotionen erkennen könnte. Das sogenannte Feld von "affektives Rechnen"Gibt es seit mehreren Jahren. Es wird argumentiert, dass diese Maschinen in der Lage sein sollten, menschliche Emotionen zu verstehen und angemessen darauf zu reagieren, wenn wir mit Robotern bequem leben und interagieren sollen. Es gibt viel Arbeit in der Gegend und die Möglichkeiten sind riesig.

Zum Beispiel haben Forscher Gesichtsanalyse verwendet vor Ort kämpfende Studenten in Computer-Nachhilfesitzungen. Die KI wurde geschult, um verschiedene Ebenen von Engagement und Frustration zu erkennen, so dass das System wissen konnte, wann die Schüler die Arbeit zu leicht oder zu schwierig fanden. Diese Technologie könnte nützlich sein, um die Lernerfahrung in Online-Plattformen zu verbessern.

AI ist auch daran gewöhnt worden Erkennen Sie Emotionen basierend auf dem Klang unserer Stimme von einer Firma namens BeyondVerbal. Sie haben Software entwickelt, die Sprachmodulation analysiert und spezifische Muster in der Art sucht, wie Menschen sprechen. Das Unternehmen behauptet, Emotionen korrekt mit 80% Genauigkeit identifizieren zu können. In Zukunft könnte diese Art von Technologie beispielsweise Autisten helfen, Emotionen zu identifizieren.

Sony versucht sogar, einen Roboter zu entwickeln fähig, emotionale Bindungen zu bilden mit Leuten. Es gibt nicht viele Informationen darüber, wie sie dies erreichen wollen oder was genau der Roboter tun wird. Sie erwähnen jedoch, dass sie versuchen, "Integration von Hardware und Services, um emotional überzeugende Erlebnisse zu bieten".

Eine emotional intelligente KI hat mehrere potentielle Vorteile, sei es um jemandem einen Begleiter zu geben oder um bestimmte Aufgaben zu erfüllen - von kriminellen Verhören bis hin zu Gesprächstherapien.

Aber es gibt auch ethische Probleme und Risiken. Ist es richtig, wenn sich ein Patient mit Demenz auf einen KI-Begleiter verlässt und glaubt, dass er ein emotionales Leben hat, wenn dies nicht der Fall ist? Und kannst du eine Person aufgrund einer KI überführen, die sie als schuldig einstuft? Ganz sicher nicht. Sobald ein System wie dieses weiter verbessert und vollständig evaluiert wird, könnte ein weniger schädlicher und potenziell hilfreicher Einsatz dazu führen, dass weitere Prüfungen von Personen durchgeführt werden, die von der KI als "verdächtig" eingestuft werden.

Was sollten wir von KI erwarten? Subjektive Themen wie Emotionen und Gefühle sind für KI immer noch schwierig zu lernen, teilweise weil die KI möglicherweise nicht genügend gute Daten hat, um sie objektiv zu analysieren. Könnte AI zum Beispiel Sarkasmus verstehen? Ein gegebener Satz kann sarkastisch sein, wenn er in einem Kontext gesprochen wird, aber nicht in einem anderen.

Doch die Menge an Daten und Rechenleistung wächst weiter. Mit ein paar Ausnahmen kann KI in der Lage sein, den Menschen in den nächsten Jahrzehnten beim Erkennen verschiedener Arten von Emotionen zu entsprechen. Aber ob eine KI jemals Emotionen erleben könnte, ist a kontroverses Thema. Selbst wenn sie könnten, könnte es sicherlich Emotionen geben, die sie niemals erfahren könnten - was es schwierig macht, sie jemals wirklich zu verstehen.

Das Gespräch

Über den Autor

Leandro Minku, Dozent für Informatik, University of Leicester

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema:

at InnerSelf Market und Amazon