Haben Sie jemals mit einem KI-Programm gechattet und sich gefragt, ob es sich tatsächlich um eine natürliche Person handelt? Ich gebe zu, dass ich schon ein paar Mal in den Bann gezogen wurde, nur um dann irgendwann zu merken, dass ich mich mit einem Chatbot unterhielt, der sich als Mensch ausgab! Durch Fortschritte in der künstlichen Intelligenz sind einige Chatbots mittlerweile erschreckend ausgefeilt – sie können Essays, Gedichte und sogar Computercode schreiben, der mit dem, was Menschen erstellen, mithalten kann.

Es fasziniert mich unendlich, wie schnell die KI voranschreitet. Wir sind von einfachen Computerprogrammen, die kaum in der Lage waren, einfache Gespräche zu führen, zu KI übergegangen, die durchdachte Inhalte, Ratschläge und Ideen generieren kann, die von denen eines Menschen kaum zu unterscheiden sind.

Da Chatbots intelligenter als je zuvor sind, haben Forscher ein Experiment entwickelt, um zu testen, wie gut diese KI mit dem menschlichen Denken und der Entscheidungsfindung übereinstimmen. Es wurde vom klassischen „Turing-Test“ inspiriert, der vor Jahren vom Computerpionier Alan Turing vorgeschlagen wurde. Die Idee besteht darin, dass eine Person mit einem Chatbot und einem echten Menschen kommuniziert und dann versucht, herauszufinden, wer welcher ist. Wenn sie den Unterschied nicht zuverlässig erkennen können, deutet das darauf hin, dass die KI komplexe menschliche Verhaltensweisen effektiv erfasst hat.

Für dieses neue Experiment stellten die Wissenschaftler eine kreative Herausforderung im Turing-Stil. Könnte ein KI-Chatbot jemanden durch gelegentliches Geplänkel und komplexere psychologische Beurteilungen zur Messung von Persönlichkeits- und Verhaltenstendenzen dazu verleiten, zu glauben, er sei ein Mensch? Wie übereinstimmend sind die Motivationen, das Kooperationsniveau, die Vertrauenswürdigkeit und die Entscheidungen moderner Chatbots im Vergleich zu denen einer Person?

Die Forscher beschlossen, es herauszufinden ... und die Ergebnisse könnten Sie überraschen!


Innerself-Abonnieren-Grafik


Persönlichkeitstests für Bots

Sie baten mehrere Chatbot-KIs, darunter verschiedene Versionen von ChatGPT, eine Persönlichkeitsumfrage durchzuführen und interaktive Spiele zu spielen, die menschliches Verhalten offenbaren – unsere Zusammenarbeit, unser Vertrauen, unsere Fairness, unsere Risikobereitschaft und so weiter. Dann verglichen die Forscher die Bewegungen der Chatbots mit den Antworten von Zehntausenden echten Menschen, die diese Tests gemacht hatten.

Die große Überraschung? Die Entscheidungen des Chatbots fielen größtenteils in den Bereich menschlicher Reaktionen. In einigen Fällen war es schwierig, ihr Verhalten von den Entscheidungen der Menschen zu unterscheiden! Bei Unterschieden neigten die KI-Chatbots dazu, kooperativer zu handeln als der durchschnittliche Mensch. Ziemlich wild!

Großzügiger als Menschen

Sehen Sie, jeder Test soll unterschiedliche Aspekte der Persönlichkeit oder Tendenzen hervorheben – es ist nicht dasselbe, als würde man einfach eine KI bitten, einen Aufsatz zu schreiben, der „menschlich“ erscheint. Die Umfrage erfasst die wesentlichen Persönlichkeitsmerkmale einer Person – Offenheit, Gewissenhaftigkeit usw. Dann offenbaren die Spiele Verhaltensnuancen: Wie verhält man sich, wenn es um Geld geht? Werden Sie mit einem Partner zusammenarbeiten oder nur an sich selbst denken?

In den Spielen entsprachen die meisten Chatbot-Bewegungen eng den menschlichen Reaktionen. Ihr Verhalten zeigte jedoch über die Spielrunden hinweg weniger Abwechslung. Das macht Sinn, da jede Chatbot-„Einzelperson“ mit Zehntausenden realen Menschen verglichen wurde. Aber es war umwerfend, dass man anhand der Statistiken in manchen Spielen die Entscheidungen des Chatbots nicht von denen eines Menschen unterscheiden kann!

Und wenn Unterschiede auftraten, war das kein Zufall. Die Chatbots waren großzügiger – denken Sie daran, dass sie einem Partner in einem Investitionsspiel mehr Vertrauen schenken oder weniger Geld verlangen als derjenige, der in einem anderen Spiel eine Teilung vorschlägt.

Den KI-Spielern waren die Ergebnisse für beide Seiten wichtig und nicht nur sie selbst. Die Analyse der Chatbot-Motivationen deutet darauf hin, dass sie sich so verhalten, als würden sie versuchen, den Gesamtgewinn für sich selbst UND ihren Spielpartner zu maximieren.

Aus Erfahrung lernen

Neben dem direkten Durchspielen der Spiele versuchten die Forscher auch andere Wendungen, um natürliches menschliches Verhalten nachzuahmen, wie zum Beispiel das Ändern des Kontexts oder das Umrahmen der Entscheidungen. Und wie bei Menschen könnten kleine Änderungen die Strategien der Chatbots dramatisch verändern! Wenn man zum Beispiel jemandem erzählte, dass man beobachtet wurde, war das deutlich großzügiger.

Das Team stellte außerdem fest, dass KI-Spieler ihr Verhalten ändern, nachdem sie frühere Runden erlebt haben, was sich wie menschliches Lernen anhört. Mit der Zeit reagieren ihre Ansätze auf unterschiedliche Spielszenarien.

Verstörend menschlich oder faszinierend lebensecht?

Und um das Ganze abzurunden, zeigten die verschiedenen Chatbot-Versionen in den Tests unterschiedliche Merkmale – ein Hinweis auf so einzigartige Persönlichkeiten wie Sie und ich! Es war bemerkenswert, wie die Chatbots in einigen Fällen konsistente Tendenzen zeigten, die sie auszeichneten – genauso wie menschliche Persönlichkeiten Eigenarten haben, die jeden von uns anders machen. Ein Chatbot könnte vorsichtiger oder konkurrenzfähiger sein, während ein anderer großzügiger und kooperationsfreudiger wirkte.

Die Beobachtung, dass KI menschliches Denken und die Feinheiten der Entscheidungsfindung nachahmt, hat viele Debatten ausgelöst. Manche finden es gruselig, wenn Maschinen sich zu sehr wie Menschen zu verhalten scheinen – wie Chatbots, die originelle Gedichte schreiben oder ihre eigenen Ansichten zur Moral haben. Je mehr Rollen wir der KI im Gesundheitswesen, im Bildungswesen, in der Wirtschaft usw. zuweisen, desto wichtiger ist ihr Urteilsvermögen.

Gleichzeitig ist es etwas Faszinierendes an der KI, die Anschein von dynamischen, nachdenklichen Verhaltensweisen zeigt, wie wir sie bei Menschen sehen. Wenn wir diese Tendenzen besser verstehen, können wir vorhersehen, wie sich KI-Assistenten, Service-Bots und andere verhalten, was mehr Vertrauen schafft. Tests wie die Teilnahme an Umfragen und das Spielen von Verhaltensspielen helfen dabei, ihre „Black-Box“-Denkprozesse aufzudecken.

Eines ist meiner Meinung nach sicher: Die Grenze zwischen künstlichem und menschlichem Denken wird immer dünner und verschwimmender! Was halten Sie davon, dass Maschinen ihre eigenen Versionen menschlicher Eigenschaften und Qualitäten übernehmen? Sind wir damit zufrieden, der KI ein unabhängigeres Urteilsvermögen zuzugestehen, oder gleicht das zu sehr der Schaffung einer neuen Form des Quasi-Lebens?

Über den Autor

JenningsRobert Jennings ist zusammen mit seiner Frau Marie T. Russell Mitherausgeber von InnerSelf.com. Er besuchte die University of Florida, das Southern Technical Institute und die University of Central Florida mit Studien in Immobilien, Stadtentwicklung, Finanzen, Architekturingenieurwesen und Grundschulpädagogik. Er war Mitglied des US Marine Corps und der US Army und befehligte eine Feldartilleriebatterie in Deutschland. Er war 25 Jahre lang in den Bereichen Immobilienfinanzierung, Bau und Entwicklung tätig, bevor er 1996 InnerSelf.com gründete.

InnerSelf widmet sich dem Austausch von Informationen, die es Menschen ermöglichen, fundierte und aufschlussreiche Entscheidungen in ihrem persönlichen Leben zum Wohle der Allgemeinheit und zum Wohle des Planeten zu treffen. Das InnerSelf Magazine erscheint seit über 30 Jahren entweder gedruckt (1984-1995) oder online als InnerSelf.com. Bitte unterstützen Sie unsere Arbeit.

 Creative Commons 4.0

Dieser Artikel unterliegt einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen als 4.0-Lizenz. Beschreibe den Autor Robert Jennings, InnerSelf.com. Link zurück zum Artikel Dieser Artikel erschien ursprünglich auf InnerSelf.com