AI kann voraussagen, ob Ihre Beziehung basierend auf der Art und Weise, wie Sie mit Ihrem Partner sprechen, dauern wird

AI kann voraussagen, ob Ihre Beziehung basierend auf der Art und Weise, wie Sie mit Ihrem Partner sprechen, dauern wird

Jedes Kind (oder Ehegatte), das wegen seines Tonfalls ausgeschimpft wurde - wie schreien oder sarkastisch sein - weiß, dass die Weg Sie sprechen mit jemandem kann genauso wichtig sein wie die Worte das du benutzt. Sprecher und Schauspieler machen sich das zunutze - sie sind erfahren darin, wie sie sprechen, manchmal viel mehr, als die Worte allein verdienen.

Aber wie viel Information wird in unseren Stimmlagen und Gesprächsmustern transportiert und wie wirkt sich das auf unsere Beziehungen mit anderen aus? Computational Systems können bereits feststellen wer Menschen sind von ihren StimmenKönnten sie uns auch etwas über unser Liebesleben erzählen? Erstaunlicherweise scheint es so.

Neue Forschung, gerade in der Zeitschrift PLOS-ONE veröffentlicht, hat die Stimmeigenschaften von 134 Paaren, die sich einer Therapie unterziehen, analysiert. Forscher der University of Southern California verwendeten Computer, um Standard-Sprachanalysefunktionen aus Aufzeichnungen von Teilnehmern der Therapiesitzung über zwei Jahre zu extrahieren. Die Funktionen - einschließlich Tonhöhe, Variation in Tonhöhe und Intonation - alle beziehen sich auf Stimmaspekte wie Ton und Intensität.

Ein maschineller Lernalgorithmus wurde dann trainiert, um eine Beziehung zwischen diesen stimmlichen Merkmalen und dem möglichen Ergebnis der Therapie zu lernen. Das war nicht so einfach wie das Aufspüren von Schreien oder erhobenen Stimmen - es beinhaltete das Zusammenspiel von Konversation, wer wann und wie lange sowie wie der Klang der Stimmen sprach. Es stellte sich heraus, dass das Ignorieren dessen, was gesagt wurde, und das Betrachten nur dieser Sprechmuster ausreichend war, um vorherzusagen, ob Paare zusammen bleiben würden oder nicht. Dies war rein datengesteuert, sodass die Ergebnisse nicht auf bestimmte Sprachattribute bezogen waren.

Wie ein Tonfall die Bedeutung einiger Wörter verändern kann.

Interessanterweise wurden die vollständigen Videoaufnahmen der Therapiesitzung dann zur Einordnung in Experten gegeben. Anders als die KI haben sie ihre Vorhersagen mit einer psychologischen Bewertung basierend auf den vokalen (und anderen) Attributen gemacht - einschließlich der gesprochenen Wörter und der Körpersprache. Überraschenderweise war ihre Vorhersage des letztendlichen Ergebnisses (sie waren in 75.6% der Fälle korrekt) schlechter als die Vorhersagen, die von der KI gemacht wurden, nur basierend auf Stimmcharakteristika (79.3%). Natürlich gibt es Elemente, die in der Art, wie wir sprechen, verschlüsselt sind, die nicht einmal Experten bekannt sind. Die besten Ergebnisse wurden jedoch erzielt, indem die automatisierte Bewertung mit der Einschätzung der Experten kombiniert wurde (79.6% korrekt).


Holen Sie sich das Neueste von InnerSelf


Die Bedeutung davon liegt nicht so sehr darin, KI in die Eheberatung einzubeziehen oder Paare dazu zu bringen, besser miteinander zu sprechen (wie verdienstvoll das auch wäre). Die Signifikanz zeigt auf, wie viel Information über unsere zugrunde liegenden Gefühle in der Art und Weise kodiert ist, wie wir sprechen - ein Teil davon ist uns völlig unbekannt.

Wörter, die auf einer Seite oder einem Bildschirm geschrieben sind, haben lexikalische Bedeutungen, die von ihren Wörterbuchdefinitionen abgeleitet sind. Diese werden durch den Kontext der umgebenden Wörter modifiziert. Das Schreiben kann sehr komplex sein. Aber wenn Worte laut vorgelesen werden, nehmen sie wahrhaftig zusätzliche Bedeutungen an, die durch Wortstress, Lautstärke, Sprechgeschwindigkeit und Tonfall vermittelt werden. In einer typischen Konversation gibt es auch eine Bedeutung dafür, wie lange jeder Sprecher redet und wie schnell der eine oder andere einwerfen kann.

Betrachten Sie die einfache Frage "Wer bist du?". Versuchen Sie, dies mit Betonung auf verschiedene Wörter zu sprechen; "Wer sind? genau wie Du ein Geschenk für die Welt bist.?", "Wer sind du und "Wer bist du?". Höre auf diese - Die semantische Bedeutung kann sich mit dem Lesen ändern, auch wenn die Wörter gleich bleiben.

Computer, die "undichte Sinne" lesen?

Es überrascht nicht, dass Wörter unterschiedliche Bedeutungen vermitteln, je nachdem, wie sie gesprochen werden. Es ist auch nicht verwunderlich, dass Computer etwas von der Bedeutung, die hinter unserem Sprechen steht, interpretieren können (vielleicht eines Tages werden sie es sogar können) verstehe Ironie).

Aber diese Forschung geht weiter, als nur die Bedeutung eines Satzes zu betrachten. Es scheint grundlegende Einstellungen und Gedanken zu enthüllen, die hinter den Sätzen liegen. Dies ist eine viel tiefere Ebene des Verständnisses.

Die Therapieteilnehmer lasen keine Wörter wie Schauspieler. Sie sprachen nur natürlich - oder so natürlich wie sie konnten in einem Therapeutenbüro. Und doch enthüllte die Analyse Informationen über ihre gegenseitigen Gefühle, dass sie versehentlich in ihre Sprache "hineinleckten". Dies ist vielleicht einer der ersten Schritte, um Computer zu benutzen, um zu bestimmen, was wir wirklich denken oder fühlen. Stellen Sie sich für einen Moment mit zukünftigen Smartphones im Gespräch - werden wir Informationen "auslecken", die sie aufnehmen können? Wie werden sie antworten?

Könnten sie uns über mögliche Partner beraten, indem sie uns zuhören? Könnten sie eine Neigung zu antisozialem Verhalten, Gewalt, Depression oder anderen Bedingungen erkennen? Es wäre kein Vorstellungsvermögen, sich das vorzustellen Geräte selbst als zukünftige Therapeuten - Wir interagieren auf verschiedene Weise mit uns, um die Wirksamkeit der von ihnen durchgeführten Maßnahmen zu verfolgen.

Mach dir noch keine Sorgen, denn wir sind Jahre weg von einer solchen Zukunft, aber es erhöht sich Fragen des Datenschutzesvor allem, wenn wir mit Computern intensiver interagieren und gleichzeitig die Welt um sie herum stärker analysieren.

Das GesprächWenn wir innehalten, betrachten wir auch die anderen menschlichen Sinne außer Klang (Sprache); vielleicht geben wir auch Informationen durch Sehen (wie Körpersprache, Erröten), Berührung (Temperatur und Bewegung) oder sogar Geruch (Pheromone). Wenn intelligente Geräte so viel lernen können, indem sie darauf hören, wie wir sprechen, fragt man sich Wie viel mehr könnten sie von den anderen Sinnen erfahren.

Über den Autor

Ian McLoughlin, Professor für Informatik, Schulleiter (Medway), University of Kent

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema:

{amazonWS: searchindex = Bücher; Schlüsselwörter = erfolgreiche Beziehungen; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

Folge InnerSelf weiter

facebook-icontwitter-iconRSS-Symbol

Holen Sie sich das Neueste per E-Mail

{Emailcloak = off}