In lauten Räumen hört unser Gehirn anders

Wenn wir von Angesicht zu Angesicht sprechen, tauschen wir viel mehr Signale aus als nur Worte. Wir kommunizieren mit unserer Körperhaltung, Gesichtsausdrücken und Kopf- und Augenbewegungen; aber auch durch die Rhythmen, die entstehen, wenn jemand spricht. Ein gutes Beispiel ist die Geschwindigkeit, mit der wir Silben in kontinuierlicher Sprache produzieren - ungefähr drei bis sieben Mal pro Sekunde. In einer Unterhaltung ein Zuhörer stimmt ein zu diesem Rhythmus und verwendet es, um das Timing der Silben vorherzusagen, die der Sprecher als nächstes verwenden wird. Dies erleichtert es ihnen, dem Gesagten zu folgen.

Viele andere Dinge gehen auch weiter. Verwenden Gehirn-Imaging-Techniken wir wissen zum Beispiel, dass, selbst wenn niemand spricht, der Teil unseres Gehirns für das Hören verantwortlich ist produziert rhythmische Aktivität mit einer ähnlichen Rate wie die Silben in der Sprache. Wenn wir jemandem zuhören, der spricht Gehirnrhythmen richten sich aus zur Silbenstruktur. Als ein Ergebnis stimmen die Gehirnrhythmen in Frequenz und Zeit überein und verfolgen das eingehende akustische Sprachsignal.

Wenn jemand spricht, wissen wir, dass seine Lippenbewegungen auch dem Zuhörer helfen. Oft gehen diese Bewegungen der Rede voran - zum Beispiel öffnen sie den Mund - und liefern wichtige Hinweise darauf, was die Person sagen wird. Lippe-Bewegungen enthalten jedoch selbst genug Informationen, die trainierten Beobachtern erlauben, Sprache zu verstehen, ohne irgendwelche Worte zu hören - daher können manche Menschen natürlich auch Lippenlesen.

Was bisher unklar war, ist, wie diese Bewegungen im Gehirn des Zuhörers verarbeitet werden.

Lippensynchronisation

Dies war das Thema unserer neueste Studie. Wir schon Das wusste ich es sind nicht nur die Stimmbänder eines Sprechers, die einen Silbenrhythmus erzeugen, sondern auch ihre Lippenbewegungen. Wir wollten sehen, ob die Gehirnwellen der Zuhörer sich während kontinuierlicher Sprache auf die Lippenbewegungen der Sprecher ausrichten, und zwar in vergleichbarer Weise wie sie sich an die akustische Sprache selbst anpassen - und ob dies für das Verständnis der Sprache wichtig ist.


Innerself-Abonnieren-Grafik


Unsere Studie hat zum ersten Mal gezeigt, dass dies tatsächlich der Fall ist. Wir haben die Gehirnaktivität von gesunden 44-Freiwilligen aufgezeichnet, während sie sich Filme von jemandem ansahen, der eine Geschichte erzählte. Genau wie der auditorische Teil des Gehirns haben wir festgestellt, dass der visuelle Teil auch Rhythmen erzeugt. Diese richten sich nach dem Silbenrhythmus aus, der von den Lippen des Sprechers während der kontinuierlichen Rede erzeugt wird. Und wenn wir die Hörbedingungen durch ablenkendes Sprechen schwieriger machten, was bedeutete, dass die Lippenbewegungen des Geschichtenerzählers wichtiger wurden, um zu verstehen, was sie sagten, wurde die Ausrichtung zwischen den beiden Rhythmen präziser.

Darüber hinaus haben wir festgestellt, dass die Teile des Gehirns des Zuhörers, die die Lippenbewegungen kontrollieren, auch Gehirnwellen erzeugen, die auf die Lippenbewegungen des Sprechers ausgerichtet sind. Und wenn diese Wellen besser auf die Wellen vom motorischen Teil des Sprechgehirns ausgerichtet sind, versteht der Hörer die Sprache besser.

Dies unterstützt die Idee, dass Gehirnareale, die für die Sprachproduktion verwendet werden, sind ebenfalls wichtig für das Verständnis von Sprache und könnten Auswirkungen auf die Untersuchung des Lippenlesens zwischen Menschen mit Hörproblemen haben. Nachdem dies in Bezug auf einen Sprecher und Zuhörer gezeigt wurde, wird der nächste Schritt darin bestehen, zu untersuchen, ob das Gleiche bei Gehirnrhythmen während einer Zwei-Wege-Konversation geschieht.

Warum sind diese Einsichten interessant? Wenn es richtig ist, dass Sprache normalerweise einen Kanal für die Kommunikation herstellt, indem sie Gehirnrhythmen an Sprachrhythmen anpasst - ähnlich wie ein Radio auf eine bestimmte Frequenz eingestellt wird, um eine bestimmte Station zu hören -, legen unsere Ergebnisse nahe, dass es andere komplementäre Kanäle geben kann über wenn nötig. Wir können uns nicht nur auf die Rhythmen aus den Stimmbändern von jemandem einstellen, sondern auch auf die entsprechenden Rhythmen aus ihrer Lippenbewegung. Anstatt dies mit dem auditorischen Teil unseres Gehirns zu tun, tun wir es durch die Teile, die mit Sehen und Bewegung assoziiert sind.

Und Sie müssen kein ausgebildeter Lippenleser sein, um davon zu profitieren - deshalb können die meisten Menschen auch in einer lauten Umgebung wie einem Pub oder einer Party miteinander kommunizieren.

Über den Autor

Joachim Gross, Professor für Psychologie, Universität Glasgow. Seine Gruppe untersucht die funktionelle Rolle von Gehirnoszillationen mittels Neuroimaging und computergestützten Methoden. Sein Hauptziel ist es zu verstehen, wie Gehirnoszillationen Wahrnehmung und Aktion unterstützen.

Hyojin Park, wissenschaftlicher Mitarbeiter, Universität Glasgow. Ihre aktuelle Forschung ist das Verständnis der Kodierung und Dekodierung von neuronalen Oszillationen im Kontext der Sprachverarbeitung unter Verwendung von Bildgebungsverfahren, die optimal auf die zeitliche Dynamik im menschlichen Gehirn abgestimmt sind.

Dieser Artikel wurde ursprünglich veröffentlicht am Das Gespräch.. Lies das Original Artikel.

Bücher zum Thema

at InnerSelf Market und Amazon