Es ist so, der Ton macht die Musik: Forscher haben herausgefunden, wie unser Gehirn subtile Veränderungen im Tonfall eines Sprechers wahrnimmt und verarbeitet. Dabei stießen sie auf Überraschungen: Beim Interpretieren des Tonfalls spielt unser Gehirn die Kehlkopfbewegungen nach (spiegelt sie), mit denen die Töne entstanden. Außerdem liegen die dazu nötigen komplexen Netzwerke von Nervenzellen (=neuronalen Netze) in einer anderen Hirnhälfte als diejenigen zur Erkennung von Sprache, beschreiben die Neurologen im Magazin "Current Biology".
Sprache ist viel mehr als nur aneinandergereihte Worte: Der Tonfall, in dem wir diese Worte aussprechen, trägt entscheidend zu deren Bedeutung bei. Oft verrät er sogar mehr über die Ansichten des Sprechers als die rein wörtliche Bedeutung des Gesagten. "Stellen Sie sich doch einfach mal ein leidenschaftlich, ein zögerlich oder ein ironisch gesprochenes 'Ja' in Antwort auf einen Heiratsantrag vor", schlägt PD Dr. Daniela Sammler vom Max-Planck-Instituts für Kognitions- und Neurowissenschaften in Leipzig vor. "Da haben Sie ein anschauliches Beispiel für die wichtige Funktion des Tonfalls."
Es kommt auf die Verbindungen an (PROSODIE)
Diesen Aspekt der Sprache fassen Wissenschaftler unter dem Begriff Prosodie zusammen. Diese beinhaltet alle sprachlichen Eigenschaften wie Akzent, Intonation oder auch Sprechpausen. Wie das Gehirn diesen wichtigen Teil unserer Kommunikation verarbeitet, war jedoch bislang unklar.
Es ist schon bisher bekannt, dass die reinen Wortlaute vor allem in den Sprachzentren der linken Gehirnhälfte entschlüsselt werden. ...
Eine besondere Aktivität in Regionen der rechten Hirnhälfte
Menschliches Verhalten und auch die Sprache lassen sich -unter normalen Bedingungen und Umständen- aber nicht alleine nur auf einzelne Hirnregionen reduzieren, es kommt vor allem auf die Verbindungen zwischen den einzelnen Bereichen an. Solche existierenden neuronale Pfadmodelle lieferten bislang keine Anhaltspunkte über die Verarbeitung der Prosodie. Die Neurologin Dr. Sammler und ihre Kollegen haben dies nun mit einem speziellen Experiment geändert. Die Forscher ließen Männer und Frauen mit Englisch als Muttersprache verschiedene Sprachaufgaben lösen. Sie sollten entweder entscheiden, ob Worte als Frage oder Aussage gesprochen wurden. Als Kontrolle sollten sie den Anfangsbuchstaben des gesprochenen Textes heraushören. Dabei maßen die Forscher die Gehirnfunktionen der Probanden mittels funktioneller Magnetresonanztomografie (fMRT). Die Ergebnisse zeigten zunächst zwei Gruppen aktiver Regionen in der rechten Hirnhälfte. Die erste Gruppe besteht aus dem vorderen und hinteren superioren temporalen Sulcus, der obersten der drei Furchen im Schläfenlappen des Gehirns. Diese Areale scheinen die Stationen zu sein, die den charakteristischen akustischen Verlauf der Tonhöhen bei Fragen oder Aussagen heraushören und entsprechend interpretieren können, so die Forscher.
Unser Gehirn stellt die Bewegung des Kehlkopfes nach
Über flexible Pfade werden feine Untertöne unterscheidbar gemacht
Darüber hinaus bestimmten die Forscher die Bündel von Nervenfasern der weißen Substanz (neuronale Wege), die dem Informationsaustausch in diesem neuronalen Netzwerk zugrunde liegen. Dafür berechneten die Forscher die anatomischen Verbindungen zwischen den aktivierten Gehirnregionen aus den Gehirnbildern der Studienteilnehmer. Die Ergebnisse zeigen deutlich zwei Faserbündel, die die beiden zuvor erkannten aktiven Gruppen in der rechten Hirnhälfte miteinander verbinden. Eines folgt dem sogenannten mittleren longitudinalen Fasciculus, das zweite dem folgt dem Verlauf des Fasciculus arcuatus beziehungsweise des superioren longitudinalen Fasciculus. Dieser ist in der linken Hemisphäre bereits als Verbindungsbahn zwischen den Sprachzentren bekannt.
Fazit: Unser Gehirn nimmt den Tonfall einer Sprache also entlang mehrerer neuronaler Pfade wahr. Im Unterschied zu anderen Signalpfaden für Sprache liegen sie vor allem in der rechten Hirnhälfte. "Vermutlich lassen sich diese Pfade flexibel kombinieren und erfüllen so unterschiedliche Aufgaben", fasst Dr. Sammler zusammen. "Dadurch kann das Gehirn feine Untertöne in der Stimme des Gegenübers erkennen." Die genaue Kenntnis dieses Prosodie-Netzwerkes helfe auch beim Verständnis zwischenmenschlicher Kommunikation und ihrer Störungen. Das Gehirn übersetzt Gehörtes auch in einen Bewegungsbefehl (ähnlich der sog. ideomotorischen Bewegung/Carpenter-Effekt). Dies fördert das Verständnis von Sprache, indem der Hörer die Bewegungsprogramme rekonstruiert, die ein Sprecher für die Produktion des Gehörten selbst genutzt hat.
Quelle: Current Biology; doi: 10.1016/j.cub.2015.10.009/Max-Planck-Institut für Kognitions- und Neurowissenschaften-AKR/
Bildquellen: Mund_und_Kehlkopf_©_Fotolia/und IPN
Link: Originalbeitrag auf www.cell-com