Forschungsbericht 2020 - Max-Planck-Institut für Psycholinguistik

Vom Geräusch zur Sprache: Wie wird Bedeutung im menschlichen Gehirn generiert?

Autoren
Kaufeld, Greta; Meyer, Antje S.
Abteilungen
Abteilung "Psychology of Language"
Zusammenfassung
Die Tageszeitung lesen, einen Kaffee bestellen, nach der Uhrzeit fragen – Sprache ist ein  selbstverständlicher Bestandteil unseres täglichen Lebens. Wir gebrauchen sie fast wie von selbst, um Gedanken, Gefühle, Ereignisse und Bedürfnisse zu kommunizieren. Doch was genau passiert im Gehirn, wenn Menschen einander verstehen? Wie kommt sprachliche Bedeutung zustande? Wir wollten diesen Fragen genauer auf den Grund gehen und untersuchten am Beispiel gesprochener Sprache, wie Hörende während des Sprachverstehens unterschiedliche Informationen kombinieren, um die Bedeutung von Sätzen zu verstehen.

Gesprochene Sprache: Mehr als nur Akustik

An und für sich ist gesprochene Sprache ein akustisches Signal: Was unsere Ohren wahrnehmen, sind zunächst nichts weiter als Schallwellen, also Schwankungen im Luftdruck. Jedes Geräusch, das wir hören können – vom Knarzen des Dielenfußbodens bis hin zu Beethovens neunter Sinfonie - besteht im Grunde aus Schallwellen. Von sich aus tragen diese Luftdruckschwankungen allerdings noch keine offensichtliche Bedeutung. Erst in Kombination mit unserem gelernten Wissen können wir Geräusche mit Bedeutungen verknüpfen (und zum Beispiel das Knarzen dem Holzfußboden in der Küche zuordnen).

Bei gesprochener Sprache verhält sich das nicht anders: Das akustische Signal selbst beinhaltet keine offensichtlichen Bedeutungen, wir können gesprochene Sprache also erst im Zusammenspiel mit unserem erlernten Wissen verstehen. Besonders deutlich wird dieses Phänomen, wenn wir eine Sprache hören, die wir selbst nicht sprechen. Wir können dann die Schallwellen im akustischen Signal zwar nach wie vor wahrnehmen, doch uns fehlt das sprachliche Wissen, um Wörter und Sätze verstehen zu können. Das Sprachverstehen ist also nur möglich, wenn wir die Informationen aus dem akustischen Signal mit unserem erlernten sprachlichen Wissen kombinieren.

Ein komplexes Zusammenspiel an Informationen

Das Ziel unserer Studie war es, zu untersuchen, wie genau dieses Zusammenspiel zwischen akustischen und sprachlichen Informationen stattfindet, und welche Prozesse dabei im Gehirn ablaufen. In früheren Studien konnte bereits gezeigt werden, dass sich Gehirnströme mit dem akustischen Signal von gesprochener Sprache „synchronisieren“ können [2, 3]. Das bedeutet, dass Gruppen von Nervenzellen im Gehirn im gleichen „Takt“ aktiv sind wie die Schallschwingungen im Sprachsignal. Die bisherige Forschung konnte allerdings noch keine genauen Aussagen darüber treffen, warum diese Synchronisierung beim Sprachverstehen stattfindet. Welche Informationen im Sprachsignal sind besonders wichtig? Hat auch unser erlerntes Wissen über sprachliche Bedeutung einen Einfluss darauf, wie stark sich unser Gehirn dem Sprachsignal „anpasst“? Diese Fragen haben wir in unserer Studie genauer unter die Lupe genommen.

Die Synchronisierung zwischen den Schwingungen im Sprachsignal und den Nervenzellen im Gehirn lässt sich mithilfe von Elektroenzephalographie (EEG) messen. In unserem Experiment hörten die Studienteilnehmenden sprachliche Äußerungen, die wir auf dreierlei Weise manipuliert hatten. Die erste Art von sprachlichen Äußerungen waren ganz normale Sätze mit linguistischer Struktur und Bedeutung, zum Beispiel: „Junge Bäcker backen Brote und die höflichen Kunden kaufen Torten.“ Die zweite Art von Äußerung waren Wortlisten, die aus den gleichen Wörtern bestanden wie die Sätze, zum Beispiel: „Bäcker, Brote, Kunden, Torten, die, und, junge, höflichen, kaufen, backen“. Die einzelnen Wörter in den Wortlisten hatten also Bedeutung, sie konnten aber nicht ohne weiteres zu einer Satzstruktur zusammengefügt werden. Die dritte und letzte Art von sprachlichen Äußerungen waren so genannte „Jabberwocky“-Äußerungen. Das sind „Sätze“, die aus Pseudowörtern bestehen, zum Beispiel: „Gurse Gocker göcken Pfäte und die wislichen Arksen ziefen Marten“. Diese Jabberwocky-Sätze ähneln in ihrer Struktur „echten“ Sätzen, sie enthalten aber keine Bedeutung.

Gehirnströme passen sich Struktur und Bedeutung an

Während die Probandinnen und Probanden diese Sprachsignalen hörten, zeichneten wir ihre Gehirnströme mithilfe von EEG auf. Danach analysierten wir, wie stark die Gehirnströme der sich mit den unterschiedlichen Sprachsignalen synchronisiert hatten. Hierbei fokussierten wir unsere Analyse auf bestimmte Frequenzen, die sich bereits in früheren Studien als besonders wichtig für die Sprachverarbeitung erwiesen haben. Unsere Untersuchungen zeigten, dass die Gehirnströme sich besonders stark mit dem akustischen Signal synchronisierten, wenn die Hörerinnen und Hörer ganz normale Sätze hörten. Die Synchronisation mit Wortlisten und Jabberwocky-Sätzen war hingegen schwächer.

Aus diesen Beobachtungen lässt sich schließen, dass unser Gehirn beim Sprachverstehen nicht einfach nur das akustische Signal verfolgt, sondern dass die Gehirnströme dem Signal umso stärker folgen, je mehr sprachliche Struktur und Bedeutung wir einer Äußerung entnehmen können. Die Synchronisation mit den Schallwellen könnte also ein möglicher Mechanismus sein, mithilfe dessen wir sprachliche Bedeutung erfassen: Unser Gehirn kombiniert dazu einerseits die physikalischen Informationen, die im akustischen Signal enthalten sind, und andererseits unser erlerntes Wissen über Sprache.

Literaturhinweise

Kaufeld, G.; Bosker, H. R.; Ten Oever, S.; Alday, P. M.; Meyer, A. S.; Martin, A. E.
Linguistic structure and meaning organize neural oscillations into a content-specific hierarchy.
Journal of Neuroscience 40(49), 9467-9475 (2020)
Keitel, A.; Gross, J.; Kayser, C.
Perceptually relevant speech tracking in auditory and motor cortex reflects distinct linguistic features.
PLoS Biology 16(3), e2004473 (2018)
Ding, N.; Melloni, L.; Zhang, H.; Tian, X.; Poeppel, D.
Cortical tracking of hierarchical linguistic structures in connected speech.
Nature neuroscience 19(1), 158-164 (2016)

Weitere interessante Beiträge

Go to Editor View