Vom Klang zur Bedeutung: Ein interview mit dr. Greta Kaufeld

/

Dr. Greta Kaufeld war Doktorandin am Max-Planck-Institut für Psycholinguistik und verteidigte am 19. Januar 2021 ihre Doktorarbeit zum Thema „Untersuchung des Sprachverständnisses als Wahrnehmungsinferenz“.

Worin bestand die Hauptfragestellung Deiner Dissertation?
Ich wollte eine ganz grundsätzliche Frage der Sprachforschung etwas näher beleuchten: Wie kreiert unser Gehirn Bedeutungen? Hierbei habe ich mir insbesondere die gesprochene Sprache angesehen. Mein Hauptziel war, mehr über den Prozess herauszufinden, wie man vom einfachen Klang einer Sprache zum Verstehen ebendieser übergeht und verschiedene Informationsquellen beim Verstehen von gesprochener Sprache kombiniert werden.

Kannst Du mir den theoretischen Hintergrund etwas mehr erklären?

Im Wesentlichen ist gesprochene Sprache ein akustisches Signal – der Sprecher erzeugt eine Reihe von Schwankungen im Luftdruck, die der Zuhörer wahrnehmen und verstehen kann. Es gibt jedoch im akustischen Signal keinerlei eindeutigen physischen Hinweis auf die Bedeutung; Sprachverständnis kann nur erfolgen, wenn der Hörer die akustischen Informationen mit seinem Wissen über eine bestimmte Sprache kombiniert. Ein ganz einfaches Beispiel dafür ist das Hören einer uns unbekannten Sprache: Wir können dann zwar das akustische Signal noch wahrnehmen, verstehen es aber nicht, da wir nicht über die erforderlichen Sprachkenntnisse verfügen.
In meiner Dissertation habe ich unser Sprachverstehen mit Hilfe der „Wahrnehmungsinferenz“ untersucht und gefragt, wie das Gehirn verschiedene Informationen (sowohl aus dem akustischen Signal als auch aus unserem sprachlichen Vorwissen) kombiniert, um daraus eine Bedeutung zu formen. Ich wollte mehr über die spezifischen Arten von Informationen wissen, auf die Hörer zurückgreifen und somit Strategien zum besseren Verständnis kontextabhängig „anpassen“ können.

Warum ist eine Antwort auf diese Frage wichtig?
Für mich ist Sprache eines der beeindruckendsten menschlichen Verhaltensweisen; Durch physische Signale sind wir in der Lage, einander komplexe Gedanken, Ideen und Gefühle mitzuteilen. Ist das nicht faszinierend? Wenn wir genauer untersuchen, wie unser Gehirn es schafft aus akustischen Signalen Bedeutungen zu generieren, hilft uns das hoffentlich die menschliche Kommunikation grundsätzlich besser zu verstehen.

Kannst Du uns etwas mehr über ein bestimmtes Projekt (Frage, Methode, Ergebnis) erzählen?
In einem meiner Kapitel wollte ich mehr darüber erfahren, wie das Gehirn es schafft akustische Informationen und verschiedene Arten von sprachlichem Wissen zu kombinieren. Hierfür wurde die Gehirnaktivität der Teilnehmer mit EEG gemessen, während sie verschiedene Arten von sprachlichen Reizen hörten.

Eine sehr interessante Erkenntnis aus früheren Forschungsarbeiten ist, dass das Gehirn akustische Sprachsignale „verfolgen“ kann; das heißt, bestimmte Gruppen von Neuronen im Gehirn „synchronisieren“ ihre Feuerungsmuster mit dem Rhythmus des akustischen Signals. Es wurde bereits darauf hingewiesen, dass eben dieses „Tracking“ für das Sprachverständnis relevant ist, aber wir verstehen noch nicht genau, welche Arten von Informationen diese Synchronisation tatsächlich beeinflussen.

In meiner EEG-Studie haben wir untersucht, ob das Ausmaß des Trackings allein durch die akustischen Informationen im Sprachsignal beeinflusst wird oder auch durch vorhandene sprachliche Informationen. Um dies herauszufinden hatte das Experiment drei verschiedenen Bedingungen. In einer Bedingung hörten die Zuhörer „normale“ Sätze, sprich Sätze mit Struktur, Bedeutung und satzbezogene Prosodie (Die Intonation, Betonung und Rhythmus in einem Satz). In einer zweiten Bedingung hörten die Zuhörer zusammengewürfelte Version dieser Sätze, die zwar noch bedeutungsvolle Wörter enthielten, aber keinerlei Struktur oder satzbezogene Prosodie. Anhand der Reaktion der Teilnehmer auf diese wahllosen Wörter im Vergleich zu den realen Sätzen konnte ich sehen, inwieweit die Teilnehmer ihr Wissen über Satzstruktur bei der Verfolgung des Sprachsignals nutzten. In einer dritten Bedingung hörten die Zuhörer sogenannte „jabberwocky“-Stimuli, bei denen es sich um „Sätze“ handelt, die aus nicht existierenden Wörtern bestehen. (Der Name „jabberwocky“ stammt aus Lewis Carrolls berühmtem Unsinnsgedicht über ein Monster namens „the Jabberwock“ – siehe hier für ein Beispiel und hier für „Übersetzungen“ in verschiedene Sprachen)

Diese „jabberwocky“-Stimuli enthalten satzartige Strukturen und Prosodie, aber keine wirkliche Bedeutung. Durch den Vergleich der Hirnströme zwischen diesen bedeutungslosen Sätzen und den „normalen“ Sätzen konnte ich sehen, ob die Teilnehmer das Sprachsignal „verfolgten“, wenn der Satz zwar wie ein echter Satz klang, jedoch keinerlei reale Bedeutung hatte.
Diese Studie zeigte, dass das Ausmaß, in dem Hörer das Sprachsignal „verfolgen“ nicht nur an der Akustik liegt, sondern auch von der mit einhergehenden sprachlichen Information beeinflusst wird: Das „Tracking“ war stärker, wenn die Teilnehmer normale Sätze hörten im Vergleich zu wahllos aneinander gereihter Wörter und jabberwocky Stimuli. Somit scheint sich die Gehirnaktivität stärker am Sprachsignal zu orientieren, sofern auch Rückschlüsse über Struktur und Bedeutung gewonnen werden können.

Was ist Deine wichtigste Erkenntnis?
Für mich war eines der faszinierendsten Erkenntnisse, dass die Zuhörer sehr flexibel darin sind, verschiedene Informationsquellen für ein besseres Sprachverständnis zu kombinieren. Dies hab Ich in einem Experimente im Detail untersucht und festgestellt, dass Hörer tatsächlich unterschiedliche „Präferenzen“ in Bezug auf den Umgang mit akustischen und sprachlichen Informationen haben: Manche Hörer „bevorzugen“ akustische Informationen im Gesprochenen, während andere sich scheinbar mehr auf ihre Sprachkenntnisse verlassen. Ich finde diese Flexibilität wirklich interessant, da sie es uns ermöglicht ziemlich zuverlässig mit Unsicherheiten im Sprachverständnis umzugehen.

Welche Folgen hat diese Erkenntnis? Wie bringt sie die Wissenschaft oder die Gesellschaft voran?
Obwohl wir ohne großen Aufwand sprechen können, gibt es immer noch viele Dinge, die wir nicht ganz verstehen. Vor allem wenn es darum geht, was genau bei diesem Prozess im Gehirn passiert. Meine Doktorarbeit liefert hierzu ein kleines Stück an neuen Informationen in diesem riesigen Puzzle.

Was willst Du als nächstes tun?
Zurzeit arbeite ich in Zürich als Laborassistentin in den Disney Research Studios in Zürich. Viele Dinge, die ich während meiner Promotion gelernt habe, kann ich hier nun anwenden, was ich sehr bereichernd finde.

Link zur Dissertation

Interviewerin: Merel Wolf
Redacteurin: Julia Egger
Niederländische Übersetzung: Caitlin Decuyper
Deutsche Übersetzung: Barbara Molz
Eindredaktion: Merel Wolf