Bücher hören für die Wissenschaft
Forschende der FAU machen mit einem interdisziplinären Projekt die Sprachforschung realistischer
Sprechen und Sprache zu verstehen gehört zu den komplexesten Leistungen des menschlichen Gehirns. Seit Langem versuchen Forscherinnen und Forscher diese besser zu verstehen, indem sie beobachten, was sich im Gehirn verändert, wenn Menschen sprechen, lesen oder Sprache hören. Doch die Versuchsaufbauten waren die längste Zeit sehr künstlich, Probandinnen und Probanden bekamen nur einzelne Wörter oder Sätze zu lesen oder hören. Einem interdisziplinären Team unter der Leitung von Dr. Achim Schilling und Dr. Patrick Krauss von der Cognitive Computational Neuroscience Group der FAU ist jetzt ein wichtiger Schritt gelungen, um diese Forschung realistischer zu machen: Sie maßen die Gehirnaktivität von Versuchspersonen, während diese ein Hörbuch anhörten. Anschließend werteten sie die Daten mit modernsten Methoden aus dem Bereich der Computerlinguistik und des Maschinellen Lernens aus. Die Ergebnisse wurden in der Zeitschrift „Language, Cognition and Neuroscience“ veröffentlicht.
Hörbücher hören für die Wissenschaft, das klingt fast nach Urlaub. Ganz so entspannt war es für die Probandinnen und Probanden nicht: Sie mussten den Blick auf einen Punkt gerichtet halten, zwischendurch Verständnisfragen beantworten und den Magnetoenzephalographen über ihrem Kopf ignorieren, der Veränderungen in ihrer Gehirnaktivität aufzeichnete. Dennoch war die Aufgabe deutlich realistischer als die, mit denen Sprachforscherinnen und -forscher gewöhnlich arbeiten.
„Das war zum einen ein proof of concept, wir wollten zeigen, dass man so sinnvolle Daten bekommen kann“, erklärt Kognitionsforscher Dr. Patrick Krauss. Das gelang. Und die Daten erwiesen sich nicht nur als brauchbar, es waren auch viele: In einer einzigen Mess-Sitzung hörten die Probandinnen und Probanden 40 Minuten Hörbuch und damit etwa 7000 Wörter. „Mit den für diese Studie gemessenen 15 Testpersonen, haben wir also die Gehirnaktivität von 10 Stunden gesprochener Sprache gemessen, was circa 100.000 Wörtern entspricht“, so Krauss. „Und dieser Datensatz kann immer wieder neu ausgewertet werden. So können wir mit einem einzigen Datensatz eine schier unbegrenzte Zahl von Hypothesen testen, aber auch völlig neue Hypothesen generieren. Das stellt einen Paradigmenwechsel in der Kognitiven Neurowissenschaft der Sprache dar und ist ein unschätzbarer Vorteil gegenüber den bisherigen Verfahren.“ Zugleich ist es eine Premiere: „Der Ansatz, mit kontinuierlicher, natürlicher, gesprochener Sprache zu stimulieren, anstatt mit wohl kontrollierten wiederholten Einzelstimuli, wurde so in Erlangen noch nie vorher erfolgreich durchgeführt.“
Mit dieser Studie, an der auch Forschende des Brain Language Lab der Freien Universität Berlin, das neu gegründete Linguistics Lab sowie der Lehrstuhl für Machine Intelligence der FAU und mehrere Institute des Universitätsklinikums Erlangen beteiligt waren, verfügt das Forschungsteam jetzt über einen Datensatz, der sich mit den Beständen anderer Forschungsfelder messen kann. Und dieser Datenbestand wächst weiter: Für eine noch nicht publizierte Folgestudie hat das Team gleich 50 Versuchspersonen beim Zuhören zugeschaut. „Mit diesem Ansatz vereinigen wir die Vorteile bildgebender Verfahren mit denen der Korpuslinguistik“, so Krauss. „Das öffnet der Forschung viele spannende neue Wege.“
Weitere Informationen:
Dr. Patrick Krauss
Cognitive Computational Neuroscience Group am
Lehrstuhl für Anglistik, insbesondere Linguistik
patrick.krauss@fau.de