Vorbild Gehirn - wie Computer hören lernen

Neue Software soll Spracherkennung verbessern

Sehen, Hören, Fühlen - die Wahrnehmung der zahllosen verschiedenartigen und schnell wechselnden Reize unserer Umwelt scheint uns ganz selbstverständlich. Doch was das Gehirn scheinbar so mühelos bewältigt, stellt Computer bisher oft noch vor unlösbare Aufgaben.

Forscher des Leipziger Max-Planck-Instituts für Kognitions- und Neurowissenschaften und des Wellcome Trust Centre for Neuroimaging in London haben nun ein mathematisches Modell entwickelt, mit dem die maschinelle Wahrnehmung und Verarbeitung von gesprochener Sprache deutlich verbessert werden könnte.

Diese oder ähnliche Algorithmen, die Mechanismen des Gehirns imitieren, könnten Computer in Zukunft helfen, die Welt wahrzunehmen. (PLoS Computational Biology, 12. August 2009)


Wie schwer es Computern fällt, mit gesprochener Sprache umzugehen, haben wahrscheinlich viele Menschen schon einmal erlebt. Starke Nerven braucht zum Beispiel, wer mit einem der Sprachautomaten kommuniziert, die von vielen Telefonhotlines eingesetzt werden. Wird nur ein wenig zu schnell oder zu langsam gesprochen, ist die Aussprache undeutlich oder gibt es ein Störgeräusch im Hintergrund, scheitert der Automat in der Regel. Grund dafür ist das sehr störungsanfällige Verfahren, mit dem Computerprogramme bisher Sprache verarbeiten. Der Computer versucht dabei vor allem, charakteristische Merkmale in den Frequenzen der Stimme zu erkennen, um Worte zu identifizieren.

Gehirn nutzt verschiedene zeitliche Ebenen zur Spracherkennung

"Das Gehirn nutzt wahrscheinlich ein anderes Verfahren", sagt Stefan Kiebel vom Leipziger Max Planck-Institut für Kognitions- und Neurowissenschaften. Der Forscher vermutet, dass dabei besonders die Analyse zeitlicher Abfolgen eine große Rolle spielt. "Viele Wahrnehmungsreize unserer Umwelt lassen sich als zeitliche Abfolgen beschreiben." So bestehen Musik und gesprochene Sprache aus hierarchisch aufeinander aufbauenden Abschnitten.

Das Gehirn, so die Hypothese des Wissenschaftlers, unterteilt dabei die verschiedenen Signale von den kleinsten, schnell veränderlichen Elementen (z.B. einzelnen Sprachlauten wie "u" oder "e") bis hin zu den größeren, langsam veränderlichen Informationen (z.B. das Gesprächsthema). Die Bedeutung der Informationen auf verschiedenen zeitlichen Ebenen sei für die Verarbeitung von Wahrnehmungsreizen wahrscheinlich sehr viel größer als bisher angenommen.

"Das Gehirn sucht permanent nach zeitlicher Struktur in der Umwelt, aus der es ableiten kann, was als nächstes passieren könnte", erklärt der Wissenschaftler. Auf diese Weise kann das Gehirn etwa, basierend auf den sich langsam verändernden Informationen, die nächsten Laute häufig bereits erahnen. So wird, wenn sich das Gesprächsthema z.B. um den heißen Sommer dreht, der Wortbeginn "So…" eher in "Sonne" als "Sofa" enden.

Um ihre Annahmen auf die Probe zu stellen, entwarfen die Forscher ein mathematisches Modell, das die neuronalen Abläufe bei der Sprachverarbeitung stark vereinfacht nachahmt. Neuronale Strukturen wurden dabei mit Algorithmen nachgebildet, die akustische Reize auf verschiedenen zeitlichen Ebenen verarbeiten sollten. Tatsächlich gelang es so, ein System zu entwerfen, das Sprache verarbeiten und einzelne Sprachlaute und Silben erkennen kann. Anders als bisherige Spracherkennungssysteme war es zudem in der Lage, auch schneller abgespielte Sprache zu verstehen. Das System besaß zudem die Fähigkeit des Gehirns, die nächsten Laute "vorherzusagen": Erwies sich eine Vorhersage dabei als falsch, weil die Forscher aus den bekannten Lauten eine unbekannte Silbe kombinierten, war das Modell fähig, den Fehler zu bemerken.

Modell eignet sich zur Spracherkennung

Die "Sprache", mit der das Modell getestet wurde, war vereinfacht - sie bestand aus den vier Vokalen a, e, i und o, die sich jeweils zu "Silben" aus vier Lauten zusammensetzten. "Zunächst ging es nur darum zu prüfen, ob die prinzipielle Annahme stimmt", erklärt Kiebel. Mit mehr Zeit und Mühe könne man aber auch die schwieriger voneinander abzugrenzenden Konsonanten einbeziehen und neben Lauten und Silben weitere Hierarchie-Ebenen für Wörter und Sätze einbauen. So ließe sich das Modell im Prinzip auch auf natürliche Sprachen übertragen.

"Interessant für die Neurowissenschaften ist, dass die Reaktionen des Modells dem ähnelten, was mit einem echten menschlichen Gehirn zu beobachten wäre", sagt Stefan Kiebel. Dies deutet darauf hin, dass das Modell der Forscher den tatsächlichen Abläufen im Gehirn entspricht. Zugleich liefert das Modell neue Ansätze für die Weiterentwicklung von maschineller Spracherkennung.

Literatur

Originalveröffentlichung:

  • Stefan J. Kiebel, Katharina von Kriegstein, Jean Daunizeau, Karl J. Friston: Recognizing sequences of sequences, in: PLoS Computational Biology, 12. August 2009

Ähnliche Beiträge wie Vorbild Gehirn - wie Computer hören lernen

Ansichten Ähnlichkeit
Software analysiert das Wissen in Wiktionary und Wikipedia – Computer ›lernen‹ vom Menschen
Artikel erstellt am 01.02.2009 von Thomas, zuletzt bearbeitet am 06.02.2009
750 380263%
Quanten Machines - Computer mit QM Sprachsteuerung, Vorderseite
Mit dem Computer sprechen – Quanten Machines verkauft Computer, die ganze Sätze verstehen und eigenständig Anwendungen ausführen
Artikel erstellt am 21.11.2008 von Omega, zuletzt bearbeitet am 22.11.2008
1.149 366650%
Sprachcomputer sollen Gefühle erkennen – Emotionserkennung aus Sprachsignalen
Artikel erstellt am 16.02.2009 von Thomas, zuletzt bearbeitet am 17.02.2009
420 381488%
Sprachtechnologie: TV-Sendungen werden automatisch zu Text und durchsuchbar – Kooperation zwischen Bayerischem Rundfunk und European Media Laboratory - Automatische Verschriftung von Sendungen des „BR-Alpha Forums“
Artikel erstellt am 28.10.2009 von Thomas, zuletzt bearbeitet am 01.11.2009
378 679313%
Neue Medien sind gut für die Schriftkultur – Studie der Stanford-Universität lobt Qualität und Quantität von Online-Texten
Artikel erstellt am 17.10.2009 von CarolaH, zuletzt bearbeitet am 17.10.2009
655 678338%