hide
Free keywords:
-
Abstract:
Während wir mit anderen Menschen sprechen, verbinden wir ständig Informationen von Gesicht und Stimme, um die Identität unseres Gesprächspartners zu erkennen und seine Sprachnachricht zu verstehen. Selbst wenn wir eine Person nur sprechen hören, aktiviert das Gehirn gelernte Assoziationen des Gesichts, um die Stimmerkennung zu verbessern. Das ist möglich, weil Gesichts- und Stimmerkennungsareale direkt miteinander verknüpft sind. Umgekehrt werden akustische Vorinformationen genutzt, um visuelle Sprachverarbeitung, etwa beim Lippenlesen, zu verbessern.