Home    Aktuelles    Kalender    Katalog    Anmeldung  
News u. Notiz
 Suche 

Home
News u. Notiz
Kalender
Info
Anmeldung
Kontakt

 Newsletter 
E-Mail-Info mit aktuellen News und Veranstaltungen
Zur Newsletter
Um-, Ab- u. Anmeldung

 Events 

 PDF, Audio, Video 

 LogIn 
UserName: 
Kennwort:  

Kennwort vergessen?
Neu Anmeldung

 Anmelden 


 News u. Notiz 
 

« zurück
Sprachcomputer sollen Gefühle erkennen - Emotionserkennung aus Sprachsignalen  (Archiv) 
Archiviert: 01.03.2009
Wenn zwei Menschen miteinander sprechen, nehmen sie zweierlei wahr: Den Inhalt des Gesagten, aber auch Emotionen, die dadurch zum Ausdruck kommen, wie etwas gesagt wird. Diese so genannten paralinguistischen Eigenschaften des Gesprochenen können von Systemen zur automatischen Spracherkennung wie beispielsweise in einer Telefonanlage bisher nicht erkannt werden. Wissenschaftler des Lehrstuhls für Systemtheorie und Signalverarbeitung der Uni Stuttgart suchen nach Wegen, damit Sprachcomputer auch Gemütsbewegungen verstehen können.


Die Sprachkommunikation besteht aus zwei Ebenen: dem linguistischen (oder expliziten) sowie dem paralinguistischen (oder impliziten) Kommunikationskanal. Über den ersten Kanal wird der Inhalt der Sprachkonversation ausgetauscht: Was wurde gesprochen? Über den zweiten Kanal werden alle darüber hinausgehenden Informationen, also der paralinguistische Anteil der Sprachäußerung, kommuniziert: Wie wurde es gesprochen? Solche paralinguistischen Eigenschaften sind beispielsweise das Alter und das Geschlecht der Sprecher, die in einer Sprachäußerung gespiegelte Emotion (normal, Wut, Glück, Trauer,...), die so genannte Stimmqualität (modal, hauchend, rau, knarrig,...), medizinische Auffälligkeiten in der Stimmgebung oder auch Stress und Nervosität. Auch Informationen über die regionale (Dialekt) beziehungsweise soziale Herkunft gehören zu den paralinguistischen Eigenschaften.

Ein Mensch kann aus einer Sprachkonversation den inhaltlichen wie auch den paralinguistischen Informationsstrom gleichzeitig extrahieren und gemeinsam auswerten. Beim "Gespräch" zwischen Mensch und Computer - oder wissenschaftlich gesprochen an der akustischen Mensch-Computer-Schnittstelle - hat man sich allerdings bis heute fast ausschließlich auf den ersten Kommunikationskanal konzentriert. Diese automatische Erkennung des gesprochenen Textes aus den Sprachsignalen ist bekannt als Spracherkennung.

Mehrstufiges Vorgehen
Dagegen ist die automatische Erkennung der paralinguistischen Eigenschaften aus Sprachsignalen ein noch junges Forschungsfeld, das zunehmendes Interesse erweckt. Die mathematischen Methoden und Algorithmen, die dies ermöglichen sollen, stammen aus dem Gebiet der Mustererkennung, eines Zweiges der statistischen Signalverarbeitung. Wie die Spracherkennung besteht auch die Emotionserkennung aus mehreren Schritten: So werden zunächst emotional bewertete Sprachdatenbanken erstellt, anhand derer das Erkennungssystem trainiert werden kann. Dann werden Merkmale aus den Sprachsignalen berechnet, die sich bezüglich verschiedener Emotionen besonders gut unterscheiden lassen. Es folgen eine Auswahl der sinnvollsten Merkmale sowie der Entwurf und die Optimierung eines lernfähigen Erkennungssystems, das aus den Daten die Entscheidungsregel für die Emotionserkennung selbst extrahiert. Schließlich wird der "Erkenner" trainiert und mit unbekannten Testdaten validiert.
Bei der Berechnung der Merkmale stellte sich allerdings heraus, dass die in der Spracherkennung etablierten Merkmale für die Emotionserkennung nur bedingt nützlich sind, weil sich die linguistischen und paralinguistischen Informationen an unterschiedlichen Stellen der Sprachsignale verstecken. Bis die automatische Emotionserkennung für einen praktischen Einsatz ausgereift ist, sind deshalb noch viele Forschungsarbeiten nötig.

Doch der Aufwand lohnt sich, denn die Anwendungen für die Emotionserkennung aus Sprachsignalen sind vielfältig. Interessenten finden sich in Callcentern ebenso wie im medizinischen Bereich. In Fahrerassistenzsystemen könnte die Technologie detektieren, ob der Fahrer gerade im Stress ist. Zudem könnte die konventionelle Spracherkennung verbessert werden, weil die emotionale Färbung einer Sprachäußerung oft mit dem Inhalt des Gesagten verbunden ist: Das Schimpfwort "Mist" und das Grußwort "Herzlichen Glückwunsch" sind immer mit unterschiedlichen Emotionen verbunden. In der umgekehrten Richtung sollen die Erkenntnisse aus der Emotionserkennung auch dazu beitragen, die synthetisierte Sprache des Sprachcomputers emotionaler zu gestalten.

Links:
http://www.lss.uni-stuttgart.de/

Prof. Bin Yang, 17.02.2009

Thema: k.D.

Bitte vergeben Sie für diesen Artikel eine Note
zwischen +3 (lesenswert) und -3 (nicht lesenswert)

Artikel bewerten:
+3 +2 +1 0 -1 -2 -3

  Aktuelle Auswertung:
Gesamtbewertung (Alle Punkte): 0

Plus: , Neutral: , Minus: 0
  0 = neutral (Artikel zur Kenntnis genommen)


Leser-Beiträge
Hinterlassen Sie hier Ihre Informationen oder Anmerkungen, für andere Leser.
Jetzt ohne Anmeldung!

 neuen Eintrag erstellen 

Home | News | Kalender | Katalog | Anmeldung
Newsletter | Info | Impressum | Kontakt

diagramm.net - Alle Inhalte dienen der persönlichen Information.







Pub-Info