Chemnitzer Forscherteam untersucht verbesserte Mensch-Maschinen-Interaktion
Ein interdisziplinäres Forschungsteam der Professuren Künstliche Intelligenz, Computerphysik, Allgemeine und Arbeitspsychologie, sowie Graphische Datenverarbeitung und Visualisierung der Technischen Universität Chemnitz will ein „Kognitives System“ entwickeln, das es Maschinen ermöglichen soll, menschliche Mimik und Gestik adäquat zu interpretieren. Gefördert wird das Projekt „Sozial agierende, kognitive Systeme zur Feststellung von Hilfsbedürftigkeit" mit einer Laufzeit von drei Jahren vom Europäischen Sozialfonds (ESF) über die Sächsische Aufbaubank (SAB).
Smartphones, Smart-Home-Systeme oder Kassier-Automaten in Supermärkten: Rasante technische Entwicklungen bringen immer intelligentere technische Lösungen hervor und sind mittlerweile in nahezu allen Bereichen des Lebens anzutreffen. Aber schnelle und umfassende Veränderungen können zu einem Gefühl der Überforderung führen, vor allem bei älteren Menschen. Ihnen fällt es oft schwerer, neue Technologien zu verstehen und anzuwenden. Dadurch werden die Unterstützungs- und Hilfsmöglichkeiten intelligenter Systeme kaum richtig ausgeschöpft. Der demografische Wandel verstärkt diesen Effekt noch zusätzlich.
„Unser Projekt zielt darauf ab, ein kognitives System zu entwickeln, welches anhand beobachtbarer Parameter wie Mimik oder Körperbewegung in der Lage ist, die Hilfsbedürftigkeit des Nutzers oder der Nutzerin zu erkennen“, sagt Prof. Fred Hamker, Leiter der Professur Künstliche Intelligenz und Verantwortlicher des Projekts. Durch soziale kognitive Systeme können Hilfsangebote genau dann zur Verfügung gestellt werden, wenn sie wirklich benötigt werden. Damit das funktioniert, arbeiten die Fachgebiete Psychologie, Informatik und Physik eng zusammen, um möglichst viele Indikatoren für Hilfsbedürftigkeit zu identifizieren.
Hierzu hat das Team eine erste Laborstudie durchgeführt, die das Potenzial von Mimik, Körperhaltung, Nutzereingaben und spontanen, verbalen Äußerungen als Informationsquelle für den emotionalen und kognitiven Status des Nutzers oder der Nutzerin während der Bedienung eines Computersystems ermitteln soll. Dafür haben Studierende und Mitarbeitende der TU Chemnitz Aufgaben mit unterschiedlichen Schwierigkeitsgraden in einem ihnen bekannten Statistikprogramm bearbeitet, während mit mehreren Kameras ihre Mimik sowie ihre Körperhaltung aufgezeichnet wurde. Auch die Mausbewegungen und die spontanen verbalen Äußerungen wurden erfasst. So ist es möglich zu ermitteln, wie sich diese verschiedenen Parameter mit steigender Frustration und Hilfsbedürftigkeit verändern.
Über ein speziell von der Professur Künstliche Intelligenz entwickeltes System werden dann die Gesichter der Probanden und Probandinnen analysiert. Markante Punkte im Gesicht wie zum Beispiel der Mundwinkel geben Aufschluss über den emotionalen Zustand. Zudem zeigt auch die Haltung der Probanden an, wie sie sich mit Ihren Aufgaben fühlen. „Auf Basis dieser Daten wird der Maschine ein sogenanntes „Memory Hidden Markov-Modell“ so angelernt, dass diese Informationen verknüpft werden können, damit Muster im Verhalten wiedererkannt und der emotionale Zustand eingeordnet werden kann“, erklärt Kim Schmidt, Wissenschaftliche Mitarbeiterin an der Professur Computerphysik und Projektsprecherin. Wenn das gelänge, wäre es ein erster, wichtiger Schritt, um künftig mit technischen Systemen menschliche Gefühlsausdrücke besser erkennen und interpretieren zu können.