Feinfühlige Technik – Blogreihe des Teams »Applied Neurocognitive Systems«
Im Zeitalter von Digitalisierung und Künstlicher Intelligenz nimmt die Gestaltung der Schnittstelle zwischen Mensch und Maschine eine Schlüsselrolle ein. Neuroadaptive Technologien versprechen große Potenziale sowohl für die Wissenschaft als auch für die Praxis. Im NeuroLab des Fraunhofer IAO arbeiten die Wissenschaftler*innen an der Schnittstelle zwischen kognitiver Neurowissenschaft, positiver Psychologie und künstlicher Intelligenz. Unser Ziel ist es, die zunehmende Intelligenz und den steigenden Grad an Autonomie technischer Systeme konsequent auf die Fähigkeiten und Bedürfnisse des Menschen auszurichten.

Stellen Sie sich vor, Ihr Auto kennt Sie – es weiß, wann Ihre Gedanken abschweifen, erkennt, wenn Stress Ihre Fahrfähigkeit beeinträchtigt, und warnt Sie, bevor Gefahr droht. Klingt wie Science Fiction? Nicht ganz. Die Lösung liegt in der Nutzerzustandserkennung des Fahrenden im Auto! Eine Technologie, die vielleicht als empathisch-intelligentes Auto bezeichnet werden könnte. Das ist nicht nur spannend, sondern kann vielleicht in der Zukunft sogar lebensrettend sein.

Warum brauchen wir empathisch-intelligente Autos?

Jedes Jahr führen Ablenkungen und Unachtsamkeit zu unzähligen Verkehrsunfällen. In Deutschland wurden im Jahr 2017 insgesamt 360 736 Verkehrsunfälle mit Personenschaden aufgrund von Fehlverhalten der Fahrzeugführenden verzeichnet. Der Mensch ist fehlbar, doch was, wenn das Auto helfen könnte, diese Fehler zu minimieren? Die Herausforderung besteht darin, ein Auto zu schaffen, das nicht nur fährt, sondern »mitdenkt« und »fühlt« – ein Auto, das seine Insassen wirklich »versteht«.

Das empathische Auto – mehr als nur Technik

In naturalistischen Fahrszenarien können verfügbare kognitive Ressourcen nicht nur durch die Fahraufgabe selbst, sondern auch durch aufgabenirrelevante Ablenkungsreize in der Umgebung beansprucht werden. Insbesondere sozio-emotionale Reize können leicht Aufmerksamkeit auf sich ziehen und damit um kognitive Ressourcen konkurrieren. Ein typisches Beispiel: wenn das Kind auf dem Rücksitz weint oder lautstarke Streitgespräche stattfinden, sind wir nicht mehr voll aufs Fahren konzentriert.

Unsere Vision ist ein Auto, das den Fahrenden kennt und unterstützt. Stellen Sie sich vor, Ihr Auto erkennt, dass Sie gestresst sind, und dimmt das Licht sanft oder spielt beruhigende Musik, um Sie zu entspannen. Oder es gibt gezielte Warnhinweise aus, wenn es merkt, dass Ihre Aufmerksamkeit nachlässt. Im Extremfall könnte es auch einen unterstützenden, teilautonomen Fahrmodus aktivieren, um einen Unfall zu vermeiden.

Biometrische Signale deuten: Wie Neurowissenschaft das Fahrerlebnis verbessern kann

Wie kann der Fahrende nun mit dem Auto kommunizieren und den physischen und psychischen Zustand mitteilen?

Das Forschungsfeld der »Nutzerzustandserkennung« bietet die Antwort: Es werden verschiedene Sensoren verwendet, um Daten über den Fahrenden zu sammeln. Diese Daten können beispielsweise Informationen über die Herzfrequenz, den Blickverlauf (Eye-Tracking), Gesichtsausdrücke, Körperhaltung oder sogar Gehirnaktivität umfassen. Komplexe Algorithmen der Signalverarbeitung und des Maschinellen Lernens helfen dabei, diese Daten zu interpretieren.

Das Ziel der Nutzerzustandserkennung ist es, kritische Zustände wie Müdigkeit, Stress oder Ablenkung zu identifizieren. Wenn solche Zustände erkannt werden, können entsprechende Maßnahmen ergriffen werden, um die Sicherheit zu erhöhen.

Damit dies in naher Zukunft gelingt, forsche ich an der Schnittstelle der Grundlagen- und angewandten Neurowissenschaft. Um die mentalen Zustände von Fahrenden zuverlässig zu erkennen, ist es wichtig, die zugrundeliegenden körperlichen Prozesse zu verstehen und in passende Signalmuster umzuwandeln.

In Rahmen meiner Doktorarbeit wurde dafür eine große Fahrstimulationsstudie mit über 50 Personen an der Universität Oldenburg durchgeführt. In einem Fahrsimulator sind die Probanden Strecken mit verschiedener Komplexität und Verkehrslage gefahren. Dabei wurden ihnen Hörbücher und Radiosendungen vorgespielt, die entweder positive, negative oder neutrale Emotionen bei ihnen auslösten. Zugleich wurde das Fahr- und Blickverhalten sowie die Gehirnaktivität der Probanden gemessen. So untersuche ich, wie emotionale und kognitive Prozesse interagieren. Zudem interessiert mich, wie ein Algorithmus den aktuellen Nutzerzustand aus den Daten berechnen kann und welche Daten dabei am meisten Informationen bieten.

Ich möchte mit meiner Forschung aber auch alltagsnahe Fragen beantworten können: Wie reagiert unser Gehirn auf einen Streit im Auto? Wie verarbeitet es Ablenkungen oder witzige Moment, wie z. B. eine Comedian-Show, während einer stressigen Fahrsituation?
Wenn wir diese mentalen Nutzerzustände bis in die Tiefe verstanden haben, können wir sie dann dem empathisch-intelligentem Auto beibringen?

Empirische Fahrsimulationsstudie an der Universität Oldenburg. Das Blickverhalten der Teilnehmenden wurde während des Fahrens mittels Eyetracking und Gehirnaktivität mittels einer Magnetenzephalographie gemessen. © Fraunhofer IAO

Empirische Fahrsimulationsstudie an der Universität Oldenburg. Das Blickverhalten der Teilnehmenden wurde während des Fahrens mittels Eyetracking und Gehirnaktivität mittels einer Magnetenzephalographie gemessen. © Fraunhofer IAO

Revolution auf Rädern als neues Zeitalter der Sicherheit

Die Nutzererkennung im Auto ist nicht nur ein Schritt in die Zukunft, sondern ein Sprung in eine neue Ära der Verkehrssicherheit. Sie ermöglicht eine tiefgreifende Symbiose zwischen Mensch und Maschine, wodurch das Autofahren sicherer, komfortabler und intuitiver wird. Die Idee eines Autos, das mit uns »denkt« und »fühlt«, klingt wie eine entfernte Zukunftsvision, wandelt sich jedoch zusehends in Realität. Das glauben Sie nicht? – Schon heute erinnern fortschrittliche Fahrzeugmodelle nach stundenlanger Fahrt an die Notwendigkeit einer Pause. Wir treten in eine Ära ein, in der nicht nur wir Menschen uns auf die Funktionen des Autos einstellen (Wie funktioniert das Licht? Wie kuppele ich? Wie schalte ich den Scheibenwischer ein?). Das Auto lernt, sich auf den Menschen einzustellen: Welcher Grad an Assistenz wird morgens bevorzugt, welcher im Feierabendverkehr? Welche Fahrzeuginnenbeleuchtung und Musik entspannen den Fahrenden?

Teils noch Zukunftsmusik, doch sie spielt die Melodie einer sicheren und entspannten Fahrerfahrung.

Leselinks:

Katharina Lingelbach

Neurowissenschaftlerin und Doktorandin im Team »Applied Neurocognitive Systems«. Besonders interessiert sie sich für die Interaktion von emotionalen und kognitiven Prozessen sowie das Monitoring von solchen Nutzerzuständen bei der Interaktion mit Technik mittels multimodaler Sensorik und ML. Neben Neuronen und Statistik begeistert sie Ballett, Gesang, Reisen und hohe Berge!

Autorenprofil - Website - LinkedIn



Kategorien: Future Mobility, Innovation, Künstliche Intelligenz, Mensch-Technik-Interaktion
Tags: , , , , , , ,