Inhalte

Interview: Prof. Dr. Jochem Rieger, Universität Oldenburg

„Unsere Vision: autonome Systeme, die in sicherheits- kritischen Situationen den Zustand des Menschen erkennen und darauf reagieren.“

Prof. Dr. Jochem Rieger über die neurokognitive Psychologie und deren Nutzen für automatisierte Systeme.

Inhaltsverzeichnis

Automatisierte Systeme nehmen dem Menschen Arbeiten ab, oft mit optimalem Ergebnis. Damit wir mit den Systemen kooperieren und nicht gegen sie agieren, muss die Zusammenarbeit von Mensch und Maschine bereits in frühen Entwicklungsphasen berücksichtigt werden. Dafür arbeiten in der anwendungsorientierten Grundlagenforschung an der Carl von Ossietzky Universität Oldenburg interdisziplinäre Teams an der Schnittstelle von Mensch, Maschine und Gesellschaft. Die Zusammenarbeit fußt auf bereits bestehenden Projekten, wie z. B. in Critical Systems Engineering for Socio-Technical Systems, kurz: CSE, und wird in geplanten Projekten, wie einem Sonderforschungsbereich, weiter vorangetrieben. Wir haben mit dem Neuropsychologen Professor Jochem Rieger, der diesen Bereich in CSE leitet, über die Rolle des Menschen bei der Automatisierung gesprochen.

Herr Rieger, Sie sind Professor für neurokognitive Psychologie an der Carl von Ossietzky Universität Oldenburg. Womit beschäftigt sich dieses Fachgebiet?
Jochem Rieger: Die neurokognitive Psychologie erforscht die neuronalen Grundlagen von Wahrnehmen, Denken und Handeln - dem Regelzyklus, mit dem wir uns in der Welt koordiniert bewegen.
Mithilfe neurowissenschaftlicher Methoden, insbesondere mit elektrophysiologischen Verfahren, untersuchen wir die Funktionsweise des menschlichen kognitiven Systems in den Bereichen der Informationsaufnahme, der Verarbeitung der Sinneseindrücke und Bedeutungszuschreibung. Das Themenspektrum umfasst u. a. visuelle Prozesse, wie beispielsweise die Gesichtserkennung, die Sprachproduktion und -wahrnehmung, Arbeitsgedächtnis, mathematisches Denken, Handlungsvorbereitungen, motorische Vorbereitungsprozesse sowie Persönlichkeitseigenschaften.

Was ist Ihr Forschungsschwerpunkt?
Einer unserer Forschungsschwerpunkte ist zu analysieren, wie Sinneseindrücke aufgenommen und bewusst wahrgenommen werden. Dazu erforschen wir folgende im Gehirn ablaufende Prozesse: die Selektion, Abstraktion und Reduktion relevanter Informationen und wie aus diesen Daten konkrete Handlungspläne entstehen. Wir untersuchen die Informationsaufnahme, die Repräsentation im Gehirn - sprich die Speicherung - sowie die Manipulation der Informationen, denn unsere Wahrnehmung ist eine von momentanen Zielen geleitete Abstraktion. Das lässt sich an einem einfachen Beispiel aus dem Alltag zeigen: Trotz Stimmengewirr können wir uns auf einen Sprecher konzentrieren und diesen gut verstehen.
Im Rahmen des Forschungsprojektes CSE analysieren wir den Umgang des Gehirns mit seinen beschränkten Ressourcen. Wir erforschen z. B., wie die Arbeitslast in verschiedenen Aufgaben Gehirnressourcen verbraucht.

Wie machen Sie diese verdeckt ablaufenden Prozesse sichtbar?
Das lässt gut am Beispiel der Arbeitslast darlegen. Ziel ist es, anhand der Gehirnaktivität die Arbeitslast, die eine Aufgabe verursacht, bestimmen zu können. Dazu führen wir Experimente mit Probanden durch, die unterschiedliche Aufgaben gleichzeitig absolvieren. Wir nutzen dafür den 360-Grad-Fahrsimulator des DLR in Braunschweig samt Messung der Gehirnaktivitäten. Das Experiment läuft wie folgt ab: Unsere Probanden fahren im Simulator eine virtuelle Autobahnstrecke mit unterschiedlich starkem Verkehr und mit eingebauten Hindernissen, wie z. B.­ Baustellen. Die Probanden sollen sich in diesem realitätsnahen Setting verschiedene Geschwindigkeiten merken, einstellen und einhalten. Dieser Teil entspricht der seriellen Gedächtnisaufgabe, welche die Probanden neben der Fahraufgabe erfüllen und die im Schwierigkeitsgrad variiert. So wird z. B. eine höhere Schwierigkeit erreicht, indem sich die Probanden eine Geschwindigkeit merken und die vorher angezeigte Geschwindigkeit einstellen sollen. Die Begrenzung der Ressource Arbeitsgedächtnis zeigt sich darin, dass Menschen viele Fehler machen, wenn sie sich vier Geschwindigkeiten merken müssen. Was aber ist in den Gehirnmessungen zu erkennen?
Wir untersuchen mit diesem Aufbau, ob anhand der Messung der Gehirnaktivität Rückschlüsse auf den Schwierigkeitsgrad der Gedächtnisaufgabe gezogen werden können, obwohl die Probanden gleichzeitig die Fahraufgabe erfüllen. Es zeigt sich, dass die Prädiktion des Schwierigkeitsgrads der Gedächtnisaufgabe sehr gut funktioniert. Wenn wir allerdings die andere Frage stellen und wissen wollen, wie schwer die Fahraufgabe war, ist die Vorhersage anhand der Gehirnaktivität nicht eindeutig. Das lässt auf eine Interaktion der beiden Aufgaben schließen, die sich in der Hauptsache auf die neuronalen Grundlagen der Fahrkontrolle auswirkt. Die Probanden lassen in einer Aufgabe nach. Wir müssen also noch mehr über die Verschränkung von Gehirnaktivitäten wissen, um die Arbeitslast in konkreten Alltagssituationen einschätzen zu können.

Was passiert mit den Messergebnissen aus dem Simulator-Experiment?
Die Ergebnisse unserer Messungen werden in quantitativen Modellen zum Arbeitsspeicher modelliert, einer sogenannten kognitiven Architektur. Diese kognitive Architektur nutzen wir als Grundlage für die Überprüfung unserer Hypothese zur Arbeitslast. Ein Beispiel aus unserer Arbeit ist die „Kognitive Architektur zur Simulation sicherheitskritischer Aufgaben“ (Anm. d. Red.: CASCaS, Modell siehe Seite 14), die vom Forschungsinstitut für Informatik in Oldenburg (OFFIS) entwickelt wurde. Sie integriert verschiedene psychologische Theorien der menschlichen Wahrnehmung, z.B. die visuelle Wahrnehmung, das Erinnerungsvermögen oder zielorientierte Handlungen, um menschliches Verhalten zu simulieren. Grundlagenwissenschaftlich ist das hoch interessant, denn mithilfe neuerer komplexerer Verfahren lassen sich über die Input-Output-Beziehung hinaus mehrere Verarbeitungsschritte einbauen, sodass z. B. Vorwissen zur Arbeitsleistung und deren neuronale Grundlagen berücksichtigt werden kann. Das fällt unter das Schlagwort Deep-Learning.

Und was bedeuten diese Ergebnisse für die praktische Anwendung?
Um bei unserem Beispiel zu bleiben: Es ist sehr wichtig die Arbeitslast bestimmen zu können, um automatisierte Systeme mit sicherheitskritischen Funktionen, die vom Menschen genutzt werden, optimal an die jeweiligen Bedürfnisse des Nutzers anzupassen. Und diese Bedürfnisse sind nicht statisch, sie ändern sich je nach Situation und Nutzer. Im Alltag finden sich viele solcher Systeme. So wird z. B. ein Autofahrer von einer Vielzahl elektronischer, eingebetteter Systeme unterstützt, die sicherheitsrelevante Funktionen erfüllen. Dank der Prädiktion der Arbeitslast können sich assistierende bzw. automatisierte Systeme an die menschlichen Fähigkeiten optimal anpassen.
Wir erforschen, was wir vom Menschen in einer konkreten Situation erwarten können bzw. wie wir ein Assistenz- bzw. automatisiertes System gestalten müssen, damit es die Person am besten entlastet. Wir haben festgestellt, dass es stark auf die Darbietung der Information ankommt - ob visuell, sensorisch oder akustisch - da nach unserem Modell unterschiedliche Sinnesorgane unterschiedliche Speicher benötigen.
Die kognitive Psychologie wird umso wichtiger, je größer die Bedeutung des Menschen im Gesamtsystem ist.

Ist es möglich, durch Ihre Forschung die menschliche Wahrnehmung und Handlungssteuerung mit entsprechender Programmierung auf Maschinen zu übertragen?
Wir verfolgen einen Systemansatz, bei dem Menschen und Maschinen kooperativ zusammenarbeiten und nicht der Mensch ersetzt wird. Die Stärken des einen sollen die Schwächen des anderen ausgleichen, sodass ein neues System mit neuen Leistungsfähigkeiten entsteht. Typischerweise arbeiten Menschen lokal mit beschränkten Kapazitäten, können aber mit bestimmten Heuristiken effizienter planen und sind kreativer. Maschinen dagegen können verteilter agieren, mehr Informationen integrieren und zeigen keine Ermüdungserscheinungen. Die Frage ist: Wie können sich Mensch und Maschine sinnvoll ergänzen und einen Mehrwert bilden. Klassische Beispiele finden sich u. a. in der Luftfahrt, wo technische Systeme den Menschen unterstützen, indem sie vorrangig monotone Aufgaben übernehmen, wie z. B. die Überprüfung von Check-Listen.

Was bedeutet das für die Zukunft? Werden Maschinen zukünftig von Menschen gesteuert oder werden wir unsere Werte, Normen und Lebensgewohnheiten an die automatisierten System-Entscheidungen, die allein auf Berechnungen basieren, anpassen?
Das ist die Frage nach dem Guten Leben und was wir als Gesellschaft tolerieren bzw. haben wollen. Es gab in der Geschichte schon immer massive Veränderungen, z. B. der Übergang von der Agrar- zur Industriegesellschaft. Entscheidend ist, welche Kräfte die Veränderungen maßgeblich bestimmen. Aktuell haben wir eine ähnliche Situation wie bei der Wandlung von der Agrar- zur Industriegesellschaft, d. h., große Firmen mit hauptsächlich ökonomischen Interessen gestalten die Prozesse. Aber im Gegensatz zur Vergangenheit werden bei den derzeitigen Umbrüchen durch die Automatisierung und lernende Systeme nicht nur die menschliche Arbeitskraft ersetzt, sondern auch geistige Leistungen, die den Menschen bisher ausgezeichnet haben. Diese Themen greifen wir auf, u. a. in CSE und weiteren zum Teil in der Planung befindlichen Projekten in Zusammenarbeit mit Partnern aus anderen Fachrichtungen und Instituten, um interdisziplinär die Hochautomatisierung zu erforschen. Dabei spielen neben den technischen Herausforderungen ethische, soziologische und juristische Aspekte eine tragende Rolle.

Welche Vorhaben planen Sie in nächster Zeit?
Wir werden weiter die Modellierung kognitiver Aspekte der Psychologie, wie z. B. Arbeitslast, Emotionalität und Intentionalität, erforschen. Dies schließt die Frage nach der Klassifikation funktionaler Einheiten im Gehirn und deren Abbildung auf Rechenmodelle ein. Wir fragen uns, wie prädiktiv sind die Modelle in einer realistischen Umgebung? Und genau dafür brauchen wir Interdisziplinarität, denn die genannten Bereiche lassen sich nicht losgelöst von Informatik, Medizin und Biologie erforschen und in der Anwendung kommen noch rechtliche und ethische Aspekte hinzu.
Die Vision der nächsten Jahre ist, sicherheitskritische Systeme zu gestalten, bei denen das technische System in seiner „Handlungsplanung“ den Zustand des Menschen berücksichtigt und mit ihm kooperiert.

Vielen Dank für das Gespräch!

Architekturmodell der kognitiven Simulations-Software CASCaS

Ziel von CASCaS (Cognitive Architecture for Safety Critical Task Simulation) ist die Simulation des menschlichen Verhaltens in einer Mensch-Maschine­Umgebung mit sicherheitskritischen Aspekten, wie man sie beispielsweise bei Flugzeugpiloten oder Pkw-/Lkw-Fahrern findet.
Innerhalb der Simulationen werden spezifische Testszenarien definiert, um die Mensch-Maschine-Interaktion zu simulieren und das Systemdesign durch die Variation von Parametern sowie durch Änderungen des „menschlichen“ Verhaltens im Modell zu testen
(z. B. mit unterschiedlichen Fahrstilen).

Prof. Dr. Jochem Rieger

Prof. Dr. Jochem W. Rieger hat seit 2012 die Professur für Angewandte Neurokognitive Psychologie an die Universität Oldenburg inne. Sein Forschungsschwerpunkt liegt auf den neuronalen Grundlagen von Wahrnehmung, Entscheidung und Handlung unter naturnahen Bedingungen, was die Grundlage für die Entwicklung von Gehirn-Maschine-Schnittstellen bildet.
Rieger studierte Biologie und Philosophie in Tübingen. 2000 promovierte er am Max-Planck-Institut für Biologische Kybernetik mit einer Arbeit über „Psychophysische und physiologische (MEG) Untersuchungen zur Maskierung und Vorhersage der Wiedererkennung natürlicher Szenen“. Danach wechselte er als Wissenschaftlicher Assistent an die Abteilung für Biologische Psychologie der Universität Magdeburg und leitete von 2002 bis 2012 die Arbeitsgruppe „Visual Perception and Action“ an der Klinik für Neurologie und dem universitären Center for Advanced Imaging. 2008 habilitierte sich Rieger zum Thema „Sehen, Wahrnehmen und Handeln unter naturnahen Bedingungen“.