Inhalte

CPS im Spiegel von Ethik, Norm und Recht

Inhaltsverzeichnis

Aus dem Alltag sind autonom agierende Systeme nicht mehr wegzudenken. Sie steuern und regeln viele Dinge, über die wir nicht nachdenken wollen: Im Automobil unterstützt die Spurhalteassistenz bei der Lenkung, smarte Systeme im Haus optimieren den Energieverbrauch, intelligente Software hilft bei der Verwaltung von Terminen, um nur einige wenige Beispiele zu nennen. Die Systeme werden immer umfassender und auch durch selbstlernende Verfahren immer autonomer. Je autonomer Systeme und Maschinen handeln können, desto dringender ist die Frage nach der Ethik der Maschinen. An welchen Werten sollen sich technische Systeme orientieren? Wie entscheidet das selbstfahrende Auto in einer Dilemmasituation?

Am 4. Februar 2017 fand an der Carl von Ossietzky Universität Oldenburg der interdisziplinäre Workshop „Norm und Normierung von Human Cyber-Physical Systems (HCPS): ethische, soziale und rechtliche Aspekte“ statt, in dem ähnliche Fragen von Informatikern, Rechtswissenschaftlern, Soziologen, Philosophen und Wirtschaftswissenschaftlern analysiert und theoretische Grundlagen der Ethik, Norm und des Rechts für Human Cyber-Physical Systems1 in Anwendungen autonomer Systeme diskutiert wurden.
Die Dringlichkeit des Themas ist unumstritten. CPS werden in Zukunft unser Leben noch stärker beeinflussen. Von autonomen Fahrzeugen, die ganz neue Mobilitätskonzepte ermöglichen, über vernetzte Gebäude und autarkes Energiemanagement bis zu Funktionen am Menschen, wie Wearables, die Körperwerte messen und aufzeichnen, sind unzählige Einsatzmöglichkeiten denkbar.
Die Chance auf mehr Sicherheit, Komfort und eine effiziente Ressourcennutzung ist groß, doch der Umgang mit künstlicher Intelligenz und vernetzten Daten wirft Fragen auf, die entschieden werden sollten, bevor die Technik auf den Markt kommt.

Die Herausforderungen betreffen alle Menschen

Die Experten machten deutlich, wie weitgreifend die Fragestellungen sind. Sechs große Themenbereiche wurden angerissen:

  1. Freiheitsgrade: Mit der Delegation von Entscheidungen an technische Systeme kann der Ausgang von Situationen bestimmt werden, bevor diese eintreten. Damit werden wichtige individuelle Spielräume und Entscheidungsmöglichkeiten aufgegeben. Mit jeder Automatisierungsstufe nimmt sich das Individuum Freiheitsgrade, Entscheidungen individuell und angepasst treffen zu können.
  2. Autonome Entscheidungsfindung: Auch bei Entscheidungen, die von einem technisch hochgradig ausgerüsteten und selbst-lernenden System ausgeführt werden, liegen nie vollständige Informationen vor. Die Systeme sind zwar gut darin, spezifische Aufgaben abzuarbeiten oder zu lösen (in Abhängigkeit von den "Trainings-Daten" der Systeme). Kreatives, auch einmal von den Regeln abweichendes Verhalten ist derzeit aber noch nicht absehbar.
  3. Umsetzung von gesellschaftlichen Werten in Maschinen-Sprache und Transparenz: Lassen sich Werte und Normen in Algorithmen gießen? Durch höhere Automatisierung müssen gesellschaftliche Werte, z.B. die Würde des Menschen, in konkrete Handlungen, die einem bestimmten Muster folgen, überführt werden. Wer kontrolliert die Algorithmen? Kann Open Source Transparenz schaffen? Die Offenlegung von Algorithmen bedeutet nicht unbedingt, dass Entscheidungen nachvollziehbar sind, da in den Algorithmen bereits Grundannahmen eingepflegt sind, die nicht explizit sein müssen. 
  4. Der Umgang mit vernetzten Daten (Big Data) und Sicherheit: Wie können Diskriminierung und Datenmissbrauch verhindert werden? Wie lassen sich Cyber-Angriffe verhindern ohne freiheitliche Grundwerte einzuschränken? 
  5. Rechtliche Aspekte: Wer haftet, wenn selbstlernende Systeme Entscheidungen treffen, die Schäden verursachen? Welche Versicherung springt ein, wenn die Schuldfrage nicht eindeutig festzustellen ist? Mit der Grundannahme, dass Schaden nicht zu Lasten der Opfer gehen sollte, müssen entsprechende Optionen der Schadenskompensation entwickelt werden.
  6. Die Wissenschaftler warfen auch einen Blick auf ihre eigene Tätigkeit, indem sie den Nutzen und die Anwendung von Begleitforschung und Technikfolgeabschätzung hinterfragten. Wie kann man den Anforderungen an interdisziplinäre Forschung gerecht werden ohne wichtige Fragen zu Ethik und Norm auszuklammern? Auf Grundlage welcher Kriterien sollte sich Forschung an Ethik und Norm ausrichten, ohne dass dadurch die notwendige Forschungsfreiheit eingeschränkt wird? Wie viel Gehör kann sich Begleitforschung verschaffen? 

Im gesamten Workshop wurde nicht nur die Kosten-Nutzen-Abwägung diskutiert, sondern auch die Wertigkeit von Normen und Ethik.

Die Notwendigkeit interdisziplinärer Forschung

Genügt es die Gesellschaft für diese heiklen Punkte zu sensibilisieren und auf Gefahren hinzuweisen? Das Ausgleichen von gesellschaftlichen Bedürfnissen und individueller Freiheit ist eine ständige Herausforderung im Zusammenhang mit den technischen Möglichkeiten.
Die Rahmenbedingungen für CPS werden aktuell u.a. von wirtschaftlichen Interessen geleitet und von Politik und Gesellschaft diskutiert. Um Gespräche zwischen den Beteiligten zu verstärken und zu vermitteln, werden auch zukünftig weitere interdisziplinäre Projekte angestoßen. Als Partner bei der strategischen Vorbereitung und Durchführung von domänenübergreifenden FuE-Projekten fördert das Kompetenzcluster SafeTRANS Austausch und Kooperation und begleitet die Entwicklung von Strategien, um in einer sprichwörtlich vernetzten Welt Innovation und Fortschritt zu unterstützen.
Der Workshop fand im Rahmen des Forschungsprojektes CSE statt (siehe Safe­TRANS News 2/2016, Seite 2) und wurde von Prof. Dr. Jochem Rieger (Universität Oldenburg) und Prof. Dr. Silke Schicktanz (Universitätsmedizin Göttingen) organisiert. Im Workshop wurden folgende Vorträge gehalten:

  • Prof. Dr. Martin Fränzle (Uni OL) sprach über die technischen Möglichkeiten von HCPS
  • Prof. Dr. Gesa Lindemann (Uni OL) über die Technisierung und Gesellschaftsstruktur
  • Dr. Carsten Orwat (KIT) hielt einen Vortrag über Technikfolgenabschätzung, Big Data und Werte
  • Jörg Pohle (Uni Berlin) erläuterte rechtliche Aspekte
  • Prof. Dr. Silke Schicktanz sprach zur ethischen Dimension von HCPS und
  • Prof. Dr. Mark Siebel (Uni OL) griff Dilemmasituationen an konkreten Beispielen auf

1Human Cyber-Physical Systems (HCPS) zeichnen sich dadurch aus, dass der Mensch im Regelkreis von Cyber-Physical Systems eingebunden ist bzw. er mit den Systemen interagiert.

Diskussionen während des Workshops (v.o.n.u.):
Jochem Rieger, Jörg Pohle, Silke Schicktanz, Mark Siebel, Carsten Orwat, Gesa Lindemann, Andreas Hein, Jürgen Taeger