Internationales Zentrum für Ethik in den Wissenschaften (IZEW)

Die Rolle der Ethik in der Gestaltung von Robotik-Entwicklung

von Sebastian Gießler & Aline Franzke

02.04.2024 · Was kann die Ethik für uns tun, wenn wir einfach nur programmieren und einen Roboter bauen wollen?

Diese Frage begegnete dem EGAR (Ethische und gesellschaftliche Aspekte autonomer Robotik) -Team auf dem Kick-Off Meeting des Forschungsprogramms “Autonome Robotik” der Baden-Württemberg Stiftung (BWS) am 28.06.2023 in Stuttgart. Als Begleitprojekt der BWS liegt es im Aufgabenbereich von EGAR, ethische und sozialwissenschaftliche Expertise für die angebundenen Robotik-Entwicklungsprojekte bereitzustellen. Das Publikum setzte sich überwiegend aus Wissenschaftler:innen aus den Bereichen Informatik, Ingenieurwissenschaften und Robotik zusammen. Die Stimmung des Kick-Off Meetings war im Allgemeinen neugierig und offen, aber es gab auch fachliche Differenzen, die in diesem Blogbeitrag produktiv genutzt werden sollen. Die leitende Frage dieses Beitrags ist demnach, was die angewandte Ethik für die Robotik tun kann.

Was ist Ethik der Robotik?

Roboter sind elektro-mechanische Maschinen, die mit einem Prozessor ausgestattet sind und mit Sensoren Informationen über ihre Umwelt sammeln. Effektoren oder Aktoren übersetzen diese Signale in Abläufe. Der Roboter ist so in der Lage, mit seinem Körper die Umwelt zu beeinflussen (vgl. Misselhorn, 2013, S. 43). Ethik der Robotik ist eine Teilbereichsethik der Maschinenethik. Dieses Forschungsfeld arbeitet interdisziplinär an der Schnittstelle zwischen Philosophie, Informatik und Robotik (Misselhorn 2018, S. 1). Sie setzt vier Analyseebenen an:

a) Untersuchung (häufig impliziter) gesellschaftlicher Normen, etwa welche Bilder und Vorstellungen der Roboterentwicklung zugrunde liegen (Hampton, 2015)

b) ethische Fragen des Designs und der Roboterentwicklung,

c) datenethische Überlegungen, sowie

d) ethische Fragen, die sich aus der Interaktion zwischen Robotern und Menschen ergeben. (Goodrich et al, 2008)

Die Vermittlerrolle

Ihre interdisziplinäre Natur erlaubt es der Ethik der Robotik, aus einem Fundus an unterschiedlichen Methoden zur ethischen Evaluation und Analyse zu schöpfen. Positionen von Entwickler:innen, Politik und Zivilgesellschaft können miteinander verglichen und bewertet werden, um daraus fundierte Handlungsvorschläge abzuleiten. Geplant sind im Projekt EGAR Dialog-Formate mit Museen und Bibliotheken sowie öffentliche Diskussionen, die dazu genutzt werden, einen Prozess des gegenseitigen Verstehens in Gang zu setzen.

Vom Problem und dem Nutzen der Sichtbarmachung impliziter Werte

Autonome Systeme sind technische und wissenschaftliche Artefakte, die von normativen und epistemischen Werten geprägt werden. Robotik-Entwicklung ist ebenso eine Frage der wissenschaftlichen Grundlagen wie von bewussten und unbewussten Designentscheidungen. In der Wissenschaftstheorie können drei Phasen von Forschungs- und Entwicklungsprozessen unterschieden werden: der Entdeckungszusammenhang, der Rechtfertigungszusammenhang und der Verwertungszusammenhang. Werturteile können jede dieser drei Phasen beeinflussen. Was wird als ein durch Technologie lösbares Problem verstanden? Wie, und mit welcher theoretischen Basis, soll dieses Problem theoretisch und praktisch adressiert werden? Welche Effekte hat die Technologie in der Anwendung? Ziel ist es, diese Werte zu explizieren und ihren Einfluss auf die Robotik - Entwicklung sichtbar zu machen und zu bewerten.

Es ist wichtig zu explizieren, welche technischen Entwicklungsziele beabsichtigt sind und in welchem Feld Roboter eingesetzt werden. Dabei entstehen zwei analytische Ebenen: Zum einen werden forschungsethische Fragen aufgeworfen, und zum anderen ergeben sich technikethische Überlegungen, die sowohl die intendierten als auch die nichtintendierten Folgen einer Anwendung beforschen. Was ist etwa der Unterschied zwischen der Weiterentwicklung einer Baugruppe (z.B. Sensoren und Roboterarme), die häufig als technische Problemlösung verstanden wird, und dem Einsatzzweck eines Roboters? Der Einsatz von Robotern in der Pflege ist ein Beispiel, anhand dessen eine technische Problemlösung für ein soziales Problem gefunden werden soll. Welche Werte bringen Techniker:innen in das Projekt ein, welche Werte haben die Personen, die das System einsetzen, und inwieweit kommt es unter Umständen zu Zielkonflikten?

Ethik der Robotik kann helfen, eventuell widersprüchliche Zielvorstellungen sichtbar zu machen, ethische und soziale Werte auszuformulieren und Abwägungen vorzunehmen. Sie hilft, diese verschiedenen Eigenlogiken und Konflikte zu sortieren und fundierte Empfehlungen abzugeben. Davon profitieren sowohl Techniker:innen, da sie die das Feld, in dem sie arbeiten besser verstehen, als auch die Nutzer:innen, deren Position ebenfalls explizit anerkannt wird.

Von Vertrauen und Verantwortung in der Robotik - Entwicklung

Das führt direkt zu einem weiteren potenziellen Nutzen der Ethik der Robotik: Auch wenn Werte wie Vertrauen schwer zu operationalisieren sind (vgl. Reinhardt 2023), kann die Ethik der Robotik unter Umständen Vertrauen und Akzeptanz von User:innen fördern. Ethische und soziale Überlegungen spielen eine große Rolle bei der Einführung von autonomen Systemen. Durch die Integration ethischer Grundsätze in das Design und die Programmierung von Robotern können Entwickler:innen Roboter entwerfen, die mit ethischen und sozialen Werten übereinstimmen. Dies kann das Vertrauen zwischen Menschen und Robotern fördern und ihren Einsatz in verschiedenen Bereichen wie der Gesundheitsversorgung, der Altenpflege und der Bildung begünstigen.

Während Verantwortlichkeit mehr umfasst als der Begriff der Haftung sind sie doch verbunden. Technische Systeme sind stark in rechtliche Normen eingebunden: Ein Automobilhersteller ist dafür verantwortlich, dass ein Fahrzeug technisch einwandfrei funktioniert. Autofahrer:innen sind dafür verantwortlich, das Auto sicher im Verkehr zu bewegen, der Staat sorgt dafür, dass die Straßen in einem guten Zustand sind und ordnet regelmäßige Kontrollen und Zugangsbeschränkungen an. Gibt es vergleichbare Strukturen im Feld autonomer Robotik, und wenn nicht, sollte es sie geben? Ist ein Hersteller lediglich für die technische Ausgestaltung verantwortlich? Wer aber soll sich um die rechtlichen Rahmenbedingungen kümmern und welche Rolle kommt den Nutzer:innen zu, die unter Umständen die verwendete Technik nicht oder nur wenig verstehen? Wer trägt die Verantwortung und haftet, wenn ein Personenschaden entsteht? Ethik der Robotik kann mögliche Lücken in der Verantwortlichkeit (responsibility gaps) aufdecken, Haftungsfragen einordnen und normativ urteilen, inwiefern das Risiko den Nutzen überwiegt. Das ist ein direkter Nutzen für Technikentwickler:innen.

Die politische Ebene der Ethik der Robotik

Von der sozialen Mikroebene der Technikentwicklung führt ein direkter Weg zur gesellschaftlichen Makroebene: den rechtlichen und politischen Rahmenbedingungen beim Einsatz von Robotik. Ethische Positionen informieren und beeinflussen diese Rahmenbedingungen und gehen diesen oft voraus. Als Beispiel seien die Stellungnahmen des Deutschen Ethikrats zum Thema Künstliche Intelligenz (Deutscher Ethikrat 2023), der High-Level Expert Group on Artificial Intelligence (AI HLEG 2019) der Europäischen Kommission genannt, die nationale und supranationale Forschungsstrategien und Gesetzesvorhaben wie die KI-Strategie der Bundesregierung und den EU AI-Act maßgeblich mitbeeinflussen. Ethik der Robotik steht somit in einer Wechselwirkung zum Recht, indem sie einerseits darauf einwirkt, aber die rechtliche Grundlage dann auch wieder ethisch evaluiert und dazu Stellung beziehen kann.

Fazit

Ethik der Robotik kann eine wichtige gesellschaftliche und wissenschaftliche Funktion übernehmen, wenn es darum geht, Visionen oder Wertvorstellungen, die einer Technologie zugrunde liegen, offenzulegen. Gesellschaftliche Ängste - aber auch Hoffnungen - sind eng mit der Entwicklung von Technologien verbunden und Ethik der Robotik kann neue Reflexionshorizonte eröffnen und kritisch beleuchten.

Dabei ist Ethik der Robotik aber keine Service-Ethik für die Robotik. Auch wenn Ethik der Robotik häufig eng mit Entwickler:innen und Ingenieur:innen zusammenarbeitet bzw. zusammenarbeiten sollte und so einen wichtigen Beitrag darin leisten kann, normative Voraussetzungen in konkreten technischen Abläufen sichtbar zu machen, ist Ethik der Robotik eine eigene Bereichsethik. Sie kann normative Elemente der Robotik offenlegen, Alternativen aufzeigen und diese entstandenen Entscheidungsräume evaluieren und fundierte Empfehlungen aussprechen.

Ethik der Robotik kann dabei helfen, ethische und soziale Herausforderungen zu navigieren, die in der Entwicklung und dem Einsatz von Robotern entstehen. Dadurch werden philosophische Debatten rund um Themen wie Autonomie, Privatsphäre, Transparenz und Fairness mit Anwendungskontexten aus der Praxis angereichert. So kann sichtbar werden, wie etablierte Verständnisse von Privatheit sich etwa mit Forderungen nach Transparenz im Kontext von komplexen, modularen Herstellungsketten von Technologien widersprechen oder schwer umsetzbar sind. Ethik der Robotik kann dabei helfen, kann aber nicht nur dazu dienen, Wissen aus der Anwendung zurück in die Fachdisziplin zu tragen, sondern auch dazu beitragen, dass alte Lösungsvorschläge aus den philosophischen Debatten in die Praxis übersetzt werden. Die Frage, welche Werte wie technisch implementiert werden, ist weder simpel noch trivial.

Ethik der Robotik kann durch eine kritische Perspektive Folgen für Verbraucher:innen antizipieren und dazu beitragen, dass Roboter nicht nur effizienter, sondern auch besser werden. Das kann konkret bedeuten, dass datensparsamer gearbeitet wird oder die Modelle für eine KI an einem diverseren Datenset trainiert werden. Große Teile des Alltags basieren auf der Nutzung von Technologie und diese bildet zunehmend die grundlegende Infrastruktur des gesellschaftlichen Zusammenlebens. Dabei muss es keineswegs darum gehen, dass Bürger:innen zu Ingenieur:innen werden oder alle Ingenieur:innen zu Ethiker:innen. Dennoch ist die professionelle Verantwortung von Entwickler:innen und allen anderen Beteiligten für die Technikentwicklung entscheidend und die Ethik der Robotik hat als wissenschaftliche Disziplin in dieser Hinsicht vieles anzubieten.

----------------------------------------

Literatur:

AI HLEG, 2019, “High-Level Expert Group on Artificial Intelligence: Ethics Guidelines for Trustworthy AI”, European Commission, accessed: 13.07.2023.

Deutscher Ethikrat (2020) Robotik für gute Pflege. Stellungnahme. Berlin

Deutscher Ethikrat (2023): Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme. Berlin

Goodrich, M. A., & Schultz, A. C. (2008). Human–robot interaction: a survey. Foundations and Trends® in Human–Computer Interaction, 1(3), 203-275. 

Germany (2018). Artificial Intelligence Strategy. Federal Ministry of Education and Research, the Federal Ministry for Economic Affairs and Energy, and the Federal Ministry of Labour and Social Affairs. https://www.ki-strategie-deutschland.de/home.html?file=files/downloads/Nationale_KI-Strategie_engl.pdf

Reinhardt, K. (2023) Trust and trustworthiness in AI ethics. AI Ethics 3, 735–744 . doi.org/10.1007/s43681-022-00200-5

Hampton, G. J. (2015). Imagining slaves and robots in literature, film, and popular culture: reinventing yesterday's slave with tomorrow's robot. Lexington Books.

Misselhorn, Catrin. Grundfragen der Maschinenethik. 5., Durchgesehene und Überarbeitete Auflage. Reclams Universal-Bibliothek, Nr. 19583. Ditzingen: Reclam, 2022.

Reinhardt, K. (2023) Trust and trustworthiness in AI ethics. AI Ethics 3, 735–744 . https://doi.org/10.1007/s43681-022-00200-5

---------------------------------

Kurz-Link zum Teilen des Beitrags: https://uni-tuebingen.de/de/263004