International Center for Ethics in the Sciences and Humanities (IZEW)

Nachhaltigkeit im Kontext Künstlicher Intelligenz: Zur Zukunftsfähigkeit einer gesellschaftstransformierenden Technologie

Ob ChatGPT oder Stable Diffusion, ob in der Wirtschaft, im Bildungswesen oder in sozialen Netzwerken: Kaum jemand kommt heutzutage um den Kontakt mit KI-Systemen oder KI-generierten Inhalten herum. Bei aller wissenschaftlicher – und gerade auch ethischer – Auseinandersetzung wird allzu oft die Frage übersehen, in welchem Verhältnis KI zum Wert der Nachhaltigkeit steht. Welche (direkten und indirekten) Auswirkungen hat die Entwicklung von KI auf die Umwelt? Lassen sich das Training und die Anwendung von KI-Systemen mit den Zielen für nachhaltige Entwicklung (SDGs) der Vereinten Nationen in Einklang bringen? Inwiefern kann KI selbst als Werkzeug genutzt werden, um Nachhaltigkeit zu fördern und zu stärken?

Der internationale Workshop „Sustainable AI“ vom Deutschen Komitee für Nachhaltigkeitsforschung in Future Earth der DFG hat Expert:innen aus Philosophie, Soziologie, Informatik, Rechtswissenschaften, Design und Nachhaltigkeitswissenschaften zusammengebracht, um die Versprechen und Fallstricke des Einsatzes Künstlicher Intelligenz im Kontext der Nachhaltigkeit zu diskutieren.

Dabei konnten mehrere Herausforderungen identifiziert werden, etwa die immense Wachstumsrate der Trainingsdatensätze von KI-Systemen, die hohen Energiekosten, die beim Training der Modelle entstehen, oder dass die jeweils korrespondierenden SDGs recht vage formuliert sind und einiges an Interpretationsspielraum zulassen. Aspekte wie intergenerationelle Gerechtigkeit oder Geschlechtergleichheit, die ebenfalls notwendige Bestandteile einer globalen Strategie der Nachhaltigkeit sind, leiden unter diesem Umstand und werden bei der Entwicklung von KI noch immer nicht ausreichend bedacht. Die Forschung an KI-Modellen ist darüber hinaus meist stark anthropozentrisch orientiert und verkennt die Relevanz nicht-menschlicher Akteure und Betroffener wie Tieren oder der Natur als Ganzem [Dr. Tomasz Hollanek].

Zugleich wurden im Rahmen des Workshops auch positive Tendenzen und produktive Lösungsansätze präsentiert und diskutiert. So konnte etwa festgehalten werden, dass sich die CO₂-Bilanz von KI-Modellen sowohl im Training als auch in der Anwendung durchaus reduzieren lässt, wenngleich dabei ein Abwägen zwischen der Effizienz des Systems und einer Optimierung der Ergebnisse nötig wird [Prof. Lynn Kaack]. Damit einhergehend wurde die Notwendigkeit von „Grüner KI“ (im Gegensatz zu „Roter KI“) betont, bei der Nachhaltigkeit, Effizienz und Transparenz bereits in der Entwicklungsphase der Technik mitbedacht werden. Mithilfe dieses Ansatzes soll KI in Zukunft von vornherein wertsensibel und ethisch gestaltet werden. Wertkonflikte emergieren allerdings auch in diesem Kontext – beispielsweise, wenn ein KI-Modell, das mit einem größeren Datensatz trainiert wurde und einen höheren Energieverbrauch pro Einsatz aufweist, gerade deshalb besser dazu in der Lage ist, ungerechte Ergebnisse zu vermeiden. Denn dann stellt sich die Frage, wie viel des Wertes der Gerechtigkeit wir im Namen der Nachhaltigkeit aufzugeben bereit sind [Dr. Roy Schwartz].

Außerdem kann eine aktive Reflexion sogenannter „Technofixes“ – der Priorisierung technologischer Lösungen gegenüber gesellschaftlichen – dazu beitragen, die Grenzen der Technologie für Nachhaltigkeitsziele aufzuzeigen und gesellschaftliche Herausforderungen wie die Klimakrise ganzheitlicher anzugehen [Dr. Henrik Skaug Sætra]. Darüber hinaus ist es auch die Aufgabe einer Ethik der Nachhaltigkeit, in Bezug auf KI für einen Multi-Spezies-Ansatz in der Technikgestaltung einzustehen und sicherzustellen, dass auch das Wohl nicht-menschlicher Akteure in zukünftige Konzepte einer gemeinwohlorientierten Technikgestaltung miteinfließt [Prof. Clara Mancini].

Fest steht jedenfalls, dass KI eine vielbeachtete und verheißungsvolle Technologie darstellt, deren ethische Betrachtung und Reflexion auch in Zukunft hochaktuell und relevant bleiben wird.

Verfasst von: Martin Bux