KI-gestützte Schmerzerfassung und epistemische Ungerechtigkeit
von Wulf Loh
· 28.05.2024 ·
Epistemische Ungerechtigkeit im Schmerzmanagement
Schmerzdiagnose und -behandlung blicken auf eine lange und unrühmliche Geschichte der Benachteiligung bestimmter Gruppen zurück, insbesondere von Frauen und ethnischen Minderheiten. Ihre Schmerzberichte und damit das eigene Schmerzerleben wurden oft (und werden teilweise bis heute) weniger ernst genommen, die Betroffenen als weinerlich, hypersensibel, hysterisch oder in sonstiger Weise eingeschränkt zurechenbar abgetan (Hoffman et al 2016; Barnes 2020). Die so Benachteiligten erfahren nicht nur eine schlechtere Schmerzbehandlung als andere Gruppen, sie werden darüber hinaus auch noch in ihren eigenen Erfahrungen und ihrer Fähigkeit herabgesetzt, kompetent über diese Erfahrungen Auskunft zu geben. Den Selbstberichten einer Person über ihre eigenen Schmerzen keinen Glauben zu schenken, die Schwere der Schmerzerfahrungen herunterzuspielen oder den Schmerzbericht sogar ganz zu ignorieren, diskreditiert die Person als Wissenssubjekt mit Blick auf die eigenen Schmerzen.
Miranda Fricker bezeichnet solche strukturellen Diskreditierungen als „testimoniale Ungerechtigkeiten“, d.h. als eine besondere Form von „epistemischer Ungerechtigkeit“, bei der die Betroffenen in ihrer Kompetenz, über sich selbst Auskunft geben zu können, in ungerechtfertigter Weise benachteiligt werden (Fricker 2007). Diese Ungerechtigkeiten sind das Ergebnis eines „Identitätsvorurteils“ auf Seiten der Zuhörenden, d.h. eines Vorurteils, das sich auf die „soziale Identität“ einer Person wie z.B. Geschlecht, Ethnizität, Religion, sexuelle Präferenzen etc. bezieht (Fricker 2007, S. 28).
KI-gestützte Schmerzerfassung
In diese Gemengelage aus epistemischen Ungerechtigkeiten mit Blick auf individuelles Schmerzerleben drängt nun eine neue Technologie: die KI-gestützte Schmerzerfassung, die unterschiedliche Sensorik mit Machine-Learning-Algorithmen kombiniert und so ein automatisiertes Erfassen von Schmerzzuständen und -intensitäten ermöglichen soll. Muskelkontraktionen an verschiedenen Körperstellen, schweres Atmen oder Stöhnen, Hautleitwert, aber auch Gesichtsanalyse (besonders Emotionserkennung), Temperatur und Blutdruck werden – je nach Technologie – einzeln oder kombiniert eingesetzt, um Schmerzindikatoren digital zu sammeln und aus ihnen algorithmisch Schmerzerfahrungen abzuleiten.
Aber warum den subjektiven Schmerzberichten, die in der klinischen Schmerzmessung standardmäßig mit Selbstberichtsskalen zur Schmerzintensität ergänzt werden (Thong et al. 2018), eine solche automatisierte Schmerzerfassung an die Seite stellen? Die kurze Antwort ist, wie so oft im pflegerisch-medizinischen Kontext: Pflegefachkräftemangel. Im klinischen und pflegerischen Kontext haben es die Pflegekräfte und Diagnostiker*innen häufig mit Patient*innen zu tun, die nur über eingeschränkte Kommunikationsfähigkeiten verfügen. Bei Säuglingen und sehr kleinen Kindern, Erwachsenen mit kognitiven Einschränkungen oder eingeschränktem Bewusstsein (z.B. postoperativ, nach Schlaganfall, Patient*innen im Wachkoma etc.) sind die eigenen Schmerzberichte oft unvollständig oder gar nicht möglich. In diesen Fällen wird bisher eine externe Schmerzbeobachtung und -bewertung vorgenommen, die auf Beobachtungsskalen (BESD, PAINAD, SOPA) beruht. Besonders bei Demenzpatient*innen ist eine solche Fremdbeobachtung verbreitet.
Hierzu bedarf es nicht nur einer geschulten Beobachter*in, sondern auch Zeit, um die Patient*innen aufmerksam zu beobachten, häufig über einen längeren Zeitraum. Aufgrund des Pflegekräfte- und Ärzt*innenmangels fehlt aber genau diese Zeit zunehmend. Dadurch besteht die Gefahr einer unzureichenden Schmerzerfassung, die wiederum zu einer Unter- bzw. Überbehandlung führen und so das Leiden erhöhen und u.U. weitere gesundheitliche Probleme nach sich ziehen kann.
Auch wenn die KI-gestützte Schmerzerfassung bzw. -überwachung lediglich die gröbsten Symptome des Fachkräftemangels abmildert, anstatt die Ursachen anzugehen, kann sie in den oben genannten Fällen durchaus unterstützend wirken, sofern sie tatsächlich Diagnostik und pflegerische Schmerzbetreuung lediglich unterstützt und nicht ersetzt.[1] Zunehmend rücken jedoch auch neue Anwendungsfelder in den Fokus, bspw. im betrieblichen Gesundheitsmanagement, sowie im Fitness- und Wellbeing-Bereich, in denen die Schmerzerfassung bei Personen mit vollem Bewusstsein und angemessenen Kommunikationsfähigkeiten eingesetzt wird. Hier dient die Schmerzmessung/-detektion vor allem der Früherkennung von chronischen Erkrankungen sowie der Sensibilisierung der Betroffenen[2].
Gerade in diesen Bereichen sind Konflikte zwischen Betroffenen und den automatisierten Schmerzerkennungsinstrumenten aufgrund der primär präventiven und zumeist vorklinischen Natur dieser Bereiche wahrscheinlich. Dazu kommt eine oft unzureichende diagnostische Ausbildung des Support-Personals derartiger Angebote, speziell wenn es sich um niederschwellige Anwendungen wie Gesundheits-, Fitness- oder Wellbeing-Apps handelt.
Zwei Arten von epistemischen Diskriminierungen
Dieses Setting birgt also ein nicht unerhebliches Potenzial für epistemische Ungerechtigkeiten. Wenn die Schmerzberichte der Nutzenden solcher Angebote im Schmerzerfassungsprozess des KI-Systems nicht angemessen – oder schlimmstenfalls überhaupt nicht – berücksichtigt werden, droht das System alte Diskriminierungen zu reproduzieren oder neue zu schaffen. Die Reproduktion historischer Diskriminierungen kann dabei entweder über die impliziten wie expliziten Identitätsvorurteile der am KI-System als einem soziotechnischen Ensemble beteiligten Akteure geschehen, oder aber auch über die Verwendung diskriminierender Trainingsdaten. Wie oben angesprochen blickt besonders die klinische Schmerzdiagnostik und -behandlung auf eine reichhaltige Diskriminierungsvergangenheit zurück. Wenn die in diesen Benachteiligungszusammenhängen aufgezeichneten medizinischen Daten zum Training eines KI-gestützten Schmerzerfassungssystems herangezogen werden, ist eine algorithmische Reproduktion dieser historischen Diskriminierungen kaum zu vermeiden.
Ein solches System kann aber auch neue Diskriminierungen schaffen, bspw. indem es in der algorithmischen Analyse neue strukturell benachteiligte Gruppen schafft. Machine-Learning-Algorithmen kategorisieren Daten häufig anhand von Parametern, die für menschliche Beobachter*innen unzugänglich sind – bspw. die Bewegungen des Mauszeigers, das Zögern bei der Eingabe bestimmter Daten, verschiedene Arten und Frequenzen von Muskelkontraktionen usw. Sandra Wachter weist an dieser Stelle darauf hin, dass hier u.U. ungerechtfertigte Benachteiligungen entstehen können, da durch die algorithmische Kategorisierung von Gruppen eine „künstliche Unveränderbarkeit“ hergestellt wird (Wachter 2022).
Analog zu rechtlich geschützten Kategorien wie Hautfarbe, Geschlecht usw. zeichnen sich diese algorithmischen Gruppen dadurch aus, dass sie ebenfalls für die Betroffenen (weitgehend) unveränderlich sind, wenn auch aus dem Grund, dass die Betroffenen überhaupt nichts von ihrer Eingruppierung wissen und sich nicht gegen diese wehren können. Die Benachteiligungen, die sich aus den algorithmischen Gruppierungen ergeben, sind also primär deshalb ungerechtfertigt, weil die Betroffenen nichts dagegen tun können, nicht primär, weil sie nichts dafür können, wie im Fall rechtlich geschützter Kategorien.[3]
Infallibles Schmerzwissen oder epistemische Vertrauenswürdigkeit?
Was aber genau heißt es, dass die Schmerzberichte der Betroffenen im Schmerzerfassungsprozess nicht „ausreichend berücksichtigt“ werden, wie ich weiter oben geschrieben habe? Müssen sie lediglich als ein Parameter in die Gesamtevaluation des KI-Systems einfließen oder sollten sie den zentralen Bezugspunkt bilden, von dem ein solches System nicht oder nur in Ausnahmefällen abweichen darf?
Wie diese Frage zu beantworten ist, hängt ganz entscheidend davon ab, welchen epistemischen Status diesen Selbstberichten zugewiesen werden sollte. Eine in der philosophischen Debatte über Schmerz häufig anzutreffende Position ist, dass Schmerzen subjektiv, privat und unkorrigierbar sind, d.h. wir können uns nicht darüber irren, dass wir Schmerzen haben (Kripke 1980). Diese Position ist natürlich nicht unbestritten geblieben, es würde jedoch in diesem Blogbeitrag zu weit führen, die Details dieser Debatte auszubreiten. Für meine Argumentation hier ist es jedoch auch nicht entscheidend, ob Individuen tatsächlich eine unkorrigierbare Autorität mit Blick auf die eigenen Schmerzen zukommt. Auch wenn es dafür gute Anhaltspunkte gibt, wäre es für die Frage epistemischer Ungerechtigkeit ausreichend, wenn sie über ein Schmerzwissen verfügen, das sie „epistemisch vertrauenswürdig“ macht, wie Fricker fordert (2007, S. 45) – und dies wird für die typischen Nutzenden von Gesundheits-, Fitness- oder Wellbeing-Apps von keiner Seite bestritten.
Wenn es also um derartige Apps geht, sind die Schmerzleidenden die – mindestens zentrale, wenn nicht sogar alleinige – epistemische Autorität in Bezug darauf, dass, wo, und wie intensiv sie Schmerzen haben. Ihnen diese Autorität zu nehmen bedeutet, eine epistemische Ungerechtigkeit zu begehen. Es wird nicht mit, sondern vor allem über sie, ihren Körper, ihren Schmerz gesprochen (Spivak 1988). Dies gilt es unter allen Umständen zu verhindern, indem Einsatzort und -zweck sowie die spezifische Ausgestaltung dieser Systeme besonders mit Blick auf epistemische Ungerechtigkeiten in den Blick genommen werden.
In den Anwendungsfällen, in denen sie diese Autorität nicht oder nur eingeschränkt artikulieren können, ist es natürlich möglich, sie sensibel und autonomieverbürgend in ihren Schmerzberichten zu unterstützen. Es muss jedoch immer klar sein, dass externe Schmerzerfassungen – sei es durch geschultes medizinisches oder Pflegepersonal, sei es unter Zuhilfenahme KI-gestützter Systeme – die noch vorhandenen körperlichen Schmerzäußerungen (Mimik, Gestik, Paralinguistik, Muskeltonus, Hautleitwert etc.) zumindest in Teilen als Form nonverbaler Schmerzberichte aufnehmen. Sie sind nicht nur Beobachtungen eines idiosynkratischen Verhaltens, sondern immer auch Beobachtungen von (versuchten) Kommunikationsakten. Hier können epistemische Ungerechtigkeit hinsichtlich der Glaubwürdigkeit der Schmerzleidenden als Wissenssubjekte entstehen, besonders wenn – algorithmisch konservierte oder auch individuell in den Reihen des medizinischen oder Pflegepersonals bestehende – Identitätsvorurteile ins Spiel kommen.
Fazit
Epistemische Ungerechtigkeiten mit Blick auf die eigenen Schmerzberichte führen im Gesundheitsbereich häufig zu einer schlechteren (Schmerz)diagnose und -therapie. Gleichzeitig leidet oftmals auch das Vertrauensverhältnis nicht nur in einzelne Ärzt*innen und Pfleger*innen bzw. die jeweiligen Gesundheits-Apps, sondern das Gesundheitssystem im Allgemeinen. Hier entstehen u.U. präventive, diagnostische und therapeutische Teufelskreise.
Mindestens ebenso wichtig ist jedoch der Umstand, dass solche epistemischen Ungerechtigkeiten die Betroffenen als Wissenssubjekte diskreditieren und ihnen auf diese Weise ihre Stimme und ihre Akteursschaft hinsichtlich ihres eigenen Körperwissens nehmen. Dadurch werden nicht nur u.U. historische Vorurteile und Diskriminierungen reproduziert, sondern es wird darüber hinaus die Fähigkeit der Betroffenen in Frage gestellt, Wissen erlangen – und damit letztlich rational sein – zu können.
------------------------------------------------------------------
Literatur:
Barnes, Elizabeth (2020): The hysteria accusation. In: aeon vom 26.06.2020. URL: aeon.co/essays/womens-pain-it-seems-is-hysterical-until-proven-otherwise (26.05.2021).
Fricker, M. (2007): Epistemic injustice: Power and the ethics of knowing. Oxford: Oxford University Press.
Grahek, Nikola (2001): Feeling Pain and Being in Pain. Boston MA: MIT Press.
Hoffman, Kelly M./Trawalter, Sophie/Axt, Jordan R./Oliver, M. Norman (2016): Racial bias in pain assessment and treatment recommendations, and false beliefs about biological differences between blacks and whites. In: Proceedings of the National Academy of Sciences of the United States of America. Jg. 113, Nr. 16, S. 4296–4301.
Spivak, Gayatri (1988): Can the Subaltern Speak? In: Nelson, Cary/Grossberg, Lawrence (Hg.): Marxism and the Interpretation of Culture. Chicago: University of Illinois Press.
Thong, I.S.K./Jensen, M.P./Miró, J./Tan, G. (2018): The validity of pain intensity measures: what do the NRS, VAS, VRS, and FPS-R measure? In: Scandinavian journal of pain. Jg. 18, Nr. 1, S. 99–107.
Wachter, Sandra (2022): The Theory of Artificial Immutability: Protecting Algorithmic Groups Under Anti-Discrimination Law. ArXiv. URL: https://arxiv.org/abs/2205.01166v1 (06.05.24).
[1] Das bedeutet nicht, dass sich hier nicht trotzdem eine Reihe ethischer Frage mit Blick auf Privatheit und Patient:innenautonomie stellen.
[2] Da es sich hierbei oftmals um einen präventiven bzw. vorklinischen Bereich handelt, spreche ich nicht mehr von Patient:innen.
[3] Mit „dafürkönnen“ ist nicht der Vorgang der Eingruppierung gemeint, sondern die Frage, ob Menschen aus eigener Verantwortung einer (zu Recht) benachteiligten Gruppe angehören, wie z.B. der Gruppe der Verbrecher*innen oder der Raucher*innen.
------------------------------------------------------------------
Kurz-Link zum Teilen des Beitrags: https://uni-tuebingen.de/de/265893