KI in der Betreuung älterer Menschen. Eine ethische Reflexion über digitale Fürsorge

Von Elke Elisabeth Schmidt (Universität Siegen)


KI-gestützte Systeme werden längst zur Betreuung und Pflege alter oder kranker Menschen eingesetzt. Auf hiermit zusammenhängende Anforderungen an Forschung und Gebrauch hat kürzlich Martina Schmidhuber in einem Beitrag auf prae|faktisch aufmerksam gemacht. Ergänzend hierzu möchte ich, jenseits von konkreten Fragen zur Praxis, die grundlegende Frage stellen, ob die Betreuung durch KI schon als solche ein moralisches Problem mit sich bringt.

Ein moralisches Unbehagen

KI-gestützte Systeme unterstützen ältere Menschen bei alltäglichen Tätigkeiten, ermöglichen aber auch, wie etwa die Roboter-Robbe Paro oder der humanoide Roboter Pepper, eine Form der quasi-sozialen Interaktion, die das Wohlbefinden der betroffenen Personen steigern soll. Das löst bei vielen ein diffuses (moralisches) Unbehagen aus. Es ist vor allem auf den Umstand gerichtet, dass Roboter eingesetzt werden, um solche menschlichen Bedürfnisse zu erfüllen, die bisher von anderen Menschen (zum Teil auch von Tieren) gestillt wurden: Bedürfnisse nach sozialer Interaktion und Körperkontakt. Aus diesem Unbehagen resultiert die Frage: Gibt es ein moralisches Problem mit KI-gestützter Betreuung älterer Menschen? Oder ist dieses Unbehagen primär dem Umstand geschuldet, dass wir uns noch nicht so recht gewöhnt haben an Roboter und all das?

Um diese Frage zu beantworten, muss man sich einer geeigneten ethischen Theorie bedienen. Da Kants Instrumentalisierungsverbot weithin Anerkennung findet, soll es hier als Grundlage der ethischen Reflexion dienen. Da es Teil der berühmten Menschheitsformel ist, lautet die Frage: Gibt es unter Rückgriff auf diese Formel ein moralisches Problem mit KI-gestützter Betreuung älterer Menschen?

Kants Menschheitsformel

„Handle so, daß du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst“ (Grundlegung zur Metaphysik der Sitten, AA 4, 429). Diese ethische Formel hat zwei Teile: Sie beinhaltet erstens das Verbot, Personen als bloße Mittel zu gebrauchen (als Mittel gebrauchen darf man sie sehr wohl), und zweitens das Gebot, sie immer auch als Zweck an sich zu behandeln. Man kann dem Verbot entsprechen, ohne das Gebot zu erfüllen: Man kann sich dazu entscheiden, jemanden nicht anzulügen und ihn insofern nicht als bloßes Mittel nutzen, ohne allein damit schon seinem Dasein als Zweck an sich Genüge getan zu haben. Wie immer ist hier in interpretatorischer Hinsicht beinahe alles umstritten; ich versuche, das beste daraus zu machen.

Werden Personen durch KI-Betreuung instrumentalisiert?

Prima facie werden ältere Personen nicht durch den Einsatz von KI in Pflege und Betreuung instrumentalisiert, geschweige denn als bloßes Mittel genutzt – immerhin werden KI-Systeme ja gerade eingesetzt, um Gesundheit und Wohlbefinden dieser Personen zu fördern.

Allerdings könnte es natürlich sein, dass Menschen im Kontext einer profit-orientierten Fürsorge durchaus als bloßes Mittel behandelt werden – nämlich dann, wenn sie allein deswegen betreut, gepflegt oder gar am Leben erhalten werden, um bei größtmöglicher Kostenreduzierung Profit zu maximieren und sie dabei auf eine Weise behandelt werden, die aus einer (erlaubten) Mittelnutzung eine (verbotene) bloße Mittelnutzung macht. Ob ein System oder eine einzelne pflegende Person in diesem Sinne Menschen als bloßes Mittel nutzt, ist dabei von außen nicht immer erkennbar; in vielen Fällen wird es vor allem auf die innere Einstellung oder den konkreten Umgang mit der Person ankommen. (Das kann man m. E. so allgemein durchaus unabhängig von der Frage festhalten, was genau eigentlich Mittelnutzung von bloßer Mittelnutzung unterscheidet). So oder so liegt dieses moralische Problem dann aber nicht an der Nutzung von KI im Speziellen, sondern am Umgang mit den betreuten Personen im Allgemeinen.

Werden Personen durch KI-Betreuung (nicht) als Zwecke an sich behandelt?

Dort, wo Kant die Menschheitsformel einführt, verweist er im Kontext der Frage, ob man andere als Zwecke an sich behandelt, allein auf die weite Pflicht, aktiv zu anderer Personen Glückseligkeit beizutragen. (Das ist vermutlich zu kurz gegriffen; tatsächlich lassen sich wohl auch Verbote aus dieser allgemeinen Handlungsanweisung ableiten. Da diese hier aber keine Rolle spielen, sage ich nichts weiter zu ihnen.) In der Tugendlehre (AA 06, §§ 29-35) subsumiert er dann unter den moralischen Zweck der fremden Glückseligkeit drei Pflichten des Wohlwollens: Wohltätigkeit, Dankbarkeit und teilnehmende Empfindung (es gibt auch noch diverse Laster sowie die Achtungspflichten, die ich hier ebenfalls außer Acht lasse). Beziehen wir diese Pflichten nun auf unser Problem.

Die Pflicht zur Wohltätigkeit kann, mindestens im Sinne der Pflichtmäßigkeit, insofern als erfüllt betrachtet werden, als die KI ja gerade eingesetzt wird, um das Wohl der betreuten Personen zu fördern. Beachtenswert ist aber: Die Pflicht zur Wohltätigkeit besteht darin, andere Personen gemäß den Wünschen und Zielen zu unterstützen, die sie selbst haben – hat eine Person also ein Bedürfnis nach sozialer Interaktion (mit echten Menschen), sollten wir uns daran auch orientieren.

Die Pflicht zur Dankbarkeit lasse ich hier außen vor, zumal das schlagkräftigste Argument in der Pflicht zur teilnehmenden Empfindung begründet liegt. Hier geht es im Sinne der humanitas practica darum, Teil einer interagierenden, sozialen Gemeinschaft zu sein, in der die eigenen Gefühle wechselseitig mit anderen geteilt werden können. Man öffnet das eigene Herz, und andere öffnen ihre Herzen; diese teilnehmende Empfindung begreift Kant als Element fremder Glückseligkeit. Und hier ist nun der springende Punkt: Will man sich nicht auf die These versteifen, KIs hätten Gefühle und verstünden wirklich die Gefühle anderer, ist damit eine Grenze dessen erreicht, was KIs leisten können. KIs können, und diese These vertreten natürlich viele, weder fremde Gefühle verstehen noch eigene erleben. Beides können sie nur simulieren. Sie haben keine first person perspective; sie fühlen nichts, und weil das so ist, können sie auch nicht verstehen, was es bedeutet, zu fühlen. Das wechselseitige Teilen der Gefühle im Sinne der teilnehmenden Empfindung ist damit ausgeschlossen.

Weite Pflichten und der Zeitfaktor

Nun ist teilnehmende Empfindung eine weite Pflicht; sie hat Spielraum, und das heißt, dass man dieser Pflicht nicht immer, überall und in Bezug auf jeden nachkommen muss. Dementsprechend hat niemand ein moralisches Recht darauf, sich heute Abend über die eigenen Gefühle auszutauschen; vielmehr kann man sich erst dann beschweren, wenn man grundsätzlich von jeder Möglichkeit zur Teilnehmung ausgeschlossen wird. Das bringt einen Zeitfaktor ins Spiel: Werden Personen für kurze Zeiträume von KIs betreut, scheint kein moralisches Problem erkennbar; fände die Betreuung durch KIs über längere Phasen oder ausschließlich statt, könnte dem Bedürfnis nach (echter) sozialer Interaktion und dem wechselseitigen Teilen der Gefühle nicht entsprochen werden; die Pflicht zur Teilnehmung wäre verletzt.

Simulation und Lüge

Ein letzter Gedanke. Ist die Simulation eines intelligenten, kommunikationsfähigen Wesens insofern als solche problematisch, als man es hier mit einer von Kant rigoros abgelehnten Lüge zu tun hat? Auf den ersten Blick nicht: Denn weder liegt (in den meisten Kontexten) die Intention vor, Personen durch KIs zu täuschen, noch ist es in der Regel so, dass ältere Personen nicht wüssten, dass es sich um einen Roboter handelt.

Aber erstens kann zwar keine Lüge im engen Sinne, wohl aber eine Täuschung auch dann vorliegen, wenn die Intention dazu fehlt; siehe etwa Sinnestäuschungen. (Bei näherer Reflexion wird zudem fraglich, ob tatsächlich keinerlei Intention besteht, Menschen mithilfe humanoider Roboter, die etwa motivieren und trösten sollen, zu täuschen.) Zweitens gibt es das Phänomen, dass Menschen wider besseres Wissen auf eine Art und Weise auf KIs reagieren, die wir eigentlich qua dieses Wissens für ausgeschlossen halten. So gibt es die Beobachtung, dass ein Teil der Menschen, die chatbots oder Roboter nutzen, emotionale Bindungen zu diesen KIs auch dann aufbauen, wenn sie wissen, womit sie es zu tun haben (die Gefühle reichen von Mitleid bis Verliebtheit). Und selbst aufgeklärte Nutzerinnen und Nutzer auch ohne emotionale Bindung zur KI erliegen, abhängig von den kommunikativen Fähigkeiten einer KI, immer öfter dem vorübergehenden Eindruck, die KI verstehe sie irgendwie. Das ist nicht erst heute bekannt, sondern wurde schon in den 1960ern als ELIZA-Effekt beschrieben; es gibt die menschliche Tendenz, wider besseres Wissen KI-Systemen echtes Verständnis zuzuschreiben. Man könnte hier analog zu widerständigen Emotionen (wie irrationalen Ängsten) vom widerständigen phänomenalen Erleben reden, also von einem phänomenalen Erleben, das einen Inhalt repräsentiert, welcher dem eigenen Wissen widerspricht. Dass sich diese Problematik im Hinblick auf ältere, möglicherweise einsame und kognitiv beeinträchtigte Personen in besonderer Weise verschärft, liegt auf der Hand.

Mit der Pflicht zur Teilnehmung knüpft Kant an das klassische Konzept der Humanität und deren sozialen Aspekte an. Das eingangs beschriebene Unbehagen könnte daraus erwachsen, dass wir diese Pflicht durch den Einsatz von KI in Betreuung und Pflege verletzen und eine soziale Täuschung schaffen, in der die Erfüllung dieser Pflicht lediglich simuliert wird.


Elke Elisabeth Schmidt ist Post-Doktorandin an der Universität Siegen. Sie arbeitet zur Philosophie der Liebe und Emotionen, zur Praktischen Philosophie Kants sowie zur Trolley-Problematik.