Eine Künstliche Intelligenz als Ärztin? Ethische Fragen zur Mensch-Maschine-Interaktion in der Medizin

Von Michael Haiden (Ingolstadt)

Während künstliche Intelligenz (KI) einmal menschliche Arbeit ersetzen könnte, verspricht die nahe Zukunft eher eine Arbeitsteilung zwischen Mensch und KI. Das betrifft auch die Medizin. Eine Zusammenarbeit in diesem Bereich, etwa in der Analyse medizinischer Bilder, könnte Diagnosen beschleunigen, ihre Genauigkeit verbessern und medizinisches Personal entlasten. Doch der Einsatz von KI in der Medizin birgt das Potenzial, unser Verständnis von Verantwortung und Moral radikal zu verändern.


Natürlich verlassen sich Ärztinnen und Ärzte bereits jetzt auf technische Instrumente, seien es Ultraschall oder MRT. Doch KI-Assistenten wären ein neuer Schritt in der Zusammenarbeit zwischen Mensch und Maschine, da künstliche Intelligenz nicht von Menschen gesteuert ist, sondern eigene Entscheidungen trifft. Anders gesagt: sie agiert zum Teil unabhängig.

Diese Unabhängigkeit wirft die Frage auf, wie Gesellschaften die Zusammenarbeit von Mensch und Maschine in der Medizin gestalten sollten. Immerhin existieren verschiedene Arten, wie die beiden kooperieren können – mit unterschiedlichen Vor- und Nachteilen. Eine KI könnte etwa medizinische Bilder analysieren und eigene Diagnosen treffen – welchen ein Arzt zustimmt oder nicht. Alternativ könnte sie Aspekte eines Bildes hervorheben, welcher eine Ärztin besondere Aufmerksamkeit widmen sollte. Beides wäre eine Zusammenarbeit zwischen Mensch und Maschine, wobei in der ersten Option die Maschine mehr Einfluss hätte. Eine weitere Möglichkeit wäre, dass Ärztinnen und Ärzte ihre Diagnosen alleine treffen, diese aber durch eine künstliche Intelligenz auf Fehler geprüft werden. Hier könnte die KI auch ein „Einspruchsrecht“ haben, und verlangen, dass die Untersuchung wiederholt wird.

 Die Entscheidung über solche Fragen ist wichtig, weil die Einführung von künstlicher Intelligenz die Verantwortung für medizinische Diagnosen auf mehrere Akteure verteilen könnte. Wenn Medizinerinnen und Mediziner sich bei ihren Diagnosen auf künstliche Intelligenz stützen, tragen sie dann weiterhin die volle Verantwortung für Fehler? In Experimenten zeigt sich zumindest, dass Menschen einer Maschine durchaus Verantwortung zuschreiben, wenn diese Teil eines medizinischen Teams ist. Die Hauptverantwortung liegt zwar beim behandelnden Arzt, dennoch wird die KI nicht als ein einfaches Werkzeug betrachtet. Auch abseits der Medizin zeigen Studien, dass Menschen weniger für Fehler verantwortlich gemacht werden, wenn sie zuvor Aufgaben an eine Maschine delegiert haben.

Für die Medizinethik wirft das die Frage auf, ob diese Verteilung der Verantwortung gerecht und wünschenswert ist. Einerseits sollten Menschen natürlich in der Lage sein, die Diagnose einer KI zu hinterfragen, doch gerade bei komplexer werdenden Algorithmen wird das unwahrscheinlich. Eine KI kann immerhin auf weit größere Datenmengen als Menschen zugreifen, wodurch ihre Analysen präziser werden, für uns aber schwieriger zu verstehen sind.

Sind also auch die Hersteller des Algorithmus, sowie Verwaltung eines Krankenhauses – welche sich für eine Anwendung eines Algorithmus entscheidet – ebenfalls für eine Diagnose verantwortlich? Ist es vielleicht sogar wünschenswert, dass die Hersteller der KI oder die Krankenhausverwaltung, welche ihren Nutzen regelt, sich ebenfalls für Entscheidungen rechtfertigen müssen? Es wäre doch unfair, Ärztinnen und Ärzten die alleinige Verantwortung für Diagnosen zuzuschreiben, wenn sie sich dabei auf Systeme verlassen müssen, deren interne Prozesse sie nicht nachvollziehen können.

Gleichzeitig birgt so eine Verteilung von Verantwortung das Problem, dass am Ende nicht klar ist, wer nun tatsächlich für einen Fehler geradestehen muss. Medizinische Entscheidungen wären weniger transparent. Eine Extremposition wäre, die Nutzung von KI stark einzuschränken oder zu verbieten, damit für Ärztinnen sowie Patienten Klarheit darüber besteht, wer die Verantwortung für Diagnosen trägt.

Menschen könnten immerhin ein Problem damit haben, wenn ihre Diagnose von einem Algorithmus beeinflusst wurde, ihnen aber niemand sagen kann, wie dieser Algorithmus arbeitet. In manchen Diagnosen könnte das zu einem besonderen Problem werden. Ist ein Patient noch arbeitsfähig oder nicht? Darf jemand in Frührente gehen oder nicht? Wenn künstliche Intelligenz Diagnosen beeinflusst, sei es über Bilderkennung oder auch mehr, wird sie auch direkt oder indirekt die Antworten auf solche Fragen prägen.

Auf der anderen Seite verspricht die Integration von künstlicher Intelligenz, Medizin genauer und effizienter zu machen. In den alternden Gesellschaften entwickelter Staaten werden Menschen in den kommenden Jahren mehr medizinische Ressourcen benötigen, während die Verfügbarkeit dieser Ressourcen schwindet. Die Folge wären längere Wartezeiten auf vielleicht notwendige Untersuchungen, sowie eine höhere finanzielle Belastung für Beitragszahlende.

Wenn künstliche Intelligenz Diagnosen beschleunigt und somit wertvolle Ressourcen spart, könnte das eine Antwort auf die Überalterung sein. Schnellere Diagnosen, die unabhängig von Ärzten  getroffen werden, bedeuten immerhin, dass medizinisches Personal mehr Zeit für andere Aktivitäten hat und mehr Patientinnen in derselben Zeit behandeln kann.

Der andere Vorteil ist, dass künstliche Intelligenz Diagnosen exakter machen könnte. So würden etwa gefährliche Tumore noch früher erkannt als jetzt, was die Heilungschancen verbessert. Genauso könnten individuelle Risikofaktoren für gewisse Krankheiten früher erkannt werden.

Das wäre weniger transparent, würde aber das Gesundheitssystem entlasten und höhere Heilungschancen versprechen. Eine zu strikte Regulierung von KI würde dagegen Menschen benachteiligen, deren Krankheit durch Einsatz von Maschinen schneller hätte erkannt werden können. Sind wir bereit, den Tod dieser Menschen in Kauf zu nehmen, wissend, dass er hätte verhindert werden können?

Wenn künstliche Intelligenz sich weit genug entwickelt, könnte menschlicher Einfluss in Diagnosen diese nur mehr verschlechtern. Sollte das bedeuten, dass die Maschine ihre eigenen Diagnosen fällt, gestützt auf Datenmengen, auf die einzelne Ärzte niemals zugreifen könnten? Das wäre die andere Extremlösung. Transparenz würde zum Wohle einer schnelleren und genaueren Medizin geopfert werden. Mit den Diagnosen einer hochentwickelten KI könnte man mehr Menschen retten als jetzt. Wie diese Diagnosen zustande kamen, wüssten die Patienten jedoch nicht – genauso wenig wie ihr behandelnder Arzt.

Die Medizinethik muss also untersuchen, wie die Mensch-Maschine Interaktion gestaltet werden sollte. Verantwortung und Transparenz müssen dabei eventuell gegeneinander abgewogen werden. Einfache Lösungen scheint es nicht zu geben, wenn wir der Komplexität des Problems gerecht werden wollen. Wenn wir die Extrempositionen aufgeben (keine KI vs. kein menschlicher Einfluss), dann landen wir in einem Bereich mit vielen verschiedenen Optionen, um die Nutzung von KI zu organisieren.

Eine Option wäre, Patienten zu fragen, welche Behandlung sie bevorzugen. Wem Transparenz wichtig ist, kann sich auf eine menschliche Diagnose verlassen. Wer ein genaueres Ergebnis will, kann eine Diagnose durch eine KI wählen. Der Mittelweg wäre beides, also einen Arzt zu wählen, der sich auf KI verlässt.

Die Frage ist jedoch, wie Patientinnen diese Optionen präsentiert werden sollten. Müssen sie vor ihrer Wahl aufgeklärt werden? Falls ja, von wem? Welche Themen sollten dabei besprochen werden? Und welche Rechte gibt jemand ab, der sein ganzes Vertrauen auf eine KI setzt?

Der Philosoph Peter-Paul Verbeek argumentiert bereits, dass Technologien einen immer stärkeren Einfluss auf unsere moralisch relevanten Entscheidungen haben. In der heutigen Zeit sind Mensch und Maschine untrennbar miteinander verbunden. Entscheidungen sind immer seltener exklusiv menschlich, vielmehr wird die Art, wie wir denken und handeln, durch den Einfluss von Maschinen gelenkt.

Der Einsatz von KI in der Medizin eröffnet viele Möglichkeiten für die Interaktion von Mensch und Maschine. Egal wie wir uns entscheiden, ethische Frage werden regelmäßig auftauchen. Vielleicht wird der Einsatz von KI auch verändern, wie wir über menschliche Verantwortung nachdenken.


Zur Person

Michael Haiden ist seit Dezember 2023 wissenschaftlicher Mitarbeiter an der Technischen Hochschule Ingolstadt. Für das Projekt „Mensch in Bewegung“ setzt er sich mit sozialen und ethischen Auswirkung von künstlicher Intelligenz auseinander. Weiters publiziert er zu praktischer Ethik und internationalen Beziehungen. Sein letzter Aufsatz Jürgen Habermas: A Political Pacifist? wurde mit dem Res Philosophica Essay Prize ausgezeichnet.

Michael Haiden an der Technischen Hochschule Ingolstadt

Publikationsliste

LinkedIn