Künstliche Intelligenz (KI) im Bereich Medizin und Gesundheit – Nutzen und Gefahren

Wie einst der Dampf, die Dampfmaschine und die damit verbundene Industrialisierung fast alle Bereiche menschlichen Lebens einer radikalen Umwälzung unterzogen haben, so ist heute die Künstliche Intelligenz im Begriff, alles zu optimieren und zu regulieren.

Als Antriebskräfte wirken jedoch nicht nur die natürliche Neugier und der Entwicklungsdrang des Menschen. Vielmehr spielen die Interessen mächtiger Eliten eine wichtige Rolle. Gegenwärtige Entwicklungen werden dabei von nur wenigen Akteuren gestaltet, die sich durch eine Mentalität des „alles ist möglich“, „alles ist machbar“ und „alles ist erlaubt“ leiten lassen. Es scheint eine Art Goldgräberstimmung zu herrschen, in der die Claims abgesteckt werden. Zukunftsrelevante Entscheidungen werden dabei nicht durch demokratisch legitimierte Instanzen getroffen, sondern durch kommerzielle und technologische Kalküle bestimmt.

Zur Verdeutlichung der Dynamik der gerade ablaufenden Prozesse mögen zwei Pressemeldungen im November 2023 ausreichen. Die Unternehmensberatung McKinsey hat eine frühere Prognose, „dass sich die Hälfte aller Aufgaben im Unternehmen digital ersetzen lasse“ nach oben korrigiert und geht nun von einer Quote von 60 bis 70 Prozent aus. „Und das gelte für alle Industrien, von der Digitalwirtschaft bis zu Agrarunternehmen“. KI macht dabei auch vor Themen wie Tod und Trauer nicht Halt. So sorgte die südkoreanische TV-Doku „Meeting You“ für Aufsehen, „in der eine Mutter einer virtuellen Kopie ihrer verstorbenen siebenjährigen Tochter begegnet“ – KI macht’s möglich! Ein sogenannter Death-Tech-Markt ist im Entstehen begriffen, der Technologie-Angebote rund um Tod, Sterben und Trauer macht. Der US-amerikanische Global Industry Analyst schätzt diesen neuen Markt weltweit auf rund 128,8 Milliarden Euro.


Unumstritten: Es liegen große Hoffnungen darin, dass durch KI Menschenleben gerettet werden können!

In der Medizin und im Gesundheitswesen gibt es zwar durchaus überzeugende Beispiele dafür, dass KI nützlich und sinnvoll sein kann, sogar Leben gerettet und die Versorgung kranker Menschen verbessert werden. Allerdings gibt es – wie bei jeder Technologie – auch hier eine Schattenseite. Die Anwendung von KI in der Medizin und im Gesundheitswesen erfolgt nämlich nicht zuletzt vor dem Hintergrund der Kommerzialisierung des Gesundheitssystems. Die Problematik hat der Journalist und Philosoph Matthias Pfeffer folgendermaßen beschrieben: „Die kombinierte finanzielle, wirtschaftliche und technologische Macht von Big Tech hat eine historisch beispiellose Konzentration erreicht, die eine demokratische Reaktion erfordert”.

In einem kommerzialisierten Gesundheitssystem besteht das vordergründige Motiv für die Nutzung von KI nicht darin, kranken Menschen zu helfen und Leiden zu lin-dern. Vielmehr geht es um kommerzielle Interessen einer nicht am Gemeinwohl orientierten Gesundheitswirtschaft. Dabei sollen, des schnöden Mammons willen, immer mehr Technologien nicht nur in der Außenwelt des Menschen verwendet werden, sondern diese auch im Körper des Menschen und auf emotive sowie kognitive Prozesse, d.h. auf das Bewusstsein appliziert werden. Der sogenannte Mensch 2.0 könnte als Ergebnis dieser Entwicklung KI und Technologien nicht mehr nur zur besseren Daseinsbewältigung nutzen, sondern selbst Objekt sowie Teil von Technologien und ständig optimiert werden.

Durch eine zunehmende Verschmelzung von Menschen und Technologie können sich indes sowohl die Technologien als auch der Mensch verändern. Der Soziologe und Politikwissenschaftler Roland Benedikter stellt daher die – keineswegs nur philosophische Frage –, ob der Mensch in diesem Prozess technischer oder die Technologie menschlicher wird. Denn die Technik dringt ja in den Menschen ein und wird damit Teil seines Subjekts, was für Benedikter das Neue ist, dass es so in der Geschichte noch nicht gegeben hat. Er selbst ist „sehr skeptisch gegenüber der Geschwindigkeit und der Art und Weise, wie das geschieht“. Bei aller verständlichen Begeisterung für die Möglichkeiten der KI sollten wir daher nicht vor der grundsätzlichen Frage zurückschrecken, ob die Entwicklungen unkontrolliert zu einem Motor einer unheilvollen Synergie werden können.

• Führt Künstliche Intelligenz zu einer nicht mehr zu stoppenden Artifizierung und Technisierung von Menschen, Natur und Kultur?
• Kann Künstliche Intelligenz das Ende des Homo sapiens bedeuten?
• Ist Künstliche Intelligenz durch die natürliche Weisheit der Menschheit beherrschbar?


Hauptaugenmerk: Ankommen wird es darauf, ob KI Mensch & Mediziner synergistisch unterstützen soll, oder sie im “worst-case-Szenario” lediglich nur ersetzen wird.

Aus ethischer Sicht postuliert der Chirurg und Gesundheitspolitiker Axel Ekkernkamp, dass im Kontext von Medizin und Gesundheit immer wieder diskutiert werden muss, „welche Technologien wir im Interesse der Wissenschaft und des Patienten tatsächlich einsetzen wollen“. Seine Antwort ist einfach und klar: „solche, die für den Menschen am besten sind“. Nicht technische Machbarkeit oder kommerzielles Kalkül dürfen ausschlaggebend sein, sondern das allgemeine ethische Prinzip, Menschen in der Not zu helfen und Leid zu lindern.

Grundsätzlich scheint der Deutsche Ethikrat in seiner Stellungnahme zur KI vom 20. März 2023 eine ähnliche Position zu vertreten, indem er fordert, dass KI die Möglichkeiten menschlicher Entfaltung erweitern sollte und nicht behindern darf. Einige der konkreten Empfehlungen entsprechen dem aber nur zum Teil. So sieht der Ethikrat ausgerechnet in der Psychotherapie einen medizinischen Handlungsbe-reich, in dem „KI-basierte Systeme zum Teil ärztliches bzw. anderes Gesundheitspersonal mitunter weitgehend oder vollständig ersetzen können.“

Diese Äußerung des Ethikrates ist irritierend, da Psychotherapie in besonderer Weise auf Begegnung, Sprache sowie Resonanz angewiesen ist und die analoge Präsenz eine Voraussetzung dafür ist. Der Arzt und Neurowissenschaftler Joachim Bauer weist in seinem Buch „Realitätsverlust“ darauf hin, dass Menschen „um psychisch und körperlich gesund zu bleiben, die analoge Präsenz anderer Menschen“ brauchen. Einerseits sieht er den Nutzen von KI: „Wenn wir sie als Werkzeuge benutzen, anstatt uns zu ihren Werkzeugen machen zu lassen, können digitale Produkte unser Leben bereichern.“ Andererseits warnt er vor den Gefahren der KI und mahnt: „Doch wir sind dabei, den Kipp-Punkt zu überschreiten. Digitale Angebote haben begonnen, unser Leben in Besitz zu nehmen. Ohne dass es uns auffällt, nehmen sie uns sanft an die Hand und ersetzen die analoge, zwischenmenschliche Realität mit ihren digitalen Kommunikationskanälen und Erlebnisräumen. Der Wandel kommt wie eine Hilfestellung einher: Man hilft uns beim Gehen, bis wir nicht mehr gehen können. Man hilft uns beim Denken, bis wir nicht mehr denken können.“ Sein Buch ist ein Plädoyer für eine neue Aufklärung und für ein Aufbegehren gegen digitale Unmündigkeit.

Wir tragen jetzt Verantwortung für die zukünftige Entwicklung und sollten den Nutzen und die Gefahren von KI klug und ausgewogen reflektieren. Helfen kann uns dabei das „Prinzip Verantwortung“ des Philosophen Hans Jonas (1903-1993), der vor fast 50 Jahren in wenigen Zeilen zum Ausdruck gebracht hat, wie wir verantwortlich handeln sollten.

„‘Handle so, dass die Wirkungen deiner Handlung verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden‘; oder negativ ausgedrückt: ‚Handle so, daß die Wirkungen deiner Handlung nicht zerstörerisch sind für die künftige Möglichkeit solchen Lebens‘; oder einfach: ‚Gefährde nicht die Bedingungen für den indefiniten Fortbestand der Menschheit auf Erden‘; oder wieder positiv gewendet: ‚Schließe in deine gegenwärtige Wahl die zukünftige Integrität des Menschen als Mit-Gegenstand deines Wollens ein.‘“

Auf der Grundlage der Maximen von Hans Jonas können wir Nutzen und Risiken der KI abwägen, bevor wir in eine Situation geraten, aus der es kein Zurück mehr gibt. An kritischen Stimmen zu KI fehlt es jedenfalls nicht. Warnungen kommen so-gar von prominenten Wissenschaftlern und Managern, die in der Entwicklung von KI eine zentrale Rolle spielen, jetzt aber die Risiken von KI mit Atomkriegen vergleichen und ein „Auslöschungsrisiko“ für die Menschheit sehen. Im März 2023 hatte daher ein Kreis um Elon Musk sogar ein sechsmonatiges Moratorium zur Arbeit an KI gefordert.

Fragen wir noch abschließend die KI selbst, welche Risiken sie aus der Sicht einer Tugendethik für die Anwendung von KI im Bereich Medizin und Gesundheit sieht. Hier Auszüge aus der Antwort von ChatGPT:

„Die Anwendung von KI im Gesundheitswesen und in der Medizin bietet enormes Potenzial, birgt aber auch spezifische Risiken und ethische Herausforderungen. Die Festlegung von Grenzen für KI in diesem Bereich ist entscheidend, um Patientensicherheit, ethische Standards und wirksame Behandlungen zu gewährleisten.“


Fragen wir doch einmal bei der KI selbst nach – und finden eine überraschende Antwort…

Förderung des menschlichen Wohlergehens: KI sollte dazu beitragen, das menschliche Leben zu verbessern. Dies umfasst die Verbesserung der Gesundheitsversorgung, die Steigerung der Effizienz in der Industrie, die Unterstützung in der Bildung und vieles mehr.

Ethik und soziale Verantwortung: KI beinhaltet auch ethisches Handeln und soziale Verantwortung. KI-Systeme sollten fair, unvoreingenommen und transparent sein und dabei die Privatsphäre und die Rechte der Individuen achten. KI-Entwicklungen, die diese ethischen Prinzipien missachten, können als Beispiele für den „Unsinn“ oder die unethische Anwendung von KI betrachtet werden.

Balance zwischen Technologie und Menschlichkeit: Wie die antike Idee der goldenen Mitte nahelegt, sollte die Entwicklung und Anwendung von KI ein Gleichgewicht zwischen technologischen Fortschritten und menschlichen Werten finden. KI, die das menschliche Urteilsvermögen ergänzt und erweitert, ohne es zu ersetzen oder zu untergraben, könnte als tugendhaft angesehen werden.

Langfristige Auswirkungen und Nachhaltigkeit: Eine tugendhafte Anwendung von KI berücksichtigt auch die langfristigen Auswirkungen auf Gesellschaft und Umwelt. Nachhaltige, zukunftsorientierte KI-Entwicklungen, die künftige Generationen nicht gefährden, entsprechen der Idee der Exzellenz in der Fürsorge und Verantwortung.

ChatGPT kommt zu einem bemerkenswerten Schluss: „KI kann als ‚tugendhaft‘ betrachtet werden, wenn sie menschliches Wohlergehen fördert, ethischen Standards entspricht, ein Gleichgewicht zwischen Technik und Menschlichkeit findet und zur langfristigen Nachhaltigkeit beiträgt. Andererseits kann der Einsatz von KI, der die-se Prinzipien verletzt, als unvernünftig oder sogar schädlich betrachtet werden.“

Nicht zuletzt durch diese Einschätzung der KI selbst und vor dem Hintergrund der Kommerzialisierung von Medizin und Gesundheit sollten wir Risiken und Chancen von KI abwägen und nicht in einen Aktionismus verfallen. Achtsamkeit ist angesagt!


Das neue Buch von Professor Schröder: jetzt erhältlich auch im Naturheilverein Pforzheim in der Bücherzentrale!