Erklärbare KI für das Gesundheitswesen

Keyvisual image main
„Ärzt:innen sollten KI eher als Werkzeug denn als primären Mechanismus zur Entscheidungsfindung nutzen,“ sagt Luka Poslon.

Als Gastforscher im Fachbereich Philosophie des HLRS untersucht Luka Poslon ethische und erkenntnistheoretische Fragen beim Einsatz von künstlicher Intelligenz in der Medizin.

Ein Patient spricht mit einer Ärztin in einem Untersuchungsraum. Vor der Ärztin steht ein Computer. Während sie der Patientin Fragen stellt, klickt sie Kästchen auf dem Bildschirm an. Die Software hat nicht nur Zugang zu den Testergebnissen und medizinischen Daten der Patientin, sondern ist auch mit einer riesigen Datenbank verbunden, die Informationen über Millionen anderer Patient:innen enthält. Sobald der Fragebogen ausgefüllt ist, analysiert das Programm all diese Informationen und erstellt ein Medikamentenrezept, das die Ärztin der Patientin mitgibt.

Dies ist eine vereinfachte Version einer medizinischen Untersuchung des einundzwanzigsten Jahrhunderts, doch sie enthält Elemente der Zukunft der Gesundheitsversorgung im Zeitalter der künstlichen Intelligenz. KI-Anwendungen für die Radiologie, Kardiologie, Chirurgie und andere medizinische Bereiche gibt es bereits oder befinden sich in der Entwicklung, während KI auch in der biomedizinischen Forschung für die Entdeckung von Medikamenten und personalisierte Medizin eingesetzt wird. In dem Maße, wie sich ihre Fähigkeiten verbessern, wird die KI in Kliniken zunehmend zum Einsatz kommen und sogar die traditionelle Beziehung zwischen Arzt und Patient verändern.

Als wissenschaftlicher Mitarbeiter des Labors für Ethik im digitalen Gesundheitswesen an der Katholischen Universität von Kroatien in Zagreb untersucht Luka Poslon die Herausforderungen der Digitalisierung des Gesundheitswesens. Von April bis Juni 2024 ist er außerdem Gastwissenschaftler am Höchstleistungsrechenzentrum Stuttgart (HLRS) in der Department of Philosophy of Computational Sciences. Gemeinsam mit den Wissenschaftler:innen des HLRS geht er zwei zentralen Fragen nach: In welchen Situationen im Gesundheitswesen ist der Einsatz von KI sinnvoll? Und wie kann die Erklärbarkeit von KI-Algorithmen verbessert werden, damit Ärzt:innen und Patient:innen deren Ergebnisse verstehen, bewerten und auf ethische Weise nutzen können?

Erklärbarkeit ist eine Frage des Vertrauens

In bestimmten Situationen hat die KI bereits bewiesen, dass sie im Vergleich zu anderen Methoden individuelle und präzisere Empfehlungen für die klinische Praxis geben kann. Mediziner:innen erwarten auch, dass KI bei zeitaufwändigen Verwaltungsaufgaben helfen könnte und ihnen mehr Flexibilität gibt, um sich auf die Patienten zu konzentrieren.

Gleichzeitig muss die KI noch das Vertrauen der Ärzt:innen und Patient:innen gewinnen. Denn selbst für die Programmierer:innen von KI-Algorithmen ist es aufgrund ihrer „Blackbox“-Natur in der Regel unmöglich, die genauen Ergebniswege nachzuvollziehen. Obwohl sie oft präzise arbeiten, sind KI-Tools nicht perfekt. Falsch positive oder falsch negative Ergebnisse können beispielsweise dazu führen, dass ihre Benutzer den von ihnen gelieferten Informationen weniger Glauben schenken. Es ist besonders wichtig, dass Ärzt:innen auf die Genauigkeit von KI-Tools in der Medizin vertrauen können, wenn es um die Lebensqualität oder sogar das Überleben von Patient:innen geht.

Aus diesem Grund untersuchen Forschende in der Philosophie-Abteilung des HLRS Fragen zur Anwendung der KI, um ein genaues Verständnis dafür zu entwickeln, wie Algorithmen für maschinelles Lernen vertrauenswürdig und zuverlässig werden. Ein Schlüsselfaktor in der Medizin – wie auch in vielen anderen Bereichen – ist die Notwendigkeit, die Erklärbarkeit von Algorithmen zu verbessern. In diesem Fall bedeutet „erklärbare KI“, dass ein Algorithmus nicht nur eine Diagnose oder ein Behandlungsrezept liefern sollte, sondern auch relevante Informationen über die Ergebnisgrundlage. Dies würde Ärzt:innen eine bessere Basis für Empfehlungen an Patienten bieten. Die Integration von Erklärungsmöglichkeiten in KI-Algorithmen befindet sich jedoch noch in der Entwicklungsphase und ist aktuell noch nicht konsistent und transparent abbildbar.

KI erklärbar zu machen, wird nicht nur für Ärzt:innen und Patient:innen von Interesse sein, sondern auch für Entwickler:innen von KI-Tools. Je besser die Technologien in jedem Bereich werden, desto zuverlässiger werden sie. Mit der Zeit sinkt der Bedarf an Vertrauen, weil sie in der Regel funktionieren. Zu Beginn hängt es jedoch von der Vertrauenswürdigkeit eines Instruments ab, ob es angenommen wird oder nicht. In Anbetracht der Komplexität und Vielfalt der menschlichen Physiologie „ist es wichtig, dass Tests, Sensoren und Algorithmen stets die richtige Vorhersage zur richtigen Zeit für den richtigen Patienten treffen“, erklärt Poslon.

Einbindung von KI in das Gesamtbild

In dem Maße, wie KI-Tools verfügbar werden, müssen Ärzt:innen und anderes klinisches Personal ihre Grenzen kennen und wissen, wie sie sich am effektivsten in eine medizinische Praxis integrieren lassen. Poslon weist darauf hin, dass neben der Opazität vieler KI-Algorithmen auch die Gefahr besteht, dass sich Ärzt:innen zu sehr von ihnen abhängig machen könnten. „Es ist wie beim Einparken eines Autos, das man heutzutage nur noch mithilfe von Sensoren steuern kann“, erklärt er. „Manchmal übersehen die Sensoren jedoch ein Hindernis, und wenn man nicht aufpasst, könnte man dagegen fahren.“

Eine solche Analogie unterstreicht die Tatsache, dass die Fähigkeit von Ärzt:innen, auf der Grundlage ihres Wissens und ihrer Erfahrung Urteile zu fällen, immer wichtig sein wird. „Ärzte sollten KI eher als Werkzeug denn als primären Mechanismus zur Entscheidungsfindung nutzen“, argumentiert Poslon. „Sie sollte ihnen helfen, ihre Leistung zu verbessern, aber letztlich sollten Ärzte immer noch Entscheidungen über einzelne Patienten treffen.“

Die Europäische Union hat kürzlich ein neues KI-Gesetz verabschiedet, das weltweite Regeln für KI enthält. Das Gesetz verwendet einen Rahmen, in dem eine stärkere Regulierung für Anwendungen von KI erforderlich ist, die Schadenspotenzial haben, wie etwa in der Medizin. Im Hinblick auf die rasende Entwicklung dieses Umfelds wird die Arbeit von Forschenden wie Poslon und seinen Kolleg:innen am HLRS für ein klareres Verständnis der damit verbundenen Risiken und Möglichkeiten notwendig. Das Verständnis der ethischen Fragen wird in die Entwicklung von Richtlinien einfließen, die den Einsatz von KI im Gesundheitswesen und den Umgang mit Daten regeln.

Mit Blick auf das große Ganze ist Poslon der Ansicht, dass die Ankunft der KI ein einzigartiges Ereignis in der Geschichte der Zivilisation darstellt. „Mit KI gibt es keine Grenzen“, sagt er. „Zum ersten Mal sind die Menschen mit einer globalen Technologie konfrontiert, die soziale und ethische Herausforderungen mit sich bringt. Das bedeutet, dass wir uns auf globaler Ebene damit befassen müssen. Im Moment begreifen wir die Grenzen der Technologie nicht. Darum ist es sehr wichtig, die Ethik zu verstehen.“

Obwohl er noch am Anfang seiner Laufbahn steht, hilft Poslon der Aufenthalt am HLRS, seine Überlegungen zu solchen Fragen voranzutreiben. „Einige Forschungsinstitute legen den Schwerpunkt auf philosophische oder ethische Aspekte der künstlichen Intelligenz, während andere sich nur mit technischen Aspekten befassen“, sagt er. „Das HLRS umfasst beide Seiten. Es ist wichtig, eine verantwortungsvolle Kombination aus beidem zu haben.“

 Christopher Williams