Was KI in der Medizin verspricht - und wo sie an Grenzen stösst
Künstliche Intelligenz soll die Medizin revolutionieren – doch wie viel davon ist schon Realität? Und inwiefern sind die Hoffnungen berechtigt? ETH-Forscherin Kerstin Lenhof spricht über die Chancen und Risiken der KI-Nutzung in der medizinischen Praxis und darüber, wie man das Beste aus der Technologie rausholen kann.

Wo sehen Sie aktuell die grössten Illusionen beim Einsatz von KI in der Medizin?
Kerstin Lenhof: Das ist eine sehr spannende, aber auch herausfordernde Frage. Ich könnte mir vorstellen, dass es folgende drei Illusionen zum Einsatz von KI in der Medizin gibt: In der öffentlichen Wahrnehmung wird KI oft mit Sprachmodellen wie ChatGPT gleichgesetzt, vermutlich weil die meiste direkte Interaktion vieler Menschen mit KI bisher durch Sprachmodelle stattfindet. Aber in der Medizin kommen ganz unterschiedliche Arten von KI zum Einsatz, die anders als Sprachmodelle funktionieren. Es ist wichtig zu verstehen, dass "KI" kein einheitliches Werkzeug ist, sondern ein Sammelbegriff für viele verschiedene Methoden mit sehr verschiedenen Anwendungen und unterschiedlichen Stärken und Schwächen.
Die Vorstellung, dass KI in naher Zukunft menschliche Arbeitskraft ersetzen wird, ist vermutlich auch weit verbreitet. Tatsächlich halte ich es für viel realistischer, dass sich Aufgabenfelder verändern - wie bei jeder technologischen Entwicklung. Manche Tätigkeiten werden automatisiert, aber gleichzeitig entstehen neue Rollen, etwa in der Überwachung der KI-Systeme. Es geht also nicht um Ersetzung, sondern um Transformation.
Ich könnte mir vorstellen, dass viele Menschen denken: "Es ist ja eine Maschine, also kann sie nicht voreingenommen sein." Aber KI-Modelle werden mit Daten trainiert, die von Menschen erstellt wurden - und damit auch menschliche Sichtweisen und Vorurteile widerspiegeln. Damit KI-Systeme verantwortungsvoll eingesetzt werden können, braucht es aktive Arbeit: Bei der Auswahl der Daten, bei der Gestaltung der Modelle und bei der laufenden Überprüfung ihrer Funktionstüchtigkeit.
Was sind die grössten Chancen, die KI speziell in der medizinischen Entscheidungsfindung bieten kann?
Ich sehe mehrere grosse Chancen - vorausgesetzt, wir schaffen es, KI sinnvoll in den klinischen Alltag zu integrieren. Generell kann KI enorme Datenmengen verarbeiten - viel schneller, als es Menschen möglich wäre. Das kann in vielen Situationen im klinischen Alltag hilfreich sein: Im Allgemeinen eröffnet KI so die Möglichkeit, medizinische Entscheidungen stärker zu personalisieren - indem sie individuelle Patientendaten mit dem gesamten aktuellen medizinischen Wissen verknüpft. Dass KI das auch viel schneller kann, als es Menschen möglich wäre und wir hier oft von Sekunden sprechen, in denen eine Vorhersage getätigt werden kann, kann KI in zeitkritischen Situationen helfen, relevante Informationen aus verschiedenen Quellen zusammenzuführen und zu priorisieren. Das unterstützt schnellere Entscheidungen, zum Beispiel auf Intensivstationen, was potentiell Leben retten kann.
KI kann auch das Klinikpersonal entlasten, etwa bei repetitiven Aufgaben wie der Dokumentation oder dem Verfassen von Berichten. Das schafft mehr Raum für das, worauf es wirklich ankommt: Die medizinische Entscheidungsfindung und die Behandlung der Patientinnen und Patienten. Ausserdem kann KI die Kommunikation zwischen dem Ärzteteam und Patienten klarer und verständlicher machen - zum Beispiel durch die strukturierte Aufbereitung komplexer Informationen. Das kann besonders Patienten helfen, sich aktiver an der Entscheidung zu ihrem Fall zu beteiligen.
Langfristig eröffnet KI die Möglichkeit, medizinisches Wissen schneller weiterzuentwickeln. Insbesondere kann sie uns helfen, unsere eigenen blinden Flecken und systematische Verzerrungen in den Daten besser zu erkennen. Im besten Fall kann KI so dazu beitragen, unser medizinisches Wissen so weit zu vertiefen, dass wir in bestimmten Bereichen zunehmend auf fundiertes Wissen zurückgreifen können - unterstützt durch KI, aber weniger abhängig von ihr.
Sie haben sich intensiv mit maschinellem Lernen in der personalisierten Medizin beschäftigt. Wie schätzen Sie das Potenzial von KI für die Entwicklung massgeschneiderter Behandlungsstrategien in der Krebstherapie ein?
Das Potenzial ist enorm - gerade weil Krebs eine hochkomplexe und sehr individuelle Erkrankung ist. Besonders hier wünscht man sich, möglichst viele verschiedene Informationen einer Patientin oder eines Patienten gemeinsam auszuwerten, um ein möglichst genaues Bild der Erkrankung der jeweiligen Person zu erhalten. KI kann uns dabei helfen, diese grosse und sehr heterogene Menge an molekularen, klinischen und bildgebenden Daten zu analysieren und daraus Muster abzuleiten, die wir sonst nicht entdecken könnten. Das ist eine wichtige Grundlage für personalisierte Krebstherapie, bei der jede Entscheidung auf den individuellen Gegebenheiten eines Patienten basiert.
Besonders spannend finde ich den Bereich der interpretierbaren KI. Hier geht es darum, die zugrunde liegenden biologischen Zusammenhänge besser zu verstehen - also warum ein bestimmter Therapieansatz bei einer bestimmten Patienten wirken könnte. Das kann uns helfen, neue Hypothesen zu generieren, die dann anschliessend experimentell validiert werden müssen. Im besten Fall bauen wir so nicht nur bessere Modelle, sondern auch einen fundierten medizinischen Wissensschatz auf. Langfristig sehe ich darin eine grosse Chance.
Durch den Einsatz von KI können wir unser medizinisches Verständnis kontinuierlich erweitern - und dadurch in bestimmten Bereichen zunehmend auf fundiertes Wissen zurückgreifen, das weniger von KI-Vorhersagen abhängig ist. Bis dahin wird KI jedoch eine zentrale Rolle spielen, indem sie uns hilft, komplexe Zusammenhänge zu erkennen und neue Erkenntnisse zu gewinnen.
Das Interview mit Kerstin Lenhof können Sie hier auch als Video anschauen.
Was unterscheidet die Anwendung von KI in der Krebstherapie von anderen medizinischen Bereichen?
Ein wesentlicher Unterschied liegt in der Datenlage - und zwar in zwei Richtungen gleichzeitig: Einerseits ist Krebs eine sehr stark erforschte Erkrankung, da sie viele Menschen betrifft. Das bedeutet, dass im Vergleich zu anderen Krankheiten relativ viele Daten zur Verfügung stehen, etwa aus der Bildgebung. Andererseits ist Krebs auf molekularer Ebene extrem individuell. Das heisst: Trotz der grossen Datenmengen fehlen uns oft genau die Daten, die wir eigentlich bräuchten, um wirklich personalisierte Muster zu erkennen.
Gerade in der medikamentösen Krebstherapie - dem Feld, in dem ich arbeite - ist es sehr schwierig, alle relevanten Parameter für einzelne Patienten zu erfassen. Und es ist natürlich auch nicht möglich, Hunderte von Medikamenten an einem Menschen auszuprobieren, um die beste Therapie zu finden. Deshalb arbeiten wir in der Forschung häufig mit sogenannten Modellsystemen - also zum Beispiel Zelllinien oder Organoiden - um Hypothesen für die Medikamentenwirksamkeit zu generieren. Diese Daten sind wertvoll, aber sie sind eben nicht identisch mit echten Patientendaten. Das macht die Anwendung von KI in der medikamentösen Krebstherapie besonders herausfordernd - aber auch besonders spannend.
Wie beurteilen Sie diese Bedenken zum sogenannten Overfitting in Bezug auf kleinere, spezialisierte Datensätze in der Medizin? Wie stellen Sie sicher, dass KI-Algorithmen in der Onkologie nicht zu Overfitting neigen?
Diese Frage knüpft sehr gut an meine vorherige Antwort an. Ich hatte ja bereits erwähnt, dass es in der personalisierten Krebstherapie - trotz der insgesamt grossen Datenmengen in der Onkologie - relativ zur Komplexität der Aufgabe zu wenig Daten gibt, auf denen trainiert werden kann. Das gilt übrigens für viele Bereiche der Medizin, in denen die Daten hochspezifisch sind und aus Datenschutzgründen zudem nicht einfach geteilt werden können. Die Gefahr des sogenannten Overfitting ist dabei klar gegeben: Damit meint man, dass ein Modell sich zu stark an die Trainingsdaten anpasst - inklusive zufälliger Besonderheiten oder Rauschen - und dadurch nicht mehr gut auf neue, unbekannte Daten übertragbar ist.
Es gibt aber verschiedene Strategien, um dem entgegenzuwirken:
- Man kann ein Modell beispielsweise zunächst auf einem grösseren, verwandten Datensatz vortrainieren und dann auf den kleineren, spezifischen Datensatz anpassen.
- Eine sorgfältige Validierung - idealerweise mit externen, unabhängigen Datensätzen - ist essenziell.
- Und besonders wichtig finde ich den Einsatz von interpretierbarer KI: Wenn ein Modell nachvollziehbare biologische Zusammenhänge aufzeigt, die mit unserem bestehenden Wissen vereinbar sind, ist das ein gutes Zeichen.
Gleichzeitig gibt es erste Hinweise darauf, dass auch komplexe Modelle auf kleinen, spezialisierten Datensätzen erfolgreich trainiert werden können. Das ist ein spannender Forschungsbereich, in dem wir noch viel lernen, aber auch viel gestalten können.
Wie wichtig ist die Datenqualität? Wie kann man KI-Modelle fair und repräsentativ trainieren, wenn biologische und medizinische Daten oft ungleich verteilt sind?
Datenqualität ist absolut entscheidend - sie bestimmt letztlich, ob ein Modell überhaupt in der Lage ist, sinnvolle und verlässliche Schlüsse zu ziehen. Dabei gibt es ganz unterschiedliche Arten, wie Datenqualität beeinträchtigt sein kann:
- Daten können unvollständig oder fehlerhaft sein.
- Sie können verrauscht sein - was sich gerade bei biologischen Messungen oft gar nicht vollständig vermeiden lässt.
- Es fehlt häufig an Standardisierung oder Harmonisierung - etwa wenn verschiedene Labore unterschiedliche Messmethoden für dieselbe Fragestellung verwenden.
- Und nicht zuletzt gibt es Verzerrungen in den Daten, zum Beispiel durch die Art und Weise, wie Probandinnen und Probanden ausgewählt werden können.
Um dem entgegenzuwirken, ist es wichtig, Studien von Anfang an so zu konzipieren, dass möglichst hochwertige Daten entstehen - angefangen bei der Zieldefinition über die Auswahl der Messmethoden bis hin zur Zusammensetzung der Studienpopulation. Darüber hinaus sollte man beim Training und der Validierung von Modellen gezielt auf Merkmale achten, bei denen man möchte, dass sich ein Modell fair verhält. Gleichzeitig muss man bei medizinischen Daten sehr umsichtig vorgehen: Merkmale wie das biologische Geschlecht gelten gemeinhin als sensibel, sie bilden in der Realität aber meistens auch reale biologische Unterschiede ab, die Behandlungen beeinflussen können - das muss man differenziert betrachten.
Ein weiterer wichtiger Baustein ist auch hier Interpretierbarkeit. Sie kann helfen, die Ergebnisse eines Modells in einen biologischen Kontext einzuordnen - und damit auch besser zu verstehen, ob ein Modell tatsächlich sinnvolle Zusammenhänge auf der zugrundeliegenden Datenbasis erkennt.
Transparenz ist ein weiteres grosses Thema. Viele sprechen von sogenannten "Black Box"-Modellen. Was sind Ihrer Meinung nach die grössten Hürden bei der Nachvollziehbarkeit von ML-Algorithmen? Gibt es Wege, um KI in der Medizin transparenter und erklärbarer zu machen?
Mit Black-Box Modellen bezeichnet man häufig Modelle, die zu gross und kompliziert strukturiert sind, um sie als Mensch direkt verstehen zu können. Daher wünschen sich viele Menschen mehr "Transparenz", besonders für medizinische Fragestellungen, wo Leben an diese Modelle geknüpft ist. Der Begriff Transparenz wird in der Literatur allerdings nicht einheitlich verwendet - und umfasst mindestens zwei mir bekannte Dimensionen:
Erstens Transparenz im Sinne von Interpretierbarkeit. Hier geht es darum, ob ein Modell von sich aus verständlich ist. Kann ein Mensch beispielsweise nachvollziehen, wie es zu einer Entscheidung kommt? Bei sehr einfachen Modellen ist das noch möglich. Bei komplexeren Modellen - wie neuronalen Netzen - ist das schwieriger. Gerade bei medizinischen Fragestellungen kann man aber gezielt darauf hinwirken, dass Modelle von vornherein transparenter sind - zum Beispiel, indem man bereits bekanntes biologisches Wissen in die Modellstruktur integriert. Zusätzlich und davon abgegrenzt, gibt es Methoden, die nach dem Training eingesetzt werden, um komplexe Modelle im Nachhinein verständlicher zu machen. Diese nachträgliche Form der Interpretierbarkeit wird häufig unter dem Begriff Erklärbarkeit zusammengefasst.
Zweitens: Transparenz im Sinne von Informationszugänglichkeit. Auch wenn ein Modell und dessen Entscheidungsweg nicht vollständig nachvollziehbar sind, kann es trotzdem transparent sein - zum Beispiel, wenn wir wissen, wie und mit welchen Daten es trainiert wurde, wie es aufgebaut ist, und wo seine Grenzen liegen. Diese Form von Transparenz ist besonders wichtig, wenn wir komplexe Modelle in sensiblen Bereichen wie der Medizin einsetzen. An beiden Formen von Transparenz wird aktuell intensiv geforscht. Langfristig brauchen wir hier meiner Meinung nach auch klare Regularien für beide Arten von Transparenz, insbesondere aber für die Letztere.
Wie kann man sicherstellen, dass sowohl medizinisches Fachpersonal als auch Patienten diesen Technologien vertrauen?
Das ist eine sehr komplexe und aktuell intensiv diskutierte Frage. Selbst aus philosophischer Sicht ist noch nicht abschliessend geklärt, ob wir diese positive Einstellung gegenüber KI-Systemen überhaupt als "Vertrauen" bezeichnen sollten - wobei für mich persönlich Vieles dafür spricht. Um Vertrauen in KI aufzubauen, müssen wir an beiden Seiten arbeiten: an der menschlichen und an der künstlichen bzw. technischen.
Auf der technischen Seite braucht es klare, verbindliche Kriterien, die ein KI-System erfüllen muss, um in einem bestimmten medizinischen Anwendungsbereich überhaupt eingesetzt werden zu dürfen. Dazu gehören zum Beispiel:
- Transparenz über die verwendeten Trainingsdaten, inklusive Herkunft, Repräsentativität und möglicher Verzerrungen,
- Mindestanforderungen an Genauigkeit,
- Nachvollziehbarkeit der Entscheidungslogik,
- klinische Validierung und externe Testung beispielsweise im Sinne randomisierter Kontrollstudien, wie sie im medizinischen Kontext oft durchgeführt werden, um die Effektivität von Systemen nachzuweisen,
- klare Verantwortlichkeiten bezüglich der Haftbarkeit
- und regelmässige Re-Evaluierung, um sicherzustellen, dass das System auch unter veränderten Bedingungen zuverlässig bleibt.
Diese Anforderungen sollten nicht nur als technische Empfehlungen, sondern als rechtlich verbindliche Standards formuliert und durchgesetzt werden.
Auf der menschlichen Seite braucht es ein grundlegendes Verständnis dafür, wie solche Systeme funktionieren. Nur wenn wir verstehen, wann ein System eher vertrauenswürdig ist und wann Vorsicht geboten ist, können wir KI nicht blind vertrauen, sondern informiert, kritisch und reflektiert mit ihr umgehen.
Welche Rolle spielen regulatorische Rahmenbedingungen und ethische Standards für den erfolgreichen Einsatz von KI in der medizinischen Praxis?
Wie wahrscheinlich schon in meinen vorigen Antworten etwas durchgeblitzt ist: Für mich spielen regulatorische Rahmenbedingungen und ethische Standards prinzipiell eine zentrale und - vor allem - positive Rolle. Sie sind notwendig, um ein Mindestmass an Vertrauenswürdigkeit zu garantieren. Damit schaffen sie die Grundlage für fundierte Entscheidungen. Letztlich profitieren davon alle Seiten: Ärztinnen und Ärzte, Patienten und das Gesundheitssystem insgesamt. Kurz gesagt: Regulatorik und Ethik sind insbesondere in der Medizin keine Bremsen für Innovation, sondern ihre Voraussetzung oder sogar ihre Treiber. Sie schaffen die Grundlage dafür, dass KI technisch funktioniert und auch gesellschaftlich akzeptiert und langfristig vertrauenswürdig eingesetzt werden kann.
Wie sehen Sie den zukünftigen Einfluss von maschinellem Lernen auf die Entscheidungsfindung in der klinischen Praxis? Sehen Sie eine wachsende Rolle für KI als eine Art "Co-Pilot" für Ärzte?
Hier möchte ich mit einem klaren Ja antworten. Ich erwarte eine wachsende Rolle für KI als Assistenzsystem in der klinischen Entscheidungsfindung. Mehr noch: Ich wünsche mir diese Rolle ausdrücklich - weil sie grosses Potenzial für individuellere, fundiertere medizinische Entscheidungen bietet.
Aber: Diese Zukunft möchte ich nur unter klaren Bedingungen. Es braucht verbindliche Regularien, die sicherstellen, dass unsere sensiblen Gesundheitsdaten geschützt sind, dass Entscheidungen nachvollziehbar und diskriminierungsfrei getroffen werden - und dass die Frage nach der Haftbarkeit eindeutig geklärt ist. KI als Assistent - das ist für mich ein erstrebenswerter Weg, als Unterstützung, die hilft, bessere Entscheidungen für Patientinnen und Patienten zu treffen.
Mehr zum Thema lesen Sie hier: Künstliche Intelligenz in der Medizin - zwischen Vision und Realität - KI verspricht in der Medizin zwar mehr Tempo, Präzision und Effizienz, doch hat sie ihren Weg bereits in den Klinikalltag gefunden? Und wo stösst sie an ihre Grenzen?

Ingram Micro wird Opfer eines Ransomwareangriffs

Microsoft GSA – eine neue Ära für sicheren Zugriff auf Firmenressourcen

Wie die BKB mit ADOGRC neue Standards in der Compliance setzt

Die "Eislutschka"-Saison kann kommen

Unternehmen der Glue-Gruppe fusionieren

Institutionelle Investoren und Krypto – wo stehen wir wirklich?

ICT Day und Roadshow 2025, Zürich

Securosys expandiert in die USA

Digital vernetzt, ganzheitlich gesichert: Wie die BKB mit ADOGRC neue Standards in der Compliance setzt
