Partner-Post Fachbeitrag Health Info Net

KI im Gesundheitswesen – vom Blackbox-Modell zum verlässlichen Partner

Uhr
von Attila Fekete, COO, HIN

Grosse Sprachmodelle wie ChatGPT zeigen, wie vielseitig KI sein kann. Sie formulieren Texte, analysieren Daten und strukturieren Informationen. Doch im komplexen, streng regulierten ­Gesundheitswesen stossen solche Generalisten an ihre Grenzen.

Attila Fekete, COO, HIN
Attila Fekete, COO, HIN

Die Diskussion um künstliche Intelligenz (KI) prägt zunehmend auch die Gesundheitsbranche. Während grosse Sprachmodelle wie ChatGPT beeindruckende Leistungen in der Texterstellung oder Datenstrukturierung zeigen, stellen sich im medizinischen Kontext andere Anforderungen. Amber Nigam und John Glaser haben herausgearbeitet («Should Your Business Use a Generalist or Specialized AI Model?», Harvard Business Review HBR), dass generalistische KI-Modelle zwar bei breiten Aufgaben glänzen, im professionellen Einsatz aber an ihre Grenzen stossen. Weil sie nicht wie Ärztinnen und Ärzte vorgehen, sondern statistische Muster abgleichen.

Die Autoren zeigen am Beispiel von Kostengutsprachen amerikanischer Krankenversicherungen, dass spezialisierte KI-Systeme den generalistischen Modellen überlegen sind. Diese Erfahrungen und weitere, die ich später noch ausführe, lassen sich zwar nicht eins zu eins auf die hiesige Versorgungsrealität übertragen. Doch wir sind gut beraten, sie zur Kenntnis zu nehmen und unsere Schlüsse daraus zu ziehen. Denn sie liefern wertvolle Impulse für die Einführung und Weiterentwicklung vertrauenswürdiger KI-Lösungen in der Schweiz.

Wenn KI nicht nur erkennt, sondern versteht

In der medizinischen Diagnose oder bei der Beurteilung von Leistungsansprüchen reicht es nicht, wenn eine KI nur Muster erkennt. Sie muss medizinisch «denken» können: klinische Logik nachvollziehen, Evidenzstärken einschätzen und regulatorische Vorgaben wie SwissDRG, BAG-Vorgaben oder das KVG berücksichtigen. Das gilt insbesondere bei komplexen Entscheidungen, etwa bei Komorbiditäten, in der Palliativversorgung oder bei ethischen Fragen. Joe McKendrick und Andy Thurai weisen darauf hin («AI Isn’t Ready to Make Unsupervised Decisions», HBR), dass KI bei solchen Kontextentscheidungen regelmässig scheitert, weil ihr Empathie, Ethik und ein Gesamtverständnis fehlen.

Eine hohe Trefferquote allein genügt daher nicht. Fachpersonen wollen nachvollziehen können, wie ein Ergebnis zustande kommt. Das System muss ausweisen können, welche Kriterien es verwendet hat, wie es Informationen gewichtet hat und welche Abwägungen eingeflossen sind. Blackbox-Modelle, die Ergebnisse ohne Begründung liefern, helfen im Alltag nicht weiter. In einem regulierten Umfeld wie dem Schweizer Gesundheitswesen ist Transparenz kein Nice-to-have, sondern Voraussetzung für Vertrauen, Akzeptanz und rechtliche Sicherheit.

Spezialwissen als Erfolgsfaktor

Die Zukunft medizinischer KI liegt nicht in grossen, allumfassenden Systemen, sondern in spezialisierten, transparenten Lösungen mit fundierter fachlicher Basis. Edouard Viot («The Future Of AI Is Specialization», Forbes) und Darshil Modi («The Rise of Specialized AI Models: Unlocking New Efficiencies for Business Growth», Linkedin) unterstreichen diesen Trend: Hyperspezialisierte Modelle sind effizienter, präziser und ressourcenschonender als übergrosse Generalisten. Genau diese Kriterien – Effizienz, Genauigkeit, Nachhaltigkeit – sind auch im Schweizer Gesundheitswesen entscheidend.

So lassen sich zwei Ziele erreichen: die Qualität und Effizienz der Versorgung verbessern und gleichzeitig das Vertrauen von Fachpersonen, Patientinnen und Patienten sichern. Denn Fehlentscheidungen können nicht nur ökonomische, sondern auch gesundheitliche Folgen haben.

 

Die KI «denkt», der Mensch lenkt

Die oben geteilten Erfahrungen und Beobachtungen sind Teil einer breiteren Diskussion, die über die Technik hinausgeht. KI kann zwar Daten aggregieren und statistische Wahrscheinlichkeiten berechnen, doch sind Entscheidungen nie rein rechnerisch. Martin Reeves, Mihnea Moldoveanu und Adam Job betonen in ihrem Beitrag («The Irreplaceable Value of Human Decision-Making in the Age of AI», HBR), dass menschliche Urteile immer auch Kontext, Ethik und Imagination einbeziehen, also Fähigkeiten, die Maschinen nicht ersetzen können. Für das Schweizer Gesundheitswesen bedeutet das: KI muss Fachlogik und regulatorische Rahmenbedingungen «verstehen», darf aber nicht an die Stelle menschlicher Verantwortung treten und autonom Entscheide fällen.

Auch Studien zur Organisationsentwicklung zeigen, dass Technologie allein nicht reicht. Tim Fountaine, Brian McCarthy und Tamim Saleh argumentieren («Building the AI-Powered Organization», HBR), dass der Erfolg von KI vor allem an Kultur, Zusammenarbeit und einer klaren Einbettung in Arbeitsabläufe hängt. Das gilt auch für das Schweizer Gesundheitswesen: Ohne enge Einbindung der Ärzteschaft und anderer Fachpersonen können spezialisierte Systeme nicht langfristig erfolgreich sein.

Der Vorsprung künftiger KI ergibt sich daher nicht aus Grös­se oder Rechenleistung, sondern aus der Fähigkeit, lokales Fachwissen, medizinische Praxis und Innovation zu verbinden. Das setzt eine kontinuierliche Zusammenarbeit mit Schweizer Expertinnen und Experten voraus. Nur so lassen sich Systeme laufend an neue Standards, Gesetze und regionale Besonderheiten anpassen – und nur so wird KI vom Trend zum echten Partner für eine bessere Versorgung.

 

Die Zukunft gehört Hybridmodellen

Brauchen wir also künftig für jeden Use Case ein spezifisches KI-System? Nicht zwingend! Ein vielversprechender Ansatz sind hybride Systeme, die Generalisten und Spezialisten verbinden. Generalistische KI-Modelle eignen sich gut für unterstützende Aufgaben: Sie können den Kundenservice verbessern, medizinische Dokumente zusammenfassen oder das Wissensmanagement erleichtern. Diese Systeme sind flexibel, vielseitig einsetzbar und erleichtern den Alltag sowohl von Gesundheitsfachpersonen als auch von Mitarbeitenden in adminis­trativen und kommunikativen Aufgaben, während für komplexe medizinische Aufgaben spezialisierte Modelle erforderlich sind. Organisationen, die den Einsatz von KI planen, sollten sich daher die gleichen Fragen stellen, die auch von Nigam und Glaser diskutiert werden:

  • Legt das System seine Quellen offen?
  • Wurde es mit Fachpersonen entwickelt und wird es gemeinsam mit ihnen weiterentwickelt?
  • Ist es modular aufgebaut, sodass neue Einsatzbereiche wie Rehabilitation, Psychiatrie oder Langzeitpflege inte­griert werden können?
  • Die Antworten auf diese Fragen zeigen, ob KI bloss ein technisches Hilfsmittel bleibt oder sich zu einem verlässlichen Partner für Gesundheitsfachpersonen entwickelt.

 

Fazit: Nutzen maximieren durch Spezialisierung und Transparenz

KI kann die Gesundheitsversorgung verbessern, wenn sie spezialisiertes Wissen abbildet, transparente Entscheidungswege bietet und eng mit der Praxis entwickelt wird. Generalistische Modelle behalten ihren Wert in unterstützenden Bereichen. Doch dort, wo es um das Leben und die Gesundheit von Menschen geht, braucht es spezialisierte Systeme, die medizinisch «denken» – und Ärztinnen und Ärzten als Partner dienen, nicht als Blackbox.

Webcode
egCmm3X5