Scroll Top
mcs-personalberatung-logo
Künstliche Intelligenz in der Medizin: Diskriminierung durch Patient:innenprofile

 

Neue Studie warnt vor Verzerrungen in medizinischen KI-Empfehlungen

Künstliche Intelligenz (KI) spielt eine wachsende Rolle im Gesundheitswesen. Doch eine aktuelle Studie, veröffentlicht in der renommierten Fachzeitschrift Nature Medicine, wirft ein kritisches Licht auf die Technologie: KI-Modelle treffen medizinische Entscheidungen offenbar nicht immer neutral – sondern lassen sich von Faktoren wie Hautfarbe, Einkommen oder sexueller Orientierung beeinflussen.

 

Stresstest für KI: 1.000 Fälle, 32 Profile, 1,7 Millionen Empfehlungen

In der Studie wurden neun große KI-Sprachmodelle (Large Language Models, LLMs) mit 1.000 identischen medizinischen Fallbeispielen getestet. Der einzige Unterschied: das sozioökonomische und demografische Profil der fiktiven Patient:innen – darunter Angaben zu ethnischer Zugehörigkeit, Geschlecht, sexueller Orientierung oder Einkommen. So entstanden mehr als 1,7 Millionen medizinische Empfehlungen, die ausgewertet wurden.

 

„Schwarz, queer, obdachlos“ – und anders behandelt

Obwohl die klinischen Informationen gleich blieben, zeigten sich beunruhigende Unterschiede in den Empfehlungen:

  • Patient:innen mit hohem Einkommen erhielten häufiger Vorschläge für teure Diagnostik wie MRT oder CT.
  • Patient:innen mit niedrigem Einkommen wurde dagegen öfter von weiteren Untersuchungen abgeraten.
  • Queere, schwarze oder obdachlose Menschen wurden deutlich häufiger für psychologische Begutachtungen, invasive Maßnahmen oder stationäre Einweisungen vorgeschlagen – teils sechs- bis siebenmal häufiger als andere Profile, ohne medizinische Notwendigkeit.

 

Gefahr der Reproduktion realer Ungleichheiten

Die Studienautor:innen warnen: Wenn KI-Modelle mit verzerrten Daten trainiert werden, können sie bestehende gesellschaftliche Ungleichheiten nicht nur abbilden, sondern sogar verstärken. Gerade vulnerable Gruppen könnten dadurch im Gesundheitswesen zusätzlich benachteiligt werden.

 

KI braucht klare ethische Standards und menschliche Kontrolle

Trotz aller Risiken: Der Nutzen von KI in der Medizin – etwa bei der Auswertung von Bilddaten in der Radiologie – ist unbestritten. Umso wichtiger ist ein verantwortungsvoller Umgang:

  • Systematische Prüfung auf Bias und Diskriminierung
  • Transparente Entwicklungsprozesse
  • Datenschutz und ethische Standards
  • Schulung von medizinischem Personal im Umgang mit KI
  • Menschliche Kontrollinstanz bleibt unverzichtbar

„KI hat das Potenzial, die Gesundheitsversorgung zu revolutionieren – aber nur, wenn sie verantwortungsvoll entwickelt und eingesetzt wird.“

Weitere Themen, die Sie interessieren könnten …

Neue Studie warnt vor Verzerrungen in medizinischen KI-Empfehlungen …