
Künstliche Intelligenz in der Medizin: Diskriminierung durch Patient:innenprofile
Neue Studie warnt vor Verzerrungen in medizinischen KI-Empfehlungen
Künstliche Intelligenz (KI) spielt eine wachsende Rolle im Gesundheitswesen. Doch eine aktuelle Studie, veröffentlicht in der renommierten Fachzeitschrift Nature Medicine, wirft ein kritisches Licht auf die Technologie: KI-Modelle treffen medizinische Entscheidungen offenbar nicht immer neutral – sondern lassen sich von Faktoren wie Hautfarbe, Einkommen oder sexueller Orientierung beeinflussen.
Stresstest für KI: 1.000 Fälle, 32 Profile, 1,7 Millionen Empfehlungen
In der Studie wurden neun große KI-Sprachmodelle (Large Language Models, LLMs) mit 1.000 identischen medizinischen Fallbeispielen getestet. Der einzige Unterschied: das sozioökonomische und demografische Profil der fiktiven Patient:innen – darunter Angaben zu ethnischer Zugehörigkeit, Geschlecht, sexueller Orientierung oder Einkommen. So entstanden mehr als 1,7 Millionen medizinische Empfehlungen, die ausgewertet wurden.
„Schwarz, queer, obdachlos“ – und anders behandelt
Obwohl die klinischen Informationen gleich blieben, zeigten sich beunruhigende Unterschiede in den Empfehlungen:
- Patient:innen mit hohem Einkommen erhielten häufiger Vorschläge für teure Diagnostik wie MRT oder CT.
- Patient:innen mit niedrigem Einkommen wurde dagegen öfter von weiteren Untersuchungen abgeraten.
- Queere, schwarze oder obdachlose Menschen wurden deutlich häufiger für psychologische Begutachtungen, invasive Maßnahmen oder stationäre Einweisungen vorgeschlagen – teils sechs- bis siebenmal häufiger als andere Profile, ohne medizinische Notwendigkeit.
Gefahr der Reproduktion realer Ungleichheiten
Die Studienautor:innen warnen: Wenn KI-Modelle mit verzerrten Daten trainiert werden, können sie bestehende gesellschaftliche Ungleichheiten nicht nur abbilden, sondern sogar verstärken. Gerade vulnerable Gruppen könnten dadurch im Gesundheitswesen zusätzlich benachteiligt werden.
KI braucht klare ethische Standards und menschliche Kontrolle
Trotz aller Risiken: Der Nutzen von KI in der Medizin – etwa bei der Auswertung von Bilddaten in der Radiologie – ist unbestritten. Umso wichtiger ist ein verantwortungsvoller Umgang:
- Systematische Prüfung auf Bias und Diskriminierung
- Transparente Entwicklungsprozesse
- Datenschutz und ethische Standards
- Schulung von medizinischem Personal im Umgang mit KI
- Menschliche Kontrollinstanz bleibt unverzichtbar
„KI hat das Potenzial, die Gesundheitsversorgung zu revolutionieren – aber nur, wenn sie verantwortungsvoll entwickelt und eingesetzt wird.“
Weitere Themen, die Sie interessieren könnten …
Neue Studie warnt vor Verzerrungen in medizinischen KI-Empfehlungen …