KI-Krankheitsmodelle mit fragwürdigen Daten trainiert
Medizinische KI-Systeme, die auf fehlerhaften Daten basieren, können zu falschen Diagnosen oder Fehlbehandlungen führen und gefährden damit das Vertrauen in digitale Gesundheitsversorgung. Eine offene Gesellschaft braucht klare Haftungsregeln und unabhängige Prüfinstanzen für KI im Gesundheitswesen, um Patientenrechte wirksam zu schützen. Der Fall zeigt, dass technologischer Fortschritt ohne robuste Datenethik langfristig mehr Schaden als Nutzen anrichten kann.
Der Befund ist ein Weckruf für Gesundheitsbehörden und Regulatoren in Deutschland und der EU, bestehende Zulassungsverfahren für medizinische KI-Software nachzuschärfen. Die EU-KI-Verordnung bietet hier einen Ansatzpunkt, muss jedoch konsequent auf Hochrisiko-Anwendungen im Medizinbereich angewendet werden. Krankenhäuser und Praxen sollten KI-Diagnosewerkzeuge erst nach transparenter externer Validierung einsetzen.