Direkt zum Inhalt
faktisch.
Wednesday, 15. April 2026
Ticker
Sonstiges

KI-Krankheitsmodelle mit fragwürdigen Daten trainiert

Dutzende KI-Modelle zur Vorhersage von Krankheitsrisiken wie Diabetes oder Schlaganfall wurden offenbar auf Basis unzuverlässiger Trainingsdaten entwickelt. Einige dieser Systeme könnten bereits in der klinischen Praxis eingesetzt worden sein, ohne ausreichend validiert zu sein. Fachleute fordern nun deutlich transparentere Prüfprozesse und strengere Zulassungsstandards, bevor medizinische KI-Werkzeuge in der Patientenversorgung zum Einsatz kommen.
🔍 Einordnung
Medizinische KI-Systeme, die auf fehlerhaften Daten basieren, können zu falschen Diagnosen oder Fehlbehandlungen führen und gefährden damit das Vertrauen in digitale Gesundheitsversorgung. Eine offene Gesellschaft braucht klare Haftungsregeln und unabhängige Prüfinstanzen für KI im Gesundheitswesen, um Patientenrechte wirksam zu schützen. Der Fall zeigt, dass technologischer Fortschritt ohne robuste Datenethik langfristig mehr Schaden als Nutzen anrichten kann.
💡 Perspektive
Der Befund ist ein Weckruf für Gesundheitsbehörden und Regulatoren in Deutschland und der EU, bestehende Zulassungsverfahren für medizinische KI-Software nachzuschärfen. Die EU-KI-Verordnung bietet hier einen Ansatzpunkt, muss jedoch konsequent auf Hochrisiko-Anwendungen im Medizinbereich angewendet werden. Krankenhäuser und Praxen sollten KI-Diagnosewerkzeuge erst nach transparenter externer Validierung einsetzen.