Bias im maschinellen Lernen überwinden für eine gerechte Gesundheitsversorgung
Maschinelles Lernen transformiert das Verständnis der menschlichen Gesundheit und ermöglicht tiefgehende Einblicke in das Verhalten einzelner Zellen. Auf der Grundlage der Erkenntnis, dass Bias im maschinellen Lernen die Fairness und Genauigkeit beeinträchtigen kann, untersucht eine neue Studie, die von Theresa Willem, AI Ethics Consultant bei Helmholtz AI, und Prof. Fabian Theis, Leiter des Computational Health Centers bei Helmholtz Munich, geleitet wird, gezielt kritische Bias in Modellen, die für menschliche Einzelzell-Daten entwickelt wurden. Die Ergebnisse der Studie verdeutlichen die Notwendigkeit einer sorgfältigen Prüfung, um zuverlässige und gerechte Ergebnisse in der Gesundheitsversorgung und Forschung zu gewährleisten.
Mehr dazu in unserer englischen News.
Original-Publikation
Willem et al., 2025: Biases in machine-learning models of human single-cell data. Nature Cell Biology. DOI: 10.1038/s41556-025-01619-8