MADRID, 23. Mai. (EUROPA PRESS) –
In einer Studie mit fast 5.000 Screening-Mammographien, die mithilfe eines von der FDA zugelassenen Algorithmus für künstliche Intelligenz interpretiert wurden, beeinflussten Patientenmerkmale wie Rasse und Alter falsch positive Ergebnisse. Die Ergebnisse der von der Duke University (USA) durchgeführten Studie werden in „Radiology“, einer Zeitschrift der Radiological Society of North America (RSNA), veröffentlicht.
„KI ist zu einer Ressource für Radiologen geworden, um ihre Effizienz und Genauigkeit beim Lesen von Screening-Mammogrammen zu verbessern und gleichzeitig das Burnout der Leser zu verringern“, sagt Derek L. Nguyen, Assistenzprofessor an der University of Duke in Durham, North Carolina. „Der Einfluss von Patientenmerkmalen auf die KI-Leistung wurde jedoch nicht gut untersucht.“
Dr. Nguyen merkt an, dass zwar vorläufige Daten darauf hindeuten, dass KI-Algorithmen, die bei Screening-Mammographieuntersuchungen eingesetzt werden, die diagnostische Leistung von Radiologen bei der Erkennung von Brustkrebs verbessern und die Interpretationszeit verkürzen können, dass es jedoch einige Aspekte der KI gibt, die berücksichtigt werden müssen.
„Es gibt nur wenige demografisch unterschiedliche Datenbanken zum Trainieren von KI-Algorithmen, und die FDA verlangt keine unterschiedlichen Datensätze zur Validierung“, sagt er. „Aufgrund der Unterschiede zwischen Patientenpopulationen ist es wichtig zu untersuchen, ob sich KI-Software an unterschiedliche Altersgruppen, Rassen und ethnische Zugehörigkeiten der Patienten anpassen und auf dem gleichen Niveau funktionieren kann.“
In der retrospektiven Studie identifizierten die Forscher Patientinnen mit negativen digitalen Brust-Tomosynthese-Screening-Untersuchungen (kein Hinweis auf Krebs), die zwischen 2016 und 2019 am Duke University Medical Center durchgeführt wurden. Alle Patientinnen wurden für einen Zeitraum von zwei Jahren nach der Mammographie-Screening-Untersuchung beobachtet, keine Patientin jedoch mit Brustkrebs diagnostiziert.
Die Forscher wählten nach dem Zufallsprinzip eine Untergruppe dieser Gruppe aus, die aus 4.855 Patienten (Durchschnittsalter 54 Jahre) bestand, die breit auf vier Rassen-/ethnische Gruppen verteilt waren. Die Untergruppe umfasste 1.316 (27 %) weiße, 1.261 (26 %) schwarze, 1.351 (28 %) asiatische und 927 (19 %) hispanische Patienten.
Ein im Handel erhältlicher KI-Algorithmus interpretierte jede Untersuchung in der Teilmenge der Mammographien und generierte sowohl einen Fallwert (oder die Gewissheit einer Malignität) als auch einen Risikowert (oder ein 1-Jahres-Risiko einer Malignität).
„Unser Ziel war es zu bewerten, ob die Leistung eines KI-Algorithmus über das Alter der Patientin, den Brustdichtetyp und die verschiedenen Rassen/Ethnien hinweg konsistent ist“, erklärt Dr. Nguyen.
Da alle Mammographien in der Studie negativ auf das Vorliegen von Krebs waren, wurde alles, was der Algorithmus als verdächtig markierte, als falsch positives Ergebnis gewertet. Falsch positive Fallergebnisse waren bei schwarzen und älteren Patienten (71 bis 80 Jahre) signifikant wahrscheinlicher und bei asiatischen Patienten und jüngeren Patienten (41 bis 50 Jahre) weniger wahrscheinlich als bei weißen Patienten und Frauen im Alter von 51 bis 60 Jahren.
„Diese Studie ist wichtig, weil sie zeigt, dass jede von einer Gesundheitseinrichtung gekaufte KI-Software möglicherweise nicht bei allen Altersgruppen, Rassen/Ethnien und Brustdichten aller Patientinnen die gleiche Leistung erbringt“, bemerkt Dr. Nguyen. „In Zukunft sollten sich KI-Softwareaktualisierungen meiner Meinung nach auf die Gewährleistung der demografischen Vielfalt konzentrieren.“
Dr. Nguyen sagte, Gesundheitseinrichtungen sollten die von ihnen betreute Patientenpopulation verstehen, bevor sie einen KI-Algorithmus für die Screening-Mammographie-Interpretation kaufen, und die Anbieter nach ihrer Schulung in Algorithmen fragen.
„Wenn Sie ein grundlegendes Verständnis der Demografie Ihrer Einrichtung haben und den Anbieter nach der ethnischen und Altersvielfalt seiner Schulungsdaten fragen, können Sie die Einschränkungen verstehen, mit denen Sie in der klinischen Praxis konfrontiert werden“, schließt er.