Künstliche Intelligenz (KI) hat ein immenses Potenzial im Bereich der Medizin – von der verbesserten Arzneimittelentwicklung über die Diagnose und Behandlung bis hin zur Gesundheitsversorgung.
Die Fähigkeit, große Datenmengen schnell zu verarbeiten und zu analysieren, eröffnet völlig neue Möglichkeiten.
Doch damit die Gesellschaft die Vorteile der KI im Gesundheitswesen in vollem Umfang nutzen kann, müssen die Verzerrungen in den Algorithmen unbedingt beseitigt werden.
Die Datensätze, die zum Trainieren von KI-Algorithmen verwendet werden, müssen repräsentativ für die gesamte menschliche Bevölkerung sein.
Allerdings sind bestimmte Personengruppen in der biomedizinischen Forschung schon seit langem nicht oder falsch repräsentiert.
Bias in KI-Algorithmen kann in diskriminierenden, ungenauen und unzuverlässigen Ergebnissen resultieren und die Patientenversorgung beeinträchtigen.
Sollten die für das Training von Algorithmen herangezogenen Daten nicht repräsentativ sein, können sie die Voreingenommenheit verstärken, was zu einem Ausschluss dieser Gruppen von medizinischen Fortschritten, zu Fehldiagnosen oder sogar zu einem tödlichen Ausgang führen kann.
Die Minimierung von Algorithmusverzerrungen ist daher von entscheidender Bedeutung und setzt die Erhebung und Verwendung relevanter Daten voraus.
In diesem Artikel werden einige Ansätze zur Verringerung der Voreingenommenheit von KI-Algorithmen untersucht, mit deren Hilfe sichergestellt werden kann, dass die verwendeten Daten relevant, umfassend und repräsentativ sind.
Die Verbreitung von Algorithmus-Bias in der Medizin
Die Verzerrung durch den Algorithmus ist nicht immer beabsichtigt. Sie resultieren häufig aus systembedingten Vorurteilen, die in den erhobenen Daten enthalten sind.
Statistisch gesehen versteht man unter Verzerrung die Verteilung eines Datensatzes, die nicht genau die Verteilung der Grundgesamtheit widerspiegelt.
Statistischer Bias kann bei einem KI-Algorithmus zu ungenauen Schätzungen führen.
Eine soziale Verzerrung hingegen kann Ungerechtigkeiten zur Folge haben, von denen bestimmte Bevölkerungsgruppen betroffen sind, heißt es in einem Artikel in der medizinischen Fachzeitschrift Patterns.
Beispiele für Verzerrungen in medizinischen Daten
- Datensätze, die an Hautläsionsproben weißer Patienten trainiert wurden, resultieren in ungenauen Diagnosen bei schwarzen Patienten.
- Vorhersagemodelle für Herz-Kreislauf-Erkrankungen, die auf überwiegend männlichen Datensätzen trainiert werden, was bei Frauen zu Fehldiagnosen von Herzinfarkten führt.
- Schlafbewertungsalgorithmen, die an jungen, gesunden Menschen trainiert wurden, erkennen Schlafstörungen bei älteren Patienten nicht.
So können Algorithmen, die Patienten aus Minderheitengruppen unverhältnismäßig falsch klassifizieren, eine ungleiche Gesundheitsversorgung zur Folge haben.
Diese Verzerrungen können durch historische Datenungleichgewichte, Datenerfassungsmethoden und das Konzept von KI-Modellen entstehen.
Zur Minimierung von Verzerrungen in Algorithmen sollten diese unbedingt auf der Datenebene angegangen werden.
So kann sichergestellt werden, dass die in der KI im Gesundheitswesen verwendeten Daten umfassend, repräsentativ und frei von historischen Ungleichheiten sind.
Ansätze zur Minimierung von Algorithmus-Bias
Es besteht zwar die Gefahr, dass KI-Algorithmen für das Gesundheitswesen mit einer inhärenten Voreingenommenheit entwickelt werden, aber es gibt mehrere Ansätze, die Forscher und Programmierer anwenden können, um die Verzerrungen zu minimieren und sicherzustellen, dass ihre Ergebnisse für ein möglichst breites Spektrum von Menschen effektiv sind.
Vielfältige Datenerhebung
Einer der wichtigsten Schritte zur Verringerung von Algorithmusverzerrungen ist die Gewährleistung, dass die Datensätze, auf denen KI-Modelle trainiert werden, vielfältig und repräsentativ für die Patientenpopulation sind.
Die faire Implementierung von KI im Gesundheitswesen erfordert die Integration von Grundsätzen wie Inklusivität, Offenheit und Vertrauen in biomedizinische Datensätze bei der Konzeption.
Ein vielfältiger Datensatz ist weniger anfällig für systematische Verzerrungen und sollte daher eine Vielzahl von demografischen, sozioökonomischen und geografischen Variablen umfassen, um die Unterschiede innerhalb der Bevölkerung zu berücksichtigen und sicherzustellen, dass die algorithmischen Vorhersagen statistisch repräsentativ sind.
Datenforscher sollten ihre Daten sorgfältig auswerten, um sich zu vergewissern, dass diese ein ausgewogenes Bild der realen Gruppen widerspiegeln und Bestätigungsverzerrungen ausgeschlossen sind.
Oversampling unterrepräsentierter Gruppen
Da in historischen Gesundheitsdaten bestimmte demografische Gruppen oft unterrepräsentiert sind, können Forscher und Gesundheitsorganisationen Oversampling-Methoden zur Erhebung von mehr Daten aus diesen Bevölkerungsschichten anwenden.
Dieser Ansatz trägt zum Ausgleich des Datensatzes bei und mildert die Auswirkungen der Unterrepräsentation auf KI-Algorithmen.
Regelmäßige Datenüberprüfung
Um Bias bei der Beschriftung und Annotation von Daten zu verringern, sollten die Datenteams darin geschult werden, diese korrekt zu labeln, ohne den Einfluss persönlicher oder systembedingter Vorurteile.
Die Durchführung regelmäßiger Datenaudits ist für die Identifizierung und Beseitigung von Verzerrungen im Datensatz, einschließlich Unstimmigkeiten bei der Kennzeichnung, unerlässlich.
Bei den Prüfungen sollten die Daten auf mögliche Verzerrungen untersucht und etwaige Ungleichgewichte, Ungenauigkeiten oder Unstimmigkeiten korrigiert werden.
Datenaudits können auch Trends und demografische Veränderungen aufzeigen, was wiederum die Relevanz der Datenerhebung im Laufe der Zeit sicherstellen kann.
Zusammenarbeit mit verschiedenen Interessenvertretern
Die Kooperation zwischen Gesundheitsdienstleistern, Patienten, Ethikern und Datenwissenschaftlern kann eine umfassendere Perspektive zur Erkennung und Beseitigung potenzieller Quellen von Verzerrungen in Gesundheitsdaten bieten.
Wegen der Wahrung der Privatsphäre und der Sicherheit der Patienten ist die gemeinsame Nutzung von Daten nicht immer möglich.
Die Weitergabe von Code und das erneute Training von Algorithmen mit relevanten Datenquellen, z. B. in Krankenhäusern auf der ganzen Welt, kann jedoch den Mangel an Vielfalt in den derzeit gemeinsam genutzten Datensätzen umgehen.
Algorithmische Fairness
Zur Identifizierung und Eliminierung von Vorurteilen sollten Modelle der KI und des maschinellen Lernens vor und nach ihrem Einsatz getestet werden.
Wissenschaftler sollten Algorithmen einem Praxistest unterziehen, um ihre Leistung in verschiedenen Bevölkerungsgruppen und klinischen Umgebungen zu bewerten.
„Angesichts der ethischen Implikationen von KI in der Medizin sollten KI-Algorithmen genauso streng bewertet werden wie andere Maßnahmen im Gesundheitswesen, z. B. klinische Studien“, heißt es in dem Artikel der medizinischen Fachzeitschrift.
Mit Methoden wie Neugewichtung, Re-Sampling und adversarialem Training können Forscher KI-Modelle fairer machen, indem sie die Auswirkungen von Verzerrungen auf algorithmische Vorhersagen reduzieren, so dass sie über alle demografischen Gruppen hinweg einheitlich funktionieren.
Ethische Richtlinien und Vorschriften
Organisationen, die KI-Modelle implementieren, brauchen einen standardisierten Rahmen, an den sie sich halten können.
Gesundheitseinrichtungen und Regulierungsbehörden sollten klare ethische Standards und Vorschriften für den Einsatz von KI-Algorithmen und -Modellen in der Medizin festlegen.
Sie sollten auf die Wichtigkeit des Abbaus von Voreingenommenheit, der Gewährleistung von Transparenz und der Förderung der Rechenschaftspflicht hinweisen.
Die Regulierungsbehörden können eine wichtige Rolle bei der Durchsetzung dieser Leitlinien zur Unterstützung einer verantwortungsvollen KI-Entwicklung und -Einführung spielen.
Kontinuierliche Überwachung und Feedback-Schleifen
KI-Algorithmen sollten nach ihrer Einführung stets überwacht werden.
Dank der Implementierung von Feedback-Schleifen können Datenwissenschaftler und Forscher aufkommende Verzerrungen erkennen und Korrekturen vor deren Ausbreitung vornehmen.
Regelmäßiges Monitoring ist die Voraussetzung dafür, dass KI-Modelle auch dann noch effektiv bleiben, wenn sich der Einsatz der Technologie im Gesundheitswesen weiterentwickelt.
Die Rolle der erklärbaren KI (XAI)
Es ist wichtig zu verstehen, wie ein KI-Algorithmus seine Vorhersagen und andere Ergebnisse erzeugt.
Mit mehr Transparenz können Entwickler und Forscher zeigen, wie die Eingabedaten verwendet werden und Verzerrungen erkennen, die behoben werden müssen.
Dies kann mit erklärbarer KI (XAI) erreicht werden. Sie dokumentiert, wie ein Algorithmus bestimmte Ergebnisse erzeugt – und zwar auf eine für den Menschen verständliche Weise.
Dank XAI können Entwickler, Angehörige der Gesundheitsberufe und Patienten die Datenpunkte und Überlegungen hinter den KI-Empfehlungen nachvollziehen.
Diese Transparenz kann zur Ermittlung potenzieller Quellen von Voreingenommenheit beitragen und das Vertrauen in KI-Systeme stärken, wodurch sie für den Einsatz in Gesundheitssystemen besser geeignet und zuverlässiger werden.
Klassifiziert ein Modell beispielsweise Patienten aus einer bestimmten Bevölkerungsgruppe durchweg falsch, kann XAI helfen, die für den Fehler verantwortlichen spezifischen Daten zu ermitteln.
Die Datenerfassung und die Algorithmen können dann entsprechend angepasst werden.
Erklärbare KI kann Voreingenommenheit nicht vollständig verhindern, aber sie kann dazu beitragen, die Ursachen einer Voreingenommenheit zu erhellen – ein wichtiger erster Schritt zu ihrer Überwindung.
Herausforderungen bei der Bekämpfung von Algorithmus-Bias
Die Minimierung von Algorithmusverzerrungen in der KI im Gesundheitswesen ist ein komplexer und fortlaufender Prozess.
Es gibt mehrere Herausforderungen und Überlegungen, die angegangen werden müssen:
- Datenschutz und -sicherheit: Bei der Erhebung vielfältiger und umfassender Datensätze müssen die Privatsphäre der Patienten gewahrt und strenge Datensicherheitsmaßnahmen getroffen werden.
- Datenverwaltung: Die Entwicklung solider Rahmenbedingungen für die Datenverwaltung ist eine wesentliche Voraussetzung für die Gewährleistung, dass die Datenerfassung, -speicherung und -verwendung nach ethischen Gesichtspunkten und im Einklang mit den Vorschriften erfolgt.
- Bereitstellung von Ressourcen: Die Erhebung und Pflege vielfältiger und repräsentativer Daten erfordert erhebliche Ressourcen, einschließlich finanzieller Mittel, Personal und technologischer Infrastruktur.
- Regulatorisches Umfeld: Der Bereich der KI im Gesundheitswesen entwickelt sich rasch weiter, und die Regulierungsbehörden müssen mit diesen Innovationen Schritt halten, um klare Leitlinien für die ethische und verantwortungsvolle Nutzung von KI-basierten Modellen und Systemen zu schaffen.
- Interoperabilität: Um Modelle auf der Grundlage umfassender und genauer Datensätze zu erstellen, die möglichst vielen Bevölkerungsgruppen zugutekommen, müssen die Daten und Kodierungen verschiedener Gesundheitssysteme und Anbieter interoperabel sein.
Fazit
Die Minimierung algorithmischer Verzerrungen in der KI im Gesundheitswesen ist nicht nur ein technologisches oder praktisches Anliegen, sondern auch eine wichtige ethische Überlegung.
Die potenziellen Folgen algorithmischer Vorurteile im Gesundheitssektor sind tiefgreifend und reichen von diskriminierender Behandlung bis hin zu Fehldiagnosen.
Zur Förderung von Fairness, Gerechtigkeit und Vertrauen in das Gesundheitssystem ist die Beseitigung von Bias in der KI unerlässlich.
Es gibt Ansätze, die Entwickler, Wissenschaftler, Forscher und Regulierungsbehörden ergreifen können, um ein KI-Ökosystem für das Gesundheitswesen zu schaffen, das inklusiv ist und einem möglichst breiten Spektrum von Patienten zugutekommt.