Ein Großteil der Diskussion über künstliche Intelligenz (KI) dreht sich heutzutage um deren potenzielle Bedrohung für die Menschheit. Doch was wäre, wenn das Gegenteil der Fall wäre? Was wäre, wenn sich die KI, anstatt die Menschheit zu zerstören, als ihr Retter erweisen würde?
Die jüngste Pandemie hat gezeigt, wie anfällig die moderne Gesellschaft für Gefahren aus der Natur ist – wenn auch nicht in Form einer völligen Ausrottung, so doch in Form schwerwiegender wirtschaftlicher und gesellschaftlicher Beeinträchtigungen.
Eine wirksame Datenerfassung und -analyse hat sich bei der raschen Bekämpfung von Covid-19 als entscheidend erwiesen, und es gibt allen Grund, dass sie beim nächsten Mal, wenn die Natur auf uns losgeht (und es wird ein nächstes Mal geben), noch erfolgreicher sein kann.
In einem kürzlich erschienenen Beitrag in der Harvard Business Review hebt Bhaskar Chakravorti, Autor und Dekan für Global Business an der Fletcher School der Tufts University, die zahlreichen Möglichkeiten hervor, wie KI während der Pandemie versagt hat. Zwar kann man mit Fug und Recht behaupten, dass die KI bei dieser Aufgabe größtenteils versagt hat, doch liefert die Untersuchung auch eine Vorlage für die Korrekturmaßnahmen, die für einen größeren Erfolg in der Zukunft erforderlich sind.
Ein guter Anfang
Zum einen, so Chakravorti, hat die KI zwar als erste ein seltsames neues Virus in Wuhan, China, identifiziert, aber Folgestudien haben gezeigt, dass die meisten Modelle wichtige Trends bei der Prognose, der Diagnose, dem Ansprechen auf die Behandlung und einer Reihe anderer Faktoren nicht vorhersagen konnten.
Die meisten dieser Probleme lassen sich auf vier Schlüsselfaktoren zurückführen:
Schlechte oder unvollständige Daten: Die meisten Informationen waren aufgrund der sich schnell ändernden Bedingungen und der Unfähigkeit, auf eigene Systeme und Infrastrukturen zurückzugreifen, schwer zu beschaffen. (Lesen Sie dazu: 5 Strategien für die Verwaltung unstrukturierter Daten)
Automatisierte Diskriminierung: Die meisten Algorithmen wurden auf Daten trainiert, die Verzerrungen bei der Verfügbarkeit von Gesundheitsleistungen, soziale Ungleichheit und in einigen Fällen Misstrauen gegenüber dem Gesundheitssystem widerspiegeln. (Passend dazu: Kann KI Vorurteile haben?)
Menschliches Versagen: Ob es sich nun um mangelhafte Dateneingabe oder fehlende Anreize für einen effektiven Datenaustausch handelt, letztlich sind Menschen dafür verantwortlich, die KI in die richtige Richtung zu lenken, und Menschen machen Fehler.
Komplexe globale Zusammenhänge: Angemessene Interventionen müssen sich durch eine Vielzahl soziopolitischer, institutioneller und kultureller Konventionen bewegen, für die selbst die KI schlecht gerüstet ist.
Allerdings liegen diese Probleme nicht in den KI-Modellen selbst, sondern in der Art und Weise, wie sie trainiert und eingesetzt werden.
Um sie zu lösen, bedarf es zweifellos einer globalen Anstrengung, die glücklicherweise, wenn auch in begrenztem Umfang, bereits Gestalt annimmt.
Ein weiteres Problem ist die Neigung von Pandemien, sich in der Anfangsphase des Ausbruchs schnell auszuweiten. Dies führt dazu, dass Regierungen und ihre Gesundheitssysteme auf dem falschen Fuß erwischt werden.
KI kann ebenfalls schnell skalieren, aber sie muss für etwas so Komplexes wie einen unbekannten Erreger im Voraus optimiert werden. Das U.S. National Institute of Health (NIH) prüft derzeit das in Australien entwickelte EPIWATCH-System als Instrument zur schnellen Pandemiebekämpfung, das seine Wirksamkeit bereits bei anderen sich schnell ausbreitenden Viren wie Ebola unter Beweis gestellt hat.
Gleichzeitig integriert das NIH Open-Source-KI und Risiko-Intelligenz in seine bestehenden Früherkennungs-Tools wie die ARF-Plattform (Automated Red-Flagging) und das geografische Informationssystem (GIS).
Direkt von der Quelle
Aber auch die leistungsfähigste KI der Welt ist nur von begrenztem Nutzen, wenn die Daten, die sie erhält, ungenau oder nicht aktuell sind, und die offiziellen Kanäle für den Informationsaustausch sind oft langsam und nicht immer vertrauenswürdig. Aus diesem Grund beginnen Forscher damit, soziale Medien zu nutzen, um Erkenntnisse direkt von der Quelle zu gewinnen: den Patienten.
Ein gemeinsames Team der UCLA und der UC-Irvine erhielt kürzlich einen Zuschuss in Höhe von 1 Million Dollar vom Predictive Intelligence and Pandemic Program der National Science Foundation für ein Projekt, das alle Arten von sozialen Medien durchforstet, um Risikofaktoren zu erkennen, bevor sie den Gesundheitsorganisationen bekannt werden. Die Aufgabe umfasst die schnelle Analyse von Milliarden von Tweets, Posts, Updates und anderen Daten auf allen wichtigen Social-Media-Plattformen, die das Team in einer durchsuchbaren Datenbank zusammengestellt hat, die bis ins Jahr 2015 zurückreicht.
In einigen Fällen umfasst der Prozess die Suche nach einem einfachen Begriff wie “Husten” und die anschließende Eingrenzung der resultierenden Daten nach Alter, Datum, geografischem Standort und anderen Variablen. Derzeit versucht das Team, seine Algorithmen zu verfeinern, um zwischen medizinischen Begriffen wie “Fieber” und sogar “Sterben” und ihren umgangssprachlichen Definitionen, die sich im Laufe der Zeit entwickelt haben, zu unterscheiden.
Die Quintessenz
All dies ist zwar beeindruckend, aber es gibt keine Garantien, wenn man es mit den Launen der Natur zu tun hat. Es gibt einen Grund dafür, dass die meisten Viren aus der Zeit vor der Entstehung des modernen Menschen stammen: Sie sind nicht nur zäh, sondern auch anpassungsfähig. Im Grunde genommen verlangen wir von der KI also, dass sie vorhersagt, wie sich eine Spezies in einer sich ständig verändernden Umgebung entwickeln wird, und das ist eine große Aufgabe.
Aber eines ist klar: Der Mensch allein ist dieser Aufgabe nicht gewachsen. Wenn die KI wegen ihrer potenziellen Fähigkeit, der Menschheit zu schaden (was weitgehend theoretisch ist), nicht in diesen Kampf einbezogen wird, werden wir eines Tages mit einer weiteren Pandemie konfrontiert werden. Und diese könnte weitaus schlimmer sein als die letzte.
Wie Marc Andreessen, Mitbegründer und General Partner der Risikokapitalgesellschaft Andreessen Horowitz, in seinem jüngsten Artikel feststellte, liegt das eigentliche Risiko darin, die Entwicklung der KI nicht mit maximaler Kraft und Geschwindigkeit voranzutreiben. Andreessen fügte hinzu:
Hier steht viel auf dem Spiel. Die Chancen sind gewaltig. KI ist möglicherweise das Wichtigste – und Beste -, was unsere Zivilisation je geschaffen hat, sicherlich auf einer Stufe mit Elektrizität und Mikrochips und wahrscheinlich noch darüber hinaus. Die Entwicklung und Verbreitung von KI – weit entfernt von einem Risiko, das wir fürchten sollten – ist eine moralische Verpflichtung, die wir uns selbst, unseren Kindern und unserer Zukunft gegenüber haben. Mit KI sollten wir in einer viel besseren Welt leben, und jetzt können wir es.