Een groot deel van de discussie rondom kunstmatige intelligentie (AI) gaat tegenwoordig over de potentiële bedreiging voor de mensheid. Maar wat als het tegenovergestelde waar zou zijn? Wat als AI de mensheid niet zou vernietigen, maar juist zou redden?
De recente pandemie heeft duidelijk gemaakt hoe kwetsbaar de moderne samenleving is voor de gevaren van de natuur – zo niet in termen van uitsterven, dan toch in termen van ernstige economische en maatschappelijke ontwrichting.
Het effectief verzamelen en analyseren van gegevens bleek van vitaal belang te zijn in de snelle confrontatie met Covid-19, en er is alle reden voor dat dit nog succesvoller kan zijn de volgende keer dat de natuur op ons schiet (en er zal een volgende keer zijn).
In een recent artikel in Harvard Business Review belicht Bhaskar Chakravorti, auteur en decaan van Global Business aan The Fletcher School van Tufts University, de talloze manieren waarop AI tekortschoot tijdens de pandemie. Hoewel het eerlijk is om te zeggen dat AI grotendeels faalde in deze poging, biedt het onderzoek een sjabloon voor de corrigerende maatregelen die nodig zijn voor meer succes in de toekomst.
Een goed begin
Ten eerste, zegt Chakravorti, was AI de eerste die een vreemd nieuw virus identificeerde in Wuhan, China. Vervolgstudies toonden echter aan dat de meeste modellen er niet in slaagden te anticiperen op belangrijke trends in prognose, diagnose, behandelrespons en een groot aantal andere factoren.
De meeste van deze problemen kunnen worden gekoppeld aan vier belangrijke factoren:
- Slechte of onvolledige gegevens: De meeste informatie was moeilijk te verkrijgen door snel veranderende omstandigheden en een onvermogen om te putten uit bedrijfseigen systemen en infrastructuur.
- Geautomatiseerde discriminatie: De meeste algoritmen werden getraind op gegevens die vertekeningen weerspiegelden in de beschikbaarheid van gezondheidszorg, sociale ongelijkheid en, in sommige gevallen, wantrouwen in het gezondheidszorgsysteem.
- Menselijke fouten: Of het nu slechte gegevensinvoer was of een gebrek aan prikkels voor het effectief delen van gegevens, mensen zijn uiteindelijk verantwoordelijk om AI in de juiste richting te sturen en mensen maken fouten.
- Complexe mondiale contexten: Adequate interventie moet navigeren door meerdere sociopolitieke, institutionele en culturele conventies, waar zelfs AI niet goed mee om kan gaan.
Deze problemen zijn niet inherent aan de AI-modellen zelf, maar aan de manier waarop ze worden getraind en ingezet.
Om ze op te lossen is ongetwijfeld een wereldwijde inspanning nodig en gelukkig begint deze al vorm te krijgen, zij het op beperkte schaal.
Het Spaanse ministerie van Wetenschap en Innovatie financiert samen met het Centrum voor Demografische Studies het project EPI-DESIGUAL. |
Het doel is om gegevens te verzamelen die helemaal teruggaan tot de uitbraken van pest en cholera in de jaren 1820 om de voorspelbaarheid van zeer overdraagbare ziekten te verbeteren en hun persistentie vast te stellen. Er is ook een gebrek aan kennis over de langetermijneffecten van pandemieën, zoals de impact op geboortecijfers en de prevalentie van schijnbaar niet-gerelateerde aandoeningen zoals spierzwakte en malaise – wat sommige artsen nu “Long Covid” noemen. Uiteindelijk wil het project AI gebruiken om de inductieve redeneermethoden van de moderne geneeskunde te vervangen door meer datagestuurde processen die flexibeler en creatiever zijn. |
Nog een ander probleem is de neiging van pandemieën om snel op te schalen tijdens de eerste fasen van de uitbraak. Hierdoor worden overheden en hun gezondheidszorgstelsels vaak overrompeld.
AI heeft het vermogen om ook snel op te schalen, maar moet van tevoren hiervoor worden geoptimaliseerd voor zoiets complex als een onbekende ziekteverwekker. Het National Institute of Health van de VS evalueert momenteel het door Australië ontwikkelde EPIWATCH-systeem als hulpmiddel om snel te reageren op een pandemie, nadat het zijn effectiviteit al heeft bewezen tegen andere snel bewegende virussen zoals ebola.
Tegelijkertijd gebruikt het NIH open-source AI en risico-intelligentie in zijn bestaande vroegtijdige opsporingstools zoals het automated red-flagging (ARF) platform en het geografisch informatiesysteem (GIS).
Rechtstreeks van de bron
Maar ook hier geldt weer dat zelfs de krachtigste AI ter wereld slechts beperkt bruikbaar is als de gegevens die het ontvangt onnauwkeurig zijn of niet beschikbaar, en dat officiële kanalen voor informatie-uitwisseling vaak traag en niet altijd betrouwbaar zijn. Daarom beginnen onderzoekers sociale media te gebruiken als een manier om direct bij de bron inzicht te krijgen: patiënten.
Een gezamenlijk team van UCLA en UC-Irvine kreeg onlangs een subsidie van 1 miljoen dollar van het National Science Foundation’s Predictive Intelligence and Pandemic programma voor een project om allerlei sociale media te onderzoeken om risicofactoren te identificeren voordat ze bekend worden bij gezondheidsorganisaties. De taak omvat een snelle analyse van miljarden tweets, posts, updates en andere gegevens op alle belangrijke sociale mediaplatforms die het team heeft verzameld in een doorzoekbare database die teruggaat tot 2015.
In sommige gevallen bestaat het proces uit het zoeken naar een eenvoudige term als “hoest” en vervolgens de resulterende gegevens verfijnen op basis van leeftijd, datum, geografische locatie en andere variabelen. Op dit moment probeert het team de algoritmes te verfijnen om onderscheid te maken tussen medische woorden zoals “koorts” en zelfs “sterven” en hun informele definities die in de loop der tijd zijn geëvolueerd.
De conclusie
Hoewel dit allemaal indrukwekkend is, is het voorbehoud dat er geen garanties zijn als je te maken hebt met de grillen van de natuur. Er is een reden waarom de meeste virussen dateren van voor de opkomst van de moderne mens: ze zijn niet alleen taai, maar passen zich ook aan. In wezen vragen we AI dus om te voorspellen hoe een soort zal evolueren in een voortdurend veranderende omgeving, en dat is een hele opgave.
Maar één ding is duidelijk: mensen alleen zijn niet opgewassen tegen deze taak. Als AI niet in deze strijd wordt betrokken vanwege haar potentiële vermogen om het menselijk ras te schaden (wat grotendeels theoretisch is), dan zullen we op een dag te maken krijgen met een nieuwe pandemie. En die zou veel erger kunnen zijn dan de vorige.
Zoals Marc Andreessen, medeoprichter en general partner bij het durfkapitaalbedrijf Andreessen Horowitz, in zijn laatste artikel zei, ligt het echte risico in het niet met maximale kracht en snelheid nastreven van AI-ontwikkeling. Andreessen voegde eraan toe: