Wat is Human in the Loop (HITL)?
Human in the loop (HITL) is een ontwerpstrategie die het belang van menselijke feedback in de ontwikkeling en werking van een kunstmatig intelligentie systeem (AI) benadrukt. HITL erkent dat AI en menselijke intelligentie elk hun eigen sterke punten en beperkingen hebben en dat beide soorten intelligentie nodig zijn om de beste resultaten te genereren.
Dit is met name relevant op gebieden als financiën, transport en wetshandhaving, waar door AI gegenereerde uitkomsten iemands leven aanzienlijk kunnen beïnvloeden.
De mate waarin mensgerichte AI-systemen worden geïmplementeerd kan sterk variëren, afhankelijk van de specifieke doelen van het AI-project, de complexiteit van het AI-systeem, de risico’s en de beschikbare middelen van het projectteam. In sommige gevallen wordt HITL alleen gebruikt tijdens de ontwikkelingsfase van een AI-systeem als aanvulling op reinforcement learning.
Zodra de trainingsgegevens gelabeld zijn en de besluitvormingsparameters zijn vastgesteld, kan de menselijke betrokkenheid beperkt blijven tot hertrainingsinitiatieven, indien nodig.
In andere gevallen kan de samenwerking tussen mens en machine doorgaan tijdens de operationele fase om AI-drift te voorkomen en optimale output te behouden als de omstandigheden veranderen en/of nieuwe gegevens beschikbaar komen.
De mate waarin HITL-systemen worden geïmplementeerd kan ook worden beïnvloed door de regelgeving waarin een AI-systeem wordt ingezet. In sommige sectoren, zoals de gezondheidszorg of de luchtvaart, kunnen er strenge eisen zijn voor mensen om toezicht te houden op beslissingen die worden genomen door deep learning algoritmen en deze te valideren om eerlijke en rechtvaardige uitkomsten te garanderen.
Voorbeelden van Human in the Loop implementaties
HITL-implementatie is geen pasklare oplossing. De aard van de taak of taken die een AI-systeem moet uitvoeren kan sterk variëren en vereist een verschillende mate van menselijke betrokkenheid. Routinetaken op laag niveau kunnen worden geautomatiseerd met slechts af en toe menselijk toezicht, terwijl complexere en/of gevoeligere taken menselijke tussenkomst kunnen vereisen gedurende de gehele levenscyclus van de softwareontwikkeling (SDLC).
Levenscyclus | Mens in de lus |
Eerste installatie | Deze fase van het ontwerpproces definieert de specifieke verantwoordelijkheden van menselijke operators en stelt duidelijke grenzen voor besluitvorming, taakuitvoering en toezichthoudende rollen. Het omvat ook het opzetten van communicatiekanalen om terugkoppelingen tussen mens en machine te ondersteunen. |
Trainingsfase | Het gebruik van menselijke operators in deze fase is vooral nodig wanneer het AI-systeem machine learning componenten bevat. Mensen kunnen worden gebruikt om trainingsgegevens te labelen en feedback te geven die het AI-systeem helpt om de toegewezen taken nauwkeuriger uit te voeren. |
Operationele fase | Menselijke operators kunnen worden gebruikt om de prestaties van het AI-systeem nauwlettend te volgen. Tijdens deze fase helpen feedbacklussen het AI-systeem om de werking iteratief en stapsgewijs te verbeteren en de resultaten te optimaliseren. |
Voortdurende verbetering | Tijdens deze fase van de levenscyclus kunnen menselijke operators betrokken worden bij het identificeren van mogelijkheden voor systeemverbetering en deelnemen aan hertrainingssessies om de precisie en relevantie van de AI te verbeteren. |
Kwaliteitscontrole | Menselijke operators kunnen worden belast met het afhandelen van uitzonderingen en onzekerheden die de AI kan tegenkomen, en met het uitvoeren van audits om ervoor te zorgen dat de beslissingen van het AI-systeem consistent voldoen aan veranderende regelgevende en ethische mandaten. |
Interactie met klanten | Wanneer AI-gestuurde gebruikersinterfaces, zoals chatbots of virtuele assistenten, op uitdagingen of beperkingen stuiten, kan een beroep worden gedaan op menselijke operators om de converserende AI in realtime te assisteren. Dit is vooral belangrijk in klantgerichte contexten wanneer de AI mogelijk niet in staat is om zelf een bevredigende gebruikerservaring (UX) te bieden. |
Kwaliteitscontrole | Menselijk oordeel kan een belangrijke rol spelen bij het handhaven van kwaliteitscontrole (QC) en het bieden van kwaliteitsborging (QA). Menselijke operators kunnen worden ingezet om handmatig controles uit te voeren, uitzonderingen af te handelen en conflicten op te lossen die de AI-programmering kan tegenkomen. |
Voordelen van Human in the Loop bij AI
HITL kan helpen bij het voorkomen van black box AI en het verbeteren van de controleerbaarheid en transparantie van AI door controlepunten toe te voegen waarbij mensen AI-beslissingen moeten beoordelen, interpreteren en indien nodig corrigeren of terzijde schuiven. De aanwezigheid van een menselijk element zorgt voor een extra controlelaag, die cruciaal kan zijn voor het uitleggen van uitkomsten aan belanghebbenden en het behouden van vertrouwen in AI-toepassingen.
Beperkingen van de Human in the Loop bij AI
De toevoeging van menselijk toezicht aan een AI-systeem lost niet automatisch alle problemen op met betrekking tot transparantie en verantwoording wanneer AI slechte beslissingen neemt.
De manier waarop menselijke input wordt geïntegreerd, de vooroordelen en expertise van de betrokken mensen en de processen die zijn ingesteld om de samenwerking tussen mens en machine te faciliteren, kunnen allemaal een grote invloed hebben op de effectiviteit van de samenwerking tussen mens en machine. Als menselijke interactie te vaak nodig is of als het proces voor interacties te omslachtig is, kan dit de toepassing vertragen en mogelijk veel van de voordelen van het gebruik van kunstmatige intelligentie tenietdoen.