Wat organisaties kunnen leren van de toeslagenaffaire?

25 januari 2022 16:21

Wat organisaties kunnen leren van de toeslagenaffaire?

Meer oog voor de rol van AI

Door Jurriaan Krielaart, Sales Director bij Dataiku 

AI is een fantastisch en tegelijkertijd beangstigend woord. Zo is de rol van AI groot en breed aan bod gekomen in de discussie rondom de toeslagenaffaire. ‘De politiek moet veel meer oog hebben voor de rol die AI gaat spelen’ zo schreef de Wetenschappelijke Raad voor Regeringsbeleid hierover. Niet alleen de politiek, maar ook organisaties zouden hier gehoor aan moeten geven. 

Het is nodig om na te denken over de rol die AI binnen de organisatie heeft of kan hebben. Is het wel verstandig om bepaalde processen te automatiseren? Wat zijn de valkuilen? En hoe bewaken en bewaren we de veelbesproken menselijke maat bij AI?

Automatiseren of niet automatiseren?

In welke mate moet een proces geautomatiseerd worden binnen een organisatie? Hierover zijn de meningen verdeeld. Eén benadering is dat automatisering overal zou moeten zijn en dat mensen zich alleen nog bezig moeten houden met randgevallen tijdens de ontwerp- en productiefase. Geautomatiseerde Machine Learning (AutoML) maakt, test en brengt alle modellen in productie in dit scenario. ML neemt daarnaast ook de beslissingen over de hertraining en modelvervanging. AI-projecten zullen dan steeds autonomer worden en hun output optimaliseren totdat ze bijna een eigen leven gaan leiden. 

Hoewel dit een droomscenario is voor sommige executives, is het een nachtmerrie voor datateams en financiële executives en risk managers. Het gebrek aan zichtbaarheid en controle over deze geautomatiseerde programma's zou een onbekend risico creëren dat op elk moment uit een kan barsten.

Mens EN machine

Een andere, meer realistischer, benadering is dat we zowel automatisering als mensen nodig hebben. De menselijke factor zorgt ervoor dat onze ML en AI op één lijn liggen met onze menselijke waarden, doen wat we verwachten, en we kunnen blijven vertrouwen op hun output. Bovendien hebben we ook mensen nodig die de werkruimte zo inrichten dat AI kan presteren. Om het meeste uit AI te halen zullen organisaties een kader nodig hebben om binnen te werken.

De realiteit is dat ML, en AutoML een relatief nieuw vakgebied is. Als we AutoML gebruiken waar nodig en met overzicht, kan dat data science teams vrijmaken om meer missie-kritische, uitdagende en creatieve problemen aan te pakken, wat precies het soort dingen zijn dat ze graag doen. 

Automatisering zou gezien moeten worden als versneller voor mensen, geen vervanging. Automatisering helpt een reeks taken efficiënter uit te voeren, waarbij alledaags werk uit handen wordt genomen. In data science kan het gebruik van kant-en-klare modules, frameworks en zelfs het automatiseren van stappen zoals feature engineering een aanzienlijke business impact hebben. 

Bij een groot aantal van onze klanten zien we hoe automatisering kan worden ingezet om taken sneller uit te voeren. Een datawetenschapper bij een multinationaal telecommunicatiebedrijf zei: "Dataiku stelt me in staat 10x sneller te werken. Voorheen deed ik meerdere stappen in elke regel code en duurde het een uur, maar nu duurt het maximaal 5 minuten."

Valkuilen vermijden

Machines en software hebben uit zichzelf geen menselijke waarden of ethiek. Wij, als mensen, geven ze doelen en beschermingsmechanismen. Dus wat gebeurt er als je een machine zichzelf laat programmeren, zoals in ML? Het machine-algoritme zal leren van de gegevens die je verstrekt en een model bouwen op basis van de patronen die het ontdekt. De fouten of vertekeningen in de gegevens zullen een vertekend beeld geven. Het is nog steeds aan de mensen om deze potentiële vertekening te begrijpen en te bepalen hoeveel vertekening aanvaardbaar is zonder afbreuk te doen aan onze morele principes, bedrijfsbeleid en de naleving van wet- en regelgeving. Ervoor zorgen dat onze AI verantwoordelijk is, blijft in hoge mate een menselijk probleem.

Voorspellende modellen zijn het product van een wiskundige algoritme en gegevens. AutoML is goed in het kiezen van het geschikte algoritme voor een bepaalde gegevensvorm en kan zelfs brute kracht gebruiken om veel verschillende technieken uit te proberen om de beste variabelen en aanpak te vinden. Maar er zullen nog steeds mensen nodig zijn om te bepalen of deze output geldig en bruikbaar is. 

Wanneer we ML-modellen in productie nemen, kunnen de gegevens die worden gebruikt, verschillen van de gegevens die werden gebruikt om het model te trainen. Deze ‘data drift’ kan ertoe leiden dat het model minder nauwkeurige voorspellingen doet. Ook hier hebben we de mens nodig om de monitoringvoorwaarden zo in te stellen dat stakeholders gewaarschuwd worden. Zelfs als we het nieuwe model automatisch kunnen testen, willen we nog steeds dat iemand aftekent dat het nieuwe model nog steeds aan onze verwachtingen voldoet. Automatisch beoordelen of een voorgesteld model gepast is, is een even grote uitdaging. Vooral voor gevallen waarin mogelijk bevooroordeelde trainingsgegevens tot structureel bevooroordeelde conclusies kunnen leiden. Een expert kan met zijn domeinkennis bepalen of dit zinvol is of niet, maar een algoritme heeft geen toegang tot dergelijke inzichten.

Cruciaal voor de adoptie en schaalvergroting van AI en machine learning is vertrouwen. Mensen die niet weten hoe deze nieuwe technologieën werken, en zelfs degenen die dat wel weten, kunnen en moeten sceptisch zijn tegenover de voorspellingen die ze voorgeschoteld krijgen door AI- en ML-modellen. Naarmate AI zich verder uitbreidt, zullen meer mensen in meer organisaties voorspellende modellen gaan gebruiken om beslissingen te nemen en processen te stroomlijnen. Zelfs klanten zullen interactie hebben met modellen via chatbots, aanbevelingen voor websites, geoptimaliseerde aanbiedingen en meer.

Het is essentieel voor het vertrouwen dat er mensen zijn die AI-projecten en -modellen kunnen controleren en goedkeuren. Mensen kunnen andere mensen vertrouwen, maar het zal tijd kosten om vertrouwen te ontwikkelen in machines en automatisering. Zeker wanneer we verhalen zoals die van de toeslagenaffaire voorbij blijven zien komen. Op basis van de in dit artikel genoemde valkuilen, moet er een kritische nadruk op kwaliteitscontrole en continue monitoring van de end-to-end machine learning-levenscyclus zijn.

Dus, wat kunnen we leren van de toeslagenaffaire? Dat menselijke betrokkenheid bij AI onmisbaar is! We hebben mensen nodig om de moeilijke dingen te doen die machines niet kunnen. We hebben mensen nodig om doelen te stellen en te bewaken. We hebben mensen nodig om toezicht te houden. We hebben mensen nodig om ons te helpen modellen te begrijpen en om onze organisaties te helpen vertrouwen te ontwikkelen. 

terug

Reacties op dit artikel

Reactie plaatsen? Log in met uw account.

Om de gebruiksvriendelijkheid van onze website en diensten te optimaliseren maken wij gebruik van cookies. Deze cookies gebruiken wij voor functionaliteiten, analytische gegevens en marketing doeleinden. U vindt meer informatie in onze privacy statement.