In eerdere artikelen over bias met/zonder AI heb ik de doordachte titel AI is bevattelijk voor bias, net als haar schepper gebruikt. Maar ik ben in de afgelopen maanden langzaam tot de conclusie gekomen dat deze titel niet klopt. Want AI is bevattelijker voor bias dan haar schepper. Deze positie is diametraal tegenovergesteld aan de populaire mening dat AI ofwel vrij is van bias, danwel (duidelijk) minder last van bias heeft. Nu is deze mening zelf niet vrij van bias omdat deze vooral wordt gebezigd door AI-aanbieders of (chief) evangelisten, en zij hebben er een (geldelijk) belang bij om dat te verkondigen.
Maar goed: AI is bevattelijker voor bias dan haar schepper. Dat moet ik natuurlijk wel goed uitleggen. Laat ik daarvoor beginnen met een overzicht van maar liefst 15 veel voorkomende bias-vormen met een (relatief) grote impact:
Veel voorkomende bias-vormen met een grote impact
Deze bias-vormen beslaan meer dan 80% van alle vormen van vooringenomendheid die binnen het recruitment domein kunnen voorkomen bij het beoordelen van sollicitanten. De eerste 10 bias-vormen hebben een menselijke oorsprong, de resterende 5 bias-vormen hebben een oorsprong binnen de techniek, in dit geval AI-modellen. En op basis van deze oppervlakkige getalsmatige vergelijking kan je natuurlijk stellen: Drees, je zit uit je nek te lullen; 10 menselijke bias-vormen versus 5 AI bias-vormen? AI heeft duidelijk minder last van bias! En dat lijkt op zich waar, maar schijn bedriegt.
De bron van alle kwaad?
De menselijke bias-vormen zijn onderverdeeld in 5 veel voorkomende bias-vormen met een cognitieve oorsprong en 5 veel voorkomende bias-vormen met een sociale oorsprong:
Bias met een cognitieve oorsprong kan het beste worden geduid als een systematische afwijking in ons denken die leidt tot vertekende oordelen, beslissingen of percepties (vetrouwen op mening autoriteit, voorkeur voor sollicanten die op ons lijken, overschatting eigen kennis/vaardigheden).
Bias met een sociale oorsprong is een systematische vertekening in data, processen of resultaten die voortkomt uit sociale structuren, normen, overtuigingen en interacties binnen een samenleving. Kort gezegd: bias met een sociale oorsprong zijn allerhande vooroordelen in het sociale domein (uiterlijk, ras, gender, diploma’s, leeftijd, etc.).
Deze waaier aan menselijke bias-vormen kan een sollicitatieproces sterk mankeren, en dat kan bijzonder vervelend uitpakken voor bepaald (groepen) sollicitanten. Maar het resultaat van dit gemankeerde sollicitatieproces is tweeledig. Niet alleen zijn er mogelijk ten onrechte afgewezen sollicitanten, maar een aanzienlijk toxischer effect is de neerslag van het gemankeerde sollicitatieproces in de gegevens die worden opgeslagen. Want in de loop van de tijd hopen vooroordelen zich op in de data, als PFAS op de weide- en akkervelden. En waar PFAS een forever chemical wordt genoemd, zo kunnen we het resultaat van menselijke vooroordelen als forever data bestempelen. En raad nu eens wat er met die forever data gebeurt als AI in het spel komt… Precies, sollicitatiegegevens worden gebruikt om AI te trainen om vervolgens sneller cv’s en/of sollicitatiegesprekken te kunnen beoordelen. Met gegevens die het gevolg zijn van menselijke vooroordelen. Wat denk je dat er vervolgens gebeurt?
Vervuiling wordt doorgegeven en blijft altijd bestaan: forever data
Inderdaad. Dezelfde vooroordelen blijven bestaan, dezelfde (groepen) sollicitanten worden afgewezen en omdat ook deze data weer wordt teruggevoerd aan het AI systeem zijn we in een eeuwige herhaling terecht gekomen. Maar daar blijft het niet bij als we het over een AI-oplossing hebben. Want een AI oplossing is als een zoutpan die langzaam opdroogt; het resterende water wordt steeds zouter. En daar spelen de typische AI biasvormen een belangrijke rol in: algorithmic bias, data bias, ontwerper bias, feature selection bias en proxy bias. Al deze bias-vormen zorgen voor een nog-vertekender beeld (subsets van data) met (on)voorstelbare beoordelingen tot gevolg. De kandidaat blijft in alle gevallen wel het kind van de rekening.
En dan is daar nog de coup de grâce: automation bias. De bias-vorm die het domein van de mens en het domein van AI overbrugt. Waardoor fouten van een AI-beoordeling niet worden waargenomen, omdat de waarnemer er vanuit gaat dat de machine het (altijd) beter weet.
Slotopmerking
AI-systemen incorporeren (via trainingsdata waarin alle denkbare menselijke bias-vormen zijn neergeslagen) alle vormen van menselijke bias en worden door technische keuzes (AI bias-vormen) nog eens verder gemankeerd waardoor een slangenkuil van forever data ontstaat. En die slangenkuil laten we vervolgens los op niets-vermoedende sollicitanten in het naïeve geloof dat we objectiever en sneller (= goedkoper) tot een eerlijker resultaat gaan komen. En dat is vrijwel uitsluitend het gevolg van een onvoorwaardelijk geloof in het marketing gereutel van AI slangenolieverkopers door niet ter-zake kundige procesmanagers (wat een pleonasme is).