Een paar maanden geleden schreef ik met volle overtuiging: AI is bevattelijker voor bias dan haar schepper: forever data. En deze blog posting sloot ik als volgt af:
AI-systemen incorporeren (via trainingsdata waarin alle denkbare menselijke bias-vormen zijn neergeslagen) alle vormen van menselijke bias en worden door technische keuzes (AI bias-vormen) nog eens verder gemankeerd waardoor een slangenkuil van forever data ontstaat. En die slangenkuil laten we vervolgens los op niets-vermoedende sollicitanten in het naïeve geloof dat we objectiever en sneller (= goedkoper) tot een eerlijker resultaat gaan komen.
Maar ik moet tot mijn schande bekennen dat ik hiermee de boel ongekend (en nog erger, ongeïnformeerd) heb opgehitst. Mea culpa, mea maxima culpa.
Want dankzij de juni nieuwsbrief van VONQ heb ik namelijk het licht gezien, de nieuwsbrief verwijst namelijk naar een door een Britse juriste geschetste oplossing:
[Furat Ashraf] raised the point that, in theory, if you find the point of bias within AI and change the algorithm and train it on some additional data, then the issue should be fixed; something that is arguably much harder to do when dealing with humans.