Een LLM heeft alle kenmerken van een piratennest

Divine interventionEnkele weken geleden heb ik de nodige argumenten gegeven waarom AI bevattelijker is voor bias dan haar schepper (de mens) en daar wil ik nog een schepje of wat aan toevoegen, waarbij ik voor de meer academisch georienteerden onder mijn lezersschare ook nog wat referenties wil toevoegen. Maar eerst even een herhaling van wat ik op 25 april schreef:

De bron van alle kwaad?
De menselijke bias-vormen zijn onderverdeeld in 5 veel voorkomende bias-vormen met een cognitieve oorsprong en 5 veel voorkomende bias-vormen met een sociale oorsprong:

Bias met een cognitieve oorsprong kan het beste worden geduid als een systematische afwijking in ons denken die leidt tot vertekende oordelen, beslissingen of percepties (vetrouwen op mening autoriteit, voorkeur voor sollicanten die op ons lijken, overschatting eigen kennis/vaardigheden).

Bias met een sociale oorsprong is een systematische vertekening in data, processen of resultaten die voortkomt uit sociale structuren, normen, overtuigingen en interacties binnen een samenleving. Kort gezegd: bias met een sociale oorsprong zijn allerhande vooroordelen in het sociale domein (uiterlijk, ras, gender, diploma’s, leeftijd, etc.).

Deze waaier aan menselijke bias-vormen kan een sollicitatieproces sterk mankeren, en dat kan bijzonder vervelend uitpakken voor bepaald (groepen) sollicitanten. Maar het resultaat van dit gemankeerde sollicitatieproces is tweeledig. Niet alleen zijn er mogelijk ten onrechte afgewezen sollicitanten, maar een aanzienlijk toxischer effect is de neerslag van het gemankeerde sollicitatieproces in de gegevens die worden opgeslagen. Want in de loop van de tijd hopen vooroordelen zich op in de data, als PFAS op de weide- en akkervelden. En waar PFAS een forever chemical wordt genoemd, zo kunnen we het resultaat van menselijke vooroordelen als forever data bestempelen. En raad nu eens wat er met die forever data gebeurt als AI in het spel komt… Precies, sollicitatiegegevens worden gebruikt om AI te trainen om vervolgens sneller cv’s en/of sollicitatiegesprekken te kunnen beoordelen. Met gegevens die het gevolg zijn van menselijke vooroordelen. Wat denk je dat er vervolgens gebeurt?

Vervuiling wordt doorgegeven en blijft altijd bestaan: forever data
Inderdaad. Dezelfde vooroordelen blijven bestaan, dezelfde (groepen) sollicitanten worden afgewezen en omdat ook deze data weer wordt teruggevoerd aan het AI systeem zijn we in een eeuwige herhaling terecht gekomen. Maar daar blijft het niet bij als we het over een AI-oplossing hebben. Want een AI oplossing is als een zoutpan die langzaam opdroogt; het resterende water wordt steeds zouter. En daar spelen de typische AI biasvormen een belangrijke rol in: algorithmic bias, data bias, ontwerper bias, feature selection bias en proxy bias. Al deze bias-vormen zorgen voor een nog-vertekender beeld (subsets van data) met (on)voorstelbare beoordelingen tot gevolg. De kandidaat blijft in alle gevallen wel het kind van de rekening.

En dan is daar nog de coup de grâce: automation bias. De bias-vorm die het domein van de mens en het domein van AI overbrugt. Waardoor fouten van een AI-beoordeling niet worden waargenomen, omdat de waarnemer er vanuit gaat dat de machine het (altijd) beter weet.

En dan zijn er nog de eigenaardigheden van LLM’s zelf, waardoor geheel nieuwe bias-vormen ontstaan. Het is nog veel te vroeg om een overzicht van LLM-specifieke bias-vormen te kunnen geven, maar onderstaand is een voldoende afschrikwekkend lijstje weergegeven:

  1. Zelfvoorkeur Bias: LLMs kunnen voorkeur geven aan outputs die hen meer bekend voorkomen, vaak aangegeven door een lagere perplexiteit, wat leidt tot hogere evaluaties van hun eigen outputs in vergelijking met door mensen gegenereerde outputs
  2. Autoriteitsbias: LLMs kunnen onterecht meer waarde hechten aan antwoorden met gezaghebbende referenties, zelfs als deze referenties nep zijn
  3. Politieke bias: LLMs tonen vaak een voorkeur voor linkse politieke standpunten, vooral in grotere modellen. Deze bias wordt beïnvloed door de taal waarin vragen worden gesteld en is consistent aanwezig.
  4. Verbosity Bias: Langere antwoorden kunnen worden verkozen boven kortere, ongeacht de kwaliteit van de inhoud
  5. Positiebias: Antwoorden kunnen anders worden beoordeeld afhankelijk van hun positie in de input
  6. Culturele bias: Modellen kunnen voorkeuren tonen die afhankelijk zijn van de culturele context van de trainingsdata, zoals land-specifieke stereotypen
  7. Taalafhankelijke bias: De taal waarin een vraag wordt gesteld, kan de antwoorden van een LLM beïnvloeden, wat leidt tot variaties in bias
  8. Andere Biases: Dit omvat onder andere compassie-vervagingsbias, bandwagon-effect bias en drogreden-overzichtsbias, die oordelen op subtiele manieren beïnvloeden.

Het is niet denkbeeldig dat het aantal LLM-specifieke bias-vormen in de komende tijd nog verder gaat groeien.

Slotopmerking
Ondertussen is het genoegzaam duidelijk dat een LLM niet bias-vrij is. Integendeel, als alle stof is neergedaald zal naar alle waarschijnlijkheid blijken dat LLM’s niet alleen zeer gevoelig zijn voor menselijke bias-vormen en dat in hun algoritmes vastleggen maar dat ze ook geheel eigen bias-vormen ontwikkelen. Waardoor een LLM niet het heilige der heiligen blijkt te zijn maar juist alle kenmerken heeft van een piratennest.

The LLM Wears Prada: Analysing Gender Bias and Stereotypes through Online Shopping Data, 2025. Massimiliano Luca et.al.

FAIRE: Assessing Racial and Gender Bias in AI-Driven Resume Evaluations, 2025. Athena Wen et.al

Large Means Left: Political Bias in Large Language Models Increases with Their Number of Parameters, 2025. David Exler et.al.

Colombian Waitresses y Jueces canadienses: Gender and Country Biases in Occupation Recommendations from LLMs, 2025. Elisa Forcada Rodríguez et.al

Met dank aan Zeta Alpha

Geef een reactie