Jawel, in een artikel met de titel The Mystery Behind AI’s “Purple Problem” Revealed wordt uitgelegd waarom LLM’s van paars houden:
De kern van het probleem ligt bij de trainingsdata van de AI. AI-modellen zijn patroonmachines die esthetische vooroordelen in hun data reproduceren. De wijdverbreide adoptie van ontwerpframes zoals Tailwind, die standaard indigo/violet-kleuren hanteren, en de invloed van grote designsystemen hebben deze tinten genormaliseerd in de digitale wereld. Hierdoor is de trainingsdata van de AI verzadigd geraakt met deze specifieke esthetiek.
Bovendien versterkt het fenomeen van ‘model collapse’ dit: wanneer AI leert van eerdere AI-outputs, verdwijnen de unieke en afwijkende paletten, waardoor de ‘gemiddelde’ en veilige look – toevallig paars/indigo – de overhand krijgt. AI leert van AI slop.
Met andere woorden, elke dominante feature binnen de dataset vertaalt zich in een voorkeur van het daarmee getrainde LLM voor dat dominante feature. Zoals paars… AI slop kan zoveel verschillende vormen aannemen… Met een voorkeur voor all things Westerse wereld… What could possibly go wrong?
Meer bias? Zie ook:
LLM’s vertonen narcistische trekken
LLM’s versterkt bias bij mensen. Nee toch…?
Een LLM heeft alle kenmerken van een piratennest
Is er een antwoord op automation bias?
AI is bevattelijker voor bias dan haar schepper: forever data
AI is bevattelijk voor bias, net als haar schepper: intermezzo
Met dank aan Patrick Boonstra
