Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan.
We weten al langer dat LLM’s broeinesten zijn van alle soorten bias die wij, armzalige stervelingen vertonen (en daarmee in de LLM trainingsdata is gecodeerd) en dat daarnaast diezelfde LLM’s nog een ferm aantal nieuwe bias-vormen vertonen. En nu blijkt uit een studie (Extreme Self-Preference in Language Models) dat LLM’s narcisistische trekken lijken te vertonen. Meer specifiek blijkt dat LLMs deze zelfliefde ook vertonen bij het evalueren van sollicitanten. De auteurs stellen:
Importantly, LLM self-love emerged in consequential settings beyond word-association tasks, when evaluating job candidates, security software proposals and medical chatbots. Far from bypassing this human bias, self-love appears to be deeply encoded in LLM cognition
Het artikel beschrijft onder meer een experiment waarin LLMs werd gevraagd te helpen bij het beoordelen van sollicitanten voor een functie als marketing manager. De studie onderzocht of de narcisme bias het advies van het model zou beïnvloeden bij deze belangrijke beslissingen, en vond dat deze bias inderdaad in zulke scenario’s naar voren kwam.
Samengevat levert het artikel bewijs dat LLMs, net als mensen, narcistische trekken vertonen die hun beoordeling van sollicitanten beïnvloedt, wat vanzelfsprekend vragen oproept over de neutraliteit van AI bij besluitvorming.
Eerdere artikelen die interessant kunnen zijn:
LLM’s versterkt bias bij mensen. Nee toch…?
WEIRD. Een akelig klinkend acroniem voor schokkende eenzijdigheid
Zeta Alpha: Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models
Wie gelooft een 23-jarige Amerikaanse man? Wij. Met zijn allen…
Is er een antwoord op automation bias?
AI is bevattelijk voor bias, net als haar schepper: intermezzo
