Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan.
Vandaag is het “Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models“. Dit artikel onderzoekt hoe grote taalmodellen (LLMs) vooringenomenheid vertonen wanneer ze reageren op prompts met verschillende persoonsbeschrijvingen. De studie gebruikt een reeks experimenten om te analyseren of de uitkomsten van LLMs systematisch verschuiven op basis van persoonskenmerken zoals geslacht, afkomst en migratiestatus. De onderzoekers ontwierpen drie experimenten, waaronder één die vakgebieden koppelde aan relevante academische onderwerpen en een ander die salarisonderhandelingen simuleerde voor verschillende persoonsgroepen



