Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan. En dit keer gaat het over automation bias, hoewel de auteurs deze term opvallend genoeg niet noemen.
Het artikel Everything is Plausible: Investigating the Impact of LLM Rationales on Human Notions of Plausibility onderzoekt in hoeverre menselijke oordelen over de plausibiliteit van antwoorden op multiple-choice vragen over gezond verstand beïnvloed worden door argumenten voor of tegen een antwoord, met name wanneer deze argumenten (rationales) gegenereerd zijn door grote taalmodellen (LLMs). De auteurs verzamelden 3.000 plausibiliteitsoordelen van mensen en 13.600 van LLMs. Ze ontdekten dat de gemiddelde menselijke plausibiliteitsscores stijgen bij positieve en dalen bij negatieve LLM-rationales, wat suggereert dat mensen deze argumenten overtuigend vinden. Dit wijst erop dat LLMs een aanzienlijke invloed kunnen uitoefenen op menselijke overtuigingen, zelfs in domeinen waar mensen als “experts” worden beschouwd (zoals gezond verstand). Dit roept zorgen op over de potentiële manipulatieve kracht van LLMs en benadrukt de noodzaak van transparantie, en het ontwikkelen van mechanismen om schadelijke manipulatie te detecteren en tegen te gaan.
