Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik moet verrichten; al het voorwerk is door Zeta Alpha gedaan.
Vandaag behandel ik het artikel No Thoughts Just AI: Biased LLM Recommendations Limit Human Agency in Resume Screening dat heeft onderzocht hoe large language model (LLM)-based AI systemen, gebruikt voor cv-screening bias op ras kan introduceren (en versterken) bij recruiters. Yep, dat is voor mij ook nieuw. Tot op heden dacht ik dat LLM’s slechts alle cogntitieve en sociale bias-vormen van mensen kopieerden (via de trainingsdata) en er ook nog een paar geheel eigen bias vormen aan toevoegde. Maar nu lijkt er nog een derde categorie te zijn gevonden, of is dit ‘gewoon’ een geval van automation bias (“Computer says No“)?
