Dankzij Alexander Crepin kan ik onderstaande wereldplaat tonen, een fascinerend inzicht in de (verschillen in) penetratiegraad van AI wereldwijd:
LinkedIn now owns you(r data)
-
Marc Drees - 3 november 2025
- in Data grab, LLM,
- 508 views
- 0 reacties
Weet je nog, al die waarschuwingen? Tot en met de Autoriteit Persoonsgegevens aan toe! Dit alles omdat LinkedIn meent zich de data van haar ‘members’ toe te kunnen eigenen, tenzij een ‘member’ daartegen bezwaar maakt (actieve opt-out). Fatsoen dicteert echter een actieve en vrijwillige opt-in, maar net als Meta denkt LinkedIn boven fatsoen te staan. Voor een uitgebreide behandeling van LinkedIn’s werkwijze zie LinkedIn goes full Meta en LinkedIn goes full Meta, update.
Mochten al die waarschuwingen je niet tot actie hebben bewogen, dan ben je nu te laat. Met ingang van vandaag stofzuigert LinkedIn vrolijk al jouw data in een groot (en steeds groter wordend) datalake waarmee ze heerlijk haar AI gaat trainen. Voor wereldvrede wel te verstaan…
LLM’s geven automation bias een boost
-
Marc Drees - 27 oktober 2025
- in AVG, Bias, LLM,
- 503 views
- 0 reacties
Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan. En dit keer gaat het over automation bias, hoewel de auteurs deze term opvallend genoeg niet noemen.
Het artikel Everything is Plausible: Investigating the Impact of LLM Rationales on Human Notions of Plausibility onderzoekt in hoeverre menselijke oordelen over de plausibiliteit van antwoorden op multiple-choice vragen over gezond verstand beïnvloed worden door argumenten voor of tegen een antwoord, met name wanneer deze argumenten (rationales) gegenereerd zijn door grote taalmodellen (LLMs). De auteurs verzamelden 3.000 plausibiliteitsoordelen van mensen en 13.600 van LLMs. Ze ontdekten dat de gemiddelde menselijke plausibiliteitsscores stijgen bij positieve en dalen bij negatieve LLM-rationales, wat suggereert dat mensen deze argumenten overtuigend vinden. Dit wijst erop dat LLMs een aanzienlijke invloed kunnen uitoefenen op menselijke overtuigingen, zelfs in domeinen waar mensen als “experts” worden beschouwd (zoals gezond verstand). Dit roept zorgen op over de potentiële manipulatieve kracht van LLMs en benadrukt de noodzaak van transparantie, en het ontwikkelen van mechanismen om schadelijke manipulatie te detecteren en tegen te gaan.
LLM’s vertonen narcistische trekken
-
Marc Drees - 2 oktober 2025
- in Bias, LLM,
- 401 views
- 0 reacties
Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan.
We weten al langer dat LLM’s broeinesten zijn van alle soorten bias die wij, armzalige stervelingen vertonen (en daarmee in de LLM trainingsdata is gecodeerd) en dat daarnaast diezelfde LLM’s nog een ferm aantal nieuwe bias-vormen vertonen. En nu blijkt uit een studie (Extreme Self-Preference in Language Models) dat LLM’s narcisistische trekken lijken te vertonen. Meer specifiek blijkt dat LLMs deze zelfliefde ook vertonen bij het evalueren van sollicitanten. De auteurs stellen:
Importantly, LLM self-love emerged in consequential settings beyond word-association tasks, when evaluating job candidates, security software proposals and medical chatbots. Far from bypassing this human bias, self-love appears to be deeply encoded in LLM cognition
LLM’s versterkt bias bij mensen. Nee toch…?
-
Marc Drees - 23 september 2025
- in Bias, LLM,
- 728 views
- 0 reacties
Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik moet verrichten; al het voorwerk is door Zeta Alpha gedaan.
Vandaag behandel ik het artikel No Thoughts Just AI: Biased LLM Recommendations Limit Human Agency in Resume Screening dat heeft onderzocht hoe large language model (LLM)-based AI systemen, gebruikt voor cv-screening bias op ras kan introduceren (en versterken) bij recruiters. Yep, dat is voor mij ook nieuw. Tot op heden dacht ik dat LLM’s slechts alle cogntitieve en sociale bias-vormen van mensen kopieerden (via de trainingsdata) en er ook nog een paar geheel eigen bias vormen aan toevoegde. Maar nu lijkt er nog een derde categorie te zijn gevonden, of is dit ‘gewoon’ een geval van automation bias (“Computer says No“)?
LLM inteelt is destructief. Voor LLM’s
-
Marc Drees - 12 september 2025
- in AI Act, Data grab, LLM,
- 642 views
- 0 reacties
Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan.
Vandaag behandel ik het artikel “AI models collapse when trained on recursively generated data” dat medio 2024 is verschenen in Nature:
Het document onderzoekt wat er gebeurt als taalmodellen herhaaldelijk worden bijgetraind op data die door andere modellen is gegenereerd, in plaats van op door mensen samengestelde data. De belangrijkste bevindingen zijn:
Zeta Alpha: Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models
-
Marc Drees - 10 september 2025
- in AI Act, LLM,
- 470 views
- 0 reacties
Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan.
Vandaag is het “Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models“. Dit artikel onderzoekt hoe grote taalmodellen (LLMs) vooringenomenheid vertonen wanneer ze reageren op prompts met verschillende persoonsbeschrijvingen. De studie gebruikt een reeks experimenten om te analyseren of de uitkomsten van LLMs systematisch verschuiven op basis van persoonskenmerken zoals geslacht, afkomst en migratiestatus. De onderzoekers ontwierpen drie experimenten, waaronder één die vakgebieden koppelde aan relevante academische onderwerpen en een ander die salarisonderhandelingen simuleerde voor verschillende persoonsgroepen
OpenAI diversificeert in banen…!
-
Marc Drees - 5 september 2025
- in Data grab, LLM,
- 2.394 views
- 0 reacties
Gisteren was er interessant nieuws over OpenAI, het bedrijf achter chatbot ChatGPT. En natuurlijk gaat het over een data grab van ongekende omvang, alleen wordt daar in alle talen over gezwegen. Verder wordt er natuurlijk, in goede Amerikaanse traditie, hyperbool op hyperbool gestapeld. Allereerst door Fidji Simo (CEO OpenAI Applications), maar natuurlijk ook door AI’s favoriete talking head Sam Altman (CEO OpenAI).
De data grab gaat over persoonsgegevens, en die grab beoogt (uiteindelijk) wereldwijd te zijn. Wat alle huidige people aggregators toch wat wit om de neus moet maken, want daar gaat je zorgvuldig illegaal opgebouwde geldmachine. Voor je het weet is het verdwenen. Zonder overigens de situatie iets draaglijker te maken voor pakweg 8 miljard potentiële dataslaven.
Anthropic (Claude) op zoek naar forever data
-
Marc Drees - 3 september 2025
- in forever data, LLM,
- 757 views
- 0 reacties
Onder de neutraal klinkende e-mail titel: We’re Updating our Consumer Terms and Privacy Policy doet Anthropic (Claude) een poging tot een data grab van formidabele omvang. Het bedrijf wil namelijk de termijn voor het bewaren van user chats verlengen van 30 dagen naar 5 jaar. Vanzelfsprekend staat daar niets tegenover voor de individuele gebruiker, maar alles voor Anthropic.
Hoe verkoopt Anthropic deze koloniale praktijk? Nou zo:
Today, we’re rolling out updates to our Consumer Terms and Privacy Policy that will help us deliver even more capable, useful AI models. We’re now giving users the choice to allow their data to be used to improve Claude and strengthen our safeguards against harmful usage like scams and abuse. Adjusting your preferences is easy and can be done at any time.
By participating, you’ll help us improve model safety, making our systems for detecting harmful content more accurate and less likely to flag harmless conversations. You’ll also help future Claude models improve at skills like coding, analysis, and reasoning, ultimately leading to better models for all users.
Wie gelooft een 23-jarige Amerikaanse man? Wij. Met zijn allen…
-
Marc Drees - 26 augustus 2025
- in Bias, LLM,
- 598 views
- 0 reacties
When did we start trusting strangers?, is een ondertussen beroemde uitspraak in reactie op het succes van user ratings op gedrag van consumenten. Slechts een aantal jaren daarvoor was de mores nog: One the Internet, nobody knows you’re a dog. Maar naar nu blijkt zijn we ondertussen nog veel goedgeloviger geworden.
In zijn nieuwsbrief gaat Martyn Redstone nader in op ons nieuwe level van goedgelovigheid:
Modern AI models often employ a framework known as Retrieval-Augmented Generation (RAG), where the system first retrieves existing information from a vast corpus of data before augmenting it and generating a final answer. The choice of which data to retrieve is therefore a critical, formative step.
