
Google was ooit geweldig.
Tegenwoordig geeft Google AI samenvattingen.

Google, goed in verwijzen, zet in op verdommen.
Gelukkig kun je de AI suggesties eenvoudig omzeilen.
(meer…)
Google was ooit geweldig.
Tegenwoordig geeft Google AI samenvattingen.

Google, goed in verwijzen, zet in op verdommen.
Gelukkig kun je de AI suggesties eenvoudig omzeilen.
(meer…)
Onder de neutraal klinkende e-mail titel: We’re Updating our Consumer Terms and Privacy Policy doet Anthropic (Claude) een poging tot een data grab van formidabele omvang. Het bedrijf wil namelijk de termijn voor het bewaren van user chats verlengen van 30 dagen naar 5 jaar. Vanzelfsprekend staat daar niets tegenover voor de individuele gebruiker, maar alles voor Anthropic.
Hoe verkoopt Anthropic deze koloniale praktijk? Nou zo:
Today, we’re rolling out updates to our Consumer Terms and Privacy Policy that will help us deliver even more capable, useful AI models. We’re now giving users the choice to allow their data to be used to improve Claude and strengthen our safeguards against harmful usage like scams and abuse. Adjusting your preferences is easy and can be done at any time.
By participating, you’ll help us improve model safety, making our systems for detecting harmful content more accurate and less likely to flag harmless conversations. You’ll also help future Claude models improve at skills like coding, analysis, and reasoning, ultimately leading to better models for all users.
Nadat ik bijna twintig jaar op hoofse wijze de recruitment community in Nederland (grotendeels tevergeefs) heb geprobeerd bewust te maken van de behoeftes van hun belangrijkste asset: de werkzoeker, ga ik het vandaag over een andere boeg gooien. Hoe? Dat ga je wel merken, maar ik wilde mijn transformatie ook visueel wat kracht bijzetten. Daarom, hierbij mijn make-over:
En voor de volledigheid ook nog een feel-good liedje dat goed bij mijn nieuwe look past:
Met dank aan: Martijn Isager-Smit (visuals), Marco van Hurne (lyrics)
Donald Trump maakt er een gewoonte van om midden in de nacht zogenaamde rage postings te plaatsen op zijn eigen sociale netwerk Truth Social. En twee dagen geleden was daar een rage posting over (onder meer) de EU en onze (aankomende) wetten rondom privacy en AI:
Truth Social posting Donald Trump 26/8/2025
When did we start trusting strangers?, is een ondertussen beroemde uitspraak in reactie op het succes van user ratings op gedrag van consumenten. Slechts een aantal jaren daarvoor was de mores nog: One the Internet, nobody knows you’re a dog. Maar naar nu blijkt zijn we ondertussen nog veel goedgeloviger geworden.
In zijn nieuwsbrief gaat Martyn Redstone nader in op ons nieuwe level van goedgelovigheid:
Modern AI models often employ a framework known as Retrieval-Augmented Generation (RAG), where the system first retrieves existing information from a vast corpus of data before augmenting it and generating a final answer. The choice of which data to retrieve is therefore a critical, formative step.
h/t Chad Sowash
Stel je voor, je bent toe aan een volgende stap in je ‘carriere’ en je stort je na jaren met de nodige koudwatervrees in de grabbelton die solliciteren is. En je gaat er, geheel ten onrechte, vanuit dat een baan bij Anthropic* weleens een heel goede keuze is. En om extra indruk te maken laat je jouw motivatiebrief en je cv AI-versloppen** door Claude (Anthropic’s eigen LLM***). Als je je plaatsvervangende schaamte over het resulterende ronkende marketing gereutel (=AI-slop) in beide documenten hebt overwonnen en bezig bent met het invullen van het online sollicitatieformulier, valt je oog opeens op wat aanpalende condities (vergeet niet dat de aanpalende conditites door Anthropic publiek zijn gemaakt, maar ga er vanuit dat iedere werkgever hier min of meer vergelijkbare gedachten of ideeen heeft. In de meeste gevallen worden deze niet gecommuniceerd. Om het makkelijker te maken voor de sollicitant…): (meer…)
Onschuldige recruiters wordt paniek aangejaagd door alarmerende berichten over tsunami’s die op hen afrollen; talloze perfecte cv’s en motivatiebrieven die volledig op maat zijn gemaakt voor de van toepassing zijnde vacatures. Ideale kandidaten die zich bij drommen aan de poort melden, maar waarvan je al op voorhand weet/vermoed dat meer dan 90% fabulanten zijn, bij elkaar verzonnen door AI-tooltjes voor werkzoekenden.
Wat te doen? Ste je voor dat je een AI-tool zou kunnen gebruiken in een poging om de fabulanten van de echte kandidaten te scheiden? Dat zou natuurlijk machtig mooi zijn, ware het niet dat AI-tools juist een voorkeur lijken te hebben voor fabulanten. En zelfs als dat niet zo was, dan loop je vanaf augustus 2026 tegen de AI Act aan die een betekenisvolle menselijke tussenkomst vereist bij beslissingen zoals het afwijzen van sollicitanten.
Even een shout out naar Martyn Redstone naar aanleiding van zijn recente artikel over (race) bias in recruiting:
The lawsuit claims that Sirius XM’s AI-driven tools, including candidate matching and shortlisting features, evaluated applicants based on data points that act as a proxy for race. The plaintiff alleges that these data points, such as educational institutions, employment history, and even zip codes, led to a “disproportionate” rejection rate for qualified African-American candidates. Mr. Harper, a highly qualified IT professional , claims he was rejected for 149 out of 150 positions he applied for , despite meeting or exceeding the qualifications for the roles.
Bijzonder interessant natuurlijk, en het is allang bekend dat demografische kenmerken zoals locatie kunnen worden gebruikt voor discriminatoire acties. Hetzelfde geldt natuurlijk ook voor opleidingsinstituten en werkgevers; in combinatie kan je hiermee bijzonder effectief filteren.
Hoewel deze rechtszaak dient in de VS is deze problematiek onverkort toepasbaar op de Europese situatie. Goed om hier aandacht aan te besteden dus