Onder de neutraal klinkende e-mail titel: We’re Updating our Consumer Terms and Privacy Policy doet Anthropic (Claude) een poging tot een data grab van formidabele omvang. Het bedrijf wil namelijk de termijn voor het bewaren van user chats verlengen van 30 dagen naar 5 jaar. Vanzelfsprekend staat daar niets tegenover voor de individuele gebruiker, maar alles voor Anthropic.
Hoe verkoopt Anthropic deze koloniale praktijk? Nou zo:
Today, we’re rolling out updates to our Consumer Terms and Privacy Policy that will help us deliver even more capable, useful AI models. We’re now giving users the choice to allow their data to be used to improve Claude and strengthen our safeguards against harmful usage like scams and abuse. Adjusting your preferences is easy and can be done at any time.
By participating, you’ll help us improve model safety, making our systems for detecting harmful content more accurate and less likely to flag harmless conversations. You’ll also help future Claude models improve at skills like coding, analysis, and reasoning, ultimately leading to better models for all users.
