Onder de neutraal klinkende e-mail titel: We’re Updating our Consumer Terms and Privacy Policy doet Anthropic (Claude) een poging tot een data grab van formidabele omvang. Het bedrijf wil namelijk de termijn voor het bewaren van user chats verlengen van 30 dagen naar 5 jaar. Vanzelfsprekend staat daar niets tegenover voor de individuele gebruiker, maar alles voor Anthropic.
Hoe verkoopt Anthropic deze koloniale praktijk? Nou zo:
Today, we’re rolling out updates to our Consumer Terms and Privacy Policy that will help us deliver even more capable, useful AI models. We’re now giving users the choice to allow their data to be used to improve Claude and strengthen our safeguards against harmful usage like scams and abuse. Adjusting your preferences is easy and can be done at any time.
By participating, you’ll help us improve model safety, making our systems for detecting harmful content more accurate and less likely to flag harmless conversations. You’ll also help future Claude models improve at skills like coding, analysis, and reasoning, ultimately leading to better models for all users.
Beide verbeteringen betekenen wel dat user generated content zonder enige tegenprestatie door Anthropic kan worden gebruikt. Alsof het geen enkele waarde vertegenwoordigd. Het tegendeel is natuurlijk waar. Maar daar blijft het niet bij, want er is ook nog de bewaartermijn:
We are also extending data retention to five years, if you allow us to use your data for model training. This updated retention length will only apply to new or resumed chats and coding sessions, and will allow us to better support model development and safety improvements. If you delete a conversation with Claude it will not be used for future model training. If you do not choose to provide your data for model training, you’ll continue with our existing 30-day data retention period.
Interessant om te zien dat Anthropic five years schrijft, in plaats van 5 years, en 30 day in plaats van thirty days. Maar veel belangrijker is natuurlijk de verlenging van 1 maand naar 60 maanden. Waarmee Anthropic lijkt aan te geven dat het belang van user generated data steeds groter aan het worden is, zonder daar natuurlijk een tegenprestatie voor te bieden. Tenslotte is het bedrijf te zien als kolonisator en alle gebruikers als gekoloniseerden. Hoe voelt het om dataslaaf te zijn?
Overigens, ook als je niet kiest voor de 5 jaar retentietermijn gaan jouw gegevens nog gebruikt worden in het trainen van Claude (en evt. andere modellen), zo blijkt uit kleine lettetjes:
You can always update your selection in your Privacy Settings. If you decide to turn off the model training setting, we will not use any new chats and coding sessions you have with Claude for future model training. Your data will still be included in model training that has already started and in models that have already been trained, but we will stop using your previously stored chats and coding sessions in future model training runs.
Is er iemand die hierdoor gerustgesteld is?
