Een korte titel en zeer to de point. Ik heb aan Claude (het wordt vanzelf duidelijk waarom) gevraagd om een duidelijke omschrijving van hallucinant te geven. En zoals het een serviel LLM betaamt, komt Claude met een uitgebreid antwoord.
Een hallucinant is een stof die hallucinaties veroorzaakt – dat wil zeggen, waarnemingen die niet overeenkomen met de werkelijkheid.
Claude geeft alleen de optie van een zelfstandig naamwoord (ik ken in dit verband alleen hallucinogeen) en mist het feit dat hallucinant als bijvoegelijk naamwoord kan worden gebruikt:
ongelooflijk, verbijsterend, niet te bevatten (figuurlijk zo extreem dat het lijkt alsof je hallucineert).
Onze zuiderburen zijn enthousiaste gebruikers van deze tweede optie, en laten we eerlijk wezen, het is een mooi woord.
Waarom zo’n aandacht voor één woord? Laat ik de CEO van Anthropic (inderdaad, van LLM Claude) Dario Amodei eerst even het woord geven:
Anthropic CEO Dario Amodei believes today’s AI models hallucinate, or make things up and present them as if they’re true, at a lower rate than humans do, he said during a press briefing at Anthropic’s first developer event
“It really depends how you measure it, but I suspect that AI models probably hallucinate less than humans, but they hallucinate in more surprising ways,” Amodei said.
Amodei vergeet hier gemakshalve dat een LLM lekker schaalt, dit in tegenstelling tot een mens; een LLM kan dus veel efficienter hallucineren…
Amodei gelooft ook dat Artificial General Intelligence (AGI) in 2026 wordt bereikt.
Hallucinant.