Ik heb besloten om regelmatig actuele artikelen mbt AI en HR de wereld in te slingeren. Het is nauwelijks een inspanning die ik hoef te verrichten; al het werk is door Zeta Alpha gedaan.
Vandaag behandel ik het artikel “AI models collapse when trained on recursively generated data” dat medio 2024 is verschenen in Nature:
Het document onderzoekt wat er gebeurt als taalmodellen herhaaldelijk worden bijgetraind op data die door andere modellen is gegenereerd, in plaats van op door mensen samengestelde data. De belangrijkste bevindingen zijn:

