Op basis van onjuiste, onvolledige en gedateerde data kan je geen betrouwbare conclusies trekken of suggesties doen. Deze waarheid als een koe lijkt volledig te worden genegeerd tijdens de hyperdehype van LLM AI’s. Maar of het nou LLM AI’s of non-LLM AI’s zijn, data is allesbepalend. En bij recruitment (LLM) AI’s geldt dat dubbelop. Er is namelijk heel veel (kandidaatprofiel en vacature) data van onberispelijke kwaliteit nodig om een AI-model te kunnen trainen, en de (kandidaatprofiel en vacature) data die je vervolgens invoert om te kunnen zoeken of matchen moet ook van topkwaliteit zijn. En dan is er met een recruitment (LLM) AI’s nog een cruciaal aspect, namelijk privacy. Privacy is in dit geval dubbel uitgevoerd, want privacy geldt voor de trainingsdata en voor de door gebruikers (intercedenten, jobcoaches, recruiters, werkzoekenden, etc.) ingevoerde data, waar het althans van personen afkomstige data betreft. En bij (LLM) AI’s binnen het recruitment domein is er ook nog eens de strikte variant van de AI Act die binnenkort van toepassing gaat zijn.
Voor AI-leveranciers binnen het recruitment domein geldt op basis van bovenstaande alinea dus een groot aantal voorwaarden waaraan (controleerbaar) moet worden voldaan. Maar bestaat er ergens een register van AI-leveranciers en hun compliance aan deze voorwaarden, zodat je als afnemer een verantwoorde keuze kan maken? En ben je als afnemer van een recruitment AI-model niet mede-verantwoordelijk als door jouw gebruik er onjuiste of ongepaste resultaten worden gebruikt die mogelijk nadelig kunnen uitpakken voor (bepaalde groepen) werkzoekenden?