Het bedrijfsleven heeft steeds meer oog voor machine learning en AI. Steeds vaker nemen tools herhalende taken over van mensen zodat werknemers efficiënter kunnen werken. Inmiddels zien we dat machine learning en AI door grote Amerikaanse bedrijven wordt gebruikt om personeel te werven. Vanuit Europa worden deze ontwikkelingen met interesse gevolgd. Aan de hand van een aantal voorbeelden leg ik uit waar werkgevers volgens mij beducht op moeten zijn.
Nu al zijn er verschillende tools die gebaseerd zijn op AI en machine learning. Zo is er bijvoorbeeld een simpele toepassing die in een paar seconden honderden cv’s kan scannen. De tool maakt een eerste schifting waarna een werknemer de verdere selectie maakt. De tool selecteert de kandidaten door hun cv’s te scannen op bepaalde woorden of patronen. Dit is een tool die heel wat bedrijven makkelijk kunnen gebruiken en die een hoop tijd en geld scheelt, vooral als er duizenden sollicitatiebrieven zijn binnengekomen.
De grotere Amerikaanse bedrijven zijn al verder dan dit. Zij maken gebruik van geavanceerde technologieën. Denk bijvoorbeeld aan een tool die gebruik maakt van een algoritme waarin de kenmerken van de beste medewerkers zijn gevat. Dit kan door medewerkers die bovengemiddeld presteren een test te laten maken. Op die manier kunnen mensen aangetrokken worden die exact dezelfde kenmerken hebben als de toppers die al voor het bedrijf werken.
Onbewuste keuzes definiëren tool
Iedereen wil natuurlijk dat zo’n tool het wervingsproces eerlijker maakt maar laat de schoen daar nou juist wringen. Uit verschillende onderzoeken blijkt dat veel keuzes binnen een selectieproces vooringenomen zijn. Vaak gaat het om onbewuste keuzes met als resultaat dat bepaalde groepen geen eerlijke kans krijgen. De tools zijn gebaseerd op data uit de realiteit en daar zit vooringenomenheid nou eenmaal ingebakken. Dat houdt in dat die vijf topperformers het resultaat kunnen zijn van jarenlange oneerlijke keuzes.
Dataprivacy op gespannen voet met AI
Er zijn nog een aantal andere kritische kanttekeningen te plaatsen als het gaat om het gebruik van AI binnen recruitment. Zo is dataprivacy een belangrijk onderwerp, dat volgens mij altijd op gespannen voet staat met AI. Hoe meer data je hebt, hoe accurater het resultaat. Maar dat staat haaks op de gedachten achter dataprivacy, waarbij je zo min mogelijk persoonlijke gegevens van mensen mag verwerken. Daarnaast zijn veel systemen zo complex, dat het al snel niet meer te achterhalen is op welke factoren een algoritme een beslissing baseert. Dit maakt het voor recruiters vrijwel onmogelijk om daaruit voortvloeiende beslissingen te weerleggen.
Een ander probleem is dat dergelijke besluitvorming niet volledig geautomatiseerd wordt. Er moet dus altijd een medewerker tussen zitten. Diegene moet heel goed begrijpen hoe de systemen in elkaar zitten. De gemiddelde werknemer moet daar behoorlijk voor worden bijgeschoold. Daar komt bij dat je sterk in je schoenen moet staan om een aanbeveling van een systeem naast je neer te leggen en zelf een andere keuze te maken.
Algoritmes houden geen rekening met de sociale dynamiek op de werkvloer. Een algoritme kan in theorie de perfecte medewerker vinden maar in werkelijkheid hebben collega’s en leidinggevenden altijd invloed op iemands functioneren. Ligt iemand goed in de groep of juist niet? En hoeveel vertrouwen krijgt hij van zijn of haar leidinggevende? Het zijn allemaal dingen die een grote impact hebben op iemands werkgeluk en die bepalen of een werknemer optimaal kan presteren.
Waar is het systeem op gebaseerd?
Op het vlak van wetgeving doet Europa het goed. Er wordt wetgeving opgesteld en geïmplementeerd, waardoor bedrijven meteen weten waar ze rekening mee moeten houden. Het wordt dus eerst goed gereguleerd om het daarna verantwoord te gaan gebruiken. Dat is in de VS wel anders. Daar maken ze wetten wanneer uit de praktijk blijkt dat het nodig is. Dat maakt het lastiger voor bedrijven die dergelijke tools gebruiken. Zij moeten namelijk op de voet volgen wat er verandert qua wet- en regelgeving.
Bedrijven doen er goed aan om continu te inventariseren wat de mogelijke risico’s zijn. Ik geloof erg in de potentie van AI-systemen. Het is goed dat nieuwe technologieën het recruitmentproces eerlijker maken. Maar er is wel nog wat voor nodig om de resultaten te bereiken die we voor ogen hebben. Wetgeving alleen is niet voldoende. Kennis over deze systemen is noodzakelijk. We mogen er niet zomaar een sausje van objectiviteit overheen gieten. Dat houdt in dat er in het hele proces rekening gehouden moet worden met de context en de realiteit waarop systemen gebaseerd zijn. Pas dan kunnen we oneerlijke patronen doorbreken en deze tools optimaal benutten.
De coronacrisis dreigde halverwege roet in het eten te gooien, maar gelukkig kon ik het project waaraan ik werkte vanuit Leiden afmaken. Door hulp te bieden bij de ontwikkeling van een nieuwe tool voor HR-professionals en mee te schrijven aan een paper over wetgeving. En vooral dat laatste is heel belangrijk, want AI en machine learning in recruitment zijn mooi, maar er zijn wel een aantal zaken die gereguleerd moeten worden, willen AI en machine learning op een verantwoorde wijze ingezet kunnen worden.