Aangenomen door een algoritme: Artificiële Intelligentie in het selectieproces op de arbeidsmarkt

Auteur: Anne Kroon

Gelijke behandeling in het werving en selectieproces is in Nederland helaas niet vanzelfsprekend. Vooral kwetsbare groepen op de arbeidsmarkt, zoals ouderen en mensen met een niet-westerse achtergrond, hebben moeite met het vinden van een passende baan. Zo laat een studie zien dat mensen met een Arabische naam fors minder kans hebben om uitgenodigd te worden voor een interview dan mensen met een typisch Nederlandse

Onbewuste vooroordelen spelen in dit proces een belangrijke rol. Zo laat onderzoek zien dat we op onbewust niveau vaak denken dat ouderen minder competent en productief zijn dan jongeren. Hoewel we ons vaak niet bewust zijn van dergelijke impliciete vooroordelen, kunnen ze wel ons gedrag beïnvloeden.

Discriminatie in werving en selectie is niet alleen onwenselijk voor werkzoekenden, maar ook voor werkgevers. Het staat namelijk een divers personeelsbestand in de weg. Organisaties presteren vaak beter wanneer ze mensen met verschillende culturele achtergronden in dienst hebben.

Om ongelijkheid in selectie en werving tegen te gaan, maken bedrijven steeds vaker gebruik van voorspellende algoritmen en kunstmatige intelligentie. Dergelijke algoritmen worden vaak verkocht met de belofte om selectie van personeel efficiënter en neutraler te maken.

Bron: pixabay

Het is echter de vraag of dit ook echt het geval is. Dergelijke voorspellende modellen zijn namelijk vaak gebaseerd op bestaande data van bedrijven. En dergelijke data is verre van neutraal. De ongelijkheden die al jarenlang bestaan zitten in de data waarmee de voorspellende modellen ‘gevoed’ worden. Dat is nu net waar bedrijven van af willen. Zo ontwikkelde Amazon een tool om potentiële kandidaten te selecteren uit diverse sollicitatiebrieven. Echter gaven de resultaten van de tool systematisch de voorkeur aan mannen in plaats van vrouwen. Er zijn ook voorbeelden van hoe het mis kan gaan in het wervingsproces. Zo bleek Google vaker aan mannen dan aan vrouwen advertenties te tonen van goedbetaalde banen.

Daar komt bij dat dergelijke algoritmen complex en lastig te begrijpen zijn. Toch is het belangrijk dat de mensen die met dergelijke algoritmen werken de resultaten goed kunnen interpreteren en controleren. Het fenomeen van automation bias ligt hier op de loer: mensen hebben de neiging om de ogenschijnlijk accurate uitkomst van dergelijke algoritmen blind te vertrouwen. Deze bias kan zo sterk zijn dat mensen technologieën meer vertrouwen dan hun eigen beoordelingen.

Tot slot kunnen algoritmen de invloed van impliciete vooroordelen niet volledig wegnemen. Waar algoritmen ons veelal vertellen welke kandidaten mogelijk geschikt zijn, bepalen human resource managers uiteindelijk wie de baan krijgt. Dat betekent dat individuele voorkeuren en impliciete vooroordelen nog steeds een rol kunnen spelen in de uiteindelijke besluitvorming.

Hoewel steeds meer bedrijven naar algoritmen grijpen om het werving -en selectieproces efficiënter te laten verlopen en diversiteit te vergroten, blijft het onduidelijk of dergelijke algoritmen dat ook echt doen. Hoewel sommige tools inderdaad reflectie lijken uit te lokken, is het van belang om transparant te zijn over de werking van algoritmen, en te voorkomen dat human resource managers blind afgaan op de resultaten ervan.

————-