Het risico van vooroordelen
Er wordt vaak gezegd dat herhaling tot perfectie leidt, en in veel gevallen is dat waar. Echter, zonder een duidelijk doel en constructieve feedback om vooruitgang te evalueren, verfijnt herhaling een handeling niet altijd. Sterker nog, het risico bestaat dat fouten juist worden vastgezet, wat de effectiviteit van herhaling tenietdoet.
Dit vormt een fundamenteel probleem in het veld van AI. Hoewel het een versimpeling is, is AI in feite een praktijk van herhaling: het leert door data te herhalen, patronen te identificeren en zijn output te verfijnen op basis van die patronen. Het probleem ontstaat wanneer die patronen gebrekkig of bevooroordeeld zijn. Zonder de juiste controle en bijsturing loopt AI het risico deze fouten te versterken en in zijn systemen te verankeren.
De vraag is wat we doen als AI dingen blijft herhalen die we liever niet zien. Het kan zelfs zo zijn dat het dingen herhaalt die niet alleen ongewenst zijn, maar actief in strijd zijn met onze waarden. Deze uitdaging roept belangrijke ethische vragen op over de rol van AI in de samenleving.
Deze kwestie is vooral relevant in het veld van recruitment, waar de afgelopen jaren grote stappen zijn gezet om processen ethischer, eerlijker, gelijkwaardiger en effectiever te maken. Loopt AI het risico om de vooroordelen die we zo hard hebben geprobeerd te elimineren juist te versterken in recruitmentpraktijken?
Kinderziektes: Wanneer AI ontspoort
Een berucht voorbeeld van AI die ongewenste patronen herhaalt en versterkt, is Microsoft’s chatbot Tay. Gelanceerd in 2016, was Tay ontworpen om te leren van interacties met gebruikers op Twitter. Binnen enkele uren begon Tay echter het aanstootgevende en opruiende taalgebruik dat het tegenkwam te repliceren en versterken. Tay degradeerde snel tot het delen van racistische en seksistische tweets, wat Microsoft dwong om de chatbot binnen 24 uur offline te halen.
Deze mislukking benadrukte een belangrijk probleem met AI: het mist het vermogen om goed van kwaad te onderscheiden. Als AI het wordt blootgesteld aan bevooroordeelde of schadelijke data, zal het deze elementen opnemen in zijn reacties. Hetzelfde principe geldt voor AI in rekrutering. Studies hebben aangetoond dat wervingsalgoritmen onbedoeld discriminerende praktijken kunnen voortzetten. Algoritmen die bijvoorbeeld zijn getraind op historische wervingsdata kunnen kandidaten bevoordelen die passen binnen een smal demografisch profiel—waarbij bestaande vooroordelen in het personeelsbestand worden weerspiegeld—en anderen benadelen op basis van factoren zoals geslacht, etniciteit of leeftijd.
Menselijke vooroordelen begrijpen: Kunnen we eraan ontsnappen?
Natuurlijk is bias niet een probleem dat exclusief is voor AI. Ook mensen dragen vooroordelen met zich mee die voortkomen uit hun opvoeding, cultuur, omgeving en ervaringen. Deze vooroordelen beïnvloeden beslissingen op zowel bewuste als onbewuste niveaus. Ondanks aanzienlijke vooruitgang in het herkennen en aanpakken van systemische vooroordelen in de afgelopen eeuw, blijven mensen inherent feilbaar.
Maar mensen hebben een voordeel dat AI niet heeft: empathie. Empathie stelt ons in staat om buiten onze eigen perspectieven te treden, onze aannames in twijfel te trekken en de impact van onze beslissingen op anderen te begrijpen. Het is wat inspanningen drijft om wervingsprocessen inclusiever en rechtvaardiger te maken.
Helaas is empathie geen kwaliteit die kan worden geprogrammeerd in AI. Terwijl AI-begrip kan patronen simuleren en uitkomsten analyseren, kan het de menselijke ervaring of de emotionele context achter beslissingen niet echt begrijpen.
AI Bias in Recruitmentsmodel
In their overview study (Ethical Considerations in AI-based Recruitment) van bestaande empirische onderzoeken in dit veld, identificeren Dena F. Mujtaba en Nihar R. Mahapatra dat menselijke bias de basis vormt voor potentiële problemen in AI-modellen. Ze benadrukken dat de eerste uitdaging in het aanpakken van AI-bias ligt in de noodzaak om concepten zoals 'rechtvaardigheid' en 'gelijkheid' te definiëren—termen die diep omstreden en veranderlijk zijn in de samenleving. Zonder universeel aanvaarde definities, loopt het trainen van AI om deze waarden te handhaven het risico om subjectieve, culturele of zelfs tegenstrijdige interpretaties te verankeren. Dit onderstreept een bredere kwestie: AI weerspiegelt niet alleen data, maar ook de voortdurende complexiteiten van menselijke ethiek.
De auteurs identificeren specifieke manieren waarop bias zich kan manifesteren in een AI-recruitmentsmodel:
- Trainingsdata: Als de data bevooroordeeld is, zal het AI-systeem die bias leren en voortzetten, vaak door een onevenredige vertegenwoordiging van bepaalde groepen of inherente menselijke bias bij het labelen van data.
- Labeldefinities: De manier waarop doel labels, zoals "goede kandidaat," worden gedefinieerd, kan leiden tot bevooroordeelde uitkomsten als bepaalde factoren onevenredig van invloed zijn op beschermde groepen, zoals geslacht.
- Kenmerkselectie: Bias kan optreden wanneer kenmerken die worden gebruikt om uitkomsten te voorspellen geen nauwkeurige representatie van beschermde groepen bieden, wat leidt tot verkeerde classificaties op basis van factoren zoals opleiding.
- Proxies: Zelfs zonder directe demografische attributen kunnen AI-modellen bias afleiden uit andere factoren, zoals de opleidingsachtergrond van kandidaten.
- Maskering: Bevooroordeelde dataselectie of kenmerktechnieken kunnen opzettelijk of onbedoeld belangrijke details verbergen, wat resulteert in bevooroordeelde voorspellingen.
De auteurs benadrukken ook de schijnbaar tegenstrijdige behoeften aan zowel privacy als transparantie. De gegevensbronnen waarop LLM’s (large language models) worden getraind, moeten een recht op privacy behouden, maar zonder inzicht in de aard van deze bronnen ontstaan er vragen over transparantie.
Daarnaast krijgen kandidaten die door AI worden beoordeeld en afgewezen zelden feedback, wat het vertrouwen en de eerlijkheid ondermijnt. Dit gebrek aan transparantie draagt bij aan de frustratie van gebruikers.
Uiteindelijk schaadt dit de waargenomen legitimiteit van het systeem, aangezien mensen zich minder geneigd voelen om vertrouwen te stellen in een proces dat hen niet volledig informeert.
Hoe In2Dialog bias in recruitment-AI aanpakt
Bij In2Dialog nemen we die verantwoordelijkheid serieus. We begrijpen de risico’s die gepaard gaan met bias in AI en nemen proactieve stappen om deze uitdagingen aan te pakken. Onze AI-ondersteunde recruitmentshulpmiddelen zijn ontworpen om het wervingsproces te verbeteren en tegelijkertijd ethische en rechtvaardige standaarden te handhaven. Dit is hoe we dat doen:
- Diverse en representatieve data: Onze systemen worden getraind op datasets die diversiteit prioriteren, zodat geen enkele demografische groep oververtegenwoordigd is. Dit minimaliseert het risico dat bepaalde groepen worden bevoordeeld.
- Rigoureus academisch onderzoek: Onze psychometrische tools zijn gebaseerd op gevalideerd onderzoek, en we werken samen met vooraanstaande universiteiten om onze kennis voortdurend uit te breiden en te verfijnen.
- Continue monitoring en auditing: We voeren regelmatig audits uit op onze algoritmen om eventuele biases te identificeren en aan te pakken. Deze iteratieve aanpak zorgt ervoor dat onze tools zich blijven ontwikkelen in lijn met maatschappelijke normen en verwachtingen.
- Feedbackloops: Door feedback van zowel recruiters als kandidaten te integreren, verfijnen we onze tools om ervoor te zorgen dat ze aansluiten bij reële behoeften en waarden.
- Transparantie: We geloven in zoveel mogelijk transparantie in onze processen. We werken nauw samen met onze klanten en onderhouden een tweerichtingsdialoog, wat vertrouwen en verantwoordelijkheid bevordert.
- Focus op samenwerking: In plaats van menselijke besluitvorming te vervangen, zijn onze tools ontworpen om deze te versterken. Door recruiters bruikbare inzichten te bieden, stellen we hen in staat om beter geïnformeerde en empathische beslissingen te nemen.
Door de sterke punten van AI te combineren met het unieke menselijke vermogen voor empathie en kritisch denken, zet In2Dialog zich in voor het creëren van rekruteringsoplossingen die niet alleen efficiënt, maar ook eerlijk en inclusief zijn. Ons doel is om organisaties te helpen diverse, hoog presterende teams op te bouwen, terwijl we ervoor zorgen dat bias geen plaats heeft in het wervingsproces.