Algoritmes leiden niet automatisch tot eerlijkere selectie

DATA - Steeds meer werkgevers zetten algoritmes in voor werving en selectie. Bij Nike en Unilever is het niet meer ongewoon om pas in de derde ronde van de sollicitatieprocedure in gesprek te komen met een menselijke medewerker. Vooroordelen en ongelijkheid kunnen zo meer ruimte krijgen, volgens Annemarie Hiemstra en Isabelle Nevels.

Het aantal aanbieders van geautomatiseerde en digitale selectiemethoden neemt toe. Zo voorspelt het algoritme van het Nederlands-Chinese bedrijf Seedlink op basis van taalgebruik van sollicitanten wie er het meest geschikt is voor een functie en maakt het Amerikaanse HireVue gebruik van video-opnames om tot een automatisch gegenereerde beoordeling te komen.

Dit sluit nauw aan bij het huidige debat. Is het nog wel nodig om klassieke kennis, karaktereigenschappen en competenties, typisch gemeten met psychologische vragenlijsten en assessments, in kaart te brengen? Wellicht dat meer impliciete patronen, die via algoritmes herkend worden op basis van grote volumes data (zoals geschreven tekst, of video’s van sollicitanten), even goede of zelfs betere resultaten kunnen behalen bij het selecteren van de beste kandidaat.

Organisaties hebben slechts de beschikking over hun eigen inschatting van de meerwaarde en eerlijkheid van selectie via computerondersteuning. Wetenschappelijke bewijs voor het gebruik van technologieën is er echter nog nauwelijks. Hoe kunnen we ervoor zorgen dat computersystemen op een verantwoorde manier worden ingezet?

Meer inclusiviteit dankzij de computer?

Voorstanders van het gebruik van artificiële intelligentie voor personeelsvraagstukken, zoals algoritmes om kandidaten te screenen, stellen dat het kan leiden tot meer inclusieve werkomgevingen. Verschil in baankansen en promotie voor werkzoekenden en werknemers vanuit diverse minderheidsgroepen is immers nog steeds een veelvoorkomend probleem.

In veel Europese landen worden immigranten harder getroffen door werkloosheid. In Nederland is het werkloosheidspercentage van inwoners met een migratieachtergrond meer dan twee keer zo groot als dat van autochtonen. Daarnaast werken veel etnische minderheden momenteel onder hun opleidingsniveau. Dit heeft veel te maken met het feit dat minderheidsgroepen gemiddeld slechter scoren op de meest valide selectie-instrumenten.

Computer heeft geen raciale voorkeur

Voor veel organisaties is het dus van groot belang om gebruik van discriminerende en oneerlijke selectiemethodes te verminderen, terwijl kwaliteit van de wijze van selectie wel gewaarborgd wordt. De komst van selectiealgoritmes lijkt hiervoor een veelbelovende oplossing.

In tegenstelling tot menselijke beoordelaars kan een computer namelijk geen slechte dag hebben. Bovendien heeft een computer meer capaciteit om informatie te verwerken in een fractie van de tijd die een recruiter eraan kwijt zou zijn. Waar een menselijke beoordelaar een sollicitant die veel op hem of haar lijkt zal prefereren, wordt een computer niet geleid door eigen voorkeuren. Dit kan bijdragen aan meer gelijke kansen voor kandidaten van verschillende achtergronden.

Algoritmes kunnen vooroordelen bevatten

Tegelijkertijd is er een groeiend besef, onder psychologen en computerwetenschappers, dat algoritmes voor selectie gemaakt zijn door mensen en dus gebaseerd zijn op menselijke input. Het algoritme zelf is niet bevooroordeeld en behandelt alle sollicitanten gelijk, maar als deze input vertekend is (biased), dan leert het algoritme ook om al deze vertekeningen mee te nemen. Zelfs als de persoon die het algoritme maakt of implementeert de beste bedoelingen heeft, kan een algoritme biased zijn.

Een goede illustratie hiervan is de door Microsoft uitgebrachte chatbot, genaamd Tay. Het onderliggende algoritme van Tay was zo ontwikkeld dat het kon leren van online conversaties met gebruikers op verschillende sociale media platformen. Al binnen 1 dag maakte de robot echter zulke racistische en seksistische opmerkingen en posts, dat Tay offline moest worden gehaald.

Een ander, subtieler voorval van algoritmische discriminatie op basis van geslacht, werd in 2015 aan het licht gebracht door wetenschappers aan de Carnegie Mellon University. Deze ontdekten dat advertenties op Google voor hoogbetaalde banen zes keer minder vaak getoond werden aan vrouwen dan aan mannen.

Selectiealgoritmes kunnen sociale ongelijkheden vergroten

In de organisatiecontext worden selectiealgoritmes vaak gebaseerd op historische data of op kenmerken van personen die succesvol zijn in een organisatie. Hierbij worden scores van sollicitanten vergeleken met uitslagen van de best presterende werknemers in een bedrijf.

Wanneer deze groep bestaande werknemers niet representatief is voor de brede pool aan sollicitanten, dan kan dit nadelig zijn voor sollicitanten uit achtergestelde groepen. Dit geldt zowel voor selectieprocedures, als voor beslissingen promoties van bestaande werknemers.

Dit toont aan hoe machines accurate correlaties kunnen vinden in de data van een bedrijf, die desondanks discriminerende resultaten laten zien. In plaats van vermindering van sociale ongelijkheid kan computer-gebaseerde beslisondersteuning dus juist toetreding tot de arbeidsmarkt bemoeilijken en sociale ongelijkheden vergroten.

Onduidelijk welke factoren meegewogen worden

Een ander probleem bij digitale selectiemethoden is dat er vaak wel honderden variabelen worden meegenomen in de formules, waardoor ze te gecompliceerd zijn om geïnterpreteerd te kunnen worden. Dit brengt een aantal ethische vraagstukken met zich mee.

Als we niet precies weten welke factoren zijn meegenomen in de voorspellingen van zo’n algoritme over sollicitanten, hoe kunnen we er dan van verzekerd zijn dat het algoritme op een eerlijke manier heeft besloten welke kandidaat het meest geschikt is voor een baan? Hoe kunnen we waken voor de gevaren van het overmoedig inzetten van deze systemen en zorgen voor verantwoord gebruik van deze technologieën?

Algoritmische controles bij bedrijven

De eerste stap hierbij is bewustwording. Het is belangrijk om kritisch te blijven ten opzichte van deze snel evoluerende digitale methodes. Op dit moment worden de eerste methodes al ontwikkeld om algoritmische bias te detecteren en te voorkomen.

Recent onderzoek kijkt naar de mogelijkheid om data voor de besluitvorming zo te modificeren dat een algoritme minder snel discriminerende voorspellingen maakt. Tevens pleiten sommige onderzoekers voor het houden van algoritmische controles bij bedrijven, waarbij er door behulp van speciale technieken vastgesteld kan worden of er sprake is van oneerlijkheid in softwaresystemen. Omdat dit onderzoeksgebied pas ontstaan is, bestaat er nog geen duidelijke overeenstemming over de beste manier om het functioneren van algoritmen te meten.

Sociale- en computerwetenschappers moeten kennis bundelen

Daarnaast hoeven klassieke en digitale manieren van assessment elkaar niet uitsluiten. Het is belangrijker om te verkennen op welke manier de sterke kanten van psychologische en technologische benaderingen kunnen worden gecombineerd, met als doel eerlijkere en verbeterde personeelsbeslissingen te nemen.

Een essentiële factor om dit te kunnen verwezenlijken is wederzijds begrip tussen sociale wetenschappers die geen IT-achtergrond hebben en computerwetenschappers. Het verantwoord gebruiken van big data en artificiële intelligentie vraagt om gecombineerde kennis en vaardigheden tussen de beoefenaars van deze twee wetenschappen.

Om dit in de toekomst te bereiken, zijn enkele universiteiten en organisaties, waaronder de Erasmus Universiteit Rotterdam en de Technische Universiteit Delft, een Strategisch Partnerschap aangegaan, genaamd Big Data in Psychological Assessment (BDPA). Deze samenwerking dient om beter in te spelen op deze technologische ontwikkelingen en dit te integreren in nieuw en verbeterd onderwijsaanbod voor aankomend organisatiepsychologen en computerwetenschappers.

Dit soort interdisciplinaire samenwerkingen tussen computerwetenschappers en sociaal wetenschappers is ook de eerste stap in het bereiken van een consensus over de betrokken procedures bij het eerlijk inzetten van algoritmische technieken binnen de werving- en selectie.


Dit artikel verscheen eerder bij Sociale Vraagstukken. Annemarie Hiemstra is universitair docent organisatiepsychologie aan de Erasmus Universiteit Rotterdam en verbonden aan BDPA. Isabelle Nevels is Master student Arbeids- en Organisatiepsychologie en Business Information Management aan de Erasmus Universiteit Rotterdam.

  1. 3

    @2: leg uit, zo’n kort statement maakt het moeilijk reageren. Je zou kunnen zeggen dat jouw statement nogal boud is zonder onderbouwing.

  2. 4

    ” Dit heeft veel te maken met het feit dat minderheidsgroepen gemiddeld slechter scoren op de meest valide selectie-instrumenten.” Dus dan wat? De selectie instrumenten minder valide maken?

  3. 7

    @3: nouja, welk empirisch bewijs wordt hier aangedragen dat het probleem echt een probleem is?

    @5: naast het feit dat het om Amerika gaat en niet Nederland, toont het stukje juist aan dat geen toezichthouder maar het bedrijf zelf de fout heeft gecorrigeerd. voorbeelden die relevant zijn voor ons graag.

  4. 8

    Volgens Stylene van de Uni A’pen -een leuk speeltje voor in de pauze- is #0 in de stijl van Brouwers geschreven. Dat kan kloppen want hij is ook journalist.
    (Bij mijn eigen pennevruchten wordt mijn ijdelheid gestreeld met Wolkers, Claus en Campert.😇)

    Dit probleem is niet nieuw. Het heilige geloof in de techniek is ook al vaker afgestraft. Vast wel eens gehoord: “De computer maakt geen fouten”, maar wat als je het ding verkeerde data voert?

  5. 10

    @7: Zucht. Als het in Amerika, bij een firma waarvan je mag weet dat ze qua software bij de top horen, al mis gaat, dan zie ik het niet beter werken in Nederland.

  6. 11

    @9: nog steeds niet waar het artikel over gaat.

    @10: Amerika er continu bij halen begint erg vermoeiend te worden. Creatieve armoede.

    Ik zou het gek vinden om het Nederlands toezicht op vuurwapens af te stemmen op het aantal schietpartijen per week in Californie. En zo is het aannamebeleid van Amazon in the V.S. niet relevant voor Nederland.

  7. 12

    @11: Rare vergelijking. Je zou dan beter kunnen zeggen dat wij Californische wapenwetgeving importeren, maar verwachten dat het hier noooooit zo mis zal gaan als in Californië.

  8. 13

    @12: maar doen wij dat dan??? ik hoor graag bij welke Nederlandse bedrijven Amazon-achtige KI/AI/ML/blabla software wordt gebruikt bij werving en selectie.

  9. 14

    @13: Geen flauw idee. Maar daar gaat het m.i. niet om. Het draait om een heilig geloof in algoritmes, die onbevooroordeeld zouden zijn, want computer, maar dat nooit kunnen zijn, want mensgemaakt.

  10. 16

    Het wachten is op een tegenalgoritme dat brieven schrijft in de gewenste stijl. Dan kan de computer van de sollicitant bij de computer van de werkgever solliciteren.

    Het lijkt me trouwens verschrikkelijk saai, een werkvloer met uitsluitend dezelfde mensen. Die als ze zich aan elkaar zouden storen, moeten beseffen dat ze diezelfde ergerlijke eigenschap zelf ook hebben. Het zou wel eens tot flinke clashes kunnen leiden…

  11. 17

    @16: Als dat betekent dat ik mij kan laven aan het gelukzalige niets, maar mijn computer wel zijn eerlijke loon krijgt per adres dhr. 6822, dan teken ik daarvoor.

  12. 19

    @18: Ik lees 1 bedrijf: Unilever die assessments afneemt met de computer. Maar dat gebeurde ook 10 jaar geleden. En daar doet een mens de uiteindelijk selectie.

    Ik zou vraag van Sociale Vraagstukken willen omdraaien
    Wetenschappelijke bewijs voor het gebruik van technologieën is er echter nog nauwelijks. Hoe kunnen we ervoor zorgen dat computersystemen op een verantwoorde manier worden ingezet?

    Bewijs jij maar dat nieuwe selectiemethoden minder verantwoord zijn dan bestaande (schooldiploma’s, cijferlijsten, motivatiebrieven, assessments, psychometrische toetsen, etc.). Alsof daar *wel* gedegen onderzoek achter zit. Ik lach me trouwens de ballen uit de broek over organisatiepsychologen die beginnen over “wetenschappelijk bewijs”.

  13. 21

    @19: Ik lees in die link o.a.

    Goed testen is noodzakelijk, zegt de woordvoerster van ING, dat met software de eerste selecties maakt voor het populaire traineeshipprogramma

    , dan de firma “Martha Flora”, en ook PWC wordt genoemd, maar meer als aanbieder.

  14. 22

    Toen we de euro net hadden ben ik eens door een IT-dienstverlener door zo’n assessment gehaald, maar de testresultaten werden mij onthouden; iets dat ik bijzonder ergerlijk vond. Ik meen dat dat niet meer mag, maar hoe ze dat dan weer handhaven?

  15. 23

    @11: het artikel gaat over algoritmes die foute beslissingen nemen.
    En dan vind ik het heel gevaarlijk als onze overheid daarop vertrouwt.

    Als geen algoritme een goede keuze kan maken uit sollicitanten, kan ook geen algoritme een goede keuze maken uit verdachten.
    Of kiezen waar preventief gefouilleerd worden moet, of preventief auto’s / paspoorten / rijbewijzen gecontroleerd worden moeten.

    https://www.nemokennislink.nl/publicaties/politie-voorspelt-criminaliteit-dankzij-big-data/

  16. 24

    @21: Dat is niet het bovenstaande stukje zelf he. De stelling leunt erg op het mogelijke gevaar van “algorithmisch werven en selecteren” maar levert nauwelijks concrete voorbeelden. Wel van een of andere chatbot van Microsoft. Of moet je als lezer zelf de voorbeelden erbij zoeken uit andere bronnen?

    @23:
    het artikel gaat over algoritmes die foute beslissingen nemen.

    Nee, het punt van het artikel is:
    Algoritmische controles bij bedrijven
    De eerste stap hierbij is bewustwording. Het is belangrijk om kritisch te blijven ten opzichte van deze snel evoluerende digitale methodes. Op dit moment worden de eerste methodes al ontwikkeld om algoritmische bias te detecteren en te voorkomen.

    Recent onderzoek kijkt naar de mogelijkheid om data voor de besluitvorming zo te modificeren dat een algoritme minder snel discriminerende voorspellingen maakt. Tevens pleiten sommige onderzoekers voor het houden van algoritmische controles bij bedrijven, waarbij er door behulp van speciale technieken vastgesteld kan worden of er sprake is van oneerlijkheid in softwaresystemen.

    Het gaat over 1. algoritmen die mogelijk “foute beslissingen” nemen, 2. (sociale) wetenschappers die objectief kunnen vaststellen wat de foute beslissing is en 3. toezichthouders die met deze informatie bedrijven moeten controleren en corrigeren.

    Aangezien er geen bewijs wordt geleverd dat er (meer) foute beslissingen gemaakt worden met deze nieuwe methoden ivm de oude methoden – terwijl er momenteel geen toezicht is op HR afdelingen oid – vind ik het voorstel een beetje ver gaan.

    Het lokt bij mij ook irritatie uit: twee academici die ogenschijnlijk geen kaas hebben gegeten van KI (of IT in het algemeen) beweren dat zij (of: hun vakgebied) kunnen bepalen wat “goede” en “foute” kunstmatige intelligentie is.

    Als geen algoritme een goede keuze kan maken uit sollicitanten, kan ook geen algoritme een goede keuze maken uit verdachten.

    Dat is een uitspraak van het niveau “als een hamer geen koffie kan zetten, kan je er ook geen Ikea kast mee in elkaar zetten”.

  17. 26

    @13: In NL gaat men inderdaad nog niet zo ver als in de VS, maar waar er wordt wel degelijk mee geëxperimenteerd: https://www.groene.nl/artikel/privacy-achterhaald

    Voor de luie lezer een citaat: “Uit onderzoek van consultant PwC blijkt dat veertig procent van de internationale bedrijven kunstmatige intelligentie gebruikt op de personeelsafdeling. Amerikaanse bedrijven lopen voorop: onderzoek van de American Management Association wijst uit dat 43 procent van de Amerikaanse bedrijven de e-mails van hun medewerkers uitleest. Europese bedrijven lopen nog wat achter, maar in Nederland hebben organisaties als ABN Amro, apg, Rabobank, Shell, Achmea, klm, asml, de aivd, defensie en de Belastingdienst inmiddels allemaal eigen afdelingen voor ‘Human Resource-analyse’: HR-analytics.

    Wie solliciteert wordt geacht online games te spelen of wordt geautomatiseerd geïnterviewd. Of al die inspanning iets oplevert weet je niet, want het kan best dat je beoogde werkgever enkel kijkt naar je micro-gezichtsexpressies of je ‘natuurlijke taalgebruik’. Heb je eenmaal een baan gevonden, dan kan het zomaar dat al je e-mails worden uitgelezen om je stemming te bepalen of dat je aan brain boosting moet doen, zodat je ‘in je flow kan komen’ en je ‘job kan craften’. Werkgevers zetten een spiegelende zonnebril op: zij houden hun personeel nauwgezet in de gaten, zonder dat ze zelf bekeken kunnen worden en zonder dat duidelijk is waar ze precies naar kijken.”

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

| Registreren