Kunnen we algoritmes maken die niet uitsluiten?
COLUMN - van Rosa van den Dool.
Met het toeslagenschandaal werd nogmaals duidelijk dat data en datatechnologieën niet neutraal zijn en kunnen discrimineren, net als mensen. Hoe kunnen we dit soort data-onrechtvaardigheid de das omdoen?
De Nederlandse overheid verzamelt grote hoeveelheden privacygevoelige data van en over burgers. Wat er vervolgens met deze gegevens gebeurt is niet altijd zichtbaar, maar kan wel grote impact hebben op ons leven. Wanneer ik inlog op de website van de Belastingdienst om belastingaangifte te doen, schrik ik van de hoeveelheid informatie die over mij in het systeem staat: de overheid weet beter wat ik dit jaar heb verdiend dan ikzelf.
Algoritmen helpen overheidsinstanties omgaan met de oneindige stroom aan binnenkomende data. Deze computerprogramma’s bepalen vervolgens op basis van jouw gegevens of jij bijvoorbeeld in aanmerking komt voor een steekproef, waarmee ze checken of je wel genoeg belasting betaalt of wel recht hebt op huurtoeslag. Heel efficiënt, maar hieraan kleeft ook een keerzijde: algoritmes die gebruikt worden om informatie te sorteren en verwerken zijn niet neutraal en kunnen discrimineren. Of jij dus wordt uitgekozen voor een steekproef, kan zomaar worden bepaald op basis van je naam of de buurt waarin je woont.
Discriminerende technologie
Cultuur- en mediawetenschapper dr. Gerwin van Schie (UU) onderzoekt hoe het gebruik van data en algoritmen kan leiden tot discriminatie en onrechtvaardigheid in Nederland. “Als je wordt geboren in Nederland, melden je ouders je aan bij de gemeente en komen je gegevens terecht in de databases van de overheid. Je leeftijd wordt geregistreerd, maar bijvoorbeeld ook je geboorteland én het geboorteland van je ouders.”