Een glazen bol vol criminelen

DATA - In 2017 moet Nederland het eerste land worden waar ‘predictive policing‘ nationaal wordt toegepast. Door data en algoritmen wordt misdaad voorkomen. Onomstreden is het niet. Waar liggen de valkuilen?

“The ‘Minority Report’ is a modern fact, not fiction.” Het hoofd van de politie in New York William Bratton refereerde met deze uitspraak naar de sciencefiction film The Minority Report (2002). In de film is het aantal ernstige misdrijven teruggebracht tot nul. De Pre Crime-politie voorspelt moorden en stopt moordenaars voordat ze de daad uitvoeren. Deze voorspellingen worden gedaan door drie gemuteerde mensen die misdaden visualiseren voor ze gepleegd worden. De film waarschuwt voor een overheid die in de hoofden van de burgers kruipt en geen boodschap heeft aan recht op privacy. Maar het stelt ook de vraag: is ons gedrag te voorspellen?

Misdaad aanpakken voordat het heeft plaatsgevonden gebeurt niet alleen in films. Anno 2017 maken politiekorpsen overal ter wereld gebruik van algoritmes om preventief in te grijpen. Volgens Bratton is dit nieuwe instrument van de politie de toekomst. Ook in Nederland wordt predictive policing enthousiast ontvangen.

Voormalig afdelingshoofd Business Intelligence van de Nederlandse politie Rutger Rienks in De Groene Amsterdammer: “Als je als overheids- of politieorganisatie criminaliteit op deze manier kunt uitbannen, dan lijkt mij dat een droom waar je je hard voor moet maken.”  Een ‘buienradar voor boeven’ kan helpen misdaad in de kiem te smoren, maar waar liggen de valkuilen? Wat zijn de gevolgen van het voorspellen van menselijk gedrag aan de hand van data? En hoe objectief zijn data?

Hoe het werkt

Een vorm van predictive policing is het berekenen van zogenaamde ‘dreigingsscores’ door het softwareprogramma Beware van het Amerikaanse veiligheidsbedrijf Intrado. Een dataprofiel wordt aangemaakt door adresgegevens, posts op sociale media en eventueel strafblad te combineren. Met een algoritme wordt een dreigingsscore gegenereerd en daarmee de kans dat iemand een misdaad begaat berekend. Zo heeft een Afghanistanveteraan van 45 met een strafblad, die lijdt aan PTSS en zijn oorlogservaringen deelt op Facebook een dreigingsscore op van 67 van de 100 punten. Hij zal dus extra in de gaten worden gehouden.

De Nederlandse politie wil het Criminaliteits Anticipatie Systeem (CAS) nog in 2017 in heel Nederland invoeren. Nederland is dan het eerste land waar predictive policing nationaal wordt ingevoerd. CAS maakt gebruik van veel data om bijvoorbeeld inbraken te voorspellen door onder andere aangiftes en gegevens van het Centraal Bureau van de Statistiek (CBS) om te zetten in data. Waar en wanneer er een misdaad plaats gaat vinden, wordt berekend aan de hand van een algoritme. Een ander voorbeeld is de samenwerking tussen de nationale politie en de Universiteit Twente om high impact crimes aan te pakken. Het bleek dat met een rekenmodel patronen te ontdekken zijn bij dit type misdaad. Preventief wordt er een politiehelikopter gestuurd naar aanleiding van de gemaakte voorspellingen. ‘Informatie gestuurde luchtsteun’ wordt dit ook wel genoemd. In de praktijk resulteert dit in een afname van het aantal inbraken.

Het is natuurlijk een prettige gedachte dat de politie extra gaat surveilleren wanneer er inbraken in je wijk zijn voorspeld. Maar niet iedereen is laaiend enthousiast. Zo ontving de Nationale Politie in 2015 de Big Brother Award van de burgerrechtenorganisatie Bits of Freedom voor het verzamelen van data om misdrijven te voorspellen. Volgens hen zou afwijkend gedrag maatgevend worden, in plaats van strafbaar gedrag.

Barsten in de glazen bol

Criminoloog en filosoof Marc Schuilenburg is ook kritisch op het nieuwe instrument van de politie. In het artikel dat hij schreef voor het juridisch vakblad Ars Aequi waarschuwt hij onder andere voor etnisch profileren en stigmatisering van bepaalde bevolkingsgroepen door predictive policing. Data zijn nooit neutraal of objectief. Sterker nog het werkt etnisch profileren in de hand. Schuilenburg: “Wordt het systeem gevoed met vooroordelen ten aanzien van bevolkingsgroepen of etnische afkomst, dan zal dat zijn effect hebben op de resultaten.” Uit onderzoek van het journalistenplatform ProPublica bleek dat de Amerikaanse justitie burgers met een donkere huidskleur vaker ten onrechte categoriseert als toekomstige criminelen. Daarnaast hebben zwarte mensen 77% meer kans om het label ‘hoger risico’ te krijgen dan witte mensen. Dit betekent niet dat witte mensen geen misdaden begaan. Schuilenburg: “Het betekent wel dat de politie hier minder aandacht voor heeft en vrijmaakt.”

Bovendien heeft predictive policing een zelfversterkend effect. De meeste data wordt gegenereerd uit historische gegevens. Het aantal geregistreerde woninginbraken in Utrecht bijvoorbeeld. Hierbij wordt het verleden geanalyseerd en niet de toekomst. In een wijk waar veel wordt ingebroken wordt extra gepatrouilleerd. Maar het epicentrum van inbraken kan zich verplaatsen. Is het systeem flexibel genoeg om mee te bewegen? Hoe voorkom je tunnelvisie? Daarnaast doet de waarom-vraag er niet meer toe. Waarom wordt er ingebroken? Het aantal inbraken kan dus worden verminderd, maar dat doet niks aan de onderliggende problemen.

Het is geen uitgemaakte zaak. De toegevoegde waarde van predictive policing zie ik, maar ik ben ook  huiverig. Het kan criminaliteit verminderen, maar dit weegt niet op tegen de negatieve aspecten. De politiekorpsen die deze software gebruiken lijken weinig oog te hebben voor de mogelijke vooroordelen waarmee data worden behandeld. Mensen kunnen met hun data-profiel vast komen te zitten in vooroordelen, hun verleden en omstandigheden: een soort data-determinisme. Wanneer je menselijk gedrag reduceert tot data, wordt het onmogelijk te ontsnappen aan je verleden en je omstandigheden. Leven als in de film, dat willen we allemaal. Maar in het geval van The Minority Report houd ik toch liever fictie en het echte leven gescheiden.

Over deze blog, eerder verschenen op Studium Generale Utrecht:
Het viel zelfverklaard technofoob Amber Striekwold op dat Big Data en algoritmes in toenemende mate een rol spelen in ons dagelijks leven. Een enge ontwikkeling? Of denken we dat alleen maar door onwetendheid? 

  1. 3

    Wat = WAAR, wat = WAAR-heid? Etymologisch verklaard.
    De WAAR-heid WAS en NOG IS. Bij de een bekend, aan de ander verteld. voor 100%, een groot deel, een klein deel, niet.
    Zoals nam, namen – nemen, at, aten – eten = WAS, WARen – wezen. (wortel:) VES (lat. en z’n rhotarisme VÉRitas) = bekleding, aankleding, (denk aan: het vest), wat men ziet, het oppervlakkig zichtbare, dat wat staat, dat wat bestaat, het wezen der dingen*, + wat NOG IS. Maar het weert, (= duurt), verweert, to wear off, wordt minder.

    Wat is werkelijkheid?
    de werkelijkheid = wat IS en ZAL ZIJN.

    Nu kan men wel zeggen:
    de werkelijkheid is altijd anders dan het van-te-voren gedachte.
    de werkelijkheid is nooit hetzelfde dan het van-te-voren gedachte.

    >>> En het streven naar optimale controle:
    de werkelijkheid is nooit anders dan het van-te-voren gedachte.
    de werkelijkheid is altijd hetzelfde dan het van-te-voren gedachte. >>> zoals “wij” denken dat het is (en er een ergheid aan geven). <<<

    Maar niet:
    de waarheid is altijd (nooit) anders (hetzelfde) dan het van-te-voren gedachte.

    Gedachte ~ denken ~ tangere (lat.) aanraken ~ tangent, aanrakingspunt.
    *achter de bekleding, die Hülle, het verborgene, opbergen, de berg, the hill, de hel, die Hölle, de kelder, ~ nacht, naakt tegenover het (hel-dere) licht.

  2. 4

    Doet me ook denken aan de TV serie ‘Person of Interest’
    http://www.imdb.com/title/tt1839578/

    Anyways – de recente ontwikkelingen in machine learning / AI gaan schrikbarend snel met het simuleren van neurale netwerken: Deeplearning doet de truc.
    https://nl.wikipedia.org/wiki/Neuraal_netwerk

    Spraakherkenning – beeldherkenning – gezichtsherkenning – emotie herkenning – zelf rijdende autoos – oude arcade games spelen – handschrift lezen – borstkanker ontdekken – vertalen etc etc.
    Computers zijn nu al beter daarin dan de mens of zijn dat binnenkort (zelfrijdende auto’s).

    “Criminoloog en filosoof Marc Schuilenburg is ook kritisch op het nieuwe instrument van de politie”

    Meneer vreest zijn baan – en terecht! Juist mensen zijn bevooroordeeld: of ze zijn te PC of ze zijn racist of enz.

    Btw die profilering van ‘criminologen’ is ook altijd het zelfde riedeltje. Vanmorgen nog bij NPO-R1 was er een ivm de autobranden in Culemborg. Veel verder kwam hij niet dan: Jonge man, geen vriendin, geen werk: opzoek naar aandacht.

    Deep learning kan zelf patronen ontdekken die mensen geeneens kennen.

    Het is een zeer interessante ontwikkeling, vooral sinds het gebruik van grafische videokaarten.

    Meer weten: Volg wat online cursussen van Andrew Ng ea.
    https://www.coursera.org/courses?languages=en&query=deep+learning

  3. 8

    @7 Omdat ik gans anders denk dan anderen? Omdat ik dingen vanuit een ander gezichtspunt bekijk? En dat mag niet?
    En wat zouden psychologen (zoals jij het stelt), of anderen / niet-psychologen dan aan mij moeten veranderen? Een andere levensstijl dan; ja, dat lijkt mij wel wat. Maar zoals ik bij mijzelf en zowat iedereen bij zichzelf kan bevestigen is dat geen sinecure.
    Ik ga in ieder geval niet naar een psychiater!. Deze schrijft pillen voor….

  4. 10

    @6: Je hebt niet alleen veel data nodig, de data moet ook [b]representatief[b] zijn.

    Als je bijv. een computer alleen informatie over longkanker geeft, zal hij nog steeds geen longontsteking herkennen.

  5. 12

    @10: Hoi Co, is dat niet te doen met ‘self-taught learning’ / ‘unsupervised learning’?

    Dat je een hoop on-gelabelde data invoert en je ‘machine’ uit zichzelf begint te kwalificeren?
    (ik lul ook maar wat hoor – verdiep me pas een paar maanden in de materie als hobbyist – ik wil een FPGA zn deeplearning ding laten doen in the end :P)

    @11: He Stoic, ik snap niets van wat je bedoelt te zeggen bij #3, maar ga vooral door!

    Dit is freaky:

  6. 13

    @12: Ik ben geen expert, maar ik denk dat onevenwichtige gegevens altijd een probleem zullen zijn.
    Het hangt ook ervan af hoe het zelf-lerende programma geprogrammeerd is.
    Als het niet geprogrammeerd is om met statistische fouten rekening te houden, zal het dit ook niet aanleren.
    (De meeste mensen leren ook niet uit zichzelf wiskunde, overigens).

    Misschien kun je zelf oordelen, want een voorbeeld van een zelf-lerend programma is Google:
    het probeert, op basis van de web-sites die ik bekijk, advertenties te plaatsen die mij moeten interesseren.
    Ik vind dat ze daarin niet slagen.

    (ook advertenties op andere web-pagina’s zijn vaak door Google geselecteerd).

    Facebook doet hetzelfde, met advertenties op facebook.