OPINIE - Een computer kan rechtspreken, als wij met zijn allen denken en willen dat hij het kan. Vasco Groeneveld (Strafpleiter bij Plasman cs advocaten) is daar nog geen overtuigd voorstander van. Een gastbijdrage van Ivoren Toga.
Het is een hip onderwerp, en niet alleen in non-fictie bestsellers: gaan computers binnenkort ons werk overnemen? Menigeen zal zijn dagelijkse bezigheden hebben nagelopen op onvervangbare want diepmenselijke kwaliteiten, in de hoop dat het zijn tijd wel zal duren voor we stekkers mogen afstoffen. Maar als je het nieuws mag geloven kunnen computers zichzelf go leren spelen en zonnestelsels opsporen dus nou ja, dan lijken we niet kinderachtig te moeten doen over zeg diefstal bij Albert Heijn.
Rechtspraak wordt vaak genoemd als testcase bij uitstek. Dat draait immers om het verwerken van datastromen en het onderbrengen van specifieke gegevens onder algemene wetmatigheden, en als ik het goed begrijp is dat zo’n beetje de definitie van een algoritme. Dat kan een computer veel beter en completer, met toepassing van statistiek en kansberekening, waar de gemiddelde jurist glazig naar staart. Het monopolie op het herkennen van emoties en het begrijpen van verbale en non-verbale communicatie schijnt de mens al kwijt te zijn. Slordigheid, selectieve interesse, haast en andere vervelende menselijke neigingen? Hebben apparaten geen last van. Voor klasse en huidskleur zijn zij pas echt blind. Kennen computers geen intuïtie? Maar wat is intuïtie anders dan verwerkte, ingedaalde ondervinding?
Aan de andere kant is het de vraag of mededogen valt aan te leren, of voordeel van de twijfel. Een leugentje om bestwil of een excuus-argument omdat je iemand iets gunt, begrijpt een algoritme dat? Voorbeeld uit mijn praktijk: een zaak die draait om overlevering (uitlevering binnen de EU) wordt keer op keer uitgesteld om ondergeschikte punten en komma’s, omdat de rechtbank er naar mijn indruk gewoon geen zin in heeft. Uit empathie met de deerniswekkende persoon van de cliënt. Of, omgekeerd, de verdachte die op het dunst denkbare bewijs veroordeeld wordt voor een geweldsdelict. Voor mij alleen navolgbaar als de rechter heeft gedacht: mocht dit niet kloppen dan verdient hij het toch wel voor de onbestrafte rotstreken die uit het dossier naar boven zijn gekomen.
En ik denk aan het regelmatig negeren, in elk geval in mijn arrondissement, van een hier niet te noemen (Feind hört mit) strafvoorschrift uit boek 1 van het Wetboek van Strafrecht. Terecht, want het is een wanproduct van een hijgerige wetgever. Dergelijke wijze rechterlijke ongehoorzaamheid lijkt me lastig programmeerbaar.
In de rechtszaal draait alles om overtuiging, in de eerste plaats over de schuldvraag. De bewijsvoorschriften van het Wetboek van Strafvordering stellen maar weinig voor. Als de overtuiging er is komt bewijs ook wel. Idem bij de strafoplegging: de marges waarbinnen Pietje een laatste kans krijgt en Jantje niet, zijn ruim. Aan het slot van The Second World War filosofeert Churchill wat over de militaire besluitvorming. Nadat alle specialisten (militairen, economen, meteorologen) hun argumenten voor en tegen een actie hebben neer gelegd, voegt de bevelhebber daar nog één ding aan toe, het eindbesluit: gaan of niet gaan. Juist de eindbeslissing is nooit 100 % rationeel te reconstrueren. Natuurlijk zijn overal feitelijke argumenten voor en tegen, maar waarom het ene (net) de doorslag geeft onttrekt zich (overduidelijke zaken daargelaten) in laatste instantie aan het zicht. Elke besluitvorming kent een moment van ‘het is zo, omdat ik het zeg’.
Tot nu toe hebben we vertrouwen in de rechter en zijn bereid ons lot in zijn/haar handen te leggen. Maar het is, begrijp ik, geen vraag meer of algoritmes afwegingen kunnen maken en beslissingen kunnen nemen. Bovendien kunnen ze een leerproces ondergaan waar de individuele mens kwantitatief alleen maar van kan dromen. Ook de beslissing van de computer zal (opnieuw evidente gevallen daargelaten) voor ons nooit helemaal doorzichtig zijn. Niet alleen omdat wij van buiten niet kunnen zien hoe de beslissing tot stand komt. Maar vooral omdat een ‘zwarte vlek’ inherent is aan beslissen. Nogmaals: een computer kan het vast en zeker, mogelijk beter. De vraag is of wij bereid zijn op die manier ons lot in handen van een apparaat te leggen. Accepteren wij dat het verstandelijk uitwisselen van standpunten op een gegeven moment voorbij is en de computer de knoop doorhakt? Past dat bij ons wereldbeeld?
Nog niet bij het mijne. Precies het springende moment (ja/nee, meer/minder, voordeel/nadeel van de twijfel, of nog even doortwijfelen) wil ik in handen van een soortgenoot zien. Omdat het zich in laatste instantie voorbij de ratio afspeelt. En ik van een mens kan aanvaarden dat hij soms fouten maakt, maar van een ding niet (makkelijk praten natuurlijk, als je nooit de gevolgen van een rechterlijke fout hebt hoeven dragen). En omdat je alleen van een mens kunt verwachten dat die net even langs de regels scheert om tot een humaan resultaat te komen.
Je kunt er natuurlijk ook heel anders tegenaan kijken. Als je de mens en zijn plek in de wereld als door en door gerationaliseerd, egalitair en in principe tot ver achter de ‘we zijn ons brein’ komma berekenbaar opvat (waardoor je helemaal niet langs de regels hoeft te scheren), is het een logische stap dat je een alwetend algoritme meer vertrouwen geeft dan een medemens ‘met ook maar een mening’. Misschien hebben we dat moment al bijna bereikt. Als vertrouwen bestaat, dan werkt het ook. De kenner kan hier wel een Cruyffisme bij plaatsen.
Het antwoord is dus: een computer kan rechtspreken, als wij met zijn allen willen en denken dat hij het kan. Ik zie het niet zo voor me, maar dat is misschien een gebrek aan fantasie. Immers is de boordcomputer Hal uit Kubrick’s 2001 A Space Odyssey het enige invoelbare karakter van de film. Destructief ook trouwens, als hij bij het uitvoeren van zijn opdracht té effectief en consequent te werk gaat.
Dit artikel verscheen eerder op Ivoren Toga, een weblog waar door verschillende vaste auteurs en talrijke gastauteurs in korte bondige stukken kritisch wordt gekeken naar de ontwikkeling van het strafrecht en de organisatie daarvan.
Reacties (3)
Er zit nog een heel lastig aspect aan geautomatiseerde rechtspraak, lijkt me: het interpreteren van de feiten en omstandigheden. Dit stukje is geschreven vanuit de mogelijkheden van de zwakke AI: “Sterke AI houdt zich bezig met onderzoek met betrekking tot het creëren van een computer of software die echt kan redeneren en problemen oplossen, en die wellicht zelfbewustzijn zou hebben”, “Zwakke AI houdt zich bezig met onderzoek in beperkte deelgebieden waarin gedragingen mogelijk zijn die intelligent lijken, maar niet echt intelligent zijn”.
Het is de taak en verantwoordelijkheid van een rechter om de aangevoerde feiten en omstandigheden te interpreteren en te wegen en eventueel onderzoek ernaar te doen. Als deze feiten en omstandigheden moeten worden ingevoerd in een of andere codering, dan heeft degene die ze invoert bijna de macht van een rechter. Door twijfel aan getuigenissen toe te voegen of ze als 100% zeker aan te geven is de uitkomst te beïnvloeden. Voordat een computer dat zelfstandig kan, moeten we eerst het probleem van de sterke AI oplossen.
@1: Dat heeft meer te maken met de zwakte van de mens (het aspect dat jij noemt valt overigens ook door de AI over te nemen, want die kan ook zelf beeld en geluid waarnemen en coderen). Een belangrijkere beperking zit hem eerder in de (door menselijke rechters gedane) uitspraken tot nu toe. Omdat de uitspraak (eventueel in hoger beroep) als de waarheid wordt ervaren en er maar zelden achteraf nog onderzoek wordt gedaan naar de juistheid van uitspraken, weten we eigenlijk best wel slecht wat de kwaliteit is van die uitspraken. Als gevolg daarvan vormt het bestand aan uitspraken een dataset van onbekende kwaliteit. AI-rechtsspraak zou daarom dus behoorlijk vanaf de fundamenten opgebouwd moeten worden. Mogelijk zal dat leiden tot heel erg afwijkende uitspraken dan de menselijke dataset, maar dan is het maar de vraag of dat zo onwenselijk is.
Deze problematiek heeft parallellen met -de onmogelijkheid van- (half)machinaal vertalen. Iedereen die wel eens een iets door Babelfish of Google Translate heeft gejast of heeft geprobeerd wijs te worden uit een brakke gelokaliseerde gebruiksaanwijzing zal begrijpen dat daar nog een lange weg te gaan is. Nu is je goede goed aan een te heet strijkijzer plakken iets anders dan jaren onterecht zitten, maar het mechanisme hoe dat zo gekomen is zou dan wel eens hetzelfde kunnen zijn.
Je kunt niet alles privatiseren en je kunt ook niet alles automatiseren.