Computers nemen de besturing van bewapende drones over en dus ook de keuze tussen leven of dood. Onderzoekers Lambèr Royakkers en Rinie van Est pleiten voor een debat.
Militaire bewapende drones die de VS inzetten in de oorlog in Afghanistan worden centraal bediend vanuit het controlecentrum in Nevada duizenden kilometers verderop. Verschillende landen werken echter aan het steeds autonomer maken van drones. De Amerikaanse luchtmacht investeert daar miljarden in en verwacht dat rond 2050 de eerste autonome bewapende militaire vliegtuigen zullen rondvliegen.
Inmiddels ontstaat er een internationaal debat om de ontwikkeling van robots te voorkomen die zelf besluiten om te doden. In 2013 riep de Mensenrechtenraad van de VN op tot een discussie over een moratorium op ‘killer robots’. Afgelopen november vertelde ook minister Hennis van defensie dat ze niet zit te wachten op dergelijke machines. Volgens het internationaal humanitaire oorlogsrecht dient namelijk altijd een mens verantwoordelijk gehouden te kunnen worden voor beslissingen over leven en dood. Ook de Amerikaanse defensie vindt dat bij het besluiten over het inzetten van geweld menselijke oordeelsvorming in voldoende mate aanwezig moet zijn. Bij een mogelijk toekomstige autonome bewapende drone is dat duidelijk niet het geval.
Het is echter de vraag of in de huidige praktijk van op afstand bestuurde drones nog aan de voorwaarde van een menselijke beslissing over het doden van een medemens wordt voldaan. Een voormalig drone-piloot vertelde namelijk op de onthullingswebsite The Intercept dat bijna negentig procent van de besluiten om over te gaan tot drone-aanvallen wordt gebaseerd op informatie uit elektronische communicatie, zogenaamde signal intelligence. Dit kan volgens hem leiden tot ‘erg schimmige’ situaties. Via geolocalisering stelt de geheime dienst NSA bijvoorbeeld vast waar de sim-kaart van de telefoon van het beoogde doelwit zich bevindt. Aangezien de inlichtingendiensten ter plaatse dergelijke informatie zelden verifiëren, voert de drone-operator in zo’n geval de raketaanval uit, in de hoop dat de telefoon in handen is van het doelwit en niet is afgegeven aan een onschuldig persoon.
In dit geval beslist dus nog steeds een mens over leven en dood, maar de vraag is in hoeverre de drone-piloot nog volledige controle heeft over zijn beslissingen. Omdat de computer zijn keuze sterk bepaalt, lijkt er al geen sprake meer te zijn van een goed geïnformeerde eigen morele keuze. Zo wordt de illusie van een menselijke morele keuze in stand gehouden, terwijl in feite de beslissing om al dan niet te doden in sterke mate is voorgeprogrammeerd door de computer. Deze verregaande ‘automatisering van de dood’ is des te schrijnender wanneer men beseft dat bij aanvallen met drones buiten oorlogsgebieden, zoals in Pakistan, Jemen en Somalië, al honderden burgerslachtoffers zijn gevallen. Het is daarom belangrijk dat er een internationale discussie op gang komt over de voorwaarden waaronder drone-operators nog weloverwogen morele keuzes over leven en dood kunnen maken.
Een eerste stap is de erkenning van dit ethische probleem. Op dit moment lijkt dat bewustzijn er nog niet te zijn. Vandaag is er weer een Kamerdebat over militaire drones. Een mooi resultaat zou zijn dat de Nederlandse regering erkent dat de huidige praktijk van de inzet van op afstand bestuurbare drones problematisch is. Zeker nu naast de VS steeds meer andere landen bewapende militaire drones bezitten – Nederland schaft binnenkort vier Reapers aan die bewapend kunnen worden – is er snel een internationaal debat nodig over een verantwoorde inzet daarvan, zowel buiten oorlogsgebieden als daarbinnen. Met Den Haag als internationale stad van recht en vrede binnen de landsgrenzen, zou het Nederland passen om het initiatief te nemen tot zo’n debat.
Lambèr Royakkers is universitair hoofddocent Ethiek & Techniek aan de Technische Universiteit Eindhoven. Daarnaast is hij voorzitter van de ethische adviescommissie van het FP-7 project SUBCOP (Suiced Bomber Counteraction and Prevention). Hij is mede-auteur van onder andere de boeken Overal Robots (Boom Lemma, 2012) en Ethics, Technology, and Engineering (Wiley-Blackwell, 2011).
Rinie van Est is onderzoeker bij het Rathenau Instituut.
Dit artikel verscheen eerder als opinieartikel in Trouw en op het weblog Intieme Technologie.
Reacties (8)
De verantwoordelijkheid blijft m.i. nog steeds liggen bij degene die dergelijk wapentuig inzet.
Discussiëren over geautomatiseerde beslissingen over leven en dood is iets wat je niet moet willen. Discussie leidt nl altijd tot een compromis dwz dat je er iets goeds in ziet en dat in consensus eruit wilt halen.
Geautomatiseerde leven/dood beslissingen vallen denk ik niet onder bediscussierbare zaken.
@1: dat geldt voor elk wapen. Ook voor een mes. Het probleem zit hem in de automatisering. De verantwoordelijkheid is niet het probleem. Het automatisme met faalkans is het probleem.
Waarom gaat het altijd alleen over gebruik van drones door de VS? Bijvoorbeeld Iran gebruikt ook gewapende drones boven Syrië.
http://www.farsnews.com/newstext.php?nn=13920705000588
Probleem van wapentuig is dat dit wordt bepaald door de partij die wel bereid is een wapensysteem in te zetten, anderen kunnen dan weer niet achterblijven omdat ze anders zelf in het nadeel zijn.
Want het maakt enorm veel verschil als – in plaats van een autonome drone – een piloot in een straaljager die zonder computers als een baksteen uit de lucht zou vallen op een knopje drukt in opdracht van iemand die ver weg zit te kijken naar een computerscherm om vervolgens een computergestuurde raket af te vuren op een door een computer aangewezen doelwit? In werkelijkheid is de kans dat de drone iets idioots doet een stuk kleiner dan de kans dat de straaljagerpiloot een foutje maakt. “Menselijke oordeelsvorming” is overrated. Foutgevoelige, veelal haatdragende en irrationele zakken vlees zijn we. Ik zie de menselijke factor liever verder op de achtergrond; ik vertrouw mensen niet zo. Alle oordelogen zijn door mensen gestart. Sukkel zijn het. Domme wezens.
Dat doden is ook zo ouderwets en is binnenkort helemaal niet meer nodig. Een beetje fatsoenlijk wapen op een fatsoenlijk drone zou zo onderhand wel in staat moeten zijn om alle AK-47s van een hele kudde “terroristen” aan gort te knallen zonder ook maar iemands’ nagellak te krassen. Wat we drones nu zien doen, is een overgangssituatie. Gegeven voldoende drones, zal een gevechtssituatie zich niet meer zo snel voordoen, al was het maar omdat er niemand meer is om tegen te vechten.
Nee wij geven ons geld liever uit aan JSFs en trekken over 10 jaar de conclusie dat ze niet opgewassen zijn tegen hele zwermen autonome wegwerpdrones. Wacht maar rustig af, over een jaar of 20 zou ik niet verbaasd opkijken als de “orde” gehandhaafd wordt door een enorme zwerm drones waarvan niemand weet wie ze bestuurt, wie ze gemaakt heeft en bij welk land ze horen. Leuk of niet, u gaat er toch niks tegen doen…
@0
“Omdat de computer zijn keuze sterk bepaalt, lijkt er al geen sprake meer te zijn van een goed geïnformeerde eigen morele keuze.”
Dat is al zo sinds de middeleeuwen eigenlijk (artillerie bv.)
Tegen de tijd dat computers intelligent genoeg zijn om oorlog te voeren zonder verschroeide aarde tactiek is het nog maar de vraag of de gemiddelde mens helderder morele oordelen kan vellen dan zo’n computer en wordt de belangrijkste ethische kwestie of we hen wel mogen dwingen onze oorlogen uit te vechten.
@0: “Omdat de computer zijn keuze sterk bepaalt, lijkt er geen sprake te zijn van een goed geïnformeerde eigen morele keuze”.
Waren de 2e wereldoorlog piloten dat wel, toen ze Duitse steden platgooien en soms Nederlandse grenssteden?
Je kunt wel wat overeenkomsten zien met de manier waarop de nazis het doden hadden georganiseerd. Ook daar deed men er alles aan om de persoonlijke verantwoordelijkheid en het persoonlijke risico in het proces uit te bannen.