De ethische robot

Martijntje Smits is techniekfilosoof en werkt bij het Rathenau Instituut onder andere aan het project Sociale Robots. Het stuk staat ook op het blog van het instituut.

robotEen ethische robot. Die claimen de Amerikaanse filosoof Susan Anderson en haar man, de computerwetenschapper Michael Anderson onlangs te hebben gemaakt en geprogrammeerd.   De robot controleert of patiënten hun medicijnen innemen en beslist of hij een arts waarschuwt als ze dat niet doen. Maar kun je hier echt van een ethische robot spreken?

Ethiek gaat vaak over kiezen, over het maken van een keuze in een situatie waarin er een keuze gemaakt moet worden tussen verschillende waarden. Dat noemen we een morele keuze en de hamvraag voor de ethicus lijkt dan wat de goede, meest optimale keuze is. Veel ethici zijn op zoek naar principes die toepasbaar zijn in lastige, dubbelzinnige situaties. De discussie tussen ethici spitst zich vervolgens toe op de vraag of zulke algemene principes wel te vinden zijn. Zijn die dubbelzinnige situaties wel vergelijkbaar, hoe belangrijk zijn particuliere omstandigheden daarbij? En zijn de relevante waarden wel tegen elkaar af te wegen? Wat is de rol van emoties, stemmingen en passies bij het vormen van een afgewogen inzicht in de situatie en in de nood van de ander?

Er zijn veel misstanden in de verpleeghuiszorg, zoals nog deze week bleek in een Tweede Kamerdebat over een noodlijdend verpleeghuis in Den Haag. Tekort aan gekwalificeerd personeel blijkt een belangrijke oorzaak. Eén van de struikelblokken is de distributie en inname van medicijnen door de bejaarden. De uitvinding van Anderson&Anderson zou wel eens heel praktisch kunnen zijn. Kunnen robots ethische afwegingen maken voor patiënten, bijvoorbeeld voor medicijngebruik? En vinden we dat dan een ethisch verantwoorde afweging?  Dat is op het eerste oog geen lastige vraag. Als een schaakrobot kan winnen van de wereldkampioen, waarom zou een robot dan niet een afweging kunnen maken in een relatief alledaagse, simpele situatie waarin iemand een pil moet slikken voor zijn bestwil?

Typisch menselijk

Ik dacht dan ook bij dit opmerkelijke bericht: robots staan bekend als toys for the boys, maar ze zijn ook uitermate populaire speeltjes voor speculanten en filosofen. De oude Grieken deden gedachtenexperimenten met pratende dieren en feilbare Goden, om inzicht te krijgen in wat nu zo speciaal is aan mensen, en wat mensen nu ethische, sociale en politieke wezens maakt. Mensen meenden ze, kunnen beloften aangaan en verantwoordelijkheid nemen, dieren niet.  Zo blijkt de nieuwe generatie ‘sociale’ robots de filosofen en futuristen onder ons te inspireren tot spannende vragen als: Als de uitkomst van het handelen van robots “intelligent” lijkt, zijn ze dan ook intelligent? Wat is een geweten, kunnen we morele gevoeligheid programmeren? Het zijn onbehaaglijke vragen, want we dichten dit soort vermogens graag exclusief aan mensen toe.

De makers noemen deze robot ‘ethisch’ omdat deze in staat is om een afweging te maken tussen verschillende waarden: het recht op autonomie van de patiënt, het belang van de patiënt om de medicijnen te nemen en de schade die de patiënt ondervindt als ze dat niet doet. Het enige waarop de robot op hoeft te letten is het gedrag van de patiënt: wel of niet een pil nemen. De makers blijken uitgegaan van een platoonse en utilistische veronderstelling hoe je een moreel besluit neemt: ze nemen aan dat de relatie tussen de patiënt en de verzorger te standaardiseren is en dat verschillende relevante waarden als het ware te kwantificeren zijn en tegen elkaar af te wegen. Je kunt dus een optelsom maken die een duidelijke uitkomst heeft; bijvoorbeeld dat de patïent nu nog één waarschuwing moet krijgen. De autonomie van de patiënt wordt tot op zekere hoogte gewaarborgd (de patiënt mag een paar keer die pil weigeren), maar als de patiént te lang weigert blijkt het principe van ‘no harm’ toch zwaarder te wegen en dan wordt de dokter gewaarschuwd.

Fatale keuzes

In die zin gedraagt deze robot zich dus ethisch. Je zou zelfs vanuit dit perspectief op ethiek kunnen zeggen dat robots zich ‘ethischer’ kunnen gedragen dan mensen, die geplaagd worden door stemmingen, emoties, vooroordeel, en daardoor tot verschillende besluiten komen. Net als de “ethische” robotsoldaat van Ronald Arkin zich “ethischer” zou gedragen dan de soldaat van vlees en bloed op het slagveld, die onder invloed van stress en vooroordeel  fatale keuzes kan maken.

Deze ideeën over een ethische robot lijken terug te gaan op een platoonse en utilistische ethiek. Een Aristoteliaan zou echter zeggen: je kunt zo’n situatie per definitie niet standaardiseren. Je kunt als programmeur nooit genoeg weten van de particuliere omstandigheden om te bepalen of de uitkomst van de afweging goed is. En het gaat bovendien bij een ethisch oordeel niet alleen om de uitkomst van de afweging, maar ook hoe die gemaakt wordt. Je weet bijvoorbeeld niet of de patiënt ermee instemt dat de robot een keuze voor hem maakt – en je weet ook niet, hoe erg de patiënt het vindt dat de dokter wordt gewaarschuwd. In wiens belang handelt de robot? Wat is die dokter voor een figuur? Als de patiënt boos is, of zich overruled voelt, geen zin heeft om naar een robot te luisteren, of niet geinteresseerd is in beter worden, of andere speciale redenen heeft om die pil niet te nemen; vinden we dan nog steeds dat die robot juist kan handelen? En misschien zijn er wel hele andere oplossingen mogelijk -bijvoorbeeld niet de dokter waarschuwen, maar een familielid. Of praten met de patiënt en aandacht geven. Wat hebben we aan zo’n weliswaar ethische, maar weinig fijngevoelige robot in zo een complexe, meerduidige situatie van een patiënt?

Kwaliteit van zorg

Tenslotte gaat het om de kwaliteit van de zorg. Is het hier niet belangrijker om goed te zorgen, dan om een juiste afweging van waarden te maken? Want dat lijkt niet hetzelfde. Zorgen voor iemand gaat uiteindelijk niet over het maken van morele afwegingen, en om het bereiken van een doel (genezen, welzijn) maar over een relatie aangaan met degene die verzorgd wordt. We vinden bijvoorbeeld dat een goede verzorger zich inleeft in de verzorgde en rekening houdt met  de wensen en eigenaardigheden van diegene die zorg nodig heeft, ook als dat wel eens tegen zijn eigenbelang lijkt in te druisen. De kwaliteit van de zorg zit dan niet alleen in het behalen van het doel maar ook in de kwaliteit van de relatie.


  1. 1

    Mooi stuk. Leuk dat je het good life perspectief voor het einde hebt bewaard. Het is ook niet zozeer de vraag of je een robot kan programmeren om utilistische, categorisch juiste of rechtvaardige beslissingen kan maken. Dat lijkt me allemaal te vatten binnen een stukje complexe software. Het ongemak met dergelijke robots stamt eerder vanuit de vervangende rol die zo’n robot op zich neemt zoals je beschrijft.

    Een kleine opmerking. Je zegt “Een Aristoteliaan zou echter zeggen: je kunt zo’n situatie per definitie niet standaardiseren. Je kunt als programmeur nooit genoeg weten van de particuliere omstandigheden om te bepalen of de uitkomst van de afweging goed is.” Het lijkt er hier op dat je een Artistoteliaanse afweging op een consequentialistische manier interpreteert.