Vrijdag Vraag – Rechten voor Robots

Vraagteken
Moeten robots straks ook rechten en plichten hebben?

  1. 1

    Heeft iemand de verzamelde werken van Asimov nog op de plank ? Dan staan er wel interessantere vragen in het stuk: “The scans explore a diverse range of areas from the future of the gulf stream and the economic rise of India, to developments in nanotechnology and the threat posed by HIV/Aids. “

  2. 4

    Krijgen we nu ook een Partij voor Robots…?

    We gaan niet eens normaal met de dieren, natuur, milieu, aarde om (weet u wel rentmeesterschap en in harmonie met de omgeving…) en 80% van de wereldbevolking nauwelijks of niet te vreten. Terwijl er voor 1000 miljard $ per jaar aan wapens geproduceerd word (waarvan maar 25 miljard $ nodig om iedereen te vreten te geven).
    Dus dat geouwehoer over rechten van man-made-machines is een lacher en een afleidingsmaneuvre.

  3. 5

    @Ruud: Zeur niet, het is weldegelijk iets om over na te denken voordat we zulke situaties als in de bioindustrie krijgen waarbij we intelligente (zelfbewuste?) robots hetzelfde behandelen als kistkalveren. Het is een stuk moeilijker gewoontes terug te draaien dan vanaf het begin er goed mee omgaan.

    Het duurt vast nog wel even, maar ik denk dat er op een gegeven moment een robot/programma komt waarin bewustzijn zo goed is gesimuleerd dat ze niet meer van echt te onderscheiden is. Op dat punt is het ook daadwerkelijk bewustzijn geworden.

    \leentjebuur “The Mind’s I, Daniel C. Dennet et al.

  4. 8

    Ik heb er alleen geen enkel vertrouwen in, larie. Er lopen teveel professor Lupardi’s en doctor Strangelove’s rond op deze aardkloot.

  5. 10

    @Grobbo: Daar maak je een denkfout. Wie zegt dat het menselijke denken en bewustzijn geen simulatie is?

    Is een perfect gesimuleerde tornado geen echte tornado? Alles klopt.

    Een perfecte simulatie is een kopie van het origineel.

  6. 11

    Een perfecte simulatie heet dan ook geen simulatie meer :)

    Maar dat zou mooi zijn, dat ze ons passeren en vervolgens ons gaan vertellen dat wij eigenlijk geen bewustzijn hebben, en dus geen rechten. Sta je toch mooi onbewust op je neus te kijken…

  7. 15

    Oeps, comment 13 met onbedoeld ‘hidden’ meta codes even deleten mensen. Vóór je het weet wil Google deze pagina door dat comment niet meer vinden. En bots gehoorzamen ons toch?

    Excuus!

  8. 20

    Ik denk overigens dat robots geen rechten en plichten moeten hebben. Ze zijn gemaakt door de mens en dat blijft zo. De mens blijft dus meester in weerwil van wat alle spitsvondige sf schrijvers hebben neergepend. Er moet dus altijd iets zijn dat ze onderscheidbaar maakt van de mens. Dat lost het hele probleem op.

    @TRS
    Dat is de Turing test (als we het bewustzijn testen tegen het menselijk bewustzijn).

  9. 21

    @20: Maar wat als robots zich zelf beginnen te vermenigvuldigen? En is vogens een deel van de huidige wetgevers (zeg wereldwijd gezien gerust de overweldigende meerderheid) de mens niet ook gemaakt door (een of meerdere) god(en)?

  10. 22

    @Bismarck
    Als we ze onderscheidbaar kunnen maken is het niet reproduceerbaar zijn een duidelijk onderscheid lijkt me.

    En wat huidige wetgevers denken – dan wel een overweldigendemeerderheid – doet niet ter zake. Of wilt u de mens gelijk god stellen?

  11. 25

    @Steeph
    Nee.
    Wij hebben ze gemaakt.
    Wij zijn de baas.
    En niet anders.

    Dit is logica: Wij maken ze dus wij bepalen hoe ze functioneren en wat ze doen.

    Als robots intelligent worden?
    Wie zegt dat ze intelligenter worden dan wijzelf?

    Logica? Pfff….

  12. 26

    @biepbiep: helaas, ik weet een beetje af van software maken. reken er maar op dat we in staat zijn iets te maken waar nou net een bug zit in het stukje dat ervoor moet zorgen dat ze begrijpen dat wij de baas zijn…..

  13. 27

    Waarom heeft iedereen het over rechten voor robots? Dat is net zoiets als rechten voor benen. Rechten en plichten zullen gelden voor computerprogramma’s, niet voor de voorwerpen die door die programma’s bestuurd worden. Daar hoeft helemaal geen één-op-één-verhouding tussen te zijn; ik kan me best een intelligent programma voorstellen dat geen bewegend lichaam heeft en alleen via het internet met de rest van de wereld in contact staat.

    Als een programma precies zo in elkaar zit als de menselijke geest, is het natuurlijk discriminatie om het anders te behandelen. Zo niet, dan wordt het ingewikkelder. In ieder geval zou het een heel serieus probleem kunnen worden, en ik vind het dan ook erg jammer dat de meeste mensen niet verder kijken dan sf-plotvehikels.

  14. 28

    Trouwens: een misschien nog groter probleem dan robotrechten is inderdaad de vraag of robots/kunstmatige intelligenties wel het beste met ons voor zullen hebben. Het antwoord is natuurlijk “dat hangt ervan af hoe je ze ontwerpt”; in tegenstelling tot de klasse “mensen” bestaat de klasse “intelligente programma’s” niet uit variaties op één en hetzelfde ontwerp. Sommige mensen hebben er hard over nagedacht; begin bijvoorbeeld bij Ethical Issues in Advanced AI of Friendly AI.

  15. 29

    @Steeph#26
    Dat is eigenlijk wel een interessant gezichtspunt: de bug als intelligentie (of het intelligent afwijkend functioneren). We hebben het dus niet over opzettelijke intelligentie en alle slimme dingen die daarmee kunnen. Nee we hebben het over de problemen die worden veroorzaakt door bugs.

    Ik snap wat je bedoeld en denk dat je wel een punt hebt. Maar dat zal toch niet zijn waar het hier om gaat. De wetten van Asimov zijn daar ook niet voor bedoeld. Sterker: zijn wetten zijn bedoeld om o.a. bugs te ondervangen en zitten hardwired ingebakken in de positronische breinen.

    Daar kan ook iets mis mee zijn maar dat wordt dan ontdekt en gefixt. Het is niet mogelijk dat een zodanig cruciaal stuk in het functioneren incorrect is. Anders zouden vliegtuigen, raketten of ander complex materiaal nooit kunnen functioneren.

    It can do whatever we know how to order it to perform. (Ada (lady) Lovelace over de Analytical Engine) en is een robot iets anders dan een doorgeëvolueerde analytical engine?

  16. 30

    @biepbiep: Op zich zeer valide tegenargumenten (mn over vliegtuigen etc..). Maar daar zit wel de veronderstelling ingebakken dat welwillende mensen bezig zijn met de bouw van robots en/of hun software.
    Maar op het moment dat de techniek zover gevorderd is, kunnen ook anderen dat doen. En het is maar de vraag of zij net zo zorgvuldig zullen zijn of goedbedoelend.

    @eoavoorbijganger. Terecht punt dat het niet sec over robots gaat. De verschijningsvorm is nader te bepalen.
    Jouw zin “Als een programma precies zo in elkaar zit als de menselijke geest, is het natuurlijk discriminatie om het anders te behandelen.” gaat er wel terloops van uit dat alle menselijke geesten hetzelfde in elkaar zitten. Daar kan je ook nog een aardige boom over opzetten.
    En qua sfplots, ik heb er veel gelezen, die kunnen ook een hoop goede punten opleveren. Al was het maar omdat ze de materie proberen in een soort “real-life” situatie voor te stellen. Iets waar veel “droge” wetenschappers of onderzoekers soms wat moeite mee hebben.
    Plots schiet mij bijvoorbeeld “the moon is a harsh mistress” van Heinlein te binnen. Onwaarschijnlijk verhaal met aardige twist.

  17. 31

    @Steeph
    Je hinkt op een paar gedachten die volgens mij niet geldig zijn:

    1) bugs, niet luisterende robots – feitelijk is dat een variatie op het monster van Frankenstein. De schepping keert zich tegen de schepper. Dat is nu juist een van de redenen waarom Asimov met zijn drie wetten kwam. Het heeft in elk geval niets te maken met rechten/plichten of menselijke gelijkstelling van robots.

    2) kwaadwillende mensen bouwen robots – als het kwaadwillende mensen zijn die robots bouwen die zich tegen mensen keren waarom zouden de robots dan rechten moeten hebben. Ook hier een angst die feitelijk ondervangen is door de drie wetten van Asimov. veronderstel dat kwaadwillende mensen destructieve robots bouwen die niet voldoen aan de drie wetten dan worden ze zelf ook bedreigd. Waarom zouden ze dat doen? Ook dit is een variatie op het Frankenstijn-model. Het heeft niets met rechten te maken maar met het menselijke probleem: hoe voorkom je kwaadwillend gebruik van robotica.

    Ik zie nog steeds geen logica dat de robots ons zullen vernietigen. Tenzij je uitgaat van een soort terroristische robotbouwers die gewoon opzettelijk de hele mensheid uit willen roeien en daar een device voor bouwen. So be it. Je kunt ook niet voorkomen dat iemand een hamer gebruikt als moordwapen. Dan moet je wellicht robotica verbieden. Er zijn ook sf schrijvers en films die dat in de toekomst voorzien. Allemaal angstdenken.

    Overigens kun je je afvragen of de 0-de wet van Asimov (bescherming van de mensheid) zou moeten bestaan. Het betekent een stopzetting van de evolutie want uiteindelijk zal de mensheid altijd verdwijnen en zal er iets anders ontstaan. Ik zie de 0-de wet als zinloos en als problematisch.

  18. 32

    Ik wil niet zeggen dat SF per se waardeloos is, maar het is (net zoals trouwens veel “futurologie”) geschreven met het oog op vermaak in plaats van realisme. Mensen kunnen weliswaar fictie van werkelijkheid onderscheiden, ze zullen niet gauw denken dat specifieke dingen gaan gebeuren omdat ze het in Terminator gezien hebben, maar hun begrippen en intuïties worden wel sterk vervormd door de noodzaak om in SF een goed verhaal te hebben. Als je zegt “intelligente robot” denken ze aan Star Trek of Asimov en maken ze daarmee een hele hoop automatische aannames.

    Slecht verhaal: Een machtig leger robots krijgt zin om de mensheid te vernietigen, maar door een paar gezond-verstand-veiligheidsmaatregelen van tien jaar terug is het probleem binnen een seconde verholpen.

    Goed verhaal: Een machtig leger robots krijgt zin om de mensheid te vernietigen, maar gelukkig is er de een of andere Arnold in de buurt die een groepje heldhaftige hoofdpersonen verzamelt en de strijd aangaat. Het gaat gelijk op en langzaam krijgen de robots steeds meer overwicht, maar na wat spannende plot-complicaties winnen de mensen en leeft iedereen lang en gelukkig — tot het vervolg.

    Slecht verhaal: Een wetenschapper bouwt een robot, die robot bouwt een nog slimmere robot, die slimmere robot koopt wat extra hardware, maakt zijn hersenen 1000 keer zo groot, en hackt de wetten van de fysica of vindt wat dingen uit die niemand begrijpt; een minuut later is de hele mensheid gerecycled tot reserve-robot-onderdelen.

    Data uit Star Trek is eigenlijk ook wel een goed voorbeeld. Waarom heeft hij hetzelfde spectrum aan vaardigheden dat een competent mens ook heeft, zodat ze hem als officier op een ruimteschip in kunnen zetten, maar dat hij toch net niet goed genoeg is om kapitein te worden of zo, en ook geen belangrijk beroep kan vinden waarin hij duidelijk beter is dan ieder mens? Als hij zo slim is, waarom kan hij dan niet de wetenschap met grote sprongen vooruithelpen? Waarom bouwen ze er niet meer, zodat ze de hele economie over kunnen nemen? (Omdat een of andere geniale uitvinder hem gebouwd heeft en verder niemand het kan, was geloof ik het excuus) Waarom kan hij zichzelf niet kopiëren of in een ander lichaam zetten of helemaal herontwerpen om nog slimmer te worden?

    Het is wel duidelijk waarom: de makers van Star Trek hadden helemaal geen zin om serieus na te denken over wat voor veranderingen techniek veroorzaakt in de samenleving. Ze wilden gewoon een vermakelijk verhaal bedenken, en een samenleving met echte AI is lang niet zo vermakelijk als een mens met een plastic hoofd, een ingebouwde zakjapanner, en het syndroom van Asperger.

    Star Trek bevat dan misschien minder magie dan de gemiddelde fantasy-wereld, maar magische logica werkt net zo goed. Data is ongeveer even relevant voor discussies over robots als de Uruk-Hai voor discussies over genetische modificatie.

  19. 33

    @biepbiep: dat van de logica die dicteert dat de mensen vernietigd moeten worden, was niet zozeer aan de robots (in welke mutatie dan ook) toe te schrijven maar meer aan het logische principe dat je voor de overleving van de soort liever geen andere soort in de buurt hebt die de hele planeet vernietigd. Elimineren die zooi.

    @eoavoorbijganger: U is geen kenner van SF?

  20. 34

    “Het is wel duidelijk waarom: de makers van Star Trek hadden helemaal geen zin om serieus na te denken over wat voor veranderingen techniek veroorzaakt in de samenleving”..tja.

    Een voorbeeldje uit 1966 (!), waar lijkt dit op voorbijganger?

    [IMG]http://img86.imageshack.us/img86/1681/startrekcommunicatorru9.jpg[/IMG]

  21. 35

    Voorbijganger voordat ik zelf weer voorbijga, kijkt u eens aandachtig naar deze foto..werd ervaren als een revolutie. De eerste keer dat een blanke een negerin kuste op tv.

    [IMG]http://img172.imageshack.us/img172/2984/kirkuhuragm4.jpg[/IMG]

    Zal U verder niet vermoeien maar de voorbeelden van sociale en technosociale vooruitziende blik zijn legio. U heeft deze serie(s) niet gezien, dat blijkt.

  22. 37

    OK, OK, ik heb me misschien wat sterk uitgedrukt, in Star Trek (en zeker in geschreven SF) zijn allerlei onderwerpen op een interessante manier behandeld. Maar ik blijf erbij dat verhaallijnen in SF vooral voor andere dingen bedoeld zijn dan het doen van de best mogelijke voorspelling van de toekomst, en dat daardoor mensen door SF een vervormd beeld krijgen. Aan duidelijke gevallen daarvan (zoals Data) kan ik me wel eens ergeren.

    (Ik heb hier en daar wel wat SF-boeken gelezen, maar een kenner ben ik inderdaad niet. Egan is wel goed.)

  23. 38

    Wist U @voorbijganger dat Brent Spine (Data) zowat in de gehele wereld door mensen met een autistische inslag als beschermheer is aangesteld vanwege zijn immer voortdurende queste om zogenaamd (maar zeker niet is mijn visie) gevoelloosheid van autistisch bestempelde personen te visualiseren en in een wereld met’ gevoelens’ af te tasten?

    http://www.startrek.com/startrek/view/library/cast/bio/69070.html

    Leest U wel eens wat van Oliver Sacks?

    http://www.oliversacks.com/

  24. 39

    @biepbiep:

    Als je de Wetten van de Robotica serieus wilt toepassen, kom je een aantal problemen tegen. Wat is de definitie van “human being”, “harm”, “inaction”, “obey”, en “protect”? En stel nou dat je spijt krijgt van de manier waarop je die dingen hebt gedefinieerd, of als je besluit dat je toch liever andere Wetten van de Robotica had willen hebben? Hoe garandeer je dan dat zo’n robot zich laat ombouwen, of zichzelf ombouwt?

    En ik wil er niet over blijven doorzeuren, maar hoe waarschijnlijk is het dat een SF-schrijver meteen de beste manier bedenkt om het probleem op te lossen?

  25. 40

    Nog maar eens @voorbijganger, zelforganiserende systemen is alweer een pakweg 40 jaar oud gegeven (kritische parameter slaat om, systeem hersteld zich in nieuw evenwicht, vrij eenvoudig wiskundig te formuleren). Vanaf het moment dat vanuit het liniair denken de paradigmatische muren van imaginaire getallen omvielen en de wereld van de quantummechanika werd betreden bleek dat niet intelligente abstracties, om het voorzichtig uit te drukken, in staat waren zichzelf te vermenigvuldigen en verbeteren..kwil niet neerbuigend zijn ik lees graag uw reacties maar echie u mist een boot hier ergens..;)

  26. 41

    @larie:

    Dat zal ongetwijfeld zo zijn, en in dat geval is Data inderdaad niet alleen voor vermaak bedoeld. Maar mijn punt is dat SF-schrijvers om een goed verhaal te maken min of meer gedwongen worden personages en plot-elementen te gebruiken waar mensen op de een of andere manier wat mee kunnen (of het nou vermaak is of het zich invoelen in de personages of het verkennen van filosofische kwesties). Zulke voorwaarden zijn niet van toepassing op de toekomst zelf. Een robot zal zich niet gedragen als een mens, ook niet een gevoelloos of als autistisch bestempeld mens.

  27. 42

    Onze mening verschilt niet zo veel, nuances.. maar zeg nooit nooit. In sommige laboratoria gebeuren momenteel de meest vreemde en tot nu toe onverklaarbare dingen. Mijn mond valt nog regelmatig open van verbazing.
    Wij, mens, weten nog helemaal niks nada..we beginnen pas.

    Zullen we het hierbij laten, ik wil geen flame met u :)

  28. 43

    Een van mijn excollega’s, als voorbeeld, bestudeerd de vreemde temperatuursgradien van de zon. Binnenin vele miljoenen graden, vlak aan het oppervlak een graad of vijfduizend en direct daarboven, de corona, weer een miljoen of wat.. Niemand weet hoe en waarom.

    Het (ons, we zijn er maar eentje) universum kan wat kinderlijk wetmatig beschreven worden door toevoeging van constanten..een zwaktebod, omdat vrijwel alle materie foetsie is, wij zijn de excotische materie…etc..etc

  29. 44

    #41 was een reactie op #38, sorry. #40 en #43 begrijp ik eerlijk gezegd niet. Ik probeer in ieder geval niet te zeggen dat intelligente of bewuste robots nooit gemaakt zullen worden; ik denk juist dat het eerder zal gebeuren dan de meeste mensen denken. Wat ik probeer te zeggen is dat het stereotype van robots zoals dat in SF is opgebouwd een onbetrouwbare bron is als we proberen na te denken over de rol die robots/AIs zullen spelen.

  30. 45

    @eoavoorbijganger
    Wellicht is het toch aardig als je de wiki bestudeerd. Er is erg veel over geschreven. Twee pagina’s (de tweede gaat over de roboticawetten) als starter zijn aardig.

    Het probleem wat je aanhaalt is het probleem van definities. Wat is een mens, wat is etc… In #19 en #20 kwam dat ook al m.b.t. het bewustzijn aan de orde. Ik gaf toen als antwoord: de Turing test (starter voor Turing). Hoewel oorspronkelijk alleen voor spraak kun je zo een test voor elk complex menselijk domein ontwerpen. Je kunt je met de problematiek zoals hier aan de orde dooddenken aan definities maar daar is altijd iets mis mee. Je kunt ook zeggen: als we het verschil tussen mens en iets anders niet meer kunnen zien (op een specifiek domein) dan is het gelijk een mens. Scheelt een hoop.

    Wat betreft spijt krijgen van iets dat je gemaakt hebt en de wens dat een robot zich altijd aan vernietiging zal onderwerpen heb ik al beantwoord in #20 – #22.

    Het is angst die hier de drijfveer van alle tegenwerpingen is. Als de mens een robot maakt is en blijft hij de baas van de robot aangenomen dat dat in de robot ingebouwd wordt dat de mens de baas over hem is.

    De uitspraak van Ada Lovelace (It can do whatever we know how to order it to perform.) is absoluut essentieel. Als je dat niet ziet kun je er beter niet aan beginnen. Dan bouw je vanzelf een Frankenstijn.

    Verder ben ik het met Larie eens dat we de grenzen van de mogelijkheden nog niet eens gezien hebben.

  31. 46

    Robots hoeven “straks” in ieder geval nog geen rechten te hebben; daar heb je intelligentie voor nodig en dat is voorlopig nog niet in ontwikkeling, en misschien gaan we dat wel helemaal nooit kunnen maken.

    Plichten hebben hard- en software voor mij eigenlijk altijd al. Als ze niet luisteren schop ik ze of gooi ik ze weg… Ik denk dat ik met robots niet anders om zou gaan.

    Dat er quantumcomputers zouden draaien is overigens larie.

  32. 47

    @biepbiep:

    Als ik je goed begrijp, zeg je dat verkeerd handelen door robots geen probleem is omdat we ze altijd dommer en minder machtig zullen kunnen houden dan wij mensen zijn. Maar mis je dan niet juist het voordeel van die robots? Juist een robot die intelligenter is dan wij zijn, zal veel problemen voor ons kunnen oplossen. Ik denk dat de verleiding groot zal zijn om zulke robots (en als ik zeg robots bedoel ik eigenlijk “AI-programma’s”) te bouwen. Dat we van domme robots weinig te vrezen hebben, ben ik wel met je eens.

  33. 48

    leuke discussie om op het 50jarige sargasso jubileum nog eens terug te lezen.

    @Spuyt12 #10, cogito ergo sum? Lijkt me een redelijk onomstreden uitspraak, maar misschien moet ik Dennet maar eens goed gaan lezen en ben ik niet uitgerust met de juiste kennis voor deze discussie. Zal consciousness explained maar eens serieus gaan lezen.

  34. 50

    @eoavoorbijganger#47
    Nee, je mist mijn punt. Het maakt niet uit hoe slim we ze maken zolang we ze maar onderscheidbaar (van mensen) en dienstbaar (aan mensen) maken. We hebben geen enkele reden om een robot gelijk een mens te maken. Ik heb trouwens mijn twijfels of men b.v. een vrouwelijke robot zo kan maken dat ik niet direct door zou hebben dat er wat mis is (chemisch, elektrisch, emotioneel, reactiegewijs etc… het hele stimulus/response complex) als ik wat seksueels zou proberen. En als ik dat onderscheid niet meer kan zien hoef ik me ook niet meer druk te maken over welk recht dan ook.

    Elke andere insteek is het Frankensteinsyndroom.

    @mescaline
    Nu al?

  35. 52

    @biepbiep:

    OK, als ik je nu goed begrijp, zeg je dat het niet uitmaakt hoe intelligent/machtig robots worden, omdat we altijd met een eenvoudige set regels ervoor kunnen zorgen dat ze geen dingen doen die wij niet willen. Dan kom ik weer terug op dat probleem van daarnet. Hoe definieer je woorden zoals “dienstbaar” op een manier dat een robot ze precies begrijpt zoals jij dat zou doen? Als e.o.a. vervelende puber tegen een robot zegt: “bouw de Eiffeltoren om tot een grote vechtrobot met acht poten”, moet die robot dan ook dienstbaar zijn? Je hebt gisteren alleen een definitie gegeven voor “mens” of “bewust” (ik weet niet zeker welke) d.m.v. de Turing-test.

    Het enige dat echt veilig is, is volgens mij om zo’n robot in elkaar te zetten als een moreel denker op zichzelf, zodat hij zelf kan beoordelen wat hij het beste kan doen i.p.v. dat hij afhankelijk is van regeltjes/commando’s van ons: http://en.wikipedia.org/wiki/Friendly_artificial_intelligence

  36. 53

    O, en dat wij die robots gemaakt zouden hebben, zou natuurlijk niet betekenen dat we met ze mogen doen wat we willen. Kinderen hebben ook rechten t.o.v. hun ouders.