Chatbots gaan steeds meer op échte mensen lijken, constateert Stijn Friederichs, PhD student Psychologie aan de Open Universiteit. Een nieuwe aflevering in de serie Intieme Technologie van het Rathenau Instituut.
Iedereen die wel eens op de website van een zeker Zweeds meubelbedrijf komt, zal haar kennen: Anna. Gehuld in het welbekende geel-blauw en met een uitnodigende glimlach op het gezicht staat ze altijd klaar om al je vragen over bureaus, kastjes en andere meubelstukken te beantwoorden. Ik heb haar kort geleden nog gesproken. In eerste instantie maakte Anna een robot-achtige indruk op me, maar naarmate het gesprek vorderde bespeurde ik steeds meer menselijke trekjes in deze virtuele dame.
Virtuele personen zoals Anna kom je steeds vaker tegen op internet. Volgens chatbots.org bestaan er momenteel al zo’n 100 Nederlandse exemplaren. Deze worden bijvoorbeeld gebruikt door bedrijven om vragen van klanten te beantwoorden om zo te kunnen besparen op de klantenservice. Maar vaak zijn ze tot veel meer in staat dan antwoord geven op domeinspecifieke vragen. Zo kan Anna bijvoorbeeld redelijk adequaat reageren op koetjes en kalfjes. Bovendien wordt haar kennis steeds verder uitgebreid op basis van nieuwe vragen en opmerkingen van klanten. Hierdoor gaat Anna steeds adequater, menselijker, reageren op alles wat je tegen haar zegt.
Een soort gesprek
Het principe van een computerprogramma dat in staat is om – op een min of meer adequate manier – met mensen te communiceren is niet iets van de laatste jaren. In 1966 werd het programma ELIZA ontwikkeld aan het Massachusetts Institute of Technology. Met ELIZA kun je een soort gesprek voeren waarbij zij de rol aanneemt van psychotherapeut. ELIZA heeft geen eigen gespreksstof maar verwerkt de invoer van de gebruiker in haar respons. Ook kan ELIZA bepaalde ‘key words’ herkennen en deze inbouwen in haar antwoorden.
Toen de werking van ELIZA getest werd, bleek dat veel mensen het idee hadden dat ze aan het chatten waren met een echt persoon, in plaats van met een computerprogramma! Het was zelfs zo dat veel mensen die van tevoren al wisten dat ze met een computerprogramma te maken hadden, zich zo mee lieten voeren in het gesprek dat ze dit helemaal vergaten.
Net een echt mens
In zijn boek Computer Power and Human Reason beschrijft ELIZA’s geestelijk vader Joseph Weizenbaum hoe het volgens hem komt dat mensen zo op kunnen gaan in een computerprogramma en dit als iets authentieks kunnen ervaren. Volgens Weizenbaum komt dat door het effect dat een medium ook op mensen kan hebben: ‘zolang men zichzelf herkent in de gegeven antwoorden en er voldoende ruimte is voor interpretatie wordt het gevoel dat men begrepen wordt, keer op keer bevestigd’. Hoe het ook zij, ELIZA is een prachtig voorbeeld van hoe mensen op een computerprogramma kunnen reageren alsof het een echt mens is.
Mens-computer interactie
De afgelopen jaren is veel onderzoek gedaan op het gebied van mens-computer interactie en dit heeft geleid tot verschillende interessante inzichten. Zo is er aan de universiteit van Stanford een onderzoek verricht met twee verschillende game-achtige programma’s waarin de gebruiker opdrachten kreeg. In het ene programma werden de opdrachten op een dominante, dwingende manier gepresenteerd, en in het andere programma werden de opdrachten op een veel minder dominante, meer empathische manier gepresenteerd. Het bleek dat de meer dominante proefpersonen de voorkeur gaven aan de meer dominante versie, en dat de minder dominante personen liever de minder dominante versie hadden. Ander onderzoek naar de werking van virtual agents (virtuele, geanimeerde personen) laat zien dat het uiterlijk van een virtual agent van belang is. Verschillende studies laten zien dat mensen over het algemeen meer aannemen van een agent die ook qua uiterlijk een beetje op hem- of haarzelf lijkt.
Tegenwoordig worden virtual agents steeds vaker ingezet als methode om mensen aan te sporen tot het veranderen van hun gedrag. Zo bestaat er bijvoorbeeld een programma waarin jongeren advies krijgen van een virtuele hulpverlener over condoomgebruik. Ook wordt er gewerkt aan een virtual agent die gericht is op het verhogen van therapietrouw bij schizofrene patiënten. Momenteel zijn er nog heel veel uitdagingen op het gebied van virtual agents die gericht zijn op counseling en het veranderen van gezondheidsgedrag. In het kader van mijn onderzoek aan de faculteit Psychologie van de Open Universiteit houd ik me bezig met een van die uitdagingen, namelijk het vertalen van motiverende gesprekstechnieken naar een computerprogramma met een virtuele coach. Een extra uitdaging hierbij is om de gebruiker zoveel mogelijk het gevoel te geven dat hij met een empathische, ‘echte’ coach in gesprek is.
Zelfstandige besluitvaardigheid
Mijn verwachting is dat, naarmate de technische ontwikkelingen verdergaan, virtual agents meer en meer toegepast gaan worden in online programma’s waarin persoonlijke thema’s zoals lichamelijke en geestelijke gezondheid centraal staan. Als we ver vooruit denken, levert dit een aantal interessante en belangrijke vragen op. Waar ligt bijvoorbeeld de (toekomstige) grens wat betreft inzetbaarheid van virtual agents bij de behandeling van psychische aandoeningen? En als de programmatuur van virtual agents zo complex wordt dat er een soort kunstmatig moreel besef en zelfstandige besluitvaardigheid mogelijk wordt, hoe gaan we daar dan mee om?
Ook al klinkt dit als science fiction, volgens Nick Bostrom, hoogleraar Filosofie aan de universiteit van Oxford is het wel degelijk nuttig om nú alvast na te denken hoe we een en ander in de toekomst ethisch gaan kaderen. Het lijkt mij ook zeker zinvol als deze toekomstige ontwikkelingen rondom geautomatiseerde, virtuele communicatie over persoonlijke onderwerpen vanaf een bepaald moment goed bijgehouden en geëvalueerd gaan worden door een team van juristen, ethici, psychologen, artsen en ict-specialisten. Ook eerder genoemde Joseph Weizenbaum benadrukt in zijn boek dat, hoe geavanceerd en mensgelijkend een programma ook is, een computer uiteindelijk een grote rekenmachine blijft. Bepaalde menselijke eigenschappen zoals wijsheid en medeleven zullen virtual agents dan ook nooit écht kunnen bezitten.
Stijn Friederichs is PhD student Psychologie aan de Open Universiteit. In kader van zijn onderzoek werkt hij aan de ontwikkeling van een online beweegcoach. Speciale interesse hierbij gaat uit naar hoe de aanwezigheid van een virtueel persoon mensen kan motiveren om hun gedrag te veranderen.
Er gebeuren vreemde dingen als chatbots met elkaar gaan praten. Zie het filmpje.
Reacties (8)
Op de één of andere manier moet ik meteen aan Anna denken.
“En als de programmatuur van virtual agents zo complex wordt dat er een soort kunstmatig moreel besef en zelfstandige besluitvaardigheid mogelijk wordt, hoe gaan we daar dan mee om?”
Ik werk als postdoc aan het ontwikkelen van kunstmatig moreel besef voor virtual agents en robots in de zorg :)
Ik heb een achtergrond in AI en psychologie en heb hiervoor een PhD project gedaan waarin ik ‘emotionele intelligentie’ heb ontwikkeld voor virtual agents en robots. Mijn proefschrift staat hier online:
http://www.few.vu.nl/~mpr210/DissertationMAPontier.pdf
“Het lijkt mij ook zeker zinvol als deze toekomstige ontwikkelingen rondom geautomatiseerde, virtuele communicatie over persoonlijke onderwerpen vanaf een bepaald moment goed bijgehouden en geëvalueerd gaan worden door een team van juristen, ethici, psychologen, artsen en ict-specialisten.”
Dat lijkt mij ook zinvol :)
“Ook eerder genoemde Joseph Weizenbaum benadrukt in zijn boek dat, hoe geavanceerd en mensgelijkend een programma ook is, een computer uiteindelijk een grote rekenmachine blijft. Bepaalde menselijke eigenschappen zoals wijsheid en medeleven zullen virtual agents dan ook nooit écht kunnen bezitten.”
Tja, een mens is op een bepaalde manier ook een computer, maar dan van koolwaterstoffen ipv silicium. Als mensen geen onderscheid meer kunnen maken tussen de wijsheid of medeleven van een virtueel en een echt mens, maakt het dan nog uit of ze deze wijsheid of dat medeleven ook écht bezitten?
Ik heb meerdere van dat soort bots uitgeprobeerd en ze lijken allemaal helemaal nergens op. Alleen inhoudsloze onzin komt eruit. Dat mensen denken dat ze echt zijn, verbaast me dan ook hogelijk.
Misschien dat de nieuwere varianten beter werk leveren, maar ik blijf skeptisch.
Deze bots hebben niks te maken met denken. Het zijn stimulus-respons-machientjes, statistisch getraind op een corpusje. De stap van dit soort gepruts in de marge (want hoe handig of nuttig ook, het blijft leeg gepruts) naar een ethisch kader is lachwekkend. Als zulke programma’s gekke dingen gaan doen, moeten ze gewoon herschreven worden. Ik adviseer je dit soort dingen uit je artikelen en evt. proefschrift weg te laten.
Alleen inhoudsloze onzin komt eruit. Dat mensen denken dat ze echt zijn, verbaast me dan ook hogelijk.
Mij niet zozeer maar volgens mij komt dat omdat mensen en dan vooral van het mediageile soort steeds meer op chabots gaan lijken.
ah, u ook in Python
No, just AB.
8=2*2*2, +N?