DATA - Jeroen van der Ham is onderzoeker en docent bij de opleiding System and Network Engineering van de Universiteit van Amsterdam. Hij schrijft voor het Rathenau Instituut een serie blogs over ethische vraagstukken bij data-onderzoeken. In deze bijdrage laat hij zien hoe er bij samenwerkingen tussen onderzoekers en bedrijven een verschil kan zijn in de ethische standaarden waarmee wordt gewerkt.
Facebook is een bedrijf dat leeft op gedeelde data. Mensen worden lid van Facebook om status updates te delen met vrienden, op de hoogte te blijven van wat anderen doen en berichtjes naar elkaar te sturen. Facebook analyseert en filtert de data en probeert op die manier een zo prettig mogelijk beeld te geven van wat er om je heen gebeurt. Door je gedrag kan Facebook leren wie je goede vrienden zijn en wie je vage kennissen. De status-updates van die mensen worden ook op die manier behandeld.
Maar in januari 2012 ging Facebook nog een stapje verder: onderzoekers wilde kijken of het mogelijk was om emoties te beïnvloeden door de filtering van berichten aan te passen. Te kijken of gebruikers ook minder vrolijk werden als er minder vrolijke berichten getoond werden, of juist blijer als er minder verdrietige berichten getoond werden.
Deze studie werd uitgevoerd op Engelssprekende gebruikers, zonder dat deze daarvan op de hoogte waren gebracht, of daar expliciet toestemming voor hadden gegeven. Ook nadat de studie was afgerond en de resultaten geanalyseerd waren werd er niet naar deze proefpersonen gecommuniceerd.
De resultaten van deze studie werden in juni 2014 gepubliceerd in het prestigieuze Proceedings of the National Academy of Sciences (PNAS) (Kramer 2014). De studie was uitgevoerd door onderzoekers van Facebook, in samenwerking met onderzoekers van Cornell University. Ineens werd duidelijk wat er precies gedaan was met gebruikers.
Duiding
Gebruikers voelden zich geschoffeerd, collega-onderzoekers vroegen zich af of dit wel door de beugel kon. Normaal gesproken moet een onderzoek bij een Amerikaanse universiteit goedgekeurd worden door een Institutional Review Board (IRB). Zo’n commissie kijkt naar de ethische aspecten van het onderzoek, bijvoorbeeld hoe er met proefpersonen wordt omgegaan. Deze studie was daar ook voorgelegd, en zonder veel discussie goedgekeurd, de onderzoekers van Cornell kregen namelijk zelf geen toegang tot de ruwe data; ze leverden alleen analyse methoden aan.
De studie was namelijk zo opgezet dat de Facebook onderzoekers de data zouden verzamelen en het experiment zouden uitvoeren. De onderzoekers van Cornell zouden dan statistische analyses aanleveren. Die werden vervolgens door de Facebook onderzoekers losgelaten op de ruwe data, waar dan overzichtstabellen uitkwamen. Op die manier zouden de Cornell onderzoekers niets van doen hebben met de proefpersonen, of de ruwe data, maar wel betrokken zijn bij de studie en de publicatie.
De situatie voor universiteiten en bedrijven met betrekking tot het doen van onderzoek is duidelijk verschillend. Universiteiten worden geacht op een strikt ethische manier onderzoek te doen. Bij een onderzoek van een universiteit wordt er door de ethische code gevraagd om “informed consent” (geïnformeerde toestemming). Deze term houdt in: het moet voor een proefpersoon begrijpelijk zijn wat er precies gaat gebeuren, welke data wordt verzameld, voor welk specifiek doel en deze persoon doet hier vrijwillig aan mee. Deze toestemming wordt vaak met behulp van een formulier gevraagd zodat dit duidelijk omschreven is.
Bedrijven hoeven zich in het algemeen niet te houden aan dit soort strikte richtlijnen. Zolang zij binnen de kaders van de wet opereren is er niets aan de hand. De Facebook onderzoekers beweerden ook dat alle proefpersonen in de studie toestemming hadden gegeven door akkoord te gaan met de algemene voorwaarden. Bijna geen enkele gebruiker zal zich realiseren dat dit kan gebeuren door akkoord te gaan (Daarnaast bleek ook nog dat de expliciete vermelding van “gebruik voor onderzoek” pas in mei 2012 was toegevoegd).
Conclusie
Samenwerking tussen bedrijven en wetenschap biedt veel potentie. Bedrijven (zeker bedrijven zoals Facebook) beschikken over een schat aan informatie die ook voor wetenschappers waardevol kan zijn. Deze data is niet vanzelfsprekend bruikbaar voor onderzoek. Bij het delen van data moet goed gelet worden op de wettelijke, maar ook de ethische kaders. Er zijn strikte regels voor het delen van data, dit mag (ook voor onderzoek) in principe alleen met specifieke toestemming.
Deze case laat zien dat samenwerkingen tussen bedrijven en onderzoekers ook nieuwe vragen opleveren als het gaat om data-onderzoek. IRBs en Ethische Commissies vormen een bescherming om ethisch verantwoord onderzoek te garanderen. Maar deze samenwerking tussen Facebook en Cornell laat zien dat ethische standaarden verschillen tussen bedrijven en de wetenschap. In dit geval werden de strengere eisen van de wetenschap omzeild. Je zou kunnen zeggen dat de data nu ethisch is witgewassen. Hoe moeten we daar in toekomst mee omgaan?
Dit geval toont ook aan dat zelfs indirecte toegang tot data kan leiden tot een grote maatschappelijke discussie. Ook bij deze indirecte toegang moet gekeken worden naar hoe de data verkregen is en of dit wel binnen de kaders van de wetenschappelijke gedragscode valt. Nieuwe onderzoeken zouden ook op deze manier opgezet kunnen worden om zo data te kunnen “ethisch witwassen”.
De discussie heeft er overigens ook toe geleid dat binnen Facebook strenger gekeken wordt naar de onderzoeken die uitgevoerd worden.
- Kramer, A.D.I., J.E. Guillory & J.T. Hancock (2014). ‘Experimental evidence of massive-scale emotional contagion through social networks’ In: PNAS 2014 111 (24) 8788-8790; published ahead of print June 2, 2014, doi:10.1073/pnas.1320040111
Via Data denkers
Reacties (3)
Ten tweede: Faceboek en allerlei andere partijen doen dit de hele dag. Een belangrijk deel van de advertenties die u ziet zijn onderdeel van een experiment. De volgorde van uw Faceboek-wall is een voortdurend experiment. De “sponsored” bijdragen op Faceboek zijn een experiment. De volgorde van zoekresultaten in Google mogelijk ook. U bent de hele dag proefpersoon. Verontwaardiging daarover acht ik … idioot. Zo’n onderzoek heeft meer weg van het observeren van voorbijgangers in de publieke ruimte dan een klassiek onderzoek. Alleen hebt u in de publieke ruimte meer privacy dan op Faceboek of op het Internet – in de publieke ruimte bent u immers weer weg als u weg bent. Op Faceboek blijft uw bezoek eeuwig bewaard. En op Google ook.
Dat maakt de verontwaardiging zo raar… naief… zorgwekkend. Blijkbaar beseft men niet goed wat men online allemaal uitspookt en wat de betekenis daarvan is. In plaats van net te doen alsof voor dit soort onderzoeken, die al sinds jaar en dag permanent gaande zijn, een soort nieuw moreel kader nodig is zou ik me liever zorgen maken om de verontwaardiging bij het algemene publiek. Die zegt namelijk vrijwel niets over het onderzoek maar des te meer over de dommige naiviteit van de “proefpersonen” en over hoe slecht de standaardbrowsers van vandaag aansluiten bij de verwachtingen van die naieve internetgebruiker.
Ten eerste: analysemethoden is 1 woord.
‘Dit geval toont ook aan dat zelfs indirecte toegang tot data kan leiden tot een grote maatschappelijke discussie.’
Nou, die grote maatschappelijke discussie is dan volledig aan mij voorbij gegaan. Woedt die op Facebook soms? Lijkt me sterk. Maar goed, Joseph Goebbels zou in interessante tijden geleefd hebben nu. Oeps, toch geen godwinnetje hoop ik? Welnu, nudget u mij maar de hel in dan. ;-)