Kunnen we algoritmes maken die niet uitsluiten?

van Rosa van den Dool. Met het toeslagenschandaal werd nogmaals duidelijk dat data en datatechnologieën niet neutraal zijn en kunnen discrimineren, net als mensen. Hoe kunnen we dit soort data-onrechtvaardigheid de das omdoen? De Nederlandse overheid verzamelt grote hoeveelheden privacygevoelige data van en over burgers. Wat er vervolgens met deze gegevens gebeurt is niet altijd zichtbaar, maar kan wel grote impact hebben op ons levenWanneer ik inlog op de website van de Belastingdienst om belastingaangifte te doen, schrik ik van de hoeveelheid informatie die over mij in het systeem staat: de overheid weet beter wat ik dit jaar heb verdiend dan ikzelf. Algoritmen helpen overheidsinstanties omgaan met de oneindige stroom aan binnenkomende data. Deze computerprogramma’s bepalen vervolgens op basis van jouw gegevens of jij bijvoorbeeld in aanmerking komt voor een steekproef, waarmee ze checken of je wel genoeg belasting betaalt of wel recht hebt op huurtoeslag. Heel efficiënt, maar hieraan kleeft ook een keerzijde: algoritmes die gebruikt worden om informatie te sorteren en verwerken zijn niet neutraal en kunnen discrimineren. Of jij dus wordt uitgekozen voor een steekproef, kan zomaar worden bepaald op basis van je naam of de buurt waarin je woont. Discriminerende technologie Cultuur- en mediawetenschapper dr. Gerwin van Schie (UU) onderzoekt hoe het gebruik van data en algoritmen kan leiden tot discriminatie en onrechtvaardigheid in Nederland. “Als je wordt geboren in Nederland, melden je ouders je aan bij de gemeente en komen je gegevens terecht in de databases van de overheid. Je leeftijd wordt geregistreerd, maar bijvoorbeeld ook je geboorteland én het geboorteland van je ouders.” Waarom is dit problematisch? Een voorbeeld dat dit illustreert is de Leefbarometer: een online tool van het ministerie voor Binnenlandse Zaken die voorspelde in hoeverre een buurt ‘leefbaar’ was. Persoonsgegevens over geboorteland werden gebruikt als meetinstrument voor kwaliteit en veranderden zo in een voorspeller voor de leefbaarheidsscore. Wanneer er in een wijk dus veel mensen woonden met ouders die in het buitenland geboren zijn, werd die wijk als minder ‘leefbaar’ bestempeld. Pas sinds begin 2022 is het CBS overgegaan op een nieuwe indeling, waarin minder bepalend is waar iemands ouders vandaan komen, en meer bepalend waar iemand zélf geboren is. Dit betekent dus dat overheidsinstanties nog steeds data over je achtergrond kunnen gebruiken om een onderscheid te maken tussen groepen mensen, buurten of steden. Datadialoog Data-discriminatie komt niet voort uit racistische overheidsmedewerkers die meer ongelijkheid willen creëren of bepaalde bevolkingsgroepen het leven zuur willen maken. Het is het gevolg van een manier van denken die sterk is verweven met de Nederlandse cultuur. Volgens Van Schie speelt cultuur een grote rol in het bepalen waar we data over verzamelen en waar niet. “Als je wil weten wat de etnische samenstelling van de gevangenispopulatie in Nederland is, kun je naar het CBS en vind je het zo. Maar als je iets wil weten over de diversiteit in hoogleraren in Nederland, zijn daar geen gegevens over.” Systemen als de Leefbarometer zijn dus niet neutraal of objectief, omdat mensen met een bepaalde culturele blik zélf de categorieën in zo’n systeem bedenken. Het afnemen van een culturele bril gaat niet vanzelf, maar vergt aandacht. Hoe lossen we dit op? Hoogleraar Inlichtingen en Recht prof. mr. Jan-Jaap Oerlemans (UU) pleit voor meer dialoog en openheid over de manier waarop overheidsinstanties met gegevens omgaan. Hij ziet dat steeds meer overheidsinstanties gegevens over burgers verzamelen. Maar hoe ver mogen ze hierin gaan? “Deze vraag wordt vaak niet genoeg publiekelijk besproken. Dat moeten we wél doen,” zegt Oerlemans. Hij legt uit dat er te weinig toezicht is en dat adequate wetgeving eigenlijk nog ontbreekt. Hierdoor kunnen overheidsinstanties te ver gaan bij het verzamelen van inlichtingen en is het soms bijvoorbeeld niet duidelijk wat er met niet-gebruikte gegevens gebeurt. Ook ethicus mr. dr. Bart Wernaart benadrukt het belang van het voeren van het gesprek over de datahonger van overheidsinstanties. Hij legt uit dat datatechnologie een prominentere plek op de publieke agenda nodig heeft. Er bestaat namelijk een zogenaamd democratisch deficit als het hierom gaat: “Technologie speelt nauwelijks een rol in de verkiezingen en de politiek, terwijl het een grote rol speelt in ons leven.” Om dit probleem aan te pakken en te kunnen bepalen wat overheidsinstanties wel en niet mogen doen met persoonsgegevens, moet er volgens Wernaart eerst iets gebeuren met de gevoelens in de samenleving. “Je kunt niet wachten tot de wetgeving er iets mee doet: dan ben je te laat.” Dit artikel vercheen eerder bij Studium Generale Utrecht.

Foto: people looking at Picasso Guernica, gemaakt met DALL·E 2.

Kunst op Zondag | Artificieel intelligent plagiaat

ChatGPT pleegt plagiaat. De artificieel intelligente tekstrobot is leuk in het nieuws geweest (ook bij Sargasso). Van complimenten over hoe vlot er een redelijk aardige tekst uit komt, tot waarschuwingen over misbruik (bijvoorbeeld studenten die hun proefwerk door ChatGPT laten maken).

Maar tot nu toe is niemand nog op het idee gekomen ChatGPT (of de ontwerpers en eigenaars daarvan) voor de rechter te slepen wegens plagiaat. Bij AI-tools voor beeldende kunst, waar je ook met een paar woorden je eigen meesterwerkje kan maken, is dat sinds kort wel aan de orde.

De Amerikaanse kunstenaars Sarah Andersen, Kelly McKernan en Karla Ortiz hebben een rechtszaak aangespannen tegen de makers van de kunstgeneratoren Stable Diffusion, de Discord-interface van Midjourney en het internetplatform DeviantArt, dat de AI-kunstgenerator DreamUp maakt.

De kwestie: de kunstgeneratoren schenden de auteursrechten van de kunstenaars.  De software maakt immers gebruik van  auteursrechtelijk beschermde werken van miljoenen kunstenaars.

Hoe een rechter volgens de Amerikaanse wetgeving daar over zal oordelen is gissen. Maar een voorzichtige proef op de som laat zien dat ze wel degelijk enige kans hebben. En dat kan de makers van de AI-kunstgeneratoren een flinke duit aan schadevergoeding gaan kosten.

Deze ‘Nighthawks’, gemaakt met Stable Diffusion…

Doe het veilig met NordVPN

Sargasso heeft privacy hoog in het vaandel staan. Nu we allemaal meer dingen online doen is een goede VPN-service belangrijk om je privacy te beschermen. Volgens techsite CNET is NordVPN de meest betrouwbare en veilige VPN-service. De app is makkelijk in gebruik en je kunt tot zes verbindingen tegelijk tot stand brengen. NordVPN kwam bij een speedtest als pijlsnel uit de bus en is dus ook geschikt als je wil gamen, Netflixen of downloaden.

Lezen: Het wereldrijk van het Tweestromenland, door Daan Nijssen

In Het wereldrijk van het Tweestromenland beschrijft Daan Nijssen, die op Sargasso de reeks ‘Verloren Oudheid‘ verzorgde, de geschiedenis van Mesopotamië. Rond 670 v.Chr. hadden de Assyriërs een groot deel van wat we nu het Midden-Oosten noemen verenigd in een wereldrijk, met Mesopotamië als kernland. In 612 v.Chr. brachten de Babyloniërs en de Meden deze grootmacht ten val en kwam onder illustere koningen als Nebukadnessar en Nabonidus het Babylonische Rijk tot bloei.

Foto: Kordite (cc)

Stop de taalmodellen

OpenAI is een bedrijf dat de kracht kent van de angst. Het bedrijf kwam vorig jaar met een taalcomputer, GPT-3, een computer die kan schrijven, en het bedrijf heeft de angst voor die ontwikkeling op subtiele manieren weten te voeden. Worden computers nu echt zo slim dat ze artikelen en verhalen kunnen schrijven die ons meer weten te boeien dan wat er uit mensenbolletjes komt?

Bij de vorige versie, GPT-2, weigerde het bedrijf een tijdlang de algoritmes vrij te geven omdat dit “te gevaarlijk” zou zijn. Als dit in de verkeerde handen viel, dan ging de doos van Pandora van het geloofwaardige fake news en allerlei andere ellende pas echt open. Een effect daarvan was dat deze modellen pas echt serieus werden genomen. Ik kan me maar niet onttrekken aan de gedachte dat dit precies de bedoeling was van die o zo ethisch lijkende stap. Voor GPT-3 werden de algoritmes sowieso niet meer vrijgegeven, nu niet vanwege de veiligheid maar omdat het bedrijf inmiddels commercieel was geworden.

Racisme

Of al die angst gerechtvaardigd is, weten we niet. Er zijn wel her en der voorbeelden opgedoken van teksten die GPT-3 geschreven zou hebben, en als je betaalt, kun je er ook zelf mee aan de slag, maar dat op een heel beperkte manier: het programma blijft op de servers van OpenAI draaien, je kunt alleen eigen programma’s schrijven die vragen stellen aan dat programma.

Foto: wbeem (cc)

Ook in een digitale wereld kunnen we autonoom zijn

Hoe vrij zijn we in een wereld die wordt geregeerd door data en algoritmes? Is onze autonomie uit handen geven onvermijdelijk? Of kunnen we zelf, als individu, nog iets doen om onze autonomie te behouden?

“Hoe heb je afgelopen nacht geslapen?” Het is een vraag die je tegenwoordig kan beantwoorden door naar je smartwatch te kijken. In gesprek met essayisten Bas Heijne en Miriam Rasch legt filosoof Joel Anderson uit dat zijn smartwatch meer weet over zijn nachtrust dan hijzelf. Op het apparaat draaien apps die het zuurstofgehalte in zijn bloed meten en zijn slaapcyclus monitoren. Met die data is de vraag exacter te beantwoorden. Waarom zou je zulke vondsten niet gebruiken om je leven beter te maken? De mens heeft altijd hulpmiddelen nodig gehad om te overleven, en dat is nu niet anders, betoogt Anderson.

Waar Anderson optimistischer tegenover technologie staat, neigt Heijne meer naar tech-pessimisme. In 2006 was de Time person of the year: You, omdat de digitalisering de macht zou leggen bij het individu. Heijne constateert nu dat die belofte niet is uitgekomen. Het is eerder omgekeerd, het individu wordt beheerst door grote bedrijven die geld verdienen met de datastromen die we produceren. Deze twee standpunten laten zien hoe ingewikkeld het is om individuele autonomie in de digitale wereld te begrijpen. Kiezen we er zelf voor omdat het ons leven makkelijker maakt, of zijn we marionetten van Facebook, Amazon, Google en dat soort bedrijven? Wat kunnen we doen om onze autonomie online te verstevigen?

Lezen: Bedrieglijk echt, door Jona Lendering

Bedrieglijk echt gaat over papyrologie en dan vooral over de wedloop tussen wetenschappers en vervalsers. De aanleiding tot het schrijven van het boekje is het Evangelie van de Vrouw van Jezus, dat opdook in het najaar van 2012 en waarvan al na drie weken vaststond dat het een vervalsing was. Ik heb toen aangegeven dat het vreemd was dat de onderzoekster, toen eenmaal duidelijk was dat deze tekst met geen mogelijkheid antiek kon zijn, beweerde dat het lab uitsluitsel kon geven.

Lezen: De wereld vóór God, door Kees Alders

De wereld vóór God – Filosofie van de oudheid, geschreven door Kees Alders, op Sargasso beter bekend als Klokwerk, biedt een levendig en compleet overzicht van de filosofie van de oudheid, de filosofen van vóór het christendom. Geschikt voor de reeds gevorderde filosoof, maar ook zeker voor de ‘absolute beginner’.

In deze levendige en buitengewoon toegankelijke introductie in de filosofie ligt de nadruk op Griekse en Romeinse denkers. Bekende filosofen als Plato en Cicero passeren de revue, maar ook meer onbekende namen als Aristippos en Carneades komen uitgebreid aan bod.

Foto: ApolitikNow (cc)

Is online manipulatie oké als het niet effectief is?

ESSAY - door Fleur Jongepier (Universitair Docent Radboud Universiteit Nijmegen).

De concepten “individu” en “vrijheid” hebben in het digitale tijdperk geen betekenis meer (Yuval Noah Harari). Omdat algoritmes “ons beter begrijpen dan wij onszelf begrijpen, kunnen ze ons manipuleren op manieren die we niet kunnen begrijpen” (Jamie Bartlett). We worden door big tech bedrijven behandeld als een massa “gebruikers” die als een kudde “samengedreven” kan worden (Shoshana Zuboff).

Poeh, poeh, nou, nou, zo kan die wel weer. Wordt de soep werkelijk zo heet gegeten als die wordt opgediend? Jesse Frederik en Maurits Martijn (hierna: team FrederikMartijn) plaatsen in een stuk in de Correspondent terecht de nodige vraagtekens. Online advertenties (dat is waar het de meesten die alarm slaan om te doen is) zijn, stellen zij, de “nieuwe internetbubbel”.

Wordt ons brein “gehijacked”?

Team FrederikMartijn geeft goede reden om te twijfelen aan de effectiviteit van online advertenties en dus ook, zou je denken, aan de ernst van – dat wil zeggen, de morele bezwaren omtrent – online manipulatie. Ik moet eerlijk toegeven: ik ben door het stuk geturned. Aanvankelijk zat ik in het “onze autonomie staat mogelijk (!) op het spel”-kamp, en nu denk ik toch: ja, aan mij zul je toch geen stilettohakken kunnen slijten, hoeveel een algoritme ook over mij weet, en hoe vernuftig de advertenties ook zijn. Plus, de meeste van de belangrijke keuzes die ik in mijn leven maak (wat betreft carrière of sociaal leven) zijn voldoende autonoom. Ik heb bepaald niet het idee dat mijn “brein” in feite “gehijacked” wordt (Harari). Waar hebben we het dus precies over?

Foto: Nukamari (cc)

Dieven met dieven vangen

The New York Times publiceerde afgelopen weekend een lang artikel over Clearview AI. De oprichter, de Australiër Hoan Ton-That, zocht al langer naar een klapper maar was niet verder gekomen dan een app waarmee je selfies van een Trump-kapsel kon voorzien. Ton-That maakte ook een site waar je al je vrienden videolinks kon sturen; moest je wel even al je contacten uit je chatprogramma’s met de site delen.

Toen volgende een lumineus idee. Ton-That verdiepte zich in kunstmatige intelligentie en algoritmes, leerde hoe je sites kon leegtrekken (scrapen), en verzamelde wat startkapitaal. Hij bouwde een programma dat overal foto’s jatte en die opsloeg in een database, waarbij elke foto werd voorzien van de naam van de geportretteerde, plus de locatie, plaats en tijd van de opname. Ton-That verzamelde een fikse stapel, en liet er gezichtsherkenning op los.

Lang wist-ie niet wat ermee kon aanvangen. Toen wist hij Peter Thiel voor zijn project te interesseren. Thiel is de extreemrechtse mede-oprichter van Paypal, een van de eerste investeerders in Facebook, en de oprichter van Palantir, die veel opsporingssoftware maakt voor de CIA, en voor banken plus andere financiële dienstverleners.

Na wat vallen en opstaan wist Ton-That een paar politiediensten in de Verenigde Staten te interesseren, meestal via iemand die hij eerst zelf had gescout. Inmiddels beschikte hij over een database met 3 miljard gezichten. Hij vroeg zo’n detective om een paar foto’s van mensen die ze zochten, wist hem te imponeren met de resultaten, de diender pleitte bij de baas, en hoppa, weer een klant. Inmiddels doet Clearview zaken met lokale politiediensten, de FBI en Homeland Security.

Lezen: Venus in het gras, door Christian Jongeneel

Op een vroege zomerochtend loopt de negentienjarige Simone naakt weg van haar vaders boerderij. Ze overtuigt een passerende automobiliste ervan om haar mee te nemen naar een afgelegen vakantiehuis in het zuiden van Frankrijk. Daar ontwikkelt zich een fragiele verstandhouding tussen de twee vrouwen.

Wat een fijne roman is Venus in het gras! Nog nooit kon ik zoveel scènes tijdens het lezen bijna ruiken: de Franse tuin vol kruiden, de schapen in de stal, het versgemaaide gras. – Ionica Smeets, voorzitter Libris Literatuurprijs 2020.

Foto: Scott Lynch (cc)

Kunst op Zondag | Kunstmatige kunstenaars

De zoektocht naar robots die mensen zijn gaat onverminderd voort. De technologen zijn zich wel bewust van het feit dat naast robots die auto’s maken, zieken verzorgen en alle andere nuttige robots, het niet mag ontbreken aan robots die kunst maken.

En dus werd in juni Ai-Da gepresenteerd, volgens de makers de “eerste ultra-realistische AI robotkunstenaar ter wereld”. De robotkunstenaar gaf o.a. een performance tijdens haar eerste tentoonstelling.

Deze robot kan tekenen, schilderen en voert performances uit. Op basis van wat ze ziet, maakt ze in drie kwartier een kunstwerk. Kunstmatige genialiteit? Of niet meer dan een algoritmisch kunstje?

De pogingen met hedendaagse technologie kunst te maken zijn legio, de resultaten divers. Van software waarmee kunst geanalyseerd en nagemaakt kan worden, tot zelflerende robotica waarmee men originele kunstwerken hoopt te maken.

Eén van de eerste pogingen de computer zelfstandig kunst te laten maken stamt uit 1968. Harold Cohen (1928 – 2016) ontwierp het programma AARON (1973 e.v.), dat kunstwerken produceerde die wereldwijd werden geëxposeerd.

e-David, ontworpen door de universiteit van Konstanz, analyseert een afbeelding, berekent de kwaststreken en slaat aan het schilderen (filmpje 3 min. 25”)..

De nationale universiteit van Taiwan ontwierp de robot Taida, een stippenschilder en won in 2016 de eerste prijs in een Robot Art competitie (filmpje 2 min. 12”)..

Foto: JCT 600 (cc)

Oeps, vergeten: burgerrechten

COLUMN - Het Britse Prospect publiceerde vorige week een artikel over al te slimme steden, naar aanleiding van Googles plannen met een wijk in Toronto. Op circa 50.000 vierkante meter zou een slimme, data driven wijk verrijzen.

Robots voor de vuilnisophaal waren nog het eenvoudigste idee. Winkels en huizen zouden modulair zijn, en konden van dag tot dag van bestemming of functie veranderen; straatplannen werden aanpasbaar, de hele openbare ruimte zou programmeerbaar zijn, met technologie in elk hoekje, gaatje en gootje, en via oneindige datastromen en lerende algoritmes zou alles op rolletjes lopen. Google had al plannen om de wijk ‘downloadable’ te maken en naar andere gebieden te exporteren.

Tot verrassing van het gemeentebestuur en Google kwam de stad in verzet.

Niet alleen had niemand ze gevraagd wat zij wilden, de plannen voorzagen sowieso niet in een menselijke stem. Hoe werd beslist wat er met de publieke ruimte gebeurde? Op welke grondslagen en met welke uitgangspunten zouden de algoritmes van de wijk worden geprogrammeerd? In wiens handen zou de onderliggende digitale architectuur zijn? Wie mocht de buurtdata uitponden? Welke zeggenschap zouden bewoners nog over hun omgeving hebben?

‘From Canada to the Philippines, from Belfast to Bangalore, national governments and civic authorities are convinced that big data can unblock their traffic jams, rationalise their energy use and fix their housing problems, not to mention their benefits systems and even their healthcare.’

Martin Moore, ‘Would you let Google run your city?’, The Prospect

Lezen: De BVD in de politiek, door Jos van Dijk

Tot het eind van de Koude Oorlog heeft de BVD de CPN in de gaten gehouden. Maar de dienst deed veel meer dan spioneren. Op basis van nieuw archiefmateriaal van de AIVD laat dit boek zien hoe de geheime dienst in de jaren vijftig en zestig het communisme in Nederland probeerde te ondermijnen. De BVD zette tot tweemaal toe personeel en financiële middelen in voor een concurrerende communistische partij. BVD-agenten hielpen actief mee met geld inzamelen voor de verkiezingscampagne. De regering liet deze operaties oogluikend toe. Het parlement wist van niets.

Lezen: Mohammed, door Marcel Hulspas

Wie was Mohammed? Wat dreef hem? In deze vlot geschreven biografie beschrijft Marcel Hulspas de carrière van de de Profeet Mohammed. Hoe hij uitgroeide van een eenvoudige lokale ‘waarschuwer’ die de Mekkanen opriep om terug te keren tot het ware geloof, tot een man die zichzelf beschouwde als de nieuwste door God gezonden profeet, vergelijkbaar met Mozes, Jesaja en Jezus.

Mohammed moest Mekka verlaten maar slaagde erin een machtige stammencoalitie bijeen te brengen die, geïnspireerd door het geloof in de ene God (en zijn Profeet) westelijk Arabië veroverde. En na zijn dood stroomden de Arabische legers oost- en noordwaarts, en schiepen een nieuw wereldrijk.

Foto: Leigh Anthony DEHANEY (cc)

Algoritmes leiden niet automatisch tot eerlijkere selectie

DATA - Steeds meer werkgevers zetten algoritmes in voor werving en selectie. Bij Nike en Unilever is het niet meer ongewoon om pas in de derde ronde van de sollicitatieprocedure in gesprek te komen met een menselijke medewerker. Vooroordelen en ongelijkheid kunnen zo meer ruimte krijgen, volgens Annemarie Hiemstra en Isabelle Nevels.

Het aantal aanbieders van geautomatiseerde en digitale selectiemethoden neemt toe. Zo voorspelt het algoritme van het Nederlands-Chinese bedrijf Seedlink op basis van taalgebruik van sollicitanten wie er het meest geschikt is voor een functie en maakt het Amerikaanse HireVue gebruik van video-opnames om tot een automatisch gegenereerde beoordeling te komen.

Dit sluit nauw aan bij het huidige debat. Is het nog wel nodig om klassieke kennis, karaktereigenschappen en competenties, typisch gemeten met psychologische vragenlijsten en assessments, in kaart te brengen? Wellicht dat meer impliciete patronen, die via algoritmes herkend worden op basis van grote volumes data (zoals geschreven tekst, of video’s van sollicitanten), even goede of zelfs betere resultaten kunnen behalen bij het selecteren van de beste kandidaat.

Organisaties hebben slechts de beschikking over hun eigen inschatting van de meerwaarde en eerlijkheid van selectie via computerondersteuning. Wetenschappelijke bewijs voor het gebruik van technologieën is er echter nog nauwelijks. Hoe kunnen we ervoor zorgen dat computersystemen op een verantwoorde manier worden ingezet?

Foto: NEC Corporation of America (cc)

Weet wie je in huis haalt

COLUMN - In Engeland bood Google in 2014 aan een handige applicatie voor de zorg te bouwen: artsen en verpleegkundigen konden hun patiënten ermee monitoren op acuut nierfalen. Dat doet zich vaak voor na hartoperaties, maar het komt ook ‘spontaan’ voor. Acuut nierfalen is ernstig: wordt het te laat onderschept, dan raken je nieren zwaar beschadigd, wat vervolgens dialyse of transplantatie vereist. En wie eenmaal acuut nierfalen heeft doorstaan, is nadien veel vatbaarder voor andere nierproblemen. De moeite waard om daar een tool voor te bouwen, zou je denken.

Mitsen en maren werden in acht genomen, regels afgesproken, en vooral: er werd vastgelegd wat Google wel en niet met de patiëntgegevens mocht doen. De app beviel, en werd gaandeweg uitgebreid: er kwamen meer functies en andere toepassingen werden verzonnen. De app monde uit in een compleet systeem voor het beheren van patiëntengegevens: Streams, een prachtig elektronisch patiëntendossier. Google beloofde plechtig – en herhaalde dat in 2016 – dat de erin vervatte gegevens ‘nooit gerelateerd zullen worden aan Google accounts of Google diensten’, en de NHS – de Britse gezondheidszorg – geloofde dat. Er werd zelfs een onafhankelijke toezichthouder opgetuigd.

Vorige week kondigde Google ineens eenzijdig af dat het de dienst herstructureerde en bij een nieuwe divisie van Google zou onderbrengen: DeepMind Health. ‘Streams wordt een AI-assistent voor artsen en verpleegkundigen overal ter wereld, en zal de beste algoritmes met intuïtief ontwerp combineren, alles gestut door rigoureus gecontroleerd onderzoek.’ Die app, waarvan de gegevens nooit door Google zelf gebruikt zou worden, is nu een Google product geworden. De NHS zit eraan vast: al hun patiëntendata zitten in de app en is bij Google geparkeerd. En oh ja: Google heeft de toezichthouder ontmanteld: ‘Dat was een toezichtstructuur voor DeepMind Health in het Verenigd Koninkrijk. Maar nu willen we wereldwijd actief worden.’

Doneer!

Sargasso is een laagdrempelig platform waarop mensen kunnen publiceren, reageren en discussiëren, vanuit de overtuiging dat bloggers en lezers elkaar aanvullen en versterken. Sargasso heeft een progressieve signatuur, maar is niet dogmatisch. We zijn onbeschaamd intellectueel en kosmopolitisch, maar tegelijkertijd hopeloos genuanceerd. Dat betekent dat we de wereld vanuit een bepaald perspectief bezien, maar openstaan voor andere zienswijzen.

In de rijke historie van Sargasso – een van de oudste blogs van Nederland – vind je onder meer de introductie van het liveblog in Nederland, het munten van de term reaguurder, het op de kaart zetten van datajournalistiek, de strijd voor meer transparantie in het openbaar bestuur (getuige de vele Wob-procedures die Sargasso gevoerd heeft) en de jaarlijkse uitreiking van de Gouden Hockeystick voor de klimaatontkenner van het jaar.

Lezen: Bedrieglijk echt, door Jona Lendering

Bedrieglijk echt gaat over papyrologie en dan vooral over de wedloop tussen wetenschappers en vervalsers. De aanleiding tot het schrijven van het boekje is het Evangelie van de Vrouw van Jezus, dat opdook in het najaar van 2012 en waarvan al na drie weken vaststond dat het een vervalsing was. Ik heb toen aangegeven dat het vreemd was dat de onderzoekster, toen eenmaal duidelijk was dat deze tekst met geen mogelijkheid antiek kon zijn, beweerde dat het lab uitsluitsel kon geven.