Stop de taalmodellen

OpenAI is een bedrijf dat de kracht kent van de angst. Het bedrijf kwam vorig jaar met een taalcomputer, GPT-3, een computer die kan schrijven, en het bedrijf heeft de angst voor die ontwikkeling op subtiele manieren weten te voeden. Worden computers nu echt zo slim dat ze artikelen en verhalen kunnen schrijven die ons meer weten te boeien dan wat er uit mensenbolletjes komt? Bij de vorige versie, GPT-2, weigerde het bedrijf een tijdlang de algoritmes vrij te geven omdat dit “te gevaarlijk” zou zijn. Als dit in de verkeerde handen viel, dan ging de doos van Pandora van het geloofwaardige fake news en allerlei andere ellende pas echt open. Een effect daarvan was dat deze modellen pas echt serieus werden genomen. Ik kan me maar niet onttrekken aan de gedachte dat dit precies de bedoeling was van die o zo ethisch lijkende stap. Voor GPT-3 werden de algoritmes sowieso niet meer vrijgegeven, nu niet vanwege de veiligheid maar omdat het bedrijf inmiddels commercieel was geworden. Racisme Of al die angst gerechtvaardigd is, weten we niet. Er zijn wel her en der voorbeelden opgedoken van teksten die GPT-3 geschreven zou hebben, en als je betaalt, kun je er ook zelf mee aan de slag, maar dat op een heel beperkte manier: het programma blijft op de servers van OpenAI draaien, je kunt alleen eigen programma’s schrijven die vragen stellen aan dat programma. Niemand weet dus hoe het werkt. Wat we wel weten: de teksten die OpenAI lijkt te genereren zijn uiteindelijk nogal zielloos. In een interessant artikel in het elektronisch tijdschrift n+1 vergelijkt Meghan O’Gieblyn het met onder hypnose geschreven teksten, of het soort teksten dat de surrealisten wel produceerden, waarbij ze alle gedachten probeerden uit te schakelen. O’Gieblyn noemt daarbij niet de term écriture automatique, maar dat is wat het is: het onderbewuste lijkt aan het woord, zonder bedoeling, zonder overtuiging, zonder een sturende hand van het bewuste. Gedachteloze gedachten. Er is weinig om bang voor te zijn, misschien met uitzondering van de najagers van zulke fantasieën. Vorig jaar werd de onderzoeker Timnit Gebru ontslagen bij Google vanwege haar kritiek op Google’s eigen ‘taalmodellen’. Het ontslag zorgde vooral voor een schandaal omdat Gebru ervoor waarschuwde dat die taalmodellen racisme, seksisme en andere nare vooroordelen zou reproduceren; er hoeft maar iets te gebeuren of zo’n model, gevoed met de teksten van het internet, begint te brallen. Mij lijkt precies dat verhaal deel van de angst: het is alleen erg als die racistische teksten ook bijvoorbeeld overtuigend werken en dat doen ze nog lang niet. Energieverspilling Enigszins onder de radar bleef dat Gebru op basis van onderzoek ook kritiek had op een heel ander aspect: die modellen vreten energie. Om Google’s taalmodel op een redelijke hoeveelheid data te trainen, dus om het een bepaald type tekst te laten schrijven of te laten schrijven als één bepaalde schrijver, is er meer energie nodig dan om van New York naar Chicago te vliegen. (Ook wat dat betreft kun je beter een menselijk hoofd hebben.) Er is nu sprake van dat OpenAI volgend jaar met een nieuw taalmodel komt (vol fantasie GPT-4 genoemd), dat 500 keer groter is dan GPT-3. In de zoektocht naar een computer die een onderzoeksverslag kan schrijven in het Engels is dat allemaal geoorloofd. (En let wel: dit gebeurt dus, zolang de algoritmes geheim zijn, niet met een beroep op de vermeerdering van kennis en de wetenschap, maar alleen voor commercieel gewin.) Op zijn minst sinds de tijden van Lernout en Hauspie of die van Bob Mercer kleeft de taaltechnologische industrie een wat bedenkelijk imago aan – een imago waar de beoefenaren van het vak wat mij betreft zich veel te weinig over hebben drukgemaakt. Zolang ik het vak volg, en dat doe ik al 35 jaar, is er de belofte dat de grote doorbraak nu toch echt om de hoek ligt, omdat de computers nu nog sneller zijn geworden, niet omdat de ideeën beter zijn geworden. Voortdurend worden er daardoor angstverhalen aangewakkerd van computers die binnenkort onze intellectuele taken gaan overnemen. De feitelijke resultaten vallen altijd tegen, maar dat valt nooit op, omdat op het moment dat de evaluatie zou kunnen komen van al die grandioze claims er gewoon weer nieuwe angstverhalen komen over wat de computers over 10 jaar dan wél allemaal zouden kunnen. Ik zou zeggen is dat het tijd is dat de samenleving zich uitspreekt over de vraag of het zulke schadelijke, energieverspillende industrieën wel wil verdragen.

Foto: wbeem (cc)

Ook in een digitale wereld kunnen we autonoom zijn

Hoe vrij zijn we in een wereld die wordt geregeerd door data en algoritmes? Is onze autonomie uit handen geven onvermijdelijk? Of kunnen we zelf, als individu, nog iets doen om onze autonomie te behouden?

“Hoe heb je afgelopen nacht geslapen?” Het is een vraag die je tegenwoordig kan beantwoorden door naar je smartwatch te kijken. In gesprek met essayisten Bas Heijne en Miriam Rasch legt filosoof Joel Anderson uit dat zijn smartwatch meer weet over zijn nachtrust dan hijzelf. Op het apparaat draaien apps die het zuurstofgehalte in zijn bloed meten en zijn slaapcyclus monitoren. Met die data is de vraag exacter te beantwoorden. Waarom zou je zulke vondsten niet gebruiken om je leven beter te maken? De mens heeft altijd hulpmiddelen nodig gehad om te overleven, en dat is nu niet anders, betoogt Anderson.

Waar Anderson optimistischer tegenover technologie staat, neigt Heijne meer naar tech-pessimisme. In 2006 was de Time person of the year: You, omdat de digitalisering de macht zou leggen bij het individu. Heijne constateert nu dat die belofte niet is uitgekomen. Het is eerder omgekeerd, het individu wordt beheerst door grote bedrijven die geld verdienen met de datastromen die we produceren. Deze twee standpunten laten zien hoe ingewikkeld het is om individuele autonomie in de digitale wereld te begrijpen. Kiezen we er zelf voor omdat het ons leven makkelijker maakt, of zijn we marionetten van Facebook, Amazon, Google en dat soort bedrijven? Wat kunnen we doen om onze autonomie online te verstevigen?

Steun ons!

De redactie van Sargasso bestaat uit een club vrijwilligers. Naast zelf artikelen schrijven struinen we het internet af om interessante artikelen en nieuwswaardige inhoud met lezers te delen. We onderhouden zelf de site en houden als moderator een oogje op de discussies. Je kunt op Sargasso terecht voor artikelen over privacy, klimaat, biodiversiteit, duurzaamheid, politiek, buitenland, religie, economie, wetenschap en het leven van alle dag.

Om Sargasso in stand te houden hebben we wel wat geld nodig. Zodat we de site in de lucht kunnen houden, we af en toe kunnen vergaderen (en borrelen) en om nieuwe dingen te kunnen proberen.

Doe het veilig met NordVPN

Sargasso heeft privacy hoog in het vaandel staan. Nu we allemaal meer dingen online doen is een goede VPN-service belangrijk om je privacy te beschermen. Volgens techsite CNET is NordVPN de meest betrouwbare en veilige VPN-service. De app is makkelijk in gebruik en je kunt tot zes verbindingen tegelijk tot stand brengen. NordVPN kwam bij een speedtest als pijlsnel uit de bus en is dus ook geschikt als je wil gamen, Netflixen of downloaden.

Foto: ApolitikNow (cc)

Is online manipulatie oké als het niet effectief is?

ESSAY - door Fleur Jongepier (Universitair Docent Radboud Universiteit Nijmegen).

De concepten “individu” en “vrijheid” hebben in het digitale tijdperk geen betekenis meer (Yuval Noah Harari). Omdat algoritmes “ons beter begrijpen dan wij onszelf begrijpen, kunnen ze ons manipuleren op manieren die we niet kunnen begrijpen” (Jamie Bartlett). We worden door big tech bedrijven behandeld als een massa “gebruikers” die als een kudde “samengedreven” kan worden (Shoshana Zuboff).

Poeh, poeh, nou, nou, zo kan die wel weer. Wordt de soep werkelijk zo heet gegeten als die wordt opgediend? Jesse Frederik en Maurits Martijn (hierna: team FrederikMartijn) plaatsen in een stuk in de Correspondent terecht de nodige vraagtekens. Online advertenties (dat is waar het de meesten die alarm slaan om te doen is) zijn, stellen zij, de “nieuwe internetbubbel”.

Wordt ons brein “gehijacked”?

Team FrederikMartijn geeft goede reden om te twijfelen aan de effectiviteit van online advertenties en dus ook, zou je denken, aan de ernst van – dat wil zeggen, de morele bezwaren omtrent – online manipulatie. Ik moet eerlijk toegeven: ik ben door het stuk geturned. Aanvankelijk zat ik in het “onze autonomie staat mogelijk (!) op het spel”-kamp, en nu denk ik toch: ja, aan mij zul je toch geen stilettohakken kunnen slijten, hoeveel een algoritme ook over mij weet, en hoe vernuftig de advertenties ook zijn. Plus, de meeste van de belangrijke keuzes die ik in mijn leven maak (wat betreft carrière of sociaal leven) zijn voldoende autonoom. Ik heb bepaald niet het idee dat mijn “brein” in feite “gehijacked” wordt (Harari). Waar hebben we het dus precies over?

Foto: Nukamari (cc)

Dieven met dieven vangen

The New York Times publiceerde afgelopen weekend een lang artikel over Clearview AI. De oprichter, de Australiër Hoan Ton-That, zocht al langer naar een klapper maar was niet verder gekomen dan een app waarmee je selfies van een Trump-kapsel kon voorzien. Ton-That maakte ook een site waar je al je vrienden videolinks kon sturen; moest je wel even al je contacten uit je chatprogramma’s met de site delen.

Toen volgende een lumineus idee. Ton-That verdiepte zich in kunstmatige intelligentie en algoritmes, leerde hoe je sites kon leegtrekken (scrapen), en verzamelde wat startkapitaal. Hij bouwde een programma dat overal foto’s jatte en die opsloeg in een database, waarbij elke foto werd voorzien van de naam van de geportretteerde, plus de locatie, plaats en tijd van de opname. Ton-That verzamelde een fikse stapel, en liet er gezichtsherkenning op los.

Lang wist-ie niet wat ermee kon aanvangen. Toen wist hij Peter Thiel voor zijn project te interesseren. Thiel is de extreemrechtse mede-oprichter van Paypal, een van de eerste investeerders in Facebook, en de oprichter van Palantir, die veel opsporingssoftware maakt voor de CIA, en voor banken plus andere financiële dienstverleners.

Na wat vallen en opstaan wist Ton-That een paar politiediensten in de Verenigde Staten te interesseren, meestal via iemand die hij eerst zelf had gescout. Inmiddels beschikte hij over een database met 3 miljard gezichten. Hij vroeg zo’n detective om een paar foto’s van mensen die ze zochten, wist hem te imponeren met de resultaten, de diender pleitte bij de baas, en hoppa, weer een klant. Inmiddels doet Clearview zaken met lokale politiediensten, de FBI en Homeland Security.

Lezen: Het wereldrijk van het Tweestromenland, door Daan Nijssen

In Het wereldrijk van het Tweestromenland beschrijft Daan Nijssen, die op Sargasso de reeks ‘Verloren Oudheid‘ verzorgde, de geschiedenis van Mesopotamië. Rond 670 v.Chr. hadden de Assyriërs een groot deel van wat we nu het Midden-Oosten noemen verenigd in een wereldrijk, met Mesopotamië als kernland. In 612 v.Chr. brachten de Babyloniërs en de Meden deze grootmacht ten val en kwam onder illustere koningen als Nebukadnessar en Nabonidus het Babylonische Rijk tot bloei.

Foto: Scott Lynch (cc)

Kunst op Zondag | Kunstmatige kunstenaars

De zoektocht naar robots die mensen zijn gaat onverminderd voort. De technologen zijn zich wel bewust van het feit dat naast robots die auto’s maken, zieken verzorgen en alle andere nuttige robots, het niet mag ontbreken aan robots die kunst maken.

En dus werd in juni Ai-Da gepresenteerd, volgens de makers de “eerste ultra-realistische AI robotkunstenaar ter wereld”. De robotkunstenaar gaf o.a. een performance tijdens haar eerste tentoonstelling.

Deze robot kan tekenen, schilderen en voert performances uit. Op basis van wat ze ziet, maakt ze in drie kwartier een kunstwerk. Kunstmatige genialiteit? Of niet meer dan een algoritmisch kunstje?

De pogingen met hedendaagse technologie kunst te maken zijn legio, de resultaten divers. Van software waarmee kunst geanalyseerd en nagemaakt kan worden, tot zelflerende robotica waarmee men originele kunstwerken hoopt te maken.

Eén van de eerste pogingen de computer zelfstandig kunst te laten maken stamt uit 1968. Harold Cohen (1928 – 2016) ontwierp het programma AARON (1973 e.v.), dat kunstwerken produceerde die wereldwijd werden geëxposeerd.

e-David, ontworpen door de universiteit van Konstanz, analyseert een afbeelding, berekent de kwaststreken en slaat aan het schilderen (filmpje 3 min. 25”)..

De nationale universiteit van Taiwan ontwierp de robot Taida, een stippenschilder en won in 2016 de eerste prijs in een Robot Art competitie (filmpje 2 min. 12”)..

Foto: JCT 600 (cc)

Oeps, vergeten: burgerrechten

COLUMN - Het Britse Prospect publiceerde vorige week een artikel over al te slimme steden, naar aanleiding van Googles plannen met een wijk in Toronto. Op circa 50.000 vierkante meter zou een slimme, data driven wijk verrijzen.

Robots voor de vuilnisophaal waren nog het eenvoudigste idee. Winkels en huizen zouden modulair zijn, en konden van dag tot dag van bestemming of functie veranderen; straatplannen werden aanpasbaar, de hele openbare ruimte zou programmeerbaar zijn, met technologie in elk hoekje, gaatje en gootje, en via oneindige datastromen en lerende algoritmes zou alles op rolletjes lopen. Google had al plannen om de wijk ‘downloadable’ te maken en naar andere gebieden te exporteren.

Tot verrassing van het gemeentebestuur en Google kwam de stad in verzet.

Niet alleen had niemand ze gevraagd wat zij wilden, de plannen voorzagen sowieso niet in een menselijke stem. Hoe werd beslist wat er met de publieke ruimte gebeurde? Op welke grondslagen en met welke uitgangspunten zouden de algoritmes van de wijk worden geprogrammeerd? In wiens handen zou de onderliggende digitale architectuur zijn? Wie mocht de buurtdata uitponden? Welke zeggenschap zouden bewoners nog over hun omgeving hebben?

‘From Canada to the Philippines, from Belfast to Bangalore, national governments and civic authorities are convinced that big data can unblock their traffic jams, rationalise their energy use and fix their housing problems, not to mention their benefits systems and even their healthcare.’

Martin Moore, ‘Would you let Google run your city?’, The Prospect

Doneer!

Sargasso is een laagdrempelig platform waarop mensen kunnen publiceren, reageren en discussiëren, vanuit de overtuiging dat bloggers en lezers elkaar aanvullen en versterken. Sargasso heeft een progressieve signatuur, maar is niet dogmatisch. We zijn onbeschaamd intellectueel en kosmopolitisch, maar tegelijkertijd hopeloos genuanceerd. Dat betekent dat we de wereld vanuit een bepaald perspectief bezien, maar openstaan voor andere zienswijzen.

In de rijke historie van Sargasso – een van de oudste blogs van Nederland – vind je onder meer de introductie van het liveblog in Nederland, het munten van de term reaguurder, het op de kaart zetten van datajournalistiek, de strijd voor meer transparantie in het openbaar bestuur (getuige de vele Wob-procedures die Sargasso gevoerd heeft) en de jaarlijkse uitreiking van de Gouden Hockeystick voor de klimaatontkenner van het jaar.

Lezen: Venus in het gras, door Christian Jongeneel

Op een vroege zomerochtend loopt de negentienjarige Simone naakt weg van haar vaders boerderij. Ze overtuigt een passerende automobiliste ervan om haar mee te nemen naar een afgelegen vakantiehuis in het zuiden van Frankrijk. Daar ontwikkelt zich een fragiele verstandhouding tussen de twee vrouwen.

Wat een fijne roman is Venus in het gras! Nog nooit kon ik zoveel scènes tijdens het lezen bijna ruiken: de Franse tuin vol kruiden, de schapen in de stal, het versgemaaide gras. – Ionica Smeets, voorzitter Libris Literatuurprijs 2020.

Foto: Leigh Anthony DEHANEY (cc)

Algoritmes leiden niet automatisch tot eerlijkere selectie

DATA - Steeds meer werkgevers zetten algoritmes in voor werving en selectie. Bij Nike en Unilever is het niet meer ongewoon om pas in de derde ronde van de sollicitatieprocedure in gesprek te komen met een menselijke medewerker. Vooroordelen en ongelijkheid kunnen zo meer ruimte krijgen, volgens Annemarie Hiemstra en Isabelle Nevels.

Het aantal aanbieders van geautomatiseerde en digitale selectiemethoden neemt toe. Zo voorspelt het algoritme van het Nederlands-Chinese bedrijf Seedlink op basis van taalgebruik van sollicitanten wie er het meest geschikt is voor een functie en maakt het Amerikaanse HireVue gebruik van video-opnames om tot een automatisch gegenereerde beoordeling te komen.

Dit sluit nauw aan bij het huidige debat. Is het nog wel nodig om klassieke kennis, karaktereigenschappen en competenties, typisch gemeten met psychologische vragenlijsten en assessments, in kaart te brengen? Wellicht dat meer impliciete patronen, die via algoritmes herkend worden op basis van grote volumes data (zoals geschreven tekst, of video’s van sollicitanten), even goede of zelfs betere resultaten kunnen behalen bij het selecteren van de beste kandidaat.

Organisaties hebben slechts de beschikking over hun eigen inschatting van de meerwaarde en eerlijkheid van selectie via computerondersteuning. Wetenschappelijke bewijs voor het gebruik van technologieën is er echter nog nauwelijks. Hoe kunnen we ervoor zorgen dat computersystemen op een verantwoorde manier worden ingezet?

Foto: NEC Corporation of America (cc)

Weet wie je in huis haalt

COLUMN - In Engeland bood Google in 2014 aan een handige applicatie voor de zorg te bouwen: artsen en verpleegkundigen konden hun patiënten ermee monitoren op acuut nierfalen. Dat doet zich vaak voor na hartoperaties, maar het komt ook ‘spontaan’ voor. Acuut nierfalen is ernstig: wordt het te laat onderschept, dan raken je nieren zwaar beschadigd, wat vervolgens dialyse of transplantatie vereist. En wie eenmaal acuut nierfalen heeft doorstaan, is nadien veel vatbaarder voor andere nierproblemen. De moeite waard om daar een tool voor te bouwen, zou je denken.

Mitsen en maren werden in acht genomen, regels afgesproken, en vooral: er werd vastgelegd wat Google wel en niet met de patiëntgegevens mocht doen. De app beviel, en werd gaandeweg uitgebreid: er kwamen meer functies en andere toepassingen werden verzonnen. De app monde uit in een compleet systeem voor het beheren van patiëntengegevens: Streams, een prachtig elektronisch patiëntendossier. Google beloofde plechtig – en herhaalde dat in 2016 – dat de erin vervatte gegevens ‘nooit gerelateerd zullen worden aan Google accounts of Google diensten’, en de NHS – de Britse gezondheidszorg – geloofde dat. Er werd zelfs een onafhankelijke toezichthouder opgetuigd.

Vorige week kondigde Google ineens eenzijdig af dat het de dienst herstructureerde en bij een nieuwe divisie van Google zou onderbrengen: DeepMind Health. ‘Streams wordt een AI-assistent voor artsen en verpleegkundigen overal ter wereld, en zal de beste algoritmes met intuïtief ontwerp combineren, alles gestut door rigoureus gecontroleerd onderzoek.’ Die app, waarvan de gegevens nooit door Google zelf gebruikt zou worden, is nu een Google product geworden. De NHS zit eraan vast: al hun patiëntendata zitten in de app en is bij Google geparkeerd. En oh ja: Google heeft de toezichthouder ontmanteld: ‘Dat was een toezichtstructuur voor DeepMind Health in het Verenigd Koninkrijk. Maar nu willen we wereldwijd actief worden.’

Lezen: Mohammed, door Marcel Hulspas

Wie was Mohammed? Wat dreef hem? In deze vlot geschreven biografie beschrijft Marcel Hulspas de carrière van de de Profeet Mohammed. Hoe hij uitgroeide van een eenvoudige lokale ‘waarschuwer’ die de Mekkanen opriep om terug te keren tot het ware geloof, tot een man die zichzelf beschouwde als de nieuwste door God gezonden profeet, vergelijkbaar met Mozes, Jesaja en Jezus.

Mohammed moest Mekka verlaten maar slaagde erin een machtige stammencoalitie bijeen te brengen die, geïnspireerd door het geloof in de ene God (en zijn Profeet) westelijk Arabië veroverde. En na zijn dood stroomden de Arabische legers oost- en noordwaarts, en schiepen een nieuw wereldrijk.