Stel je voor: je woont in een land waar iedereen een wapen mag kopen bij de supermarkt, en je buurman, die gelooft dat de aarde plat is en Obama een hagedis, heeft er inmiddels dertien. Jij gelooft in hopeloze ‘nance, democratische instituties en het nut van dialoog. Maar ja, jij hebt geen geweer. Op een dag barst de boel: burgeroorlog. Wie wint er, denk je?
Juist. Niet degene met het pamflet over geweldloos verzet.
Dit is het dilemma van de AI-kritische mens in 2025. De algoritmische pandemie is niet meer te stoppen. Elk bedrijf, van de lokale fietsenmaker tot de internationale datahoer, plugt nu AI in alsof het wifi is, onder het mom van “je moet wel mee, anders blijf je achter.” En wat doet de kritische burger? Die overweegt… om toch maar ChatGPT te gebruiken. Of Gemini. Of wat er deze week weer gratis bij de cloudboer zat.
En dan komt de existentiële kramp: Mag dat wel?
Mag je AI gebruiken als je je zorgen maakt over arbeidsverdringing, culturele verschraling, data-extractie en het feit dat alles wat je zegt nu potentieel trainingsmateriaal is voor een digitale Terminator?
Het eerlijke antwoord: natuurlijk niet. Maar ook: natuurlijk wel.
Net als die linkse Amerikaan die op zolder een wapenkast heeft “voor het geval dat,” zit ook de AI-criticus met een innerlijke tegenstrijdigheid. Je weet dat dit systeem gebaseerd is op het stripminen van menselijk werk, taal en creativiteit. Je weet dat de modellen zonder eerlijke compensatie zijn gebouwd en dat ze draaien op servers die meer energie vreten dan een middelgroot land in een jaar. Maar je gebruikt het tóch.
Niet uit gemak, maar uit zelfverdediging.
Want kijk om je heen. De CEO’s die praten over “menselijke maat” gebruiken zelf AI om hele afdelingen te vervangen. En de journalist die principieel zijn stukken op een typemachine tikt? Die leest niemand meer, want het is niet “SEO-geoptimaliseerd”, en diens output is zo ondermaats dat die wordt wegbezuinigd.
In deze wapenwedloop heet het morele wapen relevantie. En als je dat niet meer hebt, kun je net zo goed flyers uitdelen op de maan.
Dus ja, het is ethisch discutabel om AI te gebruiken als je je er zorgen over maakt. Maar het is ook onethisch om stil te blijven terwijl de datatanks over je waarden heen rollen. Misschien is het zelfs laf om het terrein onbewapend op te geven aan de techno-utopisten en marketeers met een godcomplex.
Dus pak dat taalmodel. Gebruik het. Misbruik het zelfs, als dat nodig is. Maar blijf schoppen tegen de stroom in. Schrijf kritische stukken. Stel lastige vragen. Laat de machine meewerken aan zijn eigen kritiek. En dat doe ik dus, ook op Sargasso. En vergeet niet: ook in een burgeroorlog mag je principes hebben. Maar je hoeft jezelf niet naar de slachtbank te laten leiden.
Reacties (3)
Op Rights Forum kun je ook lezen hoe Israël al geruime tijd gebruik maakt van AI in de oorlogvoering.
Je vergelijking gaat wat mank. Het geweer is een wapen, en zonder wapens win je geen oorlog. De LLM’s, of in ieder geval meuk als ChatGpt, zijn in die zin geen wapen voor de oorlog, ze zijn het gevolg van het verliezen van de oorlog. ChatGpt gaat geen kritischte vragen stellen, het gaat niet tegen het systeem schoppen, daar is het fundamenteel niet toe in staat. Daar komt dan nog eens bovenop dat zoiets gebruiken je eigen vaardigheden niet ten goede komt. Een journalist die steeds chatgpt gebruikt kan uiteindelijk ook zelfstandig niks fatsoenlijks meer schrijven. En de tech-fetishiste zijn vooral blij dat die journalist zich zo focust op SEO’s ipv op iets belangrijks.
Natuurlijk wil dat niet zeggen dat AI niet nuttig is, zelfs LLM’s hebben potentie voor nuttige doeleinde. Maar die nuttige toepassingen zijn vrij specifiek, en niet iets wat voor de meeste van ons relevant is. Als gemiddeld persoon ondermijn je vooral jezelf door er een te gebruiken.
Als ik het goed begrijp gaat dit stuk over taalmodellen, en niet over AI in het algemeen. Wil je een zinnige discussie over AI, dan zul je hier wat zorgvuldiger mee moeten zijn. Want AI omvat veel meer dan alleen die LLM’s. Sommige toepassingen zijn veel nuttiger, en andere veel gevaarlijker. In de wetenschap bewijst machine learning zijn nut al, bijvoorbeeld bij het bestuderen van complexe systemen. Aan de andere kant is de samenwerking van het regime in de VS met bedrijven in deze branche bijzonder verontrustend. LLM’s zitten ergens in het midden tussen die uitersten, schat ik in.
Hoe dan ook, gebruik het woord ’taalmodel’ of ‘LLM’ als je het specifiek daarover hebt. Want als je een zinnig debat wilt over dit onderwerp, dan moet om te beginnen duidelijk zijn dat die modellen maar een van de vele toepassingen zijn van die technologie. En niet eens zo’n goede toepassing, omdat LLM’s een heleboel menselijke hulp nodig hebben om de taal te leren. In andere toepassingen (schaken, weersvoorspellingen) zijn deze systemen echt zelflerend.
Het enige voordeel van LLM’s op al die andere toepassingen: er is geld mee te verdienen.