ChatGPT en ‘Reality has a well known liberal bias’
Het was een grap, maar niet helemaal, toen Stephen Colbert bovenstaande zin voor het eerst uitsprak. Het lachen wordt inmiddels steeds zuurder. Want als een AI-model zoals ChatGPT een feitelijk antwoord geeft op een vraag over klimaatverandering, racisme of ongelijkheid, dan klinkt dat voor veel mensen tegenwoordig als links. En dus onbetrouwbaar. Dat diezelfde AI gewoon de wetenschappelijke consensus benoemt? Negeer dat maar. In het tijdperk van complotten en gesponsorde verontwaardiging is feitenresistentie een deugd geworden, en alles wat daar niet in meegaat wordt afgedaan als “woke propaganda” of een complot van de – uiteraard – linkse academie, rechters en pers.
Niet verrassend dus dat conservatieve techbro’s, complotdenkers met zendingsdrang en beleidsmakers met identiteitscrisis nu hun pijlen richten op taalmodellen. ChatGPT is te links, zo klinkt het. De realiteit moet “meer in balans”. Vrij vertaald: de realiteit moet aangepast worden aan de ideologie. En dat is geen hypothetische nachtmerrie meer, dat is al begonnen.
Is ChatGPT echt links? Of ligt het misschien aan jou?
Onderzoek bevestigt inderdaad dat ChatGPT vaker progressieve antwoorden geeft dan rechtse. Uit een studie gepubliceerd in het Journal of Economic Behavior & Organization blijkt dat het model neigt naar linkse partijen, ideeën en waarden. Niet omdat het stiekem een rode vlag vasthoudt, maar omdat het getraind is op grote hoeveelheden publieke data: Wikipedia, wetenschappelijke publicaties, journalistieke stukken. Bronnen die, hoe vervelend ook voor de VVD-borreltafel, meestal gestoeld zijn op bewijs, nuance en empathie. In dat landschap klinkt dit al snel als links.