We doorleven een informatierevolutie, maar wat is informatie eigenlijk? Een boodschap? Nee, informatie kan ook betekenisloos zijn. Bits? Ook niet, een bit is een meeteenheid. De Amerikaanse schrijver James Gleick heeft een dappere poging ondernomen om informatie te duiden. Het resultaat, The Information, is indrukwekkend, een boek dat je meerdere keren moét lezen. Briljant, erudiet, op iedere pagina iets om je over te verwonderen, maar ook ingewikkeld (zeker voor een alfa als ik) en abstract. Ik heb ‘m twee keer gelezen, voordat ik mij aan een bespreking durfde te wagen. Zijn centrale stelling: informatie is net zo elementair als materie en energie.
The Information weeft drie verhalen vakkundig ineen. Het is een geschiedenis van informatie, het is een theoretische uiteenzetting over wat informatie is en het laat zien dat we al sinds het begin van ons menselijk bewustzijn – toen schrift dat bewustzijn openbaarde – al in een informatierevolutie leven: alleen nu gaat het net even wat sneller.
Gleick heeft wel de papieren voor zo’n ambitieuze onderneming. Hij is auteur van ondermeer het zeer lezenswaardige Chaos: making a new science, over de opkomst van de chaostheorie. Ook schreef hij biografieën over Isaac Newton en Richard Feynman.
De geschiedenis van informatie begint bij de ingenieuze berichtenservice van de boomstammenspelers in de Afrikaanse oerwouden, die de tonale talen nabootsen op holle stammen. Voor de leek lijken het ellenlange verhalen, maar de berichten zijn doorgaans kort. Inderdaad wordt er veel overbodig geouwehoerd, maar dat is expres, om ambiguïteit van de betekenis van het bericht te voorkomen.
Uiteraard komt het schrift aan bod en hoe dat ons denken heeft veranderd. Langdurig staat Gleick stil bij Charles Babbage die met zijn muze Ada Lovelace (dochter van Lord Byron) de grondslag legde voor een mechanische computer, en dat halverwege de negentiende eeuw.
En natuurlijk behandelt Gleick de opkomst van de elektronische media: de telegraaf, de telefoon. Het knappe is dat het geen en toen-en toen-verhaal wordt. Gleick weeft namelijk veel theorie in zijn verhaal en juist die theorie maakt het spannend.
Gleick benoemt een cruciaal jaar: 1948. Het jaar waarin Bell Labs de transistor ontwikkelt. Belangrijker nog is dat in hetzelfde jaar in hetzelfde lab een relatief onbekend genie, Claude Shannon, zijn informatietheorie verwoordde. De theorie zou een aardverschuiving veroorzaken.
Het woord informatie en de notie van het overbrengen van een boodschap leefde natuurlijk al eeuwen. Het was Shannon die als geen ander (maar zeer schatplichtig aan grootheden als Charles Babbage, Kurt Gödel en Alan Turing) informatie wist vast te pinnen, van een duidelijke grondslag en definitie wist te voorzien. Koeltjes stelde deze ingenieur vast dat vanuit een informatie-oogpunt het totaal niet uitmaakt wat voor boodschap je probeert over te brengen. Betekenis doet er niet toe. Alleen hoe dat gebeurt, via netwerken, codes, met hoeveel ruis en redundancy en in welke mate (bits).
Zijn informatietheorie houdt – heel kort door de bocht gezegd – in dat informatie onzekerheid, verrassing, complexiteit en entropie is. Ik geef een uitgebreid overzicht ( in het Engels) want de opsomming geeft goed aan op welk niveau dit boek opereert:
1) Information is closely associated with uncertainty. Uncertainty, in turn, can be measured by counting the number of possible messages. If only one message is possible, there is no uncertainty and thus no information.
2) Some messages may be likelier than others, and information implies surprise. Surprise is a way of talking about probabilities. If the letter following t (in English) is h, not so much information is conveyed, because the probability of h was relatively high.
3) What is significant is the difficulty in transmitting the message from one point to another. Perhaps this seemed backward, or tautological, like defining mass in terms of the force needed to move an object. But then, mass can be defined that way.
4) Information is entropy. This was the strangest and most powerful notion of all. Entropy – already a difficult and poorly understood concept – is a measure of disorder in thermodynamics, the science of heat and energy.
Een groot deel van het boek gaat op aan de uitleg van deze lastige noties: kansberekening, willekeurigheid, ruis en bovenal entropie. Heel kort door de bocht gezegd, is informatie noodzakelijk om chaos te verminderen. Informatie is een voorwaarde voor structuur in alles. Wil je hier meer van weten: lees het boek.
The Information vertelt over de opkomst van informatiebewerking, maar ook hoe de informatietheorie vrijwel alle wetenschappen heeft beïnvloedt. Nee dat is te mild gesteld, hoe de informatietheorie alle wetenschappen op zijn kop heeft gezet, oude paradigma’s in gruzelementen heeft geslagen en de weg heeft geopend naar moleculaire biologie, chaostheorie, een steviger fundering van de sociale wetenschappen en natuurlijk kunstmatige intelligentie.
De inzichten van Shannon leidden er toe dat zelfs het lichaam (en het universum!) als processor gezien kan worden. Wat gebeurt er op celniveau anders dan coderen, doorgeven van boodschappen, het maken van netwerken. En toen kwam Richard Dawkins in de jaren zeventig ook nog even langs om het menselijk lichaam tot dom vehikel te reduceren van onze zelfzuchtige genen.
The Information laat je met andere ogen kijken naar het heden en dwingt ons om wat meer bescheiden de informatierevolutie te beschrijven. Gezien wat ik hiervoor heb geschreven, bevat mijn laatste zin dan ook weinig informatie, tenminste in Gleickiaanse zin: lees dit boek.
Bestel hier Informatie (Nederlands) of hier The Information (Engels)
Reacties (4)
Dimitri, je doet iets heel grappigs. Je schrijft in de eerste alinea: Nee, informatie kan ook betekenisloos zijn.
Maar in de rest van je stukje, met name in de vier strofen van Gleick die je citeert, toon je aan dat dat juist niet kan.
In mijn lessen informatica heb ik het eenvoudig zo geleerd: je kan wel bergen gegevens hebben, maar informatie wordt het pas als je er iets mee doet. M.a.w. als je er een betekenis aan geeft. Dit lijkt me wel ongeveer overeen te komen met de opvatting van Gleick zoals je die beschrijft.
Van James Gleick heb ik ooit iets over Feynman gelezen. Kan ik me niet meer goed herinneren helaas. Ik zal dit boek ook zeker lezen, heb ‘m al gedownload (aren’t I sneaky).
Hier geeft Dimitri dus aan dat het helemaal niet nodig is om iets van techniek te weten als je een onderwerp abstract en logisch benaderd.
Interessant boek. Ik raad je aan om het boek ‘The Most Human Human: What Talking with Computers Teaches Us About What It Means to Be Alive’ van Brian Christian te lezen. Zo beschrijft hij op een hele heldere manier de betekenis van entropie maar beantwoort hij bovenal op een originele manier de vraag of we de mens wel als ‘processor’ moeten benaderen. Aanrader!
‘Ik heb altijd Gleick’ zou een heel goede Nederlandse titel geweest zijn.
Er staat ‘informatie’, maar bedoeld wordt kennis, en dan in de zin van ‘kennisoverdracht’. Veel informatie is overdrachtelijk bedoeld en wordt voor kennisgeving aangenomen, waarbij het er op zal aankomen dat de bestemmeling er dan toch meer mee zal weten aan te vangen, dan louter incasseren. Pedagogische en directieve elementen mogen we ook niet vergeten, al is mijn indruk dat Gleick reeds van alles & the kitchen sink er tegenaangeknald heeft.
De verzender heeft een bedoeling, maar die is niet per se doelgericht, indien het flessenpost behelst. Veel informatie zingt rond, hoewel feedback in communicatieve zingeving toch gevaloriseerd wordt als hetzij negatieve, dan wel positieve feedback.
Friedrich Adolf Kittler: “All discourse is information, but not all information is discourse.”
The circuitry of the human and that of the machine are one and the same, in other words: we are not sovereign subjects but merely a function of media.
Friedrich Adolf Kittler, 1943–2011
‘Switch off all apparatuses’
http://www.radicalphilosophy.com/obituary/friedrich-adolf-kittler-1943%e2%80%932011