Dit is een gastbijdrage van Dimitri Tokmetzis. Het is ook te lezen op zijn eigen blog.
President Obama was vorige week boos. De veiligheidsdiensten hadden gefaald om de bomonderbroekterrorist tegen te houden voordat hij in het vliegtuig kon komen. Er lag genoeg informatie verspreid over verschillende overheidsdiensten, maar niemand kon die samensmelten tot bruikbare kennis waarop gehandeld kon worden.
Connecting the dots, blijkt telkens weer het probleem te zijn: 9/11, Van Gogh en nu weer. Maar kunnen we de ‘puntjes’ wel ‘verbinden’? Nee. Er vinden altijd fouten of ongelukken plaats op systemisch niveau. En geconfronteerd met een enorme hoeveelheid variabelen is de toekomst niet meer te voorspellen, hoe goed je voorspellende modellen ook zijn.
Volgens de regels van de Normal Accident Theory zijn grote en kleine ongelukken niet te voorkomen. Sterker nog, ze zijn onvermijdelijk. De Amerikaanse organisatiedeskundige Charles Perrow onderzocht het bijna-catastrofale ongeluk in de nucleaire reactor van Three Mile Island, in 1979 in Pennsylvania, Verenigde Staten. De nucleaire kern raakte oververhit toen het koelwater plotseling wegstroomde. Het defect bleek een kapotte leiding te zijn. Hoewel de veiligheidsvoorschriften duidelijk waren en het personeel kundig was, trad er een cascade aan fouten op die tot de bijna-ramp leidde. Zo werd het personeel overspoeld met – vaak tegenstrijdige – informatie.