We leven in een uitdagende tijd

We leven in een uitdagende tijd.

De hoeveelheid data neemt enorm toe. Organisaties worden bestookt met allerlei soorten informatie via een enorm aantal verschillende kanalen. Ze verzamelen zelf ook steeds meer data, over klanten en burgers. Vaak weten ze niet eens waarom, maar de mogelijkheden zijn er en het kan ‘misschien nog wel van pas komen’. Opslagservers, ‘on site’ of in de ‘cloud’, zijn dan ook erg in trek. Opslag is goedkoop, immers. Het is allang bekend dat dat niet zo is, maar struisvogels staan er ook om bekend hun kop in het zand te steken.

In de opslagprijzen per gigabyte zijn het gebruik en de terugvindbaarheid van data nooit meegenomen. Maar vanaf 2010 zijn de kosten daarvoor per jaar wereldwijd verdubbeld (tot €11 miljard, ongeveer)! Data behoren immers toegankelijk, vindbaar, betrouwbaar en duurzaam te zijn. Ze worden toch ook opgeslagen om te worden gebruikt. Het information governance regime, nodig voor vertrouwelijkheid, privacy, compliance en erfgoed, vergt met de stijging van de hoeveelheid data meer investeringen in software.

“We leven in een uitdagende tijd” verder lezen

Waanzin

Deze week werd ik weer geconfronteerd met de uitspraak dat opslag van data goedkoop is en dat alles makkelijk kan worden bewaard voor een Big Data strategie. Ik kon mijn lachen niet inhouden. In 2000 kostte een gigabyte opslag gemiddeld €8,31, in 2010 €0,07. De toegenomen hoeveelheid data en het effectievere gebruik van opslaghardware in diezelfde periode zorgde voor die substantiële verlaging van de opslagprijzen. De springvloed in Thailand verhinderde een verdere verlaging van de opslagprijzen na 2011. Veertig procent van productiecapaciteit van opslagschijven werd toen vernietigd, waardoor de prijzen voor opslagschijven verdubbelden. Die prijzen zijn in het vervolg weer lager geworden, maar ze hebben het niveau van 2011 niet meer bereikt. Wat in in de gigabyte-opslagprijzen nooit is meegenomen is het gebruik en de terugvindbaarheid van data. Van 2002 tot 2010 zijn de softwarekosten daarvoor gestegen van €4,8 miljard tot €10,9 miljard. De reden voor die kostenstijging is het feit dat data betrouwbaar en duurzaam moeten zijn. Ze worden immers opgeslagen om te worden gebruikt.

“Waanzin” verder lezen

Gleick’s ongelijk

In maart 2011 alweer verscheen James Gleick’s boek ‘The information. A history, a theory, a flood‘, uitgegeven bij Pantheon Books in New York. Nog datzelfde jaar verscheen er een Nederlandse vertaling van Ronald Jonkers bij De Bezige Bij in Amsterdam. Voor mijn verhaal baseer ik mij op de oorspronkelijke uitgave, omdat ik van mening ben dat geen enkele vertaling de oorspronkelijke zeggingskracht en sfeer kan weergeven.

InformationIk heb zelden een boek in handen gehad dat mij tegelijkertijd zoveel gevoel van bewondering als van irritatie heeft gegeven als dit boek. Dat is ook de reden dat ik er nu pas iets over zeg. Ik heb het boek verschillende keren aan de kant gegooid, maar ik kon het toch niet laten er later weer naar te grijpen. Het boek grijpt je, en dat is een groot compliment voor de schrijver. Gleick’s boek gaat over (bijna) alles: over woorden, sprekende ‘drums’, het schrift, lexicografie en vroege pogingen voor een analytische machine, over telegraaf, telefoon, ENIAC en de computers die daarop volgden, over theorieën van Babbage, Shannon, Wiener, Turing, Gödel en anderen, die zich concentreerden op het coderen, decoderen en recoderen van de boodschappen die via de media in hun tijd werden verspreid, over de genetica als een biologisch mechanisme voor informatieuitwisseling en zelf-replicerende ideeën als zichzelf ontwikkelende levensvormen van ‘The Information’, over muziek en quantummechanica, over de betekenis van ‘interesting numbers’ en waarom ‘the bit the ultimate unsplittable particle’ is. Het gaat over veel te veel en als gevolg daarvan verliest het boek, dat (maar dat is Gleick wel toevertrouwd) meesterlijk geschreven is, veel van zijn overtuigingskracht. Het is, in mijn optiek, ‘overdone’ en zelfs de eruditie die er uit spreekt wekt halverwege het boek al irritatie op. Het lijkt een ‘omgevallen boekenkast’, die de ‘rode draad’ van het boek (die er wel degelijk is) grotendeels teniet doet. De grote hoeveelheid lovende recensies van het boek ten spijt (ik vraag me in alle gemoede af of het boek door die recensenten wel serieus gelezen is !): als een student een scriptie met zo weinig focus en zoveel niet ter zake doende uitwijdingen had ingeleverd, was deze gegarandeerd retour gegaan.

“Gleick’s ongelijk” verder lezen

‘Cloud computing’ als realiteit en risico

Toen de redactie van het tijdschrift Informatieprofessional (IP) mij vroeg om voor het oktober­num­mer mijn licht eens te laten schijnen op de juridische implicaties van ‘cloud computing’ werd ik gestimuleerd om eer eens wat literatuuronderzoek en webresearch te doen. Wetende dat ‘cloud computing’ een enorme vlucht aan het nemen is, is het de moeite waard eens in beeld te bren­gen wat het begrip betekent en welke implicaties dat heeft voor de wereld om ons heen. We hebben immers de mond vol van ‘cloud computing’, van Web 2.0. en van het semantische web. Op het moment dat ik mijn manuscript bij de redactie had ingediend, besteedde De Financiële Tele­graaf kort aandacht aan het verschijnsel, en dan met name aan de risico’s die het met zich mee­brengt en de nieuwe regelgeving die nodig zou zijn. Of dat nodig is laat ik in het midden; zeker is, dat er (naast baten) veel risico’s zijn. “‘Cloud computing’ als realiteit en risico” verder lezen