We leven in een uitdagende tijd

We leven in een uitdagende tijd.

De hoeveelheid data neemt enorm toe. Organisaties worden bestookt met allerlei soorten informatie via een enorm aantal verschillende kanalen. Ze verzamelen zelf ook steeds meer data, over klanten en burgers. Vaak weten ze niet eens waarom, maar de mogelijkheden zijn er en het kan ‘misschien nog wel van pas komen’. Opslagservers, ‘on site’ of in de ‘cloud’, zijn dan ook erg in trek. Opslag is goedkoop, immers. Het is allang bekend dat dat niet zo is, maar struisvogels staan er ook om bekend hun kop in het zand te steken.

In de opslagprijzen per gigabyte zijn het gebruik en de terugvindbaarheid van data nooit meegenomen. Maar vanaf 2010 zijn de kosten daarvoor per jaar wereldwijd verdubbeld (tot €11 miljard, ongeveer)! Data behoren immers toegankelijk, vindbaar, betrouwbaar en duurzaam te zijn. Ze worden toch ook opgeslagen om te worden gebruikt. Het information governance regime, nodig voor vertrouwelijkheid, privacy, compliance en erfgoed, vergt met de stijging van de hoeveelheid data meer investeringen in software.

Lees “We leven in een uitdagende tijd” verder

Toegankelijk

Volgens McKinsey besteedde iedere werknemer in 2013 gemiddeld 9½ uur per week aan het zoeken en verzamelen van informatie, ongeacht de informatietechnologie die wordt gebruikt. Op iedere vijf personeelsleden is er dus een die alleen bezig is met zoeken naar informatie! Het wijst op de grootste uitdaging van de ‘information age’: het toegankelijk houden van een steeds grotere hoeveelheid informatie.
Dat is ingewikkeld.
Vooral omdat toegankelijkheid moet worden gerealiseerd ongeacht vorm, plaats, taal, technologie, handicap of capaciteiten!
Vijf voorwaarden moeten worden ingevuld.

Lees “Toegankelijk” verder

Menselijk

Archivarissen en bibliothecarissen zijn vol van digitale duurzaamheid. Ze hebben het over een ‘Digital Dark Age’ en over de technologie die dat veroorzaakt en moet oplossen. De aandacht voor het voortbestaan van informatie is terecht, zeker voor wat betreft het dynamische Internet. Het web is immers voor het ‘nu’. Een gemiddelde webpagina verdwijnt volgens schattingen na 100 dagen.

Juist dat dynamische karakter van het web schept uitdagingen. Websites en –pagina’s kunnen onzichtbaar worden zonder dat ze door bijvoorbeeld de Wayback Machine zijn vastgelegd.
Lees “Menselijk” verder

Geletterd?

Eric Schmidt stelde in 2010 dat op dat moment iedere twee dagen evenveel informatie gegenereerd werd als in alle jaren tot 2003 toe. Dat zou kunnen, al kan niemand het precies berekenen. Het is echter zeker dat de grote hoeveelheden informatie maat­schappelijk succes en falen grotendeels afhankelijk maken van de informatievaardigheden die iemand heeft.

‘Information literacy’, de academische term om infor­matievaardigheden aan te duiden, is al meer dan drie decennia een populair onderzoeksthema. Google’s zoekmachine geeft 537.000 hits over het afgelopen jaar en 2.610.000 resultaten zonder tijdslimiet. Tientallen boeken en artikelen zijn er over geschreven, al gaan die meer over ‘technological literacy’ en over de ‘digitale vaardigheden’ van ‘digital natives’, ‘net savvy’s’ of ‘homo-zappiens’.

Lees “Geletterd?” verder

Big Data Bla Bla

In 2008 schreef Chris Anderson, een redacteur bij Wired, dat de zondvloed aan data (later Big Data genoemd) en nieuwe analysetools de wetenschappelijke methode onnodig maakten en een nieuwe manier waren om de wereld te begrijpen. ‘Correlation supersedes causation, and science can advance even without coherent models, unified theories, or really any mechanistic explanation at all’.

Big Data blabla-ers (ook evangelisten genoemd) hebben deze idee met vele anekdotes ondersteund en verkondigd. Volgens hen breekt er een nieuwe tijd aan: de dataficatie van onze maatschappij maakt alles meetbaar en doet alle bestaande problemen verdwijnen. Gemakshalve wordt er aan voorbij gegaan dat (zoals onderzoeksbedrijf Gartner stelt) 55% van alle Big Data projecten mislukt, vooral omdat ze niet de optimistische resultaten leveren die vooraf zijn ingecalculeerd. Zélfs het paradepaardje van de Big Data evangelisten niet: het in 2008 gestarte Google Flu Trends (GFT). Het geprofeteerde succes bleek rafelrandjes te kennen. In 2014 werd in Science aangetoond dat de resultaten (nog steeds) niet overeenkwamen met de ‘echte’ feiten. Het voorspellen van grieptrends lukte vele malen beter met drie weken oude, op traditionele wijze verzamelde en geanalyseerde gegevens van griepcentra.

Lees “Big Data Bla Bla” verder

Waanzin

Deze week werd ik weer geconfronteerd met de uitspraak dat opslag van data goedkoop is en dat alles makkelijk kan worden bewaard voor een Big Data strategie. Ik kon mijn lachen niet inhouden. In 2000 kostte een gigabyte opslag gemiddeld €8,31, in 2010 €0,07. De toegenomen hoeveelheid data en het effectievere gebruik van opslaghardware in diezelfde periode zorgde voor die substantiële verlaging van de opslagprijzen. De springvloed in Thailand verhinderde een verdere verlaging van de opslagprijzen na 2011. Veertig procent van productiecapaciteit van opslagschijven werd toen vernietigd, waardoor de prijzen voor opslagschijven verdubbelden. Die prijzen zijn in het vervolg weer lager geworden, maar ze hebben het niveau van 2011 niet meer bereikt. Wat in in de gigabyte-opslagprijzen nooit is meegenomen is het gebruik en de terugvindbaarheid van data. Van 2002 tot 2010 zijn de softwarekosten daarvoor gestegen van €4,8 miljard tot €10,9 miljard. De reden voor die kostenstijging is het feit dat data betrouwbaar en duurzaam moeten zijn. Ze worden immers opgeslagen om te worden gebruikt.

Lees “Waanzin” verder

Illegaal

Officier van Justitie Ward Ferdinandusse schreef in de NRC van 15 januari 2015 een opiniestuk over het belang van de bewaarplicht van telecomgegevens. Bewaring van telecomgegevens, zo schrijft hij, is belangrijk bij misdaad- en terrorismebestrijding. Hij illustreert dat met voorbeelden van (zware) criminaliteit en met de jihadistische aanslag op Charlie Hebdo. Privacy moet wijken om in dat soort gevallen doeltreffend te handelen. Ferdinandusse is niet de enige die zo denkt.

Maar speelt de bewaring van telecomgegevens wel zo’n grote rol bij misdaad- en terrorismebestrijding? Een adviescommissie van de Amerikaanse president concludeerde in 2014 dat ongericht bewaren van telecomgegevens geen aantoonbaar effect heeft op het voorkomen van terroristische aanslagen. De effectiviteit van de bewaarplicht voor die data is twijfelachtig. Ook bij de voorbeelden van Ferdinandusse spelen telecomgegevens nauwelijks een rol. Ze hebben niets voorkomen. Ze leveren geen bewijs. Bij Charlie Hebdo, zo zegt Ferdinandusse, hebben telecomgegevens de banden tussen de jihadisten aangetoond. Dat mag zo zijn, maar alleen doordat ze hun identiteitskaarten lieten liggen konden ze worden geïdentificeerd. Er is niets voorkomen.

Erg mager. Hoogst ineffectief.

Lees “Illegaal” verder

Gleick’s ongelijk

In maart 2011 alweer verscheen James Gleick’s boek ‘The information. A history, a theory, a flood‘, uitgegeven bij Pantheon Books in New York. Nog datzelfde jaar verscheen er een Nederlandse vertaling van Ronald Jonkers bij De Bezige Bij in Amsterdam. Voor mijn verhaal baseer ik mij op de oorspronkelijke uitgave, omdat ik van mening ben dat geen enkele vertaling de oorspronkelijke zeggingskracht en sfeer kan weergeven.

InformationIk heb zelden een boek in handen gehad dat mij tegelijkertijd zoveel gevoel van bewondering als van irritatie heeft gegeven als dit boek. Dat is ook de reden dat ik er nu pas iets over zeg. Ik heb het boek verschillende keren aan de kant gegooid, maar ik kon het toch niet laten er later weer naar te grijpen. Het boek grijpt je, en dat is een groot compliment voor de schrijver. Gleick’s boek gaat over (bijna) alles: over woorden, sprekende ‘drums’, het schrift, lexicografie en vroege pogingen voor een analytische machine, over telegraaf, telefoon, ENIAC en de computers die daarop volgden, over theorieën van Babbage, Shannon, Wiener, Turing, Gödel en anderen, die zich concentreerden op het coderen, decoderen en recoderen van de boodschappen die via de media in hun tijd werden verspreid, over de genetica als een biologisch mechanisme voor informatieuitwisseling en zelf-replicerende ideeën als zichzelf ontwikkelende levensvormen van ‘The Information’, over muziek en quantummechanica, over de betekenis van ‘interesting numbers’ en waarom ‘the bit the ultimate unsplittable particle’ is. Het gaat over veel te veel en als gevolg daarvan verliest het boek, dat (maar dat is Gleick wel toevertrouwd) meesterlijk geschreven is, veel van zijn overtuigingskracht. Het is, in mijn optiek, ‘overdone’ en zelfs de eruditie die er uit spreekt wekt halverwege het boek al irritatie op. Het lijkt een ‘omgevallen boekenkast’, die de ‘rode draad’ van het boek (die er wel degelijk is) grotendeels teniet doet. De grote hoeveelheid lovende recensies van het boek ten spijt (ik vraag me in alle gemoede af of het boek door die recensenten wel serieus gelezen is !): als een student een scriptie met zo weinig focus en zoveel niet ter zake doende uitwijdingen had ingeleverd, was deze gegarandeerd retour gegaan.

Lees “Gleick’s ongelijk” verder

Digital Archiving & Compliance

Het is een tijd stil geweest. Niet omdat er niets gebeurde (het aantal rampen dat op ons af dreigt te komen, wordt wel heel dik aangezet…), maar omdat ik met allerlei andere zaken druk was en er eigenlijk geen tijd was om eens goed voor deze blog te gaan zitten. En alhoewel er voldoende aanrakingspunten waren om weer eens in te gaan op onze ‘doe eens normaal, man’ bestuurlijke elite, vond ik dat toch niet voldoende reden om de pen uit de kast te halen. Mijn recente aanstelling als Lector Digital Archiving & Compliance aan de Hogeschool van Amsterdam leidt mij er toe om dat wel te doen en op de relevantie daarvan hier wat dieper in te gaan.

Zoals vele van de lezers van deze blog weten, ben ik al jaren geïnteresseerd in de voortgaande digitalisering van de maatschappij en de effecten die dat heeft op organisaties en de mensen die deze organisaties vormen. Voor zover ik weet was ik midden jaren ’90 een van de eersten die er op wezen dat deze digitalisering grote gevolgen zou hebben op de bewijsplicht en op de rechtmatigheid van handelen van zowel individuen als organisaties. Het ‘compliance’-denken, dat toen al enige jaren in de bancaire en financiële sector ingang had gevonden, werd pas werkelijk omhelsd na de Enron-affaire en de Sarbanes-Oxley Act. Toen ook kwam het echt op de management-agenda te staan buiten de bancaire en financiële sector. Maar compliance werd vooral uitgelegd als het voldoen aan relevante wetten en regels en de daarop afgestemde inrichting van processystemen. Te weinig aandacht werd besteed aan het feit dat het niet alleen gaat om het voldoen aan wetten en regels, maar dat dat ook aantoonbaar moet zijn zolang dat direct of indirect door wet- en regelgeving wordt vereist. Dat feit was voor mij aanleiding om het organisatorische belang van (digitale) archivering voortdurend te benadrukken. Zonder archivering namelijk is het bijna ondoenlijk aan te tonen dat voldaan is aan wetten en regels en is het ook niet mogelijk om het verleden te reconstrueren om te bepalen hoe er in specifieke gevallen is gehandeld. Archivering en compliance zijn dan ook onlosmakelijk verbonden. Compliance-eisen als identiteit, integriteit, authenticiteit, autorisatie en onweerlegbaarheid worden in archivering gewaarborgd met juridische, organisatorische en technische maatregelen.

Ik heb die stelling vorig jaar nog eens herhaald in een conferentiepaper. Ik stelde in die paper dat er een aantal organisatorische mechanismen zijn die het mogelijk maken het verleden te reconstrueren om zodoende het tot stand komen van beleid, besluiten, producten, acties en transacties te kunnen onderzoeken. Die mechanismen definieerde ik als Enterprise Records Management, Organizational Memory en Records Auditing. Deze drie mechanismen realiseren de ‘records value chain’, de waardeke­ten die alle acti­vitei­ten behelst, die wor­den ver­richt aan of met archiefdocumenten en de daaraan gekoppelde metadata: cre­a­tie of ont­vangst, vastlegging, opslag, be­wer­king, dis­tributie, orde­ning, publicatie, ge­bruik, waar­de­ring, selectie, ver­nie­tiging of bewa­ring, be­veili­ging, toetsing en be­houd. De keten zorgt ervoor dat de kwaliteitskenmerken van archiefdocumenten ingevuld kunnen worden, waardoor het een reconstructie van het verleden mogelijk maakt en waardoor archiefdocumenten vertrouwd kunnen worden als betrouwbare bronnen van informatie.

Lees “Digital Archiving & Compliance” verder

‘Cloud computing’ als realiteit en risico

Toen de redactie van het tijdschrift Informatieprofessional (IP) mij vroeg om voor het oktober­num­mer mijn licht eens te laten schijnen op de juridische implicaties van ‘cloud computing’ werd ik gestimuleerd om eer eens wat literatuuronderzoek en webresearch te doen. Wetende dat ‘cloud computing’ een enorme vlucht aan het nemen is, is het de moeite waard eens in beeld te bren­gen wat het begrip betekent en welke implicaties dat heeft voor de wereld om ons heen. We hebben immers de mond vol van ‘cloud computing’, van Web 2.0. en van het semantische web. Op het moment dat ik mijn manuscript bij de redactie had ingediend, besteedde De Financiële Tele­graaf kort aandacht aan het verschijnsel, en dan met name aan de risico’s die het met zich mee­brengt en de nieuwe regelgeving die nodig zou zijn. Of dat nodig is laat ik in het midden; zeker is, dat er (naast baten) veel risico’s zijn. Lees “‘Cloud computing’ als realiteit en risico” verder