«Nulla si crea, nulla si distrugge, tutto si trasforma»
Antoine-Laurent de Lavoisier (Parigi, 26 agosto 1743 – Parigi, 8 maggio 1794), Legge
della conservazione della massa
Con l’evolversi della tecnologia ci siamo progressivamente illusi che essa potesse risolvere da sola il problema dell’organizzazione e della gestione delle informazioni. Questa illusione ha riguardato anche i settori preposti all’organizzazione del sapere, come le biblioteche e gli archivi.
Insieme a questa convinzione ci ha accompagnato l’erronea interpretazione del concetto di “dematerializzazione digitale”: l’informatica è fatta di oggetti fisici e questi oggetti vanno creati, strutturati ed organizzati in modo tale che esistano non in quella nuvola astratta che crediamo essere il web – o addirittura il nostro computer-, bensì in una loro concreta collocazione che siamo in grado di rappresentarci precisamente.
Chi si occupa di organizzazione della conoscenza ha la responsabilità di essere consapevole che questi oggetti fisici esistono e perché non vadano persi nel calderone della rete devono possedere la caratteristica di qualità necessarie al livello tecnologico conquistato, ovvero rispondere alle esigenze di conservazione, accessibilità ed interoperabilità.
Cosa sono le cartelle sul nostro computer se non schedari? Cosa i file se non schede e documenti?
Risulta evidente che l’informatica sia un’evoluzione della teoria catalografica e biblioteconomica su un supporto nuovo, quello digitale.
Cosa è successo agli istituti preposti all’organizzazione, alla conservazione e diffusione della conoscenza dopo la rivoluzione informatica?
Durante la storia meno recente il mondo delle biblioteche e dei depositi di risorse culturali ha sempre mantenuto un contatto diretto con gli sviluppi delle tecnologie informatiche ed elettroniche: fin dalla metà degli anni sessanta si sono sperimentati sistemi di lettura automatica di codici di catalogazione appositamente predisposti. Il MARC (MAchine-Readable Cataloging) vede la sua prima edizione nel 1968, e gli OPAC (Online Public Access Catalogue), i cataloghi computerizzati in linea, già alla fine degli anni settanta avevano fatto la loro comparsa. I database per lo stoccaggio delle registrazioni e le interfacce per effettuare ricerche sono stati la funzionale e “naturale” trasformazione di schede e schedari.
Mentre la tecnologia ha continuato ad evolversi grazie ai contributi degli studiosi e degli interessi economici delle imprese commerciali del settore, le istituzioni culturali sono rimaste ferme agli Anni Sessanta, al MARC.
Ci siamo illusi che essere presenti su internet corrispondesse a contribuire alla rete. Possedere un’identità virtuale (sito web, pagina social, Opac virtuale) non ha niente a che vedere con l’essere attore nelle dinamiche di rete (catalogazione semantica ed interoperabilità dei dati tra istituzioni culturali).
Se finora si è parlato di reference digitale e mostra delle collezioni in possesso dell’istituto, e dell’accesso online alle risorse possedute e digitalizzate – perlopiù ai soli riferimenti bibliografici della risorsa – in balia totale delle piattaforme proprietarie (Google, Facebook, etc.), ora dobbiamo metterci a lavoro per riempire l’abisso tecnologico tra chi possiede gli strumenti tecnici e chi i modelli teorici, gli stessi di cui ci serviamo fin dal Medioevo, per soddisfare la condizione identitaria e del ruolo ricoperto dall’istituzione culturale di creatore, conservatore, gestore e diffusore della conoscenza, in maniera professionale ed autonoma.
Quindi da una parte abbiamo una rapida evoluzione tecnologica che ha messo a disposizione mezzi tecnologicamente potenti per elaborare e raccogliere informazioni e una rete globale e capillare che permette lo scambio e la condivisione delle informazioni; dall’altro ci siamo dimenticati secoli di teoria catalografica e della strutturazione della conoscenza, pensando così di reinventare tutto da capo, ed affidandoci completamente ad aziende con le quali non abbiamo dialogo né controllo, ad automatismi semplici e non gestibili in maniera indipendente e, nella migliore delle ipotesi, a professionisti del settore tecnico-informatico che non possiedono le competenze necessarie (giustamente!) per poter strutturare la conoscenza.
È perciò scorretto parlare di ristrutturazione della conoscenza con metodologie nuove, i modelli teorici sono quelli vivi fin dal Medioevo: cambiano i supporti. Se prima c’erano le glosse, ora sono link, se prima c’erano i segnalibri, oggi ci sono i tag.
In questa prospettiva storica in cui il presente è legato al passato come fase di un processo evolutivo, interviene l’importanza della rapidità della ricerca, inscindibile dalla rilevanza dei risultati, che conferma come la quarta legge di Ranganathan “Non fare perdere tempo al lettore” – del lontano 1931 – sia sempre attuale.
Oggi più di prima è necessario che i dati creati siano legati ad altrettanti metadati che li descrivano e li individuino univocamente.
La rete infatti mette a disposizione una grande quantità di informazioni in modo caotico e non sempre visibile, accessibili attraverso uno stesso strumento – o luogo – il web, in cui dover individuare le risorse di cui abbiamo bisogno: non ci sono più diversi livelli di accessibilità alle informazioni, che permettevano di essere più linearmente acquisite e allo stesso tempo ne rendeva più difficile l’accesso.
Si pone dunque il problema della conservazione dei metadati sul web e della rintracciabilità delle risorse, cioè si delinea la necessità di strutturare i metadati delle risorse perché queste non vadano perse nell’universo web, ma siano consultabili e non volatili, e durante l’evoluzione tecnologica, implementabili: quindi dobbiamo sapere dove sono, come sono fatti, che siano manipolabili, che siano interoperabili.
A partire da questo problema, la condivisione dei dati posseduti dalle istituzioni preposte alla conservazione attraverso il web, si sviluppa la necessità di rendere questi dati interoperabili (interscambiabili, comprensibili vicendevolmente, accessibili in remoto a prescindere dal luogo in cui ci troviamo) e quindi di assumere un linguaggio unico e internazionale per poter produrre dati della stessa forma.
La sfida oggi si delinea a partire dalla ristrutturazione dei dati posseduti dalle istituzioni culturali e dalla loro messa a disposizione attraverso standard e modelli condivisi dalla comunità scientifica. Questo sta avvenendo riscrivendo i modelli concettuali della rappresentazione e organizzazione dei dati catalografici.
Quindi in una realtà globalizzata il riferimento centrale di ogni progetto di gestione delle informazioni parte necessariamente dalla condivisione, ovvero dalla creazione di standard e dallo sviluppo cooperativo di modelli comuni e di schemi di conversione.
I processi di trasformazione che come questo, coinvolgono universi stratificati e multiformi, sviluppano evidenti problematiche, trovandosi di fronte a dati di differente natura, registrati con molte differenti convenzioni e standard, che per le nuove esigenze dovrebbero essere riconvertiti entro i parametri comuni che si vanno elaborando. Con da un lato il desiderio di mantenere la ricchezza dei particolari aspetti qualitativi delle diverse realtà di eccellenza, dall’altro la necessità di riqualificare portando ad un comune denominatore il livello della base d’ingresso in quest’area della condivisione.
L’intento, in linea con l’orizzonte della rete e della condivisione dei dati, è quello per cui differenti comunità culturali possano integrare e utilizzare, relativamente alla frazione per loro più opportuna, dati creati da altre comunità culturali, favorendo così la loro diffusione e il progressivo controllo della qualità. Sono quindi dati svincolati da una forma di rappresentazione finale fissata univocamente, così da permettere l’interscambio e la visualizzazione di questi per mezzo di tecnologie diverse tra loro.
La gestione tecnologica dei formati e dei modelli funzionali, inoltre, si evolve con cicli molto ristretti, rendendo indispensabile salvaguardare il riutilizzo del valore informativo del dato indipendentemente dalla sua forma (cercando anche di evitare i costi di continue riconversioni).
Il panorama internazionale si sta muovendo verso una connessione dei dati indiscriminata, provenienti da qualsiasi contesto produttivo (istituzioni culturali, DBpedia, ontologie specifiche, et al.).
L’intento diviene quello di intraprendere un lavoro che non si limiti e non si esaurisca all’interno del nostro deposito di dati, bensì si colleghi, attraverso opportune relazioni qualitativamente valide, con ciò che già esiste sul web e nei database e dataset (aperti) posseduti dalle istituzioni culturali.
L’attuale livello di modellizzazione dei dataset non permette ai processi automatizzati di creare collegamenti qualitativamente affidabili, risulta necessaria una verifica diretta.
È necessario quindi intraprendere un processo di allineamento dei dati, ovvero di collegamento tra di loro, così da favorire la diffusione dei depositi che si rendono aperti, della conoscenza delle istituzioni che possiedono questi dati, e della circolazione delle informazione, fino ad arrivare alla sua fonte controllata e di qualità.
Quindi, non depositi di dati culturali isolati, ma aperti e collegati, e soprattutto riuso dei propri dati, frutto di una stratificazione culturale nei propri depositi e controllo dei collegamenti.
Solo così potremmo riprendere il controllo della qualità delle informazioni culturali, diffondendone la conoscenza e valorizzando la propria tradizione culturale.
La prospettiva è quella di considerare l’importanza e la necessità di mantenere la ricchezza culturale: non tendere ad un processo che appiattisca i dati secondo un unico linguaggio, bensì sviluppare collegamenti tra loro, riuscendo a conservare ontologie diverse – specchio delle specificità delle diverse collezioni; aggiungere connessioni, piuttosto che rimanere nell’utopica convinzione che si possa raggiungere un unico sistema di riferimento comune a tutte le esperienze culturali.
Le istituzioni culturali hanno la responsabilità di aggiornarsi e contribuire alla diffusione più completa possibile, articolata e controllata delle informazioni, a partire da quelle in loro possesso, a beneficio della loro usabilità da parte di qualsiasi utente che ne necessita la fruizione, nella prospettiva che non esisterà mai una strutturazione dell’informazione “perfetta”, ma perseguendo l’obiettivo di contribuire ad un’informazione più accurata e completa possibile, in base alle competenze possedute (I will be the best I can be).
This work is licensed under a Creative Commons Attribution-ShareAlike 3.0 Unported License
L'autore
- Laureata in Scienze archivistiche e biblioteconomiche presso l'Università degli Studi di Firenze, la mia ricerca si focalizza sull'evoluzione tecnologica dei modelli di organizzazione della conoscenza e sulle dinamiche di conservazione, gestione e diffusione dei contenuti controllati nel web attraverso le best practice internazionali.