BIBLIOTECA VIRTUALE

XXI Secolo (2009)

Biblioteca virtuale

Marco Veneziani

Secondo una metafora nata con Internet e che ha ancora oggi notevole fortuna, i nodi della rete e in particolare i siti web interconnessi in tutto il mondo (world wide web) possono essere considerati da un punto di vista concettuale come gli ambienti di un’unica, immensa biblioteca, che nella sua vastità quasi incarna il mito letterario della biblioteca globale o universale. La navigazione da un sito all’altro è assimilabile al cammino di un esploratore nel labirinto delle sale, interrogare i vari motori di ricerca equivale a consultare i cataloghi, a visionare da vicino gli scaffali. Analogamente, accedere da ultimo ai singoli contenuti di conoscenza corrisponde alla lettura del libro conservato o all’esame diretto di qualche fondo. E poiché i contenuti del web, come recita la definizione più recente dell’ISBD (International Standard for Bibliographic Description), sono risorse elettroniche remote – fruibili solo attraverso un computer o un telefono cellulare connessi a Internet – si parla del web come di una sterminata biblioteca virtuale (virtual library), anzi la biblioteca virtuale per antonomasia, mutuando dalla cibernetica la particolare accezione dell’aggettivo. In un senso più circoscritto e concreto, biblioteca virtuale è anche sinonimo di biblioteca digitale (digital library), cioè designa le numerose collezioni di risorse elettroniche accessibili liberamente o dietro un compenso, che sono nate nel web grazie al fiorire in tutto il mondo di iniziative pubbliche e private di digitalizzazione.

I presupposti tecnologici

Alla fine del Novecento, l’informatica e la telematica hanno entrambe conosciuto, nel volgere di pochissimi anni, sviluppi particolarmente significativi: sono migliorate di vari ordini di grandezza le prestazioni di calcolo dei comuni processori e di conseguenza è cresciuta la memoria centrale dei calcolatori, cioè lo spazio di lavoro dei programmi; d’altra parte, la normale capacità delle memorie di massa è salita rapidamente dai milioni di caratteri (megabyte) fino ai miliardi e alle migliaia di miliardi (giga e terabyte), di fatto equivalenti al contenuto di intere biblioteche. A loro volta, i satelliti di telecomunicazioni, i cavi in fibra ottica, lo sfruttamento più efficiente dei diffusissimi collegamenti telefonici in doppino di rame hanno portato la banda passante delle connessioni di rete fra apparati elettronici da poche migliaia di bit al secondo alle centinaia di migliaia e ai milioni di bit (megabit) attuali, fino a rendere praticabile, attraverso la tecnologia dei telefoni cellulari, la trasmissione senza fili (wireless) da computer a computer o da computer a telefono. Grazie all’insieme di questi progressi, il vecchio scenario offerto dalla rete, caratterizzato in prevalenza dallo scambio di informazioni quasi esclusivamente testuali, più compatte e veloci, si è presto arricchito di musica, immagini e filmati.

Gli sviluppi del software hanno assecondato con decisione il potenziamento dell’hardware. Infatti, nella loro interazione con gli utenti, tutti i sistemi operativi di nuova generazione hanno messo in secondo piano – pur senza cancellarle – le spartane interfacce a caratteri e linee di comando tipiche del DOS (Disk Operating System) o di UNIX, e hanno adottato veri e propri ambienti grafici, basati sulla simulazione più o meno realistica di una scrivania (desktop). Sul piano d’appoggio, cioè sul videoschermo, giacciono sia i menu di comandi e i servizi attivabili con il mouse, sia le varie cartelle di lavoro (folder, directory) che – sempre mediante il mouse – l’utente sposta a piacere, oppure apre in finestre autonome e sovrapponibili (windowing). Queste ultime presentano a loro volta pulsanti e menu, campi di input, cartelle e file di dati. La metafora della scrivania ha reso più semplice e intuitivo il lavoro svolto al computer, permettendo inoltre di tenere costantemente sotto osservazione, con vantaggio dell’ergonomia, l’insieme delle funzionalità e dei servizi che il sistema operativo è in grado di espletare in un dato istante. Allo stesso modo, anche ai poli opposti delle connessioni di rete si è tratto vantaggio dalla grafica e, se i protocolli di comunicazione specializzati come FTP (File Transfer Protocol) e Mail hanno resistito, tutti gli altri protocolli prevalentemente testuali – Telnet, Gopher, WAIS (Wide Area Information Server), subito divenuti obsoleti – hanno lasciato il posto all’HTTP (Hypertext Transfer Protocol), che offre supporto a pagine web del tutto assimilabili alle finestre del desktop, ossia pienamente interattive e dotate appunto di menu, campi e pulsanti, di un’ampia gestione dei contenuti testuali (dalla scelta dei font al corpo dei caratteri, all’enfasi delle parole), nonché di un’efficace integrazione di suoni e immagini. Soprattutto, i protocolli HTTP e HTML (Hypertext Markup Language) hanno consentito di implementare un’effettiva ipertestualità, attraverso l’istituzione di collegamenti immediati (link) da una zona all’altra della stessa pagina web, oppure da pagina a pagina, collegamenti attivabili con il semplice uso del mouse e del tutto indipendenti dalla posizione fisica della risorsa richiamata, localizzabile indifferentemente su qualunque nodo della rete globale. Peraltro, in vista di un traffico web molto più intenso, l’intera architettura software delle connessioni Internet è stata ridisegnata in modo più efficiente, e i vecchi collegamenti a stella con un computer centrale (mainframe), in emulazione di terminale a caratteri (time sharing), sono stati soppiantati dall’interazione funzionale di un nodo-client che richiede servizi (per es., la trasmissione di file remoti, un’autenticazione, una particolare pagina web, l’accesso a una banca dati) e di un nodo-server che invece li eroga in tempo reale. Infine, i maggiori produttori di programmi hanno dovuto convenire sull’opportunità di sostenere alcuni standard fondamentali, e fra questi Unicode, che finalmente estende a oltre 32.000 – dai 256 delle codifiche risalenti agli anni Sessanta – l’insieme dei caratteri e dei simboli grafici disponibili sui calcolatori, e SGML-XML (Standard Generalized Markup Language-eXtensible Markup Language), che invece realizzano un altro antico sogno degli utenti umanisti del computer, ossia, attraverso una disciplina dei metodi di annotazione (markup), permettono di costruire – con mezzi relativamente semplici – file testuali di notevole complessità strutturale, ma del tutto indipendenti dai software che ne faranno uso.

Parallelamente, anche per i formati dei documenti digitali – in passato strettamente proprietari e non documentati – si è verificata una netta convergenza su pochi standard secondo la tipologia stessa dei dati: AIFF (Audio Interchange File Format), MP3 (MPEG audio layer 3), AAC (Advanced Audio Coding), WAV (WAVeform audio format) per quelli audio; per le immagini PICT, TIFF (Tagged Image File Format), GIF (Graphic Interchange Format), JPEG (Joint Photographic Experts Group), PNG (Portable Network Graphics), EPSF (Encapsulated Postscript File); per i filmati MPEG (Moving Picture Experts Group), AVI (Audio Video Interleave), DIVX (DivX Inc.), VOB (Video Objects). Quanto ai testi elettronici è disponibile, oltre a TXT e HTML, il formato TEI (Text Encoding Initiative), che di recente si è uniformato nella sintassi agli altri linguaggi SGML-XML, seguendo l’esempio di altre evoluzioni analoghe, come quella da HTML a XHTML (eXtensible Hypertext Markup Language). Come formati di scambio fra sistemi operativi diversi si sono imposti l’RTF (Rich Text Format) e il PDF (Portable Document Format), quest’ultimo in verità un formato multimediale capace di ospitare insieme testo e immagini. D’altra parte, il mercato stesso del software è nettamente cambiato, giacché in vari settori applicativi (word processing, data-base management, e perfino sistemi operativi) agguerriti programmi open source – del tutto gratuiti – hanno acquistato nel corso del tempo un’affidabilità tale da renderli fortemente concorrenziali rispetto agli equivalenti programmi che si trovano in commercio.

La biblioteca virtuale come spazio cibernetico

A seguito di progressi così rilevanti, la diffusione delle tecnologie elettroniche nell’organizzazione del lavoro, nelle comunicazioni e nella vita quotidiana ha subito all’alba del nuovo secolo un’ulteriore accelerazione. Quasi tutte le vecchie banche dati sono state aperte all’accesso da rete e, grazie al fiorire in tutto il mondo di iniziative pubbliche e private, sono nate nel web nuove grandi collezioni di risorse elettroniche accessibili liberamente o dietro un compenso: filmati e fotografie, musica classica e leggera, stampe d’arte e carte geografiche, manoscritti e riviste, affreschi e quadri celebri, libri antichi e moderni – una volta trasposti nei formati digitali più adatti – sono stati raccolti e ridistribuiti universalmente attraverso semplici interfacce di ricerca. Quella che fin dalle origini era considerata una zona franca dello svago e dello scambio interpersonale, ovvero – per quanto riguarda i contenuti più seri – della comunicazione tecnico-scientifica senza fini di lucro, è stata investita da cospicue operazioni commerciali (con la vendita in rete dei prodotti più diversi), che a loro volta hanno accresciuto gli interventi mirati a una più alta qualificazione del web sotto il profilo culturale.

Progressivamente dentro i milioni di nodi interconnessi, negli ambienti di lavoro disegnati sugli schermi del personal computer o del grande server ha preso più netta consistenza un vero e proprio spazio cibernetico (cyberspace), articolato in ambienti (i siti web) dai confini molto più ampi e modellabili che non quelli di una reale scrivania, luoghi dove regolarmente accadono eventi (l’aprirsi di una finestra, nuovo spazio nello spazio, o il nascere di nuove entità: il CD appena inserito nel drive, la fotografia prelevata da un sito remoto) e dove gli oggetti raggiungibili possono essere variamente manipolati non più dal semplice puntatore del mouse, bensì da un’intera mano artificiale, o addirittura dalla rappresentazione dell’intero corpo del cibernauta (il cosiddetto avatar), figura sintetica coordinata nei movimenti artificiali da opportuni sensori applicati al navigatore (cybergloves, casco con visore, cuffie).

Sull’onda del nuovo ciclo della rivoluzione informatica, le speculazioni sulla realtà virtuale nate con Internet, che in modo suggestivo avevano già messo in rapporto cyberspazio e biblioteca virtuale, hanno potuto esplorare a fondo concetti non secondari, come la totale immersione sensoriale, la navigazione fra mondi eterogenei, le tecniche e i limiti di manipolazione degli scenari virtuali. Ma soprattutto hanno messo in chiaro la debolezza di ogni analogia con forme non cibernetiche di virtualità, per es. con i mondi virtuali generati nella mente dalla lettura di un libro, dalla creazione/fruizione degli oggetti d’arte, dall’elaborazione concettuale di alcuni topoi filosofico-letterari dell’immaginario antico e moderno: la pluralità dei mondi intelligibili, l’utopia, il mito platonico della caverna, la multidimensionalità del reale, l’altrove. Solitamente tali analogie, se coglievano le profonde tendenze alla dematerializzazione dei rapporti umani insite nel mondo contemporaneo in conseguenza della rivoluzione tecnologica in corso, invece mascheravano o sottovalutavano le radici cibernetiche della realtà virtuale, che nella costitutiva interazione fra uomo e macchina elettronica trova il proprio fondamento e insieme il proprio limite.

Di fatto, nonostante i grandi progressi, sia l’attuale generazione di calcolatori sia quelle del futuro prevedibile sono e resteranno incapaci di far fronte alla potenza o alla complessità di calcolo richieste da simulazioni davvero realistiche. E non è un caso se le applicazioni più significative della realtà virtuale non hanno mai perso un certo grado di approssimazione e di artificiosità, finendo per concentrarsi – oltre che nei giochi elettronici – in settori sperimentali come la telechirurgia e la diagnostica medica, ovvero nelle attività di addestramento ai lavori rischiosi (militari, pompieri, piloti d’aereo). Un notevole interesse continuano a destare le applicazioni nel campo delle arti grafiche e della produzione cinematografica, nonché i musei e le mostre d’arte virtuali, mentre invece la novità forse più solida e dinamica del web, ossia l’espansione in atto a carattere esponenziale, quasi inflazionario, per un singolare paradosso è rimasta sostanzialmente estranea all’universo della realtà virtuale.

Le biblioteche pubbliche fra tradizione e rinnovamento

Al di là dei limiti indicati, l’ampia circolazione della metafora che avvicina cyberspazio e biblioteca virtuale mette in evidenza che proprio le biblioteche, per la loro missione tradizionale di custodire, descrivere e trasmettere le conoscenze, anche e soprattutto a vantaggio delle generazioni future, costituiscono uno dei maggiori punti di attrito dell’innovazione informatica. Esse infatti, fin dall’inizio, si sono aperte allo svecchiamento delle procedure di lavoro e hanno contribuito attivamente prima allo sviluppo di Internet tramite gli OPAC (On-line Public Access Catalogue), poi alla definizione delle metodologie e degli standard di digitalizzazione, nonché alla creazione diretta di raccolte digitali pubbliche. Oggi si trovano al centro di processi di trasformazione di grande portata, di cui gli addetti ai lavori avvertono i sintomi, ma ancora non sanno precisare gli esiti. Non a caso gli operatori hanno molto insistito sui nuovi servizi possibili, sulle nuove opportunità che si affacciano – si pensi al vantaggio di armonizzare attraverso il digitale la libera fruizione e la tutela conservativa di patrimoni deperibili (quotidiani), o pregiati (libri rari e manoscritti) – e tra essi si moltiplicano le espressioni stesse intese ad afferrare la nuova frontiera tecnologica: biblioteca virtuale, biblioteca elettronica, digitale, multimediale; e per quanto riguarda le biblioteche del prossimo futuro, che si configurano a cavallo fra novità e tradizione: biblioteca ibrida, mista, perfino biblioteca postmoderna. In effetti, i problemi non sono pochi.

Di fronte ai grandi vantaggi tecnici che informatica e telematica offrono sul terreno della descrizione dei documenti, dell’organizzazione, dell’accessibilità, e anche della conservazione a breve e lungo termine, tendono a sfumare le distinzioni di problemi, oggetti e metodi fra le discipline sorelle dell’archivistica e della biblioteconomia, tradizionalmente concorrenti. D’altra parte, i metodi di descrizione e classificazione, di gran lunga potenziati dal mezzo elettronico, dopo l’iniziale moltiplicazione hanno sì preso a convergere e a fissarsi in vere e proprie ontologie descrittive del testo, del suono, dell’immagine, ma ancora presentano problemi di integrazione e interoperabilità, qualità indispensabili per poter trattare con efficacia le entità multimediali.

Anche la loro validità a confronto con i tradizionali sistemi di catalogazione è oggetto di ampia discussione, e così pure resta aperto il giudizio sulle nuove modalità di reperimento delle informazioni. Il modello del portale infatti, facile e familiare, sembra premiare un accesso troppo semplificato da parte dell’utente, perfino a discapito dell’interrogazione tramite OPAC, e sembra perciò assecondare una naturale tendenza a preferire l’informazione mediocre – se non addirittura scadente – ma immediatamente disponibile, rispetto a quella derivante dalla ricerca di fonti più specializzate e qualificate rispetto ai motori di ricerca generalisti oggi disponibili in Internet.

A contrastare questa propensione, una linea di ricerca denominata Web 2.0 o Web semantico, cui anche le biblioteche sono interessate, insiste sull’opportunità di un’evoluzione degli strumenti di reperimento (discovery tools), capace di conciliare rigore e innovazione attraverso il coinvolgimento degli utenti stessi nell’articolazione delle tassonomie semantiche e funzionali dei documenti (collaborative filtering). I produttori di informazione dovrebbero favorire il formarsi di comunità virtuali fidelizzate, per es. gli abbonati a notizie economiche o sportive, e raggiungere gli utenti direttamente con il loro prodotto, sollecitando contributi di idee e arricchimenti in ordine alla descrizione della risorsa, magari in cambio di un’attenuazione dei vincoli di copyright che ne consenta un parziale riutilizzo. Oppure una classificazione più completa e rigorosa dei contenuti potrebbe derivare direttamente dall’analisi più attenta dei comportamenti dell’utente e dalla storia delle sue interazioni con la biblioteca virtuale. L’implementazione di una semantica più agguerrita, articolata in ontologie ricche e stabili, aiuterebbe in generale a delimitare e a connotare meglio i diversi ambienti della biblioteca virtuale, e finirebbe per agevolare la personalizzazione dei portali, la specializzazione dei motori di rete, la trasformazione degli strumenti di ricerca del web in intermediari intelligenti, capaci quindi di elaborare dinamicamente i propri obiettivi in funzione della missione ricevuta.

Ma non solo per tale aspetto la dinamicità è divenuta una delle parole-chiave imperative per le biblioteche del futuro. In tema di conservazione dei documenti web (digital preservation), un problema cruciale a fronte della rapida obsolescenza dell’hardware e di quella ancor più rapida dei programmi, le discussioni hanno chiarito che non si tratta solo di garantire la sopravvivenza a lungo termine (long-term storage) delle risorse attraverso la salvaguardia degli apparati elettronici di riproduzione, ma soprattutto di assicurare la continuità dell’accesso alle informazioni nel corso del tempo. Conservazione da intendere, perciò, come un processo dinamico che ha per obiettivi l’integrità e l’accessibilità dei dati, il supporto agli standard condivisi di maggior respiro, una certa selettività per quanto riguarda i materiali da preservare, posto che non tutti – come molti hanno osservato – possono e devono essere conservati o catalogati, e comunque non tutti nelle stesse forme.

L’alta dinamicità tende così a diventare uno dei tratti più innovativi e significativi dei contenuti digitali, contenuti che nel rapido aggiornamento e nella loro mutevolezza (ever-changing information) trovano un limite e insieme l’indizio della loro vitalità e importanza. Infatti, in ogni istante nascono nel web nuovi documenti e altrettanti scompaiono o migrano da un indirizzo all’altro, disseminando in rete link che non guidano più da nessuna parte. Oppure i documenti cambiano drasticamente dal punto di vista quantitativo e qualitativo, mentre è impossibile aggiornare tutti i link di ingresso. Chi vi accede troverà dunque informazione superata da documenti più recenti, di cui magari non si dà notizia, o sarà introdotto non al documento nella sua interezza, ma a singole parti di cui ignora il contesto. Si sa che talune risorse informative, come per es. le liste di discussione e le comunità (newsgroups, blog), sono difficilmente riconducibili alla nozione stessa di documento. Altre sono pubblicate scavalcando la mediazione editoriale e il controllo di qualità che, attraverso consulenti e comitati scientifici, gli editori di solito svolgono.

A fronte delle grandi opportunità di democrazia diretta per chi li produce o dei vantaggi offerti dalla possibilità di aggiornarli in tempo reale, i documenti elettronici non hanno ancora sviluppato pienamente la vasta gamma di tipologie di presentazione – tipiche dell’editoria convenzionale dopo secoli di storia della stampa – che consentono di orientarsi fra prodotti di taglio e di target diverso, e dunque fra informazione autorevole e informazione amatoriale. Se ogni singola pubblicazione tradizionale costituisce un’unità discreta e distinta dalle altre, che si sa bene come maneggiare, nella biblioteca virtuale tutto è insieme più semplice, perché è facile passare da un documento all’altro, e più complesso, perché più labili sono i confini fra i documenti, o addirittura fra più versioni dello stesso documento, e una volta individuata una buona fonte informativa, si scopre spesso che molte altre vi sono collegate in modi imprevedibili.

Insomma, nell’universo della biblioteca virtuale i documenti, dall’essere di norma dei prodotti, risultato di un procedimento elaborativo determinato, si vanno trasformando progressivamente in testimonianze dinamiche del processo stesso di produzione, spesso a supporto di forme di sapere originali, capaci di trarre il massimo profitto dalla multimedialità, dalle inattese connessioni o corrispondenze fra dati eterogenei che emergono durante la navigazione, dalla inedita possibilità di generare buona informazione attraverso il coordinamento e la valorizzazione degli sforzi congiunti di centinaia e migliaia di utenti volontari. In un contesto così fluido e complesso, la biblioteca virtuale lancia una difficile sfida per chiunque voglia dedicarsi ai tradizionali compiti di selezionare, descrivere, trasmettere e conservare le conoscenze.

Le biblioteche virtuali come collezioni di risorse elettroniche

Oltre che essere un nome alternativo del cyberspazio, biblioteca virtuale designa anche una precisa categoria di siti web, quelli cioè che danno accesso a una o più collezioni, comunque estese e organizzate, di risorse elettroniche rilevanti dal punto di vista culturale. In questo senso più concreto le biblioteche virtuali, o digitali, si organizzano intorno alle tematiche e alle aree di interesse più diverse: precisamente delimitate e concluse come American Memory sulla storia degli Stati Uniti d’America, o aperte e in itinere come Gallica, Project Gutenberg, Biblioteca Italiana, che collezionano – in formato testo o per immagini – le opere che nei vari campi del sapere hanno contribuito al formarsi in Europa delle rispettive aree culturali di riferimento. Archimedes Project raccoglie i testi più significativi della meccanica classica e delle sue applicazioni ingegneristiche dall’antichità all’Ottocento, mentre Perseus e Bibliotheca Augustana si concentrano su quelli della cultura classica greco-latina. Internet Archive ha invece l’ambizione di conservare tutte le pagine web prodotte nel mondo, con i relativi aggiornamenti. Altrettanto ambiziosi sono alcuni progetti recenti, come Google Book Search, che mirano a trasferire in rete l’intero patrimonio di opere a stampa dell’umanità, acquisendone in immagini tutte le pagine oppure anche soltanto i frontespizi e gli indici, nel caso in cui l’opera sia protetta da diritti.

Se dalle biblioteche virtuali ad accesso libero si passa a quelle che richiedono una registrazione, un pagamento, o forme miste di interazione, lo scenario si amplia con diversi esempi: Patrologia Latina Database, versione elettronica della Patrologia Latina di Jacques-Paul Migne; JSTOR (Journal Storage), che raccoglie e rivende anche per abbonamento articoli di numerose riviste; Britannica online, versione elettronica della prestigiosa enciclopedia; tutte le biblioteche virtuali che si occupano di materiali audio-visivi. Infatti, accanto alla componente del tutto volontaria – che da sola ha portato alla realizzazione di molte collezioni, come in Italia il Progetto Manuzio (LiberLiber), e continua ad alimentare nel mondo varie imprese di digitalizzazione (per es., l’enciclopedia multimediale Wikipedia) – le opportunità commerciali attraggono investimenti consistenti, che a loro volta trascinano altri investimenti pubblici e privati. Nei Paesi avanzati i governi, le università, le biblioteche, le istituzioni culturali sono ormai consapevoli dell’importanza di trasferire nel web l’intera cultura di base, per renderla disponibile a tutti, e di arricchire attraverso il digitale i percorsi culturali e formativi con documenti unici o rari, altrimenti destinati soltanto agli specialisti o alla segregazione negli scaffali.

Promossa dagli operatori-finanziatori, la biblioteca virtuale nasce in genere dall’iniziativa di uno staff di governo che, in base alla missione ricevuta e alle risorse economiche disponibili, stabilisce il disegno strutturale della biblioteca, occupandosi di tutti gli aspetti rilevanti. In primo luogo le caratteristiche del sito web di ingresso (il portale), che di solito fornisce all’utente non solo i documenti cui è interessato, ma anche un certo numero di servizi accessori, quali l’orientamento sui contenuti delle collezioni ospitate, l’organizzazione di percorsi guidati, le informazioni sul migliore utilizzo dei metodi di ricerca implementati, la conservazione delle sessioni di interrogazione tra più collegamenti, lo scambio di notizie con i fruitori e la comunicazione dei fruitori tra loro, il trasferimento del materiale richiesto verso gli utenti. Successivamente si deve precisare l’articolazione delle raccolte da avviare: in particolare il loro numero, la tipologia, le eventuali mutue interazioni, fino alla loro localizzazione su uno o più server di rete, tenendo conto del fatto che anche quando il tema o il genere di una collezione è circoscritto, essa di norma assume un carattere multimediale. Così una raccolta di musica contemporanea comprenderà la sezione dei videoclip e quella delle esecuzioni sonore, eterogenee per quanto concerne il formato digitale. E un manoscritto antico si presenterà in più varianti: immagini ad alta o bassa definizione destinate alla vendita o alla distribuzione gratuita, trascrizioni alfanumeriche tradizionali per la ricerca testuale e l’analisi linguistica.

Inoltre, lo staff determina l’architettura interna di ciascuna collezione, che può essere essa stessa di tipo distribuito, sceglie i software da adottare (proprietari o più spesso open source), fissa gli standard di riferimento che dovranno guidare nel loro complesso le scelte tecniche, tipicamente partendo da OAIS (Open Archival Information System), lo standard ISO (International Organization for Standardization) che detta l’articolazione strutturale astratta delle raccolte di risorse elettroniche e descrive i blocchi funzionali componenti. OAIS definisce anche la struttura duale di ciascuna risorsa elettronica, che è composta sempre dal set dei dati di base (file di immagini, testi, musiche) e dal set dei metadati, che descrivono i primi in modo formale precisandone il contenuto, l’organizzazione strutturale, le caratteristiche tecniche, i diritti di accesso e di modifica.

Perciò ulteriori specifiche autorevoli sono nate per i file destinati a contenere metadati (metadata con­tain­er, guiding file). METS (Metadata Encoding and Transmission Standard) è stato elaborato dalla Library of Congress come parte di American Memory ed è un profilo applicativo XML dedicato a questo scopo. In Italia MAG (Metadati Amministrativi e Gestionali), lo standard adottato nella maggior parte delle iniziative di digitalizzazione condotte dal Ministero per i Beni e le Attività culturali (MiBAC), è modellato in larga misura sull’architettura di METS, ma importa i metadati descrittivi (autore, titolo, editore, data di edizione ecc.) direttamente dalle notizie bibliografiche di SBN (Servizio Bibliotecario Nazionale), eventualmente ricodificandole dall’UNIMARC (Universal Machine Readable Cataloging) originario in Dublin Core, anch’essa un’applicazione XML standard, largamente diffusa, per il markup degli elementi descrittivi di risorse elettroniche.

Abbiamo già detto in precedenza dei vari formati digitali esistenti per ciascuna tipologia di documento. Fra questi sarà necessario scegliere in funzione delle caratteristiche intrinseche degli originali (per es., immagini in bianco e nero, scala di grigi o colore) e dell’uso previsto (la consultazione a video o la vendita), ma – ai fini della descrizione strettamente tecnica – per molte tipologie esistono standard unitari cui fare riferimento, come, per es., il NISO (Nation-al Information Standards Organization) Data Diction-ary per le immagini (digital still images).

Lo staff di governo, infine, seleziona i contenuti di base da acquisire e decide le politiche di popolamento delle raccolte, di solito attraverso campagne di digitalizzazione volte a ottenere le risorse elettroniche da originali cartacei o analogici. In non pochi casi, laddove le metodologie informatiche sono già entrate di diritto nelle aziende e nei luoghi di produzione e sono divenute una buona alternativa rispetto a quelle non informatiche, le risorse nascono già digitali – composizioni musicali, alcune riviste elettroniche, fotografie e filmati, prodotti editoriali complessi – e sono acquisite nel loro formato originario.

Dopo la fase di costituzione, accade raramente che la biblioteca virtuale possa essere consegnata per tutto ciò che riguarda la gestione ordinaria ai tecnici informatici, amministratori del server di rete. Più spesso lo staff di governo rimane indispensabile anche in esercizio al fine di sorvegliare e coordinare i servizi, stabilire le nuove accessioni, mantenere sempre aggiornate le politiche di accesso e di conservazione dei dati, che ogni giorno si rivelano sempre più complesse.

Le risorse elettroniche e i diritti d’autore

Infatti, un’articolazione presente in quasi tutte le biblioteche virtuali è volta a gestire i diritti d’autore o di copia (copyright) gravanti sui vari contenuti, sull’intero software di governo nonché sull’architettura stessa delle collezioni e dei servizi, gestione che comporta un insieme di pratiche organizzative, regolamentari e commerciali designate come DRM (Digital Rights Management).

L’ISBD distingue le risorse elettroniche in due tipi fondamentali: locali, normalmente distribuite su supporti informatici portabili (nastri, CD, DVD), e remote, accessibili soltanto attraverso una connessione di rete. È anche opportuno distinguere, secondo un criterio di granularità, la risorsa atomica, in sé completa e autonoma, da quella consistente invece in una raccolta – più o meno strutturata – di risorse atomiche affini. In materia di diritti d’autore, i vari tipi presentano problemi differenti di tutela in ragione sia della loro granularità sia dell’esistenza o meno del supporto fisico dedicato, ma tutti hanno in comune caratteri inediti o che, già propri dei tradizionali prodotti intellettuali, nel formato elettronico risultano esaltati a tal punto da renderne estremamente difficile un trattamento giuridico equilibrato.

Si è già accennato ai problemi della mutevolezza e della precisa delimitazione dei documenti digitali, ma altri aspetti critici non mancano. Per es., la riproducibilità dell’opera nella sua qualità originaria è messa alla portata di qualunque utente, anche se privo dei legittimi titoli di possesso, e non di rado negli scambi interpersonali sembra più semplice duplicare i file e spedirli per posta elettronica (e-mail, download), che non prestare materialmente il libro o il disco. D’altra parte, quasi ogni operazione eseguibile al computer comporta una duplicazione implicita o esplicita dell’originale, e la riproducibilità è assolutamente indispensabile per la conservazione a lungo termine della risorsa o per proteggerla da perdite accidentali dovute a errata gestione, difetti dei programmi, guasti dell’hardware (backup, copie di sicurezza). Altrettanto facilmente, almeno sotto il profilo tecnico, un fruitore potrebbe scomporre nei suoi elementi costituenti una risorsa multimediale o ipertestuale composita, e riutilizzarne separatamente i suoni, le immagini, i testi, o magari manipolare i vari contenuti al di là delle intenzioni stesse dell’autore. Nondimeno anche queste pratiche sono inevitabili, per es., nell’ambito dei servizi di recensione, promozione o segnalazione, con cui agenzie numerose e agguerrite di document delivery tentano, in modi sempre più precisi e personalizzati, di far giungere l’opera elettronica all’utente finale. È indispensabile anche aggiungere che la ridefinizione dei ruoli tradizionalmente costituiti intorno all’opera intellettuale finisce per gravare in modo particolare sugli editori, che devono necessariamente familiarizzarsi con le nuove tecnologie e soprattutto con un mercato più competitivo, nel quale – come s’è detto – l’autore può anche decidere di presentarsi in prima persona con le sue opere.

Nel formato elettronico, pertanto, è più ampia la tipologia dei documenti da tutelare, più fluida e complessa la loro struttura, più varie sono le forme della loro fruizione, più largo – e di solito transnazionale – è divenuto il bacino delle responsabilità dirette e indirette, cioè dei potenziali titolari di diritti-doveri: agli autori, editori e utenti si aggiungono i fornitori di sistemi, di connettività, di spazio-disco, di software dedicato, di servizi a valore aggiunto. Si comprende perciò come, nel momento della pubblicazione dell’opera elettronica, di un programma applicativo, di una banca dati, ne siano messe fortemente in questione l’autenticità, l’integrità e l’identità, cioè le basi giuridiche stesse – insieme al carattere originale – del diritto d’autore. D’altra parte, la proprietà intellettuale è un concetto giuridico complesso, che deriva la sua forza dal consenso sociale e da robuste componenti culturali. Nell’Europa orientale, in Asia, in Africa sono ampiamente diffuse culture che per secoli si sono fondate sull’imitazione e sulla trasmissione orale, o che per lunga esperienza storica vedono ogni politica di tutela come un attentato alla libertà di espressione, o come un tentativo di ristabilire privilegi coloniali. È poi appena il caso di ricordare che la proprietà intellettuale trova un limite ampiamente riconosciuto nelle posizioni di monopolio sui contenuti e sulle tecnologie che risultano più critiche o vitali per le libertà di informazione e di espressione.

Come difesa dalla copia e dalla manipolazione illegali, i prodotti in commercio nel mercato globale hanno presto adottato sistemi di protezione a chiave (pass­word) o altre misure tecnologiche, come la criptatura integrale dei contenuti oppure l’introduzione in essi di filigrane digitali e di altri elementi di disturbo (watermarking). Parallelamente sono state innovate in vario modo le politiche commerciali, incentrate quasi esclusivamente intorno alla licenza d’uso della risorsa, un contratto che di per sé ha forza giuridica maggiore rispetto alle vigenti – e localmente variabili – disposizioni di legge. Strumento giuridico flessibile, la licenza, attraverso il noleggio o la sottoscrizione per abbonamento, può avere una durata limitata, o può prevedere il pagamento dopo un certo lasso di tempo e solo a fronte di un reale gradimento (shareware), oppure – soprattutto nella consultazione di banche dati – può riguardare un numero ristretto di documenti, di modalità di fruizione, di stazioni di accesso.

Pur nella diversità dei principi ispiratori e delle impostazioni, le legislazioni nazionali e internazionali hanno cercato, in genere con mille difficoltà e attraverso la via di una netta assimilazione delle risorse elettroniche alle altre opere dell’ingegno, di trovare un nuovo punto di equilibrio fra i molteplici interessi in gioco, di estendere la tutela senza penalizzare eccessivamente la libertà di ricerca e i nuovi sviluppi tecnologici, insomma di stemperare l’oggettiva tensione fra istanze legittime, ma potenzialmente contrastanti. Non da ultimo, hanno provato a tener conto della contraddizione esistente tra l’esercizio della sovranità territoriale e lo statuto extraterritoriale inerente, in particolare, alle risorse remote.

Con una significativa convergenza, quasi tutte le normative sulla proprietà intellettuale tendono oggi a escludere anche per le risorse elettroniche ogni limitazione dei diritti morali dell’autore, cioè assicurano la garanzia della paternità e il rispetto dell’integrità dell’opera, che restano inalienabili e perennemente esigibili dagli eredi. Le poche eccezioni variano da Paese a Paese e spesso, sotto il profilo dell’interpretazione, sono fonte di contenzioso giuridico fra i vari soggetti interessati. Quanto ai diritti di utilizzazione economica, cioè alla titolarità dei guadagni derivanti dall’opera elettronica, se ne prevede – come per le opere tradizionali – l’eventuale cessione parziale o totale a favore di terzi, tipicamente attraverso contratti con un editore, mentre gli eredi ne beneficiano fino a settant’anni dopo la morte dell’autore. Di solito, in quanto penalizzano le aspettative di guadagno che alimentano la creatività e l’innovazione, sono considerati illegali – oltre alla copia stessa – i tentativi di aggiramento delle misure di protezione, tutti gli usi non espressamente autorizzati, l’estrazione completa delle risorse contenute in una banca dati.

Nel mezzo di un duro contenzioso avviato in particolare dagli editori, non sono mancati tentativi di imporre un pagamento perfino agli utenti delle biblioteche pubbliche e anche per la consultazione di materiali cartacei, oppure di attribuire ai produttori di software per lo scambio di risorse in rete (peer-to-peer file sharing) una piena corresponsabilità nella pirateria informatica. Per un singolare paradosso, talvolta è sembrato che un sapere più accessibile, come quello disseminato nel web, non fosse di per sé sinonimo di sapere più fruibile. Tuttavia, in vista di favorire alcuni beni pubblici irrinunciabili – il diritto alla lettura, il dibattito delle idee e la circolazione delle informazioni, la diffusione della critica e della cultura, la ricerca scientifica e tecnologica, la didattica nelle scuole – le diverse legislazioni hanno adottato alcuni limiti ai diritti economici, come per es. nel fair use presente nei sistemi giuridici angloamericani, consentendo anche senza preventiva autorizzazione dei titolari le citazioni e le riproduzioni parziali (in quantità stabilite), il prestito bibliotecario e la consultazione in biblioteca (soltanto degli originali), le copie di sicurezza o quelle di uso strettamente personale.

Nel quadro normativo attuale si è sostanzialmente rovesciata la logica che induceva a considerare di pubblico dominio qualunque risorsa priva di espresse indicazioni dell’autore in ordine ai diritti. Oggi l’eventuale cessione dei diritti di utilizzazione economica (freeware) dev’essere esplicita e di solito è accompagnata da precisi vincoli giuridico-morali per chi impiegherà la risorsa: citare la fonte o l’autore nella forma prescritta (attribution), escludere le finalità di guadagno (non commercial), richiedere un’autorizzazione specifica per l’uso di materiali derivati dall’originale (no derivative works). In tutti gli altri casi l’esistenza dei diritti va sempre presunta, anche se spesso – ma non necessariamente, e soprattutto in area angloamericana – può essere rafforzata dalle apposite diciture di copyright e di riserva dei diritti stessi.

Le biblioteche virtuali in Italia

Anche in Italia, sulla base di esperienze positive di sfruttamento delle tecnologie informatiche e telematiche, come la creazione dei poli SBN e la digitalizzazione – con modalità quasi amatoriali – dei grandi classici della letteratura italiana, le iniziative si sono moltiplicate, ma solo in settori più consapevoli – archivi e biblioteche pubbliche – è sorta l’esigenza di promuovere sistematicamente indagini conoscitive, standard condivisi, realizzazioni esemplari, in vista di conquistare una più chiara visibilità internazionale.

Presso la Direzione generale per i Beni librari, gli Istituti culturali ed il diritto d’autore del MiBAC ha operato fra il 2001 e il 2007 un Comitato guida della Biblioteca digitale italiana (BDI), che ha prodotto, oltre a standard tecnici nazionali come MAG sopra citato, non poche biblioteche virtuali attualmente messe a disposizione del pubblico. Fra queste i Cataloghi Storici, una collezione che riunisce 215 cataloghi non più correnti di 35 biblioteche italiane che afferiscono al MiBAC o a enti locali e istituti di cultura. I quasi 7 milioni di schede bibliografiche in immagine si aggiungono, integrandole, alle notizie SBN.

Inoltre, la BDI ha prodotto la versione elettronica – consultabile presso Biblioteca Italiana – della storica collana di libri Scrittori d’Italia, promossa dall’editore Laterza sotto la direzione di Benedetto Croce, comprendente quasi 300 volumi di autori che hanno svolto un ruolo fondamentale nella cultura italiana. Un analogo criterio di rilevanza ha portato a digitalizzare un complesso di 67 giornali e riviste preunitari di vario argomento, pubblicati in Italia tra la seconda metà del 18° sec. e l’Unità, le cui serie sono state ricostituite integralmente da esemplari raccolti fra Roma, Pisa, Torino, Venezia e Milano. Altrettanto significativo è l’Archivio digitale della musica (ADM), che dà accesso a preziosi fondi musicali conservati in tutto il Paese presso biblioteche e conservatori di musica, anche a carattere ecclesiastico, fondi contenenti manoscritti di partiture, edizioni a stampa, codici e libri liturgici, libretti, documenti epistolari, periodici musicali, materiale iconografico e audio-video. Presso la Discoteca di Stato è in via di sviluppo un progetto di presentazione integrata delle risorse prodotte, dalla descrizione bibliografica alle immagini della partitura, fino alla riproduzione sonora.

Fra i progetti in essere, inoltre, si segnalano le digitalizzazioni sia dei manoscritti Plutei della Biblioteca medicea laurenziana (a livello mondiale uno dei più importanti fondi manoscritti), sia di numerose opere di argomento matematico e fisico di scienziati italiani. La biblioteca virtuale risultante dalla realizzazione del primo progetto, affidato alla Società internazionale per lo studio del medioevo latino (SISMEL), sarà costituita da oltre 1.350.000 immagini, corrispondenti a più di 3900 manoscritti integralmente riprodotti. Per il progetto relativo alla biblioteca virtuale del sapere scientifico, invece, sono stati selezionati periodici e monografie, come detto di carattere matematico e fisico, pubblicati in Italia e all’estero tra il 1500 e il 1850; collaborano a questo progetto l’Accademia delle scienze di Torino e la Regione Piemonte, la Biblioteca europea di informa-zione e cultura (BEIC), l’Istituto e Museo di storia della scienza (IMSS) di Firenze.

L’attività della BDI, peraltro, oltre a favorire la nascita di Internet Culturale, il portale di accesso a SBN di recente avviato, ha suggerito le linee di evoluzione di SBN stesso verso un servizio più flessibile e ricco, capace di restituire all’occorrenza, insieme alla notizia descrittiva, anche l’accesso diretto alla risorsa elettronica descritta.

Bibliografia

S. Gambari, M. Guerrini, Definire e catalogare le risorse elettroniche, Milano 2002.

Le risorse elettroniche: definizione, selezione e catalogazione, Atti del Convegno internazionale, Roma 2001, a cura di M. Guerrini, Milano 2002.

M. Calvo, F. Ciotti, G. Roncaglia et al., Internet 2004. Manuale per l’uso della rete, Roma-Bari 2003.

M. Santoro, Biblioteche e innovazione, Milano 2006.

G. Solimine, La biblioteca. Scenari, culture, pratiche di servizio, Roma-Bari 20063.

F. Metitieri, R. Ridi, Biblioteche in rete. Istruzioni per l’uso, Roma-Bari 2007.

Biblioteconomia: principi e questioni, a cura di G. Solimine, P.G. Weston, Roma 2007.

Si veda, inoltre, sul progetto coordinato di Biblioteca digitale italiana:

Studio di fattibilità per la realizzazione della Biblioteca Digitale, 2000-2003, http://www.iccu.sbn.it/genera.jsp?s=18 (29 apr. 2009).

© Istituto della Enciclopedia Italiana - Riproduzione riservata