TECNOLOGIE PER LA GESTIONE DELL'INFORMAZIONE

XXI Secolo (2010)

Tecnologie per la gestione dell’informazione

Francesco Rogo

Era digitale e società dell’informazione

L’informazione ha ormai conquistato i più diversi ambiti della nostra società, ricoprendo ruoli d’importanza sempre maggiore in contesti fino a poco tempo fa inimmaginabili. Grazie alla miniaturizzazione delle apparecchiature, ai costi decrescenti e alle crescenti capacità elaborative disponibili, le tecnologie dell’informazione e della comunicazione sono diventate, per eccellenza, le più pervasive.

Società dell’informazione

I profondi cambiamenti dell’attuale contesto socio-economico, dovuti al proliferare delle reti digitali e delle tecnologie dell’informazione (IT, Information Technol;ogy) e della comunicazione (ICT, Information and Communication Technology), ma anche all’incremento del numero dei mercati e alla loro crescente liberalizzazione, stanno modificando le basi dell’organizzazione della società: educazione, sanità, trasporti, turismo, mobilità, business, modi di concepire le relazioni e i gruppi sociali. Questa nuova situazione viene a caratterizzarsi per la rilevanza primaria della conoscenza. Infatti, oltre a essere fonte di rinnovamento, riconfigurazione e coordinamento di ogni altro processo fondante la società moderna, la conoscenza presenta caratteristiche sostanzialmente diverse da quelle delle altre risorse: l’immaterialità e la difficile quantificabilità (la conoscenza, cioè, non può essere misurata), la soggezione alle leggi dell’abbondanza e dei rendimenti crescenti (la conoscenza, cioè, non si consuma, anzi attraverso lo scambio e la condivisione cresce e si rinnova continuamente).

Negli ultimi decenni, l’interesse verso il ‘bene’ conoscenza è stato alimentato da alcune sue caratteristiche economiche, in particolare riguardo a determinati aspetti: la rilevanza assunta dalla conoscenza come fattore primario di produzione, la focalizzazione sulle risorse intangibili piuttosto che su quelle tangibili, l’esplosione dell’interconnettività a opera della diffusione delle reti digitali e di standard universali di comunicazione, la virtualizzazione, l’aumento della velocità di diffusione dell’innovazione, la mobilità come elemento fondante dell’antropizzazione del territorio e dei processi dinamici della globalizzazione.

Questa visione del mondo configura una società nella quale la conoscenza assume il ruolo di risorsa primaria. Inoltre, benché si possano discutere le origini tecnologiche dei fenomeni di gestione della conoscenza, le tecnologie ne costituiscono di fatto una condizione necessaria, assumendo sempre più un ruolo di integrazione e supporto.

Tale circostanza induce a definire il nostro tempo società dell’informazione, in quanto è evidente come questo processo di trasformazione sia dominato dal fattore umano quale generatore di valore: attraverso la propria conoscenza, le proprie competenze e la propria capacità d’ideazione, le persone, attingendo all’informazione, generano valore per sé stesse e per i contesti nei quali sono inserite (imprese, associazioni, amministrazioni, Stati ecc.), cioè producono nuova conoscenza (attraverso processi cognitivi ed elaborazioni di nuovi concetti, paradigmi, di tipo tecnico, sociale ecc.). D’altro canto, è da notare come sia proprio la gestione dell’informazione (considerata un metastato intermedio nella trasformazione dei dati in conoscenza) a giovarsi maggiormente del supporto delle moderne tecnologie ICT.

Un modello descrittivo per il mondo dell’informazione

Fin qui si è considerata la conoscenza come il risultato della trasformazione di entità informative, ottenute attraverso una raccolta di dati che a loro volta sono elaborati, organizzati e classificati per ottenere informazioni; queste ultime subiscono poi un processo di riformattazione, clustering e disseminazione. Tale processo, che si dipana attraverso le infrastrutture ICT e conduce a ciò che sarà definito in seguito come superiorità dell’informazione, è un prerequisito per l’uomo dell’era digitale, il quale vive, appunto, di conoscenza (e quindi di informazione).

Un modello, molto semplice, che tenti di rappresentare il ruolo che le tecnologie ICT svolgono a supporto della gestione dell’informazione, considerato come processo di trasformazione dei dati in conoscenza, è fondato su tre elementi basilari: le reti di comunicazione; i dati che attraverso le reti possono essere raccolti e trasmessi, e rappresentati ed elaborati per divenire informazioni; le applicazioni o servizi per i quali l’informazione, divenuta conoscenza, può essere utilizzata come asset. Nel modello sono presenti altri tre elementi basati su tecnologie ICT: la sensoristica (cioè le fonti o gli strumenti informativi che consentono di raccogliere dati), le interfacce (che permettono all’uomo di interagire con reti, dati e applicazioni e quindi con le tecnologie ICT stesse) e, infine, la sicurezza, che trasversalmente è presente all’interno di ogni altro elemento del modello. Utilizzando come riferimento gli elementi di questo modello, è possibile sistematizzare una trattazione dei principali trend tecnologici per la gestione dell’informazione, che altrimenti rischierebbe di perdersi in un insieme disomogeneo e non correlato di tecnologie e ricerche.

Superiorità dell’informazione e network centric

L’era attuale è senza dubbio segnata da numerosi progressi in ambito tecnologico, che stanno modificando la realtà nella quale operiamo. È l’era di Internet, delle collaborazioni su larga scala e della società dell’informazione. Tecnologie quali WPAN (Wireless Personal Area Network), WLAN (Wireless Local Area Network) e MANET (Mobile Ad-hoc NETwork) stanno permettendo ai cellulari di terza generazione – gli UMTS (Universal Mobile Telecommunications System) e i CDMA2000 (Code Division Multiple Access) – di spostarsi verso una nuova concezione di wireless networking. In questo contesto, le diverse tecnologie non competono ma si integrano, permettendo all’utente di scegliere il miglior tipo di connettività, in funzione del proprio scopo e dell’ambiente in cui opera. Contestualmente, si stanno formando sulla rete numerose comunità di persone, organizzate in gruppi di partecipanti o comunità di interesse, che creano delle vere e proprie reti sociali, nelle quali i singoli interagiscono in maniera decentralizzata, allo scopo di condividere risorse o servizi, in modo collaborativo. Convergenza, distribuzione, decentralizzazione, cooperazione e condivisione dell’informazione sono i concetti chiave del nuovo fenomeno, che si sta affermando dal punto di vista sociale e tecnologico.

Nell’ambiente del warfare, il lavoro di David S. Alberts, John J. Garstka e Frederick P. Stein (1999) ha segnato l’origine di una vera rivoluzione intellettuale e dottrinale che, nata negli Stati Uniti, si sta estendendo al resto del mondo. Alla base del concetto di network centric warfare (NCW) vi è quello di informazione collezionata e distribuita in tempo reale per mezzo di dispositivi, reti ad alta velocità e piattaforme di varia natura, allo scopo di rendere i fruitori consci e informati degli eventi che si stanno verificando in un determinato scenario, permettendo di ottenere un vantaggio sull’avversario grazie alla conoscenza acquisita.

I principi alla base del concetto di NCW sono: la rete migliora la condivisione dell’informazione; la condivisione dell’informazione e la collaborazione potenziano la qualità dell’informazione e la consapevolezza della situazione corrente; quest’ultima permette di migliorare la collaborazione e l’autosincronizzazione, nonché la velocità del comando; il tutto incrementa notevolmente l’efficacia della missione, perché consente di prendere migliori decisioni in minor tempo.

Il fondamento della nuova dottrina è il già citato concetto di superiorità dell’informazione (IS, Information Superiority), definito come la capacità di raccogliere, processare e disseminare un flusso ininterrotto di informazioni. Ne consegue che l’IS è legata alla capacità di vedere, capire e agire prima degli altri: l’IS permette di decidere nel minore tempo possibile, ponendo chi deve prendere tali decisioni in una situazione di vantaggio, in cui sia possibile controllare gli eventi e le situazioni in maniera più veloce e con minor sforzo. È semplice comprendere come il concetto di NCW possa indurre vantaggi in ambito militare; tuttavia, analoghi concetti possono applicarsi anche agli ambienti civili, nei quali la velocità di decisione sulle azioni da intraprendere è divenuta fondamentale. Per questo motivo, il concetto di NCW può essere esteso a quello più ampio di network centric operations (NCO), allo scopo di considerare applicazioni sia militari sia civili. Per mezzo del paradigma network-centrico, per es., i primi soccorritori (first responders) so;no in grado di affrontare in minore tempo e in maniera coordinata una situazione di emergenza nella quale sono chiamati a intervenire, interoperando fra di loro e con i centri decisionali remoti. I concetti network-centrici possono anche essere applicati a finalità commerciali (per es., per prenotazioni, fatturazioni e pagamenti) e in altri settori come: l’industria del turismo, per il tracciamento di assets e risorse, sistemi di prenotazione (e-ticketing), gestione dei picchi di carico; l’industria finanziaria, per il supporto alle transazioni, il trasferimento di assets, la gestione dei beni e il trading; l’industria dei trasporti, per il tracciamento, il supporto all’approvvigionamento, alla logistica e alla gestione delle scorte.

Inclusione del concetto di NCO nel modello di riferimento

Si è già detto che il concetto di NCO nasce come dottrina in ambito militare ed è basato sull’intenso utilizzo di computer interconnessi, che permettono il raggiungimento dell’IS necessaria per ottenere migliore collaborazione e maggiore coscienza della situazione corrente in teatri di operazione. In realtà, tale concetto si estende a scenari non militari, in un più ampio riferimento di gestione dell’informazione, di interesse per ambienti commerciali, civili e di public safety. Perché i benefici promessi dal paradigma network-centrico diventino realtà, diversi progressi devono essere compiuti e numerose sfide devono essere vinte, allo scopo di potere realmente modellare e rappresentare i flussi informativi ininterrottamente e in modo sicuro.

Il modello di riferimento, introdotto in precedenza, necessita quindi di un aggiornamento conclusivo (v. figura) che tenga conto anche dell’elemento NCO: l’introduzione del concetto network-centrico vedrà l’attore umano sempre più interconnesso, ma soprattutto assisterà al suo divenire, attraverso le nuove generazioni di interfacce e sensori, naturalmente e quasi inconsciamente parte della rete, utilizzatore e generatore allo stesso tempo di informazione, come se fosse (in questa schematizzazione) egli stesso un vero e proprio sensore.

Applicazioni e servizi

Software ICT: sistema ‘nervoso’ delle infrastrutture critiche

Le infrastrutture ICT esistenti compongono una ragnatela di sistemi complessi interconnessi in cui esistono fenomeni d’interdipendenza spesso difficili da dominare. Le infrastrutture applicative, quali, per es., quelle di tipo finanziario o di tipo amministrativo, realizzano sistemi eterogenei che interconnettono applicativi analoghi, ma appartenenti a domini amministrativi distinti. Ciò avviene, per es., nelle reti finanziarie tra gli istituti bancari che usano i cosiddetti circuiti di switching – tra i più utilizzati, CLS (Continuous Linked Settlement) e SWIFT (Society for Worldwide Interbank Financial Telecommunication) – per veicolare le loro transazioni su rete; oppure nelle infrastrutture che erogano servizi di pubblica utilità, quali le reti di telecomunicazione o le reti elettriche.

Questa stretta interdipendenza pone importanti problemi tecnologici, poiché i sistemi di gestione e controllo delle singole infrastrutture sono molteplici e non integrati. Tali sistemi permettono di gestire efficacemente l’infrastruttura di competenza, ma si dimostrano inefficaci nel caso di malfunzionamenti dei sistemi esterni interconnessi all’infrastruttura di riferimento che, in alcuni casi, possono mettere in crisi l’intero sistema (per es., la rete di trasporto ferroviario).

In tale contesto, il ruolo dell’ICT a supporto di questa tipologia di infrastrutture sta diventando sempre più centrale, perché permette l’evoluzione verso una gestione totalmente automatizzata con tempi di reazione adeguati a quelli di funzionamento dell’infrastruttura. Per dare enfasi alla complessità di queste strutture viene spesso utilizzata la denominazione di system of systems, proprio a indicare l’esistenza di una rete di sistemi autonomi, ciascuno dei quali è gestito in modo proprietario ed esclusivo (da soggetti pubblici e privati), ma che al contempo costituiscono un sistema complessivo le cui interazioni (effetti domino) non sono sempre controllabili.

Al fine di gestire problemi di simile complessità è indispensabile creare infrastrutture IT quanto più flessibili possibile, composte, per es., da componenti software ‘riutilizzabili’, che seguano modelli standard e che consentano di usufruire di economie di scala pur garantendo la necessaria flessibilità (Bakken, Baldoni, Hauser, Suri 2007). Un simile approccio, oltre a consentire la riusabilità dei componenti, permette anche la necessaria flessibilità atta a garantire una rapida riconfigurabilità dell’ambiente in caso di malfunzionamento per il ripristino del servizio nel minore tempo possibile. La progettazione e la realizzazione di sistemi che possano offrire tali caratteristiche in modo intrinseco sono ancora soltanto teorizzate.

Una soluzione che consenta di perseguire questi obiettivi deve necessariamente essere basata su piattaforme tecnologiche di nuova generazione, che prevedano la composizione di servizi software in modo dinamico e sicuro, quali le piattaforme che rispondono al modello SOA (Service Oriented Architecture). Queste piattaforme garantiscono l’interoperabilità con i sistemi esistenti sia attraverso componenti software che possono fungere da ponte verso il mondo esterno sia attraverso l’aderenza ai principali standard de iure e de facto.

Televisione digitale interattiva: supporto alla gestione delle emergenze

Contestualizzato in uno scenario tecnologico in continua evoluzione, il mezzo televisivo sta vivendo radicali modifiche, grazie alla digitalizzazione delle trasmissioni e dei contenuti. Il vecchio concetto di strumento per la semplice informazione in broadcast sta rapidamente evolvendo grazie alle possibilità offerte dalla televisione, in particolare dall’interattività, una caratteristica basilare che permette all’utilizzatore di interagire direttamente sulla sorgente di informazione e, al contempo, di far evolvere il concetto di televisione.

L’interattività consente al cittadino di usufruire di tutta una serie di servizi innovativi aventi lo scopo di supportarlo e facilitarlo nelle operazioni quotidiane: in generale, quello cui si punta è il miglioramento della qualità della vita. Le possibilità offerte dalla multiterminalità e multicanalità si sposano bene con la televisione digitale, e i servizi che possono essere offerti attraverso questo medium sono molteplici: si va da servizi di e-government, e-banking ed e-commerce ad applicazioni di telemedicina/telesoccorso.

Un’applicazione decisamente innovativa, per es., è rappresentata dalla possibilità di monitoraggio e controllo territoriale per la gestione delle emergenze. Grazie a un sistema di dati raccolti da sensori distribuiti sul territorio e inviati a un centro decisionale, attraverso il mezzo televisivo e applicazioni specifiche della televisione digitale è possibile fornire informazioni dettagliate alla popolazione che potrebbe trovarsi in pericolo. In particolare, tale sistema, vista la sua intrinseca caratteristica di mezzo trasmissivo wireless, diviene uno dei canali che possono essere utilizzati in modo innovativo per una comunicazione sicura ed efficace nel crisis management.

Fra le tecnologie abilitanti si cita il DVB (Digital Video Broadcasting), un insieme di standard aperti, accettati a livello internazionale, concepiti per lo sviluppo e la diffusione della televisione digitale. Per quanto riguarda l’interattività, lo standard MHP (Multimedia Home Platform) della famiglia DVB si occupa della definizione dell’interfaccia software tra le applicazioni interattive digitali e gli apparati dove queste sono attivate. Entrambi promettono di affermarsi velocemente quale risposta tecnologica per queste nuove esigenze.

Servizi ICT di telemonitoring

Tali tipi di servizi rivestono già, e rivestiranno sempre più, un ruolo determinante quali strumenti di sostegno al mantenimento a casa (fuori dalle strutture ospedaliere) di persone fragili o non autosufficienti, in condizioni di sicurezza e autonomia. Nello stesso tempo, l’utilizzo di tali tecnologie permetterà di ridurre in modo significativo le risorse umane e finanziarie rispetto ai sistemi tradizionali e, quindi, di garantire la sostenibilità del processo di assistenza domiciliare anche in un contesto di progressivo e generalizzato invecchiamento della popolazione.

L’utente potrà interagire con sensori personalizzati in grado di rilevare le condizioni di soggetti anche con disabilità molto gravi, avvalendosi di sistemi brain-computer interface (BCI) capaci di rilevare la volontà del soggetto direttamente da segnali cerebrali.

Nell’home care, la connessione bidirezionale e multimodale dell’impianto domestico con l’esterno (attraverso Internet e linee a banda larga), integrato da dispositivi specifici wearable (indossabili dall’utente), permette di monitorare a distanza lo stato del soggetto da parte di un centro specializzato.

I settori che si prevedono di grande interesse sono i seguenti: deospedalizzazione precoce e riduzione dei ricoveri nelle patologie croniche, con abbassamento degli elevati costi di ospedalizzazione; recupero funzionale e riabilitazione a domicilio per limitazioni motorie e disabilità permanenti o temporanee; servizi per gli utenti anziani (affetti da limitazioni sensoriali e motorie), con riduzione dei ricoveri in strutture assistenziali dedicate; servizi domiciliari integrati di telemedicina, telediagnosi, telemonitoraggio, teleconsulto e teleriabilitazione.

Per realizzare questi ambiziosi obiettivi, occorre definire e sviluppare un sistema innovativo utilizzando e integrando le potenzialità offerte dalle nuove tecnologie informatiche e di comunicazione. È in via di definitiva affermazione, in questi ambiti, il paradigma AmI (Ambient Intelligence), che sfrutta i media tradizionali ai quale l’utente è abituato (televisore, telefono). L’ambiente casa sarà caratterizzato da una presenza tecnologica integrata, ma non intrusiva (computer disappearing), in grado di percepire grazie a sensori multimodali non soltanto lo stato dell’ambiente, ma anche dell’utente e dei suoi bisogni e, grazie a intelligenza distribuita e processi di self learning, di ottimizzarne il funzionamento in funzione appunto dei bisogni dell’utente. Si prevede un flusso informativo basato su Intranet e reti Wi-Fi (Wireless Fidelity), per il controllo e l’automazione locale e l’utilizzazione di tecnologie web based per la gestione remota e l’integrazione con servizi esterni. L’innovazione non risiede nella singola tecnologia, ma nell’integrazione e gestione di più tecnologie modulari, partendo dalla visione e dai bisogni dell’utente.

Domotica e AmI rappresentano la frontiera della ricerca e dello sviluppo di medio e lungo termine nell’Unione Europea, negli Stati Uniti e in Giappone. Ci si avvarrà di competenze multidisciplinari che vanno dalla computer science alla microelettronica, alla meccanica, alla bioingegneria, al design, all’architettura, alle scienze medico-sociali. Si citano soltanto alcuni tra gli esempi di tecnologie integrabili in un sistema di telemonitoring (ISTAG 2003): digital interactive television framework, tecnologie per tracking and tracing, sensori e oggetti intelligenti, paradigma ambient intelligence, interoperabilità tra comunicazioni wired e wireless, interazioni vocali, interfacce aptiche.

Servizi satellitari a supporto della navigazione

La forza propulsiva che le dinamiche della globalizzazione hanno impresso all’intensificazione dei rapporti economici e degli scambi commerciali su scala mondiale, conferisce al tema dei trasporti e del commercio internazionale un ruolo determinante nello sviluppo dei sistemi economici.

L’importanza assunta dalla navigazione satellitare, in questo contesto globalizzato, è legata non soltanto agli sviluppi già ampiamente consolidati nel settore marittimo e aereo, ma anche a quelli previsti per la navigazione terrestre, quali il trasporto di merci e di persone su gomma, il trasporto su rotaia, la tracciabilità di prodotti pericolosi su scala mondiale e, non ultimo, lo sviluppo della logistica intelligente. I servizi offerti sono relativi alla disseminazione e allo scambio di informazioni a mezzi mobili e a persone in movimento: gestione delle flotte, distribuzione di contenuti informativi come traffico, meteo, turismo, ma anche servizi legati alla sicurezza sono soltanto alcuni dei possibili campi di applicazione. In questo contesto, l’elemento fortemente caratterizzante è rappresentato dalla possibilità di integrare informazioni reperite via satellite (EGNOS, European Geostationary Navigation Overlay Service; Galileo) con quelle provenienti dalle reti di comunicazione terrestri (GSM, Global System for Mobile communications; GPRS, General Packet Radio Service; UMTS) e/o satellitari (Iridium, EMERSAT).

I più avanzati sistemi di navigazione satellitare europei – EGNOS e, nel prossimo futuro, Galileo (2013) –, unitamente all’evoluzione tecnologica dei terminali utente, stanno aprendo la strada ad applicazioni innovative indirizzate a utenze diversificate nel settore pubblico e in quello privato, così come alla sicurezza e al soccorso. Le opportunità che tali sistemi potranno offrire per il settore della navigazione sono legate a due aspetti fondamentali: l’accuratezza dei dati, che permetterà di snellire le pratiche e le procedure burocratiche; l’integrità dei dati relativi alla posizione e al tempo che consentiranno di accrescere l’efficienza delle procedure operative mantenendo i necessari livelli di qualità del servizio.

In particolare, la capacità di autenticazione e la disponibilità di un messaggio d’integrità del segnale ricevuto che il sistema Galileo sarà in grado di offrire permetteranno di autenticare in modo univoco la posizione dell’utente remoto, consentendo di contrastare eventuali minacce, come manomissioni e attacchi informatici (tampering, spoofing). Questo aspetto è considerato un valore aggiunto che nessun’altra tecnologia è in grado di assicurare; infatti, sempre più gli aspetti legati alla sicurezza procedono di pari passo con le necessità di svincolare il trasporto merci da logiche di attività criminose, senza rallentare però le operazioni logistiche (per es., secondo quanto previsto dalle direttive emanate dalla Commisione europea tramite il codice ISPS, International Ship and Port facility Security code).

I dati

Internet del futuro e web 2.0

La proposizione e l’applicazione delle soluzioni ICT (servizi) in ambiti nuovi seguono in parallelo le necessità di una maggiore accessibilità ai dati (attraverso strutture e paradigmi di rappresentazione dell’informazione) e di algoritmi innovativi, efficaci e potenti, che consentano ai sistemi di elaborazione (dai microprocessori specializzati ai supercalcolatori con architetture distribuite complesse) di affrontare e risolvere problemi complessi ed eterogenei.

Si consideri Internet. La rete non era stata progettata per essere un elemento critico dell’infrastruttura economica mondiale, ma di fatto lo è diventata, almeno in quasi tutti i Paesi economicamente sviluppati. Alla luce di ciò, ci si domanda come Internet evolverà in futuro, con un cambiamento che si pensa sarà rivoluzionario. Il progresso tecnologico in molte aree continuerà a guidare l’utilizzo di Internet ma, parallelamente, lo condurrà fatalmente a scontrarsi con i suoi limiti (gestione della mobilità, numero di apparati connessi, tipo di rete, banda disponibile, potenza di calcolo e di memoria, quantità di dati, sicurezza ecc.). Internet rappresenta una parte cruciale delle infrastrutture di comunicazione e, nella società del futuro, la sua fruizione dovrà essere vissuta dall’utente alla stessa stregua dell’erogazione della corrente elettrica, del gas o, addirittura, dell’acqua.

Nuove frontiere si apriranno con l’utilizzo di Internet, per es., in campo medico, educativo, nelle pubbliche amministrazioni, nella vita sociale in genere. L’Internet del futuro (paradigma tuttora in fase di definizione in sede internazionale) diverrà il contesto integrante delle reti wireless ad alta velocità con reti cablate, e fornirà un ambiente in grado di soddisfare qualsiasi richiesta dell’utente.

Il web 2.0 porrà al centro i contenuti, le informazioni e le interazioni tra utenti (per es., attori attivi, blog, wiki, social network, podcasting, vodcast, ambienti virtuali) attraverso l’integrazione delle tecnologie del web semantico con il pervasive computing/ambient intelligence; con applicazioni orientate ai servizi e ai componenti (web service, agent technology, application service gateway, context-aware, ontology reasoning); infine, con lo sviluppo di architetture di sistema convergenti (cioè che consentano l’accesso a servizi e applicazioni senza distinzione del canale, dei protocolli e del tipo di media) e lo sviluppo di middleware per la realizzazione di tali servizi/contenuti multicanale e multiformato.

Web semantico e ontologia per il dialogo tra agenti autonomi

Negli odierni sistemi ICT vi è una crescente necessità di prevedere e gestire situazioni critiche per le quali si richiede una cooperazione sinergica, in tempo reale, di organizzazioni che spesso divergono per missione, attrezzature e cultura. Simili scenari operativi sono caratterizzati da un’elevata complessità e richiedono infrastrutture ICT che siano capaci di garantire autonomia e adattività all’evolvere del contesto in cui il sistema si trova a operare.

Ontologie e web semantico si propongono come le metodologie e gli standard per modellare uno scenario operativo complesso definendone la ‘conoscenza’, ovvero le proprietà e la struttura delle informazioni che lo caratterizzano. Tale processo si basa su linguaggi e metodi formali tali da essere direttamente fruibili ad automi, che quindi condividono la comprensione del contesto in cui cooperano. La conoscenza associata a uno scenario costituisce un livello di intelligenza aggiuntivo che consente a un automa (sia esso un agente software o un robot vero e proprio) di acquisire informazioni, correlarle coerentemente al quadro operativo – capirne il contesto – e quindi proporre soluzioni sensibili al contesto stesso (context-aware; Rios, Dockhorn Costa, Guizzardi et al. 2003).

Inoltre, tale processo è incentrato su ontologie formali e tecniche di reasoning che rispettivamente consentono di definire la mappa dei concetti relativi a un dominio ben preciso in cui è possibile navigare e di individuare le regole di azione dipendenti da un determinato evento. Affinché un gruppo di automi possa collaborare, è necessario garantire che ciascuno di essi comprenda le richieste e le informazioni che riceverà. L’interazione dipenderà dall’adozione di una concettualizzazione condivisa (ontologia), che è una rappresentazione formale della realtà così come essa è percepita, indipendentemente dal vocabolario utilizzato. Un linguaggio di rappresentazione della conoscenza da solo non basta per esprimere a pieno il significato delle informazioni: bisogna affiancare a esso alcune regole di inferenza che riescano ad associare i concetti a regole logiche (motori di ragionamento, per es., basati sul paradigma ECA, evento-condizione-azione; Dockhorn Costa, Ferreira Pires, van Sinderen 2005) e permettano agli automi di estrarre conoscenza dalla conoscenza (base dell’intelligenza artificiale).

Intelligenza di sciame

Il mondo del calcolo (computing) sta sperimentando una rapida e costante evoluzione dai tradizionali computer verso scenari caratterizzati da collezioni di processori mobili, interagenti con l’ambiente circostante, e in comunicazione tra loro su reti ad hoc. Una collezione di dispositivi di tale genere è detta sciame (swarm).

Questa denominazione richiama il modello comportamentale delle popolazioni di insetti sociali, i quali costituiscono sistemi distribuiti e, a dispetto della struttura semplice dei singoli individui, presentano un elevato grado di organizzazione (Dorigo, Bonabeau, Theraulaz 2000). Tali strutture organizzative permettono di svolgere attività decisamente più complesse delle capacità dei singoli individui. A titolo di esempio, basti pensare alla capacità di colonie di formiche di costruire formicai o di colonizzare aree; en;trambe le attività hanno una complessità enorme, se comparata con le capacità della singola formica.

Lo studio del comportamento di animali sociali e della loro capacità di autorganizzarsi è fonte di crescente interesse per la comunità scientifica informatica, che da esso sta derivando nuovi modelli di organizzazione distribuita, utilizzati per risolvere problemi di ottimizzazione e di controllo distribuito. Una sfida strategica per la comunità di ricerca, negli anni a venire, sarà lo sviluppo di metodi per la creazione, la comprensione e la validazione di programmi di calcolo eseguiti su sciami di dispositivi interagenti.

Sebbene ci siano ancora aspetti da approfondire, molte sfide tecnologiche sono già state risolte, e la comunità scientifica è impegnata in un’attiva e crescente ricerca sui dispositivi e sui protocolli di rete che realizzino l’infrastruttura per la programmazione di sciame. Questa presuppone l’esistenza di un’infrastruttura di calcolo costituita da molti dispositivi interagenti, ciascuno con limitate capacità di calcolo e di comunicazione con gli individui circostanti; tali vincoli richiedono nuove forme di comunicazione e interazione tra i nodi di un sistema che si basa su questi concetti.

Un campo di ricerca di crescente interesse e applicazione è quello incentrato sul meccanismo di stigmergia, una particolare forma di comunicazione indiretta impiegata dagli insetti sociali per coordinare le loro attività tramite la modifica dell’ambiente in cui operano. La stigmergia prevede che un elemento che voglia comunicare un’informazione modifichi l’ambiente rilasciando in esso un marcatore, detto feromone, che può essere virtuale o fisico: per es., un RFID (Radio Frequency IDentification) ne potrebbe rappresentare il simulacro tecnologico. Questa modifica, allorché percepita da un compagno, rappresenta un’informazione sullo stato dell’ambiente in un dato luogo. Si noti che, al pari di quanto accade in natura, l’intensità di tale marcatore decade nel tempo sino ad annullarsi, ossia l’utilità dell’informazione è data dalla frequenza con cui questa è reiterata.

Il meccanismo di stigmergia e, in generale, l’intelligenza di sciame vengono utilizzati in differenti aree applicative, tra cui: la gestione di reti di comunicazione mobile, il coordinamento di sistemi di veicoli privi di conducente, l’analisi di dati e grafi, il riconoscimento di forme (pattern recognition).

Le reti

Spettro adattivo e cognitive radio

Le tecnologie wireless emergenti offrono prospettive sempre più ampie di applicazione negli scenari in cui la mobilità dell’utente rappresenta l’elemento fondamentale. Se tali potenzialità sono già note in alcuni casi (per es., nella telefonia cellulare, nelle connessioni wireless per personal computer ecc.), altri settori potrebbero trarne notevoli benefici dalla disponibilità futura.

A titolo di esempio, le applicazioni in ambito homeland security riceverebbero un forte impulso con l’impiego di sistemi mobili per il monitoraggio del territorio, tra cui piattaforme aeree, marine e di terra, eventualmente di tipo automatico (UAS, Un;manned Aircraft System; USV, UUV e UGV, Unmanned Surface, Underwater & Ground Vehicle), dotate di opportuni sensori e in grado di trasmettere le relative informazioni a distanza attraverso reti e collegamenti wireless aria-aria, aria-terra e di tipo satellitare.

In questo come in altri contesti, la problematica emergente è il crescente numero di utenti potenziali e della relativa quantità di dati da trasferire: per es., EUROCONTROL ha già delineato i servizi futuri di ATM (Air Traffic Management) destinati a regolamentare il traffico aereo civile in Europa (ivi inclusi gli UAS) nei prossimi vent’anni. La trasmissione di dati ad alta velocità (per es., dati video da sensori mobili remoti), infine, pone problematiche ancora più evidenti di coesistenza dei nuovi servizi con quelli già consolidati (per es., broadcasting TV, ponti radio ecc.).

In tutti i casi sopra citati, la disponibilità di porzioni di spettro libere nelle quali allocare i diversi collegamenti, garantendo le dovute priorità ai diversi servizi, è il primo problema da risolvere. Negli ultimi anni, molti studi hanno contribuito a mitigare il problema attraverso un aumento dell’efficienza intrinseca di utilizzo dello spettro, per es. con modulazioni multilivello/multicarrier o FEC (Forward Error Correction) avanzati, e di condivisione dello stesso fra più terminali ricetrasmittenti, per es. tecniche W-CDMA (Wideband-CDMA) o link direzionali. In questo campo, i possibili miglioramenti trovano comunque un limite nella capacità di trasporto del singolo canale (noto come limite di Shannon).

D’altra parte, numerose ricerche dimostrano che l’attuale modello di concessione di licenze per l’uso delle frequenze comporta, all’atto pratico, una sostanziale inefficienza di utilizzo, con ampie porzioni di spettro caratterizzate da una percentuale di utilizzo temporale effettivo inferiore al 30%: in questo senso, l’introduzione di ricetrasmettitori in grado di gestire in maniera adattiva lo spettro (cognitive radio) consentirebbe il salto tecnologico verso la possibile diffusione di reti wireless mobili a elevata capacità di trasferimento dati.

L’ottenimento di tale risultato comporterà il superamento, nel medio-lungo termine, di una serie di sfide tecnologiche, fra le quali: l’evoluzione dei dispositivi SDR (Software Defined Radio), con aumento delle velocità di trasferimento dati supportate e con capacità di implementare waveforms adattive; lo sviluppo di algoritmi cognitivi per l’individuazione delle porzioni di spettro istantaneamente disponibili (ECC, CEPT 2006); lo sviluppo di tecniche di protezione adattiva a disturbi intenzionali; lo sviluppo di architetture di rete mobile adattiva e di protocolli di interscambio delle informazioni di net management fra i nodi partecipanti allo stesso network e fra network diversi.

SDR

La SDR (Software defined radio, 2002) è un sistema radio quasi completamente implementato in digitale: tale sistema si basa su una tecnica di progettazione di ricetrasmettitori in cui il segnale che trasporta l’informazione non è generato da componenti hardware specifici, come avviene negli apparati tradizionali, bensì da un microprocessore che esegue un programma. La caratteristica peculiare risiede quindi nella possibilità di aggiornamento di tale software, che consente di riconfigurare un sistema radio senza dovere riprogettare l’hardware.

Il punto chiave della SDR è la flessibilità, garantita dalla riprogrammabilità software tipica dei dispositivi digitali: un vantaggio intuibile è che ciò aiuterà a estendere le funzionalità del sistema a un’ampia gamma di trasmissioni radio. Inoltre, nei terminali mobili sarà possibile aggiungere nuovi servizi e aggiornamenti, che potranno essere realizzati in maniera automatica e in piena autonomia, vale a dire senza dovere ricorrere a procedure di assistenza e riconfigurazione da parte di tecnici specializzati.

Gli aspetti maggiormente interessanti della SDR sono la riconfigurabilità e il funzionamento multistandard. La riconfigurabilità permette al sistema di estendere le capacità del terminale di operare con più vettori radio (intervallo di frequenze, modulazioni del segnale) senza la sostituzione di alcuna componente hardware. Il funzionamento multistandard garantirà alla SDR di poter utilizzare varie forme d’onda su un unico sistema ricetrasmittente.

Oltre alle suddette nuove funzionalità legate all’ampia varietà di vettori radio che la SDR potrà ospitare sullo stesso apparato, l’introduzione al suo interno dei motori crittografici permetterà di renderla interoperabile anche per quanto riguarda le comunicazioni classificate (tipicamente in ambito militare). Sono inoltre possibili implicazioni interessanti per la telefonia mobile: infatti, i motori crittografici installati sulla SDR consentiranno di poter cambiare in maniera automatica l’algoritmo di cifratura e il livello di classifica relativo, in base al tipo di utente o apparato con cui si vuole instaurare una comunicazione.

Autonomic computing

Il concetto di autonomic computing è stato definito da IBM nel 2001 e postula la possibilità da parte dei sistemi informatici e delle reti di autogestirsi senza un diretto intervento umano (Ganek, Corbi 2003). Esso è ispirato al meccanismo con cui il sistema nervoso gestisce alcune funzioni del corpo umano senza bisogno del nostro intervento cosciente.

Un sistema autonomico comporta le seguenti caratteristiche: autoconfigurazione (self-configuration), cioè la capacità di configurazione automatica dei componenti; autoguarigione (self-healing), ossia la capacità di ricerca e correzione automatica di difetti; autottimizzazione (self-optimization), ovvero la capacità di monitoraggio e controllo automatico delle risorse per assicurare un funzionamento ottimale e rispettoso dei requisiti definiti; autoprotezione (self-protection), cioè la capacità di identificazione e protezione da attacchi.

Le caratteristiche autonomiche permettono a un sistema di evolvere insieme alle esigenze degli utenti che ne sfruttano le risorse messe a disposizione e alle condizioni operative. Le esigenze e i compiti svolti dalle entità presenti nello scenario operativo considerato possono variare nel corso del tempo, come pure gli obiettivi tattici. Un sistema autonomico è in grado di variare anch’esso di riflesso, in modo da rispondere sempre in modo ottimale alle necessità delle politiche predefinite. L’operatore, sollevato dagli aspetti di gestione e configurazione del sistema (rete), ha il solo compito di definire le politiche al quale il sistema deve attenersi.

L’integrazione dell’approccio autonomico permette quindi, per es., alle componenti di un sistema di comunicazione di operare anche in assenza di un controllo centralizzato, e di interagire dinamicamente per il raggiungimento di un predefinito profilo/obiettivo di alto livello assegnato attraverso un meccanismo di gestione centrale, riducendo al minimo l’intervento umano/manuale e la complessità da gestire.

Questi concetti trovano una particolare applicazione anche nell’ambito dell’automated network management. I tempi e i costi per la configurazione dei nodi delle reti complesse sono già significativi, ed è previsto un ulteriore incremento, dovuto alla costante richiesta di nuove connessioni, che implica la crescita esponenziale del numero di elementi all’interno degli attuali network (Internet, mobile networks). Inoltre, la natura dinamica dei nuovi servizi rende la gestione delle configurazioni degli apparati molto complessa e onerosa per gli amministratori: diventa in tal modo indispensabile l’adattamento continuo e automatico delle configurazioni dei nodi di rete, riducendo così al minimo l’intervento umano.

La sicurezza

Un requisito chiave per sviluppare il concetto di NCO è la disponibilità di un’infrastruttura di rete e di informazioni (NII, Network and Information Infrastructure) robusta, sicura ed efficace. Una NII deve comporsi di sistemi che possano poter essere connessi e interoperare, per fornire informazione a chiunque (se autorizzato), ovunque e in ogni momento. I sistemi costituenti la NII dovrebbero connettersi in maniera tale da produrre risultati che vadano oltre quelli ottenibili dai singoli sistemi; in altre parole, la NII do;vrebbe essere sviluppata con un approccio olistico.

La componente di comunicazione di una NII sarà sempre più basata sull’utilizzo dell’IP (Internet Protocol) per fornire un meccanismo comune di trasporto ai diversi tipi di dati e informazioni, in transito su diversi tipi di link di comunicazione. D’altra parte, esiste una chiara tendenza, in ambiti commerciali, militari e governativi di utilizzo di un’infrastruttura di rete convergente, basata appunto su IP, capace di trasportare i tre tipi di traffico principali: voce, dati e video. Questa tendenza è destinata a crescere vertiginosamente con l’introduzione della nuova versione IPv6. L’elevata disponibilità degli indirizzi IP e le funzionalità di mobile e security embedded della nuova versione del protocollo IP consentiranno applicazioni e servizi del tutto nuovi, favorendo lo sviluppo del concetto network-centrico. Altri progressi che sarà necessario compiere riguardano lo sviluppo di meccanismi capaci di passare informazioni tra reti IP e reti non IP. Allo scopo di fornire un flusso ininterrotto di informazioni, i sistemi e le reti che permettono tale flusso devono essere protetti contro le azioni di potenziali avversari. L’IA (Information Assurance) è l’insieme di azioni, meccanismi e procedure predisposte a difendere i sistemi informativi, assicurandone disponibilità, integrità, autenticazione, confidenzialità e non ripudio. La disponibilità assicura che soltanto gli utenti autorizzati possano accedere ai sistemi ‘amici’; l’integrità, che l’informazione non sia stata alterata o modificata in maniera non autorizzata; l’autenticazione, che gli utenti autorizzati siano verificati; la confidenzialità, che l’informazione sia protetta contro la possibilità di rilascio verso utenti non autorizzati; infine, il non ripudio fornisce un record di evidenze della partecipazione degli utenti alle transazioni.

Qualsiasi sistema che manchi di una qualunque delle precedenti componenti dell’IA risulta vulnerabile ad attacchi da parte di avversari, per cui non può essere considerato affidabile e va invece ritenuto un possibile punto di fallimento nell’ottenimento della superiorità informativa (IS).

Due dei più importanti problemi da prendere in considerazione nell’ambito della condivisione sicura dell’informazione in contesti multidominio, come quello delle NCO, sono i seguenti: prima di tutto, il dominio che invia informazione deve assicurarsi che questa sia rilasciabile agli utenti dei domini con i quali tale informazione deve essere condivisa; inoltre, il dominio che riceve l’informazione deve assicurarsi che questa non trasporti codice malevolo e non richieda più risorse di quante possono essere messe a disposizione. I due problemi riguardano, rispettivamente, aspetti di confidenzialità e integrità di dati e di disponibilità dell’infrastruttura.

La maggiore sfida dell’IA in ambito NCO sarà pertanto fornire soluzioni multidominio che permettano la sicurezza delle informazioni e supportino contemporaneamente le funzionalità richieste. Tali soluzioni si baseranno su piattaforme fidate, la cui definizione richiede notevole sforzo dal punto di vista della ricerca e dello sviluppo. In particolare, dovranno essere investigati i settori descritti nel seguito, allo scopo di fornire soluzioni capaci di trasformare la visione network-centrica in realtà.

Etichettatura di oggetti e trusted computing

Un’infrastruttura flessibile quale la NII richiede di proteggere le informazioni a livello di oggetto, in accordo con politiche di condivisione dinamiche. Il passaggio dalla situazione attuale – in cui le reti sono per lo più separate fisicamente e protette da dispositivi di cifratura IP – alla protezione a livello oggetto sarà graduale, e si avvantaggerà della proliferazione dei dispositivi di protezione. Tuttavia, è necessario definire come le etichette, i metadati e le firme digitali dovranno essere associate ai singoli oggetti di informazione (o ai computer fisici), in maniera tale da poter abilitare il trust necessario a una condivisione sicura dell’informazione. Le etichette, ovvero i metadati, da associare agli oggetti dovranno riflettere la natura informativa degli oggetti stessi e dovranno essere supportate dai dispositivi di protezione che, a loro volta, dovranno essere capaci di processarle in maniera automatica, decidendo quali informazioni possano essere rilasciate e a chi.

Per quanto riguarda i terminali IT – computer, PDA (Personal Digital Assistant), mobile phone – e la loro intrinseca lacuna di sicurezza, lo standard per piattaforme TC (Trusted Computing), dove il termine trusted indica l’aspettativa che un dispositivo si comporti in un certo modo per uno scopo determinato, promette di colmare tale gap. L’obiettivo principale è rendere i dispositivi intrinsecamente sicuri tramite l’uso congiunto di hardware e software. In particolare, ogni dispositivo è equipaggiato con un chip TPM (Trusted Platform Module) dotato di una coppia di chiavi crittografiche univoche e non modificabili, che permette d’implementare meccanismi di crittografia asimmetrica, applicati per i seguenti scopi: identificazione univoca del dispositivo, crittografia eseguita a livello hardware in modalità sicura, informazioni firmate con la chiave della macchina e, infine, informazioni cifrate con la chiave della macchina.

Gestione delle chiavi e crittografia

Il key management (gestione delle chiavi) è un’altra grande sfida da intraprendere in ambito IA per ambienti network-centrici. La complessità del problema deriva dal significativo incremento del numero e della tipologia di chiavi crittografiche che devono essere impiegate e dalla flessibilità, potere computazionale e velocità di trasmissione che dovranno essere fornite dai dispositivi di protezione.

In questo settore si affacciano anche le promesse dei processi di calcolo (quantum computing) e crittografici (quantum cryptography) basati sulla meccanica quantistica, cioè non più impostati sui processi classici della computazione – basata sul modello astratto della macchina di Turing –, bensì su un nuovo paradigma computazionale che altera la nozione di trattabilità della grandezza maneggiata dai computer, appunto l’informazione.

Comunicazioni wireless

Il paradigma NCO da una parte e gli ambienti tipicamente civili e commerciali dall’altra condividono concettualmente gli obiettivi tecnologici che permetteranno in futuro di abilitare la IS: maggiore robustezza nei confronti di fattori ambientali (termici, fisici, elettrici ecc.), maggiore richiesta di sicurezza e, nell’ambito di un massiccio utilizzo di comunicazioni wireless, maggiore resilienza nei confronti di eventuali disturbi o jamming intenzionali.

In particolare, uno dei più seri problemi da affrontare riguarda la connettività fra piattaforme di comunicazione differenti: il networking civile classico può fare affidamento su link cablati e il supporto wireless è tipicamente opzionale. Al contrario, gli ambienti futuri saranno dominati da piattaforme mobili, per cui la connettività wireless sarà un mezzo fondamentale di distribuzione dell’informazione.

I maggiori problemi correlati al futuro networking in ambiti NCO riguardano la sicurezza e la robustezza della trasmissione, la capacità di trasmissione, il routing di messaggi e segnali. In particolare, riguardo quest’ultimo aspetto, occorre tenere presente la natura in;trinsecamente dinamica e fluida delle topologie delle nuove reti: per tale motivo, un campo di ricerca assai promettente è quello relativo alle tecnologie per le MANET, sviluppate proprio per piattaforme mobili e autorganizzanti. Infine, sono da ricordare le problematiche relative alla compatibilità di formati e di protocolli che permettono l’effettiva comunicazione in un ambiente eterogeneo quale quello network-centrico (Ferraiolo, Kuhn, Sandhu 2007).

Bibliografia

D.S. Alberts, J.J. Garstka, F.P. Stein, Network centric warfare, Washington D.C. 1999.

M. Dorigo, E. Bonabeau, G. Theraulaz, Ant algorithms and stigmergy, «Future generation computer systems», 2000, 16, 9, pp. 851-71.

Software defined radio. Enabling technologies, ed. W.H.W. Tuttlebee, New York 2002.

A.G. Ganek, T.A. Corbi, The dawning of the autonomic computing era, «IBM systems journal», 2003, 42, 1, pp. 5-18.

P. Dockhorn Costa, L. Ferreira Pires, M. van Sinderen, Architectural patterns for context-aware services platforms, in Ubiquitous computing, ed. S. Kouadri Mostéfaoui, Z. Maamar, Miami 2005, pp. 3-18.

D. Bakken, R. Baldoni, C. Hauser, N. Suri, Towards compositional ICT for critical infrastructure protection, in DSN 2007. Proceedings of the 37th annual IEEE/IFIP international conference on dependable systems and networks, Edinburgh, June 25-28, 2007, Los Alamitos (Cal.) 2007.

D.F. Ferraiolo, R. Kuhn, R. Sandhu, RBAC standard rationale. Comments on ‘A critique of the ANSI standard on role-based access control’, «IEEE. Security & privacy», 2007, 5, 6, pp. 51-53.

Webgrafia

ISTAG working group WG2+4, Human resources, research infrastructures, funding mechanisms and partnership. Draft report, September 2003, ftp://ftp.cordis.europa.eu/pub/ist/docs/istag-working-group24-draftreport_en.pdf.

D. Rios, P. Dockhorn Costa, G. Guizzardi et al., Using ontologies for modeling context-aware services platforms, in OOPSLA 2003 workshop on ontologies to complement software architectures, Anaheim (Cal.), October 26-30, 2003, http://www.inf.ufes.br/~pdcosta/arquivos/Rios_oopsla.pdf.

ECC (Electronic Communications Committee), CEPT (European Conference of Postal and Telecommunications administrations), Enhancing harmonisation and introducing flexibility in the spectrum regulatory framework, Oulu, March 2006, http://www.erodocdb.dk/Docs/doc98/official/pdf/ECCREP080.PDF.

Tutte le pagine web s’intendono visitate per l’ultima volta il 22 luglio 2010.

CATEGORIE