CONVERGENZE TECNOLOGICHE NEL WEB

XXI Secolo (2010)

Convergenze tecnologiche nel web

Paolo Marocco

La rete come grande piattaforma

Nel film di fantascienza Bis ans Ende der Welt (Fino alla fine del mondo), diretto da Wim Wenders nel 1991, anno che curiosamente è lo stesso della nascita del primo sito web, vengono azzardate alcune previsioni sulle future linee evolutive della tecnologia della comunicazione. Sebbene si tratti di un’opera di finzione, due dei dispositivi presenti nel film si prestano in particolare a evidenziare quali fossero le previsioni di quel periodo: una macchina per la memorizzazione dei sogni e un piccolo apparecchio, dal design un po’ vintage, che ha quasi le stesse funzionalità di uno smartphone di oggi. A un ventennio di distanza, sappiamo che quelle due ipotesi hanno avuto una sorte applicativa ben differente: la prima è ancora relegata nell’ambito della ricerca sperimentale, mentre la seconda si è realizzata e ha avuto una significativa diffusione commerciale a partire dal 2002.

Tra i due dispositivi immaginati da Wenders emerge, dunque, una differenza sostanziale: nel primo caso, il monitoraggio dell’attività cerebrale viene effettuato utilizzando componenti realizzate con tecnologie che né allora né oggi sono commercializzate, o lo sono in misura limitata (Miyawaki, Uchida, Yamashita, Morito et al. 2008), mentre nel secondo caso l’oggetto tecnologico finzionale era allora già di fatto realizzabile, anche se la rete era ancora analogica (TACS, Total Access Communications System) e permetteva solo chiamate vocali. Wenders ne immagina una versione dotata di un micromonitor a colori (ne esistevano già a supporto delle telecamere), aggiungendo un rivelatore di posizionamento geografico (il sistema di posizionamento satellitare GPS, Global Positioning System, era stato attivato nel 1991) e alcuni accessori, come la videochiamata (anche quest’ultima facilmente immaginabile, prendendo spunto, tra gli altri, dai videocitofoni che erano già diffusi). In altre parole, quel particolare strumento, che sembrava futuribile, non era altro che il frutto della convergenza di alcuni dispositivi che già avevano una propria linea applicativa, o comunque stavano per averla, sebbene in mercati diversi: un display interattivo, una fotovideocamera, un modem, devices audio, una tastiera, un sistema GPS.

Ovviamente, allora non erano calcolabili i tempi di tale convergenza tecnologica, dato che il principale componente di quel dispositivo (il telefono mobile) era ancora un oggetto a diffusione limitata. Qualche segnale era tuttavia già rintracciabile negli anni Ottanta, in alcuni spunti di integrazione e convergenza nell’elettronica di consumo, a iniziare dal personal computer (PC), che si era subito diffuso come dispositivo multifunzione. Nasceva in quel periodo una pratica di accumulo delle parti, dopo che, per quasi tutto il 20° sec., i processi produttivi erano stati invece fondati sulla loro interscambiabilità: componenti identiche (per es., nel mondo dell’elettronica, le valvole termoioniche e, in seguito, le schede a circuito stampato e i transistor) affluivano a catene produttive e a mercati differenti (la radio, la televisione e i calcolatori). Questa strategia produttiva riguardava però solitamente la fabbricazione, mentre le funzionalità finali delle singole parti rimanevano invisibili per l’utente. Era infatti obbligatorio che i prodotti avessero una loro identità ben precisa, e fossero quindi riconoscibili. Soluzioni diverse rappresentavano tutt’al più tentativi di difficile presa sul pubblico. Si pensi ai mobili bar degli anni Quaranta e Cinquanta (sorta di multidispositivi che integravano radio, giradischi e spazio bevande, secondo una prospettiva di intrattenimento globale), i quali hanno terminato i loro giorni nei ne­gozi di modernariato. Lo stesso dicasi per le formule modulari proposte a cavallo degli anni Settanta, che avrebbero dovuto trasformare l’acquirente nell’ideatore del prodotto stesso (i kit della Scuola radio Elettra o i giochi modulari della Philips): strumenti potenzialmente versatili, a metà tra il bricolage tecnologico, il gioco didattico e la cultura del riassemblaggio, che rimasero limitati a fenomeni di costume.

Negli anni Ottanta si travalicò invece il confine monolitico dell’unicità, e il mondo sommerso degli stessi dispositivi in mercati diversi divenne quello dei differenti dispositivi nello stesso mercato. Sull’onda dell’affermazione del PC, dilagò la cultura dell’oggetto multifunzionale che trascende le funzionalità delle singole parti di cui è costituito. Con il PC si rivoluzionò il mercato del desktop publishing (il processo automatico di impaginazione e stampa di prodotti editoriali, in precedenza associato a fasi specialistiche e complesse) e di moltissime attività tipiche della piccola impresa (come la gestione della contabilità e del magazzino), si arricchì quello dell’intrattenimento e si affermò, come cultura di massa, il fenomeno dell’automanipolazione del software. Una collettività di terze parti (ossia gli sviluppatori esterni) contribuì a migliorare i prodotti, o a crearne di nuovi, sfruttando, per es., le potenzialità delle nuove schede grafiche e audio. In pratica si crearono quelle premesse che avrebbero poi formato, nel corso degli anni Novanta, l’universo multimediale: tre vettori storicamente separati (dati, video e audio) si sarebbero congiunti, non soltanto per un mutuo arricchimento, ma per raggiungere la soglia critica necessaria per un cambiamento di stato: dall’uso locale e isolato del dispositivo a quello remoto e interconnesso in rete.

Va rilevato peraltro che il ‘protosmartphone’ del film di Wenders miniaturizzava un PC, aggiungendovi potenzialità comunicative tipiche della microelettronica della detection, ma non prevedeva affatto l’immersione nella nuova piattaforma di protocolli e infrastrutture che il web avrebbe creato.

La rete Internet, nella sua evoluzione degli anni Novanta e con il suo progressivo congiungimento con la comunicazione mobile, ha creato una comunicazione completamente integrata – il che, a grandi linee, potrebbe ricordare la standardizzazione della componentistica nei processi di fabbricazione del 20° sec. – caratterizzata dal fatto di essere globale e delocalizzata, sfumando il concetto stesso di identità di un oggetto (basata classicamente su una correlazione statica tra dispositivo, servizio e contenuti).

Per spiegare concretamente questo doppio movimento, si pensi a uno smartphone come l’iPhone dell’azienda statunitense Apple, dotato di dispositivi quali telefono, videofotocamera, capacità touch screen, porte wireless di diverso tipo, modem, accelerometro (che permette lo spostamento automatico dell’immagine visualizzata) e funzioni di computing tipiche dei computer palmari. Lo smartphone ha quindi sviluppato un’integrazione così spinta da avere un’identità ibrida, che si trasforma in funzione delle esigenze del momento. Attorno a queste potenzialità è stato creato un ambiente per sviluppare e diffondere una miriade di gadget software, gratuiti o comunque a prezzi molto bassi, realizzati da terze parti che alimentano il mercato stesso del dispositivo multifunzionale (solitamente si tratta di microsocietà o di individui che approfittano delle suddette potenzialità per promuovere un servizio di loro invenzione). Questi gadget, che possono interagire tra loro e programmare diverse funzioni di base, sono una sorta di satelliti che contribuiscono, a loro volta, ad arricchire l’integrazione. Lo smartphone è l’esempio di uno strumento che, almeno potenzialmente, trascende le sue funzioni di base, creando un’impressione di novità, senza però sostanzialmente detenere nessun nuovo dispositivo rivoluzionario.

Non sempre il fenomeno della modularizzazione ottiene il successo sperato mediante una strategia assemblativa di tipo ergonomico e imitativo nei confronti dei capostipiti originali. Occorre confrontarsi sia con i limiti fisici della miniaturizzazione sia con l’inerzia psicologica dei fruitori a non accogliere tali soluzioni. Nello smartphone, per es., i due dispositivi che ne limitano l’utilizzo, in quanto contenuti in uno spazio ridotto rispetto a un computer portatile, sono la tastiera e il monitor. Le tastiere QWERTY (dall’ordine delle prime sei lettere) in dotazione in questi apparecchi hanno i tasti (reali o virtuali touch screen, a schermo sensibile) molto ridotti e scomodi; ciononostante, i tentativi di proporre tastiere esterne hanno suscitato solo curiosità. Medesima sorte è toccata alle tastiere virtuali, di tipo laser o più semplicemente ottenute mediante un riconoscimento dei tasti (attraverso le telecamere integrate nel telefonino).

Sul versante dei monitor, il discorso è più complesso, perché si scontra ancora con alcuni vincoli tecnologici, probabilmente superabili nei prossimi anni. Nell’ultimo decennio si è assistito a un’evoluzione di questi dispositivi nella direzione di una definizione più alta, una migliore saturazione dei colori e un’eliminazione dell’inerzia di movimento. Il loro grande limite continua a risiedere nelle dimensioni, fisicamente legate alla neurofisiologia della visione. Ipotizzando di sostituire al monitor una tecnologia di proiezione autonoma, lo smartphone, che già consente buone qualità di visione video, permetterebbe di sfruttare tale nuova tecnologia per proiettare un’immagine di grandi dimensioni, la cui visione potrebbe avvenire ovunque fossero disponibili una superficie chiara e piana sufficientemente grande, e un luogo buio, sfruttando innumerevoli spazi notturni, cittadini e non, pubblici o privati. Si tratta di un fenomeno che potrebbe cambiare alcune abitudini sociali di aggregazione e comunicazione.

La miniaturizzazione dei proiettori (small projector technologies) è un altro settore di ricerca in via di sviluppo. Attualmente viene utilizzata una tecnologia a LED (Light Emitting Diode) che, per proiettare, necessita di una potenza ancora maggiore di quella ottenibile da una batteria di cellulare. Tale limite potrà essere superato dai più luminosi ed efficienti proiettori al laser (un avanzamento della tecnologia, già disponibile, dei classici puntatori rossi, diventati ora anche blu e verdi), miniaturizzati per essere collocati in uno smartphone e in grado di proiettare immagini di circa 2×1 m. Sulla carta, questa convergenza potrebbe annunciarsi rivoluzionaria, in quanto prefigurerebbe uno dei più clamorosi abbinamenti del secolo (telefonia e ci­nema), che potrebbe aggiungersi all’integrazione già in atto basata sugli e-book readers (telefonia e libri).

Tuttavia, la storia delle convergenze tecnologiche nel mercato consumer degli ultimi decenni non sembra premiare le idee particolarmente innovative, anche se caratterizzate da un’originalità predittiva. Per es., il MessagePad della Apple (un palmare, ovvero un piccolo computer leggero e portatile), introdotto nel 1993, era decisamente all’avanguardia, poiché consentiva un’interazione di tipo touch screen e permetteva la navigazione in rete. Ma, poiché non offriva la possibilità di telefonare, pur detenendo in nuce le funzionalità di base di uno smartphone, non ebbe alcun successo. Era molto costoso, e non esisteva ancora l’utenza pronta per le funzionalità che annunciava. Una sorte non troppo differente ha condizionato anche le nuove generazioni di palmari della fine del 20° sec. e dei primi anni del 21°, che hanno conquistato solo fasce di mercato ridotte. L’arrivo degli smartphone, che hanno occupato il mercato lasciato scoperto dai palmari, ha determinato un cambiamento radicale. A partire da questo e da altri successi, la tendenza industriale e commerciale a scegliere il mercato della telefonia come settore portante è diventata una delle linee guida del primo decennio del 21° secolo. La formula presenta dei rischi: anche se il telefonino può potenzialmente accogliere un numero sempre più alto di strumenti già esistenti in altri mercati, non vale la legge della sommabilità pura dei risultati. Basti osservare i flop commerciali di funzioni e prodotti che non hanno avuto il successo sperato, come le videochiamate o il TVfonino (compatibili con la rete di telefonia 3G, terza generazione), perché non rispondenti a un’effettiva richiesta del pubblico.

Fare previsioni con notevole anticipo per conquistare mercati, com’è accaduto con successo per il PC, è uno dei criteri con cui opera l’attuale convergenza tecnologica. Per contro, la tendenza marcata agli incroci, caratteristica socioculturale tipica del mercato della globalizzazione, ha creato un annullamento dei confini tra le diverse fasce di prodotti. Peraltro, il settore delle applicazioni rappresenta il valore aggiunto attorno cui far ruotare il prodotto stesso: innanzitutto nella telefonia, ma di recente anche nella connettività (per es., smartphone e console portatili orientati all’uso sempre più diffuso dei social networks). In particolare, nell’ambito della telefonia e della connettività tali tendenze segnalano specificità significative. Per es., la connettività è utilizzata essenzialmente nella sua funzione strettamente ludica o nel mondo del lavoro, ma non nel settore dei servizi, come potrebbe avvenire realizzando un’interazione dei dispositivi e dei sistemi più efficace, per la gestione del traffico urbano o per la domotica.

Sebbene la tecnologia sia matura in tutte queste direzioni, soltanto alcune godono di applicazioni non sperimentali: allo stesso modo in cui un cellulare interagisce con un PC o un auricolare Bluetooth, in una configurazione locale, o con altri cellulari in una configurazione più estesa, potrebbe interagire con nuove reti di sensori installate, per es., in un supermercato, o presso le fermate dei mezzi pubblici e privati di trasporto, o nelle stazioni di servizio.

La selezione delle convergenze

Per quanto non vengano di solito visti in quest’ottica, dispositivi come gli smartphone sono anche nodi di rete, ossia oggetti collegati alla rete Internet tramite un indirizzo (IP address) che li identifica all’interno dello standard dei protocolli IP (Internet Protocol). I PC, i server, le console di videogame di ultima generazione, gli smartphone ecc. sono tutti identificati in questo modo. Questa estensione di connessioni ultimamente ha abbracciato anche i dispositivi RFID (Radio-Frequency IDentification), ossia quei microcontrollers (essenzialmente costituiti da un microchip, un sistema di alimentazione autonomo e un’antenna) usati, per es., per l’identificazione automatica e la tracciabilità di prodotti, persone o animali. Un RFID dotato di indirizzo IP diventa a tutti gli effetti un nodo della rete Internet con cui gli altri nodi possono dialogare in funzione dei protocolli tecnici di linguaggio e dei servizi accessori consentiti dalla comunicazione reciproca. Nell’esempio del supermercato, per la direzione, sarebbe possibile, in maniera molto più avanzata di oggi, gestire tutto il processo di stoccaggio, vendita e rifornimento scaffale, o informare via web-cellulare i clienti su disponibilità e su offerte; per i clienti, significherebbe pagare molto più agevolmente alle casse, senza i passaggi della merce sul tapis roulant, dato che questa sarebbe già stata riconosciuta dal sistema.

Tale prospettiva è interdetta sostanzialmente dai modesti investimenti specifici delle grandi catene di supermercati (sono appena nate le prime sperimentazioni nella statunitense Walmart). Le ragioni di questo ritardo rispetto alla disponibilità attuale di connessioni su un cellulare (considerando che fino a metà degli anni Novanta quest’ultimo era solo un telefono portatile) riguardano essenzialmente la limitata possibilità di commercializzazione di tali prodotti.

Innanzitutto gli RFID (in particolare tutta l’infrastruttura di protocolli che connettono questi microdispositivi) non sono specificatamente rivolti al mercato di consumo; o meglio, interagiscono con questo mercato solo indirettamente e non coinvolgono l’utente finale, che spesso non si accorge nemmeno della loro esistenza. Per es., mentre un generico microdispositivo connesso con il protocollo Bluetooth (come un microfono di un cellulare) ha un profilo applicativo ben definito e diffuso, e viene progettato per interoperare con altri dispositivi del mercato di consumo, tali condizioni non si verificano per le etichette RFID. Queste ultime rimangono isolate e non agiscono all’interno di una rete; quando lo fanno, operano in settori specialistici e industriali (come sistemi di sorveglianza, di misurazione di reti elettriche, di automazione di serre intelligenti ecc.) e non interagiscono con un cellulare o la console di un videogame. Uno dei prossimi mercati di consumo in cui si potrebbero diffondere (nella versione smart card RFID) è quello delle transazioni elettroniche di denaro; la Sony corporation ha già in progetto sistemi di questo tipo per effettuare ordini on-line per la PS3 (Play Station 3). Questo fenomeno sarà, tuttavia, circoscritto a certi Paesi, tra cui non figura il nostro nel quale le transazioni elettroniche, anche per piccole spese, sono ancora limitate.

Nell’ambito dei mercati attuali, al di là delle convergenze più proficue, il fenomeno generale della connettività a livello globale (via web) ha diffuso da alcuni anni una corrente di pensiero e di applicazioni, il cosiddetto web of things. In questo scenario, i nodi che attualmente non sono considerati nodi web (gli elettrodomestici, o addirittura palazzi e monumenti) diventerebbero agenti di comunicazione. Sebbene, presentata in tali termini, questa architettura possa sembrare frutto di una visione fantascientifica, la tecnologia relativa è già disponibile: è sufficiente associare a un oggetto non intelligente (per es., un muro) un RFID dotato di un indirizzo IP per farlo comunicare attraverso una rete wireless con un nodo di rete esterno. Un’applicazione a livello di prototipo esiste dal 2006: il portale Semapedia, che utilizza codici a barre bidimensionali per connettere luoghi significativi del mondo reale ai corrispondenti articoli di Wikipedia. Se si incontra un’etichetta semacode applicata su un oggetto (come accade per le mura del Vaticano), disponendo di un cellulare dotato di lettore di codici a barre (quasi tutti gli smartphone ne sono provvisti) è possibile visualizzare sul monitor dello strumento direttamente la voce di Wikipedia dedicata all’oggetto puntato.

Purtroppo nemmeno questa iniziativa sta incontrando un grande successo, poiché problemi logistici oggettivi ne limitano la portata (non è facile segnalare efficacemente le etichette su oggetti fisici di grandi dimensioni, e tantomeno difenderle da atti vandalici). In definitiva, è lo smartphone stesso ad acquisire il ruolo di web integrated disruptive technology degli ultimi anni. Per disruptive technology si intende una tecnologia che, sebbene inizialmente non competitiva (basti pensare agli ingombranti e inefficienti cellulari di fine anni Ottanta), crea in breve tempo mercati completamente nuovi. L’impatto di questo fenomeno sui beni di consumo è stato descritto dall’economista Clayton M. Christensen (1997) nei termini seguenti: nel periodo in cui un prodotto tecnologico viene lanciato, il consumatore tipico non si serve di tutti i benefici che questo potenzialmente offre, mentre l’acquirente di fascia alta li apprezza e li adotta fin da subito; ma dopo poco tempo si genera automaticamente uno stimolo anche nell’utente medio, e quindi una nuova richiesta.

Lo smartphone viene utilizzato per connettersi ai social networks, ai navigatori satellitari, ai circuiti di telefonia VoIP (Voice over IP; oltre che per le funzioni tipiche, ossia telefonare, fotografare, spedire messaggi). Lo stesso successo non ha caratterizzato altri settori del web, perché sostanzialmente è mancato il traino di una disruptive innovation. Alcuni dispositivi applicati sul web potrebbero ridare nuova forza al settore della domotica, che sembrava maturo negli anni Novanta e invece si è rivelato un mercato molto marginale. Per es., i sistemi di videosorveglianza e di controllo remoto in caldaie e garage sono già abbastanza diffusi, ma ancora raramente integrati con gli elettrodomestici e con i dispositivi tradizionalmente manuali (come l’azionamento di porte e finestre), né godono delle possibilità offerte dal geoposizionamento. Alla luce di questa realtà, la convergenza di settore potrebbe indirizzarsi verso un altro mercato emergente, quello dell’architettura ecologica e afferente a un’urbanistica in grado di bilanciare risorse energetiche e consumi. All’interno di tali progetti, il web of things svolgerebbe un ruolo più integrato di controllo e ottimizzazione delle risorse e di riduzione delle emissioni nocive. L’autosufficienza energetica è un problema grave e affrontarlo con opportune architetture bioclimatiche si integrerebbe in nuove prospettive sorrette dal web, inteso come sistema di calcolo e controllo diffuso e capillare.

Il web 3.0

Il termine web 3.0, che si riferisce ai servizi web di terza generazione, è stato coniato da John Markoff (Entrepreneurs see a web guided by common sense, «The New York times», November 12, 2006, p. 32) con l’intento di focalizzare l’interesse su un punto essenziale: l’intelligenza artificiale applicata alle risorse del web. Il cosiddetto web semantico, grazie al quale sistemi automatici potranno interagire con l’uomo in maniera evoluta, avrebbe il beneficio di sfruttare un enorme bacino sia di dati sia di utenti, e quindi costruire archivi giganteschi in cui conservare informazioni semplici e strutturate, ed estrarle per comunicare con l’uomo. L’algoritmo di ricerca di Google ha dimostrato l’importanza della quantità statistica dei dati per far emergere un significato, perlomeno lessicale e categoriale. Il web semantico potrebbe partire proprio da questo punto, per esplicitare una semantica più precisa, de­componendo frasi, assegnando ruoli, fino a intavolare un vero e proprio dialogo uomo-macchina, analogo a quello del test di Turing.

Occorre precisare, mettendo in rilievo non solo un’ambiguità di traduzione ma la metodologia e le strategie a monte di questi sistemi, che il termine originale semantic web non sta a significare genericamente tutto il web semantico (ossia l’insieme dei servizi e delle strutture in grado di interpretare il significato di contenuti del web), ma rappresenta una definizione precisa, con trademark associato, coniata da Sir Timothy J. Berners-Lee, creatore del primo sito web nonché direttore del W3C (World Wide Web Consortium), la massima autorità mondiale nell’organizzazione degli standard web. Secondo questa accezione, il semantic web è un insieme di tecniche e metodologie, appartenenti al dominio della logica, che costituiscono solo una parte dei possibili approcci al problema (gli altri sono statistici, geometrici ecc.). La precisazione non è capziosa, come potrebbe apparire a un primo esame, perché segna la separazione tra un tipo di pensiero che aspira a diventare dominante, in quanto sostenuto da organizzazioni e finanziamenti, e uno alternativo, meno istituzionale e programmatico, ma forse più flessibile e quindi più adatto all’interpretazione semantica del web. Il web è composto da una moltitudine eterogenea di risorse e, grazie alla loro evoluzione organizzativa, rimane strutturalmente stabile, pur mantenendo elevati volumi di crescita. Alcune di queste risorse, come i siti governativi e istituzionali, sono portali giganteschi gestiti e mantenuti da strutture dedicate; altre, come la cosiddetta blogosfera, sono costituite da una moltitudine di gerghi, varia ed eterogenea sia nei contenuti sia nei formati adottati. Il semantic web, proprio perché dotato di una natura più rigida, basata su tassonomie informatiche che richiedono alti controlli di validazione e connessioni logiche ben definite, può fornire migliori risultati nel primo gruppo di siti, dove i contenuti sono stabiliti e certificati, ma nel secondo è destinato a soccombere. Per poter funzionare efficacemente, occorrerebbe imporre a ogni blogger un investimento di tempo e denaro per adeguarsi ai vincoli del semantic web davvero difficile da sostenere. Basti osservare che persino in un ambito più strutturato rispetto alla blogosfera generale, come quello dei social networks, un solo ambiente di progettazione (ODS, Openlink Data Space) è in grado di supportare gli standard del semantic web.

Probabilmente questo panorama non favorisce la diffusione di applicazioni semantiche, sebbene siano state preannunciate come vincenti (killer applications) sul mercato del web 3.0. Un esempio può essere riscontrato nella scarsa diffusione dei chatterbots (o chatbots), ossia programmi che simulano una conversazione intelligente con l’utente (piuttosto noto in quest’ambito è il Loebner prize for artificial intelligence, concesso ogni anno al chatterbot più simile all’uomo). Sebbene la qualità dei dialoghi progredisca di anno in anno, grazie anche alle tecniche di natural language processing, i sistemi automatici di dialogo riscuotevano maggiore interesse in precedenza (anche alcuni siti cinematografici ne possedevano). Persino lo sviluppo dei call centers e dei sistemi customer care non ha prodotto notevoli investimenti su questo fronte. Anche il chatterbot dell’azienza Microsoft – Doretta, ‘la ricercatrice (quasi) perfetta’ – in Windows live messenger, dato lo scarso livello di funzionalità, appare più una strategia pubblicitaria che un chiaro impegno della società a investire nel settore.

Si è fatto riferimento al web 3.0 come universo centrato fondamentalmente sul web semantico. Tuttavia, è opportuno ampliare l’argomento all’interazione uomo-macchina, un aspetto che il web 2.0 sostanzialmente non affrontava. Alla luce di questa integrazione, il web semantico potrebbe confluire nel destino degli avatar, le figure grafiche animate che troviamo sul sito di Second life e in una moltitudine di videogame, per metterli in condizione di dialogare in maniera intelligente con l’utente umano (non a caso l’accezione web 3.0 è estesa oggi anche alle applicazioni di grafica 3D).

Le ragioni del repentino passaggio dall’accezione web 2.0 (lanciata durante la O’Reilly media web 2.0 conference del 2004) alla release successiva risiedono nella critica più sostanziale rivoltale. Il web 2.0 ha rappresentato solo un nuovo modo di intendere il web, orientato all’informazione condivisa, all’interoperabilità delle applicazioni, alla collaborazione tra i diversi utenti, creando piattaforme condivise di dati e applicazioni, ruotando attorno a fenomeni quali i social networks, il collaborative software, le folksonomies, le mappe geografiche (per es., le Google maps, e la loro integrazione in software applicativo di terze parti); non è stato però portatore né di una tecnologia né di un dispositivo propriamente innovativi. Tutt’al più, le applicazioni tipiche del web 2.0 stanno lentamente migrando dal PC al mobile social network – ossia l’uso di social networks attraverso uno smartphone, un PDA (Personal Digital Assistant), una mobile console o comunque un dispositivo wireless –, ma questo aspetto abbraccia più ragioni commerciali che tecnologiche. Anche nel mercato asiatico, dove il mobile social network ha una penetrazione più alta, le novità sono pur sempre applicazioni satellitari all’istant-messaging (ossia strumenti per scambio di messaggi e chatting in tempo reale), arricchite con gadget vari, focalizzati in particolar modo sugli utenti teenager (un esempio è Tencent QQ).

Le applicazioni particolarmente innovative possono disorientare l’utenza del web, in quanto moltitudine generalista che difficilmente apprezza globalmente un nuovo gadget. Inoltre, il web deve rispondere a costi infrastrutturali notevoli e a scelte di standardizzazione delle diverse risorse hardware/software altrettanto problematiche. Poiché rischia di incorrere in costi eccessivi, il web non sembra quindi essere il miglior ambito per verificare l’innovazione, che semmai viene sperimentata altrove, e solo in seguito importata nella rete.

Alla sua nascita, alla fine degli anni Ottanta, il mondo della multimedialità si era diffuso a livello stand-alone o, al più, di piccole reti locali. Nel decennio successivo, il web ha iniziato a seguirne l’impostazione dal punto di vista delle interfacce e dell’interazione con l’utente (la struttura ipertestuale e interattiva del web era presente inizialmente nei CD-Rom, i quali, quando la rete aveva ancora le pagine su sfondo grigio e qualche sparuta immagine, permettevano già di integrare videoclip e di realizzare presentazioni multimediali con i sistemi authoring). Questo divario, riassumibile a grandi linee nel progresso tecnologico sviluppatosi in dieci anni circa, ha continuato a persistere e si presta quindi come terreno opportuno per poter scoprire le linee di tendenza del web 3.0. Oggi, le applicazioni residenti su console nel mercato home consumer (fondamentalmente il mercato dei videogame) anticipano in qualità, velocità e varietà funzionale quello che sarà il web del prossimo decennio.

I filoni più promettenti sono quelli dell’interazione spaziale uomo-macchina attraverso i nuovi dispositivi basati su accelerometri e giroscopi, introdotti dalla console Wii dell’azienza giapponese Nintendo, dell’interazione vocale, in pratica chatterboots che permettono alla macchina di attivare un dialogo vocale automatico con l’utente, e della visualizzazione 3D, in cui lo scenario dell’ambiente e il movimento dei personaggi vengono visualizzati con tecniche di rendering (il processo che permette di generare un’immagine da un modello virtuale) e schede dedicate sempre più avanzate (dotate di spiccata potenza di calcolo dedicata alla grafica). Poiché questi settori consistono sostanzialmente in applicazioni di realtà virtuale (virtual reality o virtual world), tale ambito tecnico-scientifico è ritornato attuale dopo gli insuccessi degli anni Novanta, quando aveva costituito un fenomeno culturale più a livello retorico e letterario che non nella sostanza delle applicazioni. A discapito del suo nome, che evoca la presenza di una comunità virtuale i cui membri interagiscono mutuamente, il virtual world è nato in un ambito locale (per es., CitySpace), o comunque in network ristretti. Ancora oggi non è prerogativa del web, che ne offre solo una versione ridotta, specialmente nella qualità grafica e nelle possibilità d’interazione. La qualità del virtual world dei migliori giochi massively multiplayer su web (i cosiddetti MMORPG, Massively Multiplayer Online Role-Playing Games, giochi, originariamente nati localmente su PC e poi estesi su web, in cui molti giocatori interagiscono sia tra loro sia con l’ambiente virtuale, come nel videogioco fantasy World of Warcraft) è limitata a un’interazione classica con l’utente (costituita da mouse e tastiera), non fa uso di comandi vocali per interagire con il sistema (la chat audio è limitata agli utenti reali dell’ambiente) e raramente adotta comandi testuali per interfacciarsi con un chatterboot automatico. In quest’ambito si rivela un uso scarso dell’intelligenza artificiale, a differenza dell’importanza che questa inizia ad avere nei videogame su console dedicata. Dal punto di vista delle potenzialità future, però, è proprio il web a diventare il candidato ideale di questo tipo di ambienti, in quanto gode del beneficio di essere ubiquo e immediato. Per queste ragioni, nel 2003, grazie ai finanziamenti di diverse società e venture capitalists statunitensi, è nata Second life, seguita immediatamente da un efficace lancio pubblicitario che la presentava come un fenomeno altamente innovativo, ben oltre i visibili limiti del sito (gli avatar hanno fisionomia e movimenti grezzi, si animano e interagiscono con difficoltà ecc.).

Nel mondo virtuale di Second life, gli utenti, una volta iscritti, possono trasformarsi in un agente iconico che li rappresenti all’interno di una realtà virtua­le. In essa possono esplorare e incontrare altri agenti, socializzare e partecipare a varie attività: si tratta concettualmente di un vero e proprio mondo ricostruito, dove non solo è possibile avere nuove identità, ma anche lavorare e partecipare attivamente alla produzione di beni e risorse, all’interno di un’economia simulata. Uno degli aspetti di successo del sito è stato proprio quello di creare un primo esempio di economia virtuale, fatta di negozi, banche, terreni e stipendi, e di tutte le componenti tipiche del settore; con il vantaggio di essere un’economia sia chiusa nel mondo di Second life, con una propria valuta (il linden dollar) e un proprio mercato, sia aperta a quella reale, con la possibilità di convertire la valuta interna in dollari statunitensi attraverso vari uffici di cambio. Un’idea senza dubbio ingegnosa, che inizialmente aveva fatto nascere in molti utenti la speranza di ricavare un guadagno economico effettivo e di avere una seconda vita (in realtà tutto questo rispondeva essenzialmente al business della casa produttrice, il cui modello è simile a quello del gioco d’azzardo, ossia un bilancio guadagni/spese statisticamente sempre in attivo). Second life congiunge la realtà virtuale con il concetto di social network ma, a differenza dei social networks (sistemi non grafici), ha un vantaggio evidente: sebbene sia oneroso parteciparvi in termini di tempo dedicato e concentrazione, si ha in un colpo d’occhio una visione globale dello spazio in cui si è immersi e di chi lo abita. Questo vantaggio ha suscitato l’interesse di molte aziende, specialmente multinazionali, che hanno progettato le loro sedi e avviato una propria economia su Second life, approfittando ovviamente di queste iniziative per ottenere pubblicità anche nell’economia reale. Il virtual world viene così utilizzato come vetrina e ambiente di simulazione per il lancio di brands, loghi e altre iniziative di marketing da parte di aziende, specialmente di grandi dimensioni, attente alle analisi e agli effetti di mercato su scala globale.

Considerando i pro e i contro del web e delle console locali, si evidenzia che il primo detiene il primato di connettere quasi due miliardi di utenti in una piattaforma unica, e le seconde possiedono l’hardware e il software dedicati per implementare applicazioni che facciano largo uso delle tre linee di interazione (spaziale, vocale e 3D). Non è utopico pensare di integrare questi benefici in un modello unico e ibrido. Sebbene le principali applicazioni su console siano locali, e residenti nella macchina, il web viene comunque coinvolto. Per fare qualche esempio, grazie all’integrazione con il web è possibile dialogare e scaricare giochi, vedere via webcam gli altri personaggi, adottare gadget di morphing per ricreare un avatar con i propri li­neamenti, e altre soluzioni simili.

Si prenda il caso della citata PS3 (che si potrebbe estendere a tutte le console di settima generazione, quindi anche Xbox di Microsoft e Wii). Questo dispositivo è nato (2006) come una centralina multimediale in grado di archiviare film, leggere il nuovo formato di dischi ottici Blu-ray per la visione di film in alta definizione (quando i lettori Blu-ray dedicati erano ancora rari) e vedere/registrare su disco fisso i programmi televisivi (solo quelli in digitale terrestre in chiaro). Soprattutto era dotata fin dalla prima release dei protocolli principali di connettività (Ethernet, Bluetooth, Wi-Fi), che trasformavano la console in un piccolo server rispetto ai clients muniti di dispositivi Wireless-Fidelity (Wi-Fi), per es. la PSP (playstation portatile della stessa Sony) o un PC. Nel 2008 è stato creato un servizio (PS Home) che alle capacità della PS3 ha aggiunto quella di diventare un virtual world, ossia un concorrente di Second life. Questo servizio comprende un browser per navigare in Internet, un sistema di chat e di e-mail, la possibilità di giocare on-line, un negozio virtuale dove acquistare video e vari gadget per personalizzare il proprio avatar e il proprio spazio personale.

Dal punto di vista dello spettro applicativo, la diffusione di queste formule ibride (console orientate al web) potrebbe favorire due linee di tendenza: quella di estendere le comunità virtuali tridimensionali rispetto ai limiti di Second life (difficoltà di apprendere a interagire con l’ambiente e potenza di calcolo insufficiente dei PC, spesso mancanti di schede grafiche dedicate) e quella di favorire applicazioni web di calcolo distribuito; viste le performances di queste macchine dedicate al calcolo superveloce, i nuovi players si predispongono a essere usati per costruire supercomputer a basso costo (per es., l’iniziativa PS3 Cluster, che promette applicazioni in campo medico e biologico), approfittando del fatto che l’ambiente di controllo della PS3 si è aperto recentemente ai tradizionali sistemi operativi open source (primo tra tutti Linux).

TV e web: convergenze parziali

Sebbene le potenzialità di un servizio integrato tra Internet e TV siano evidenti già a livello di infrastrutture comuni, e abbiano condizionato cospicui investimenti da parte delle società di servizi per le telecomunicazioni, questi due media continuano a mantenere circuiti distinti. Nella fase presente, un dispositivo televisivo precedente al web, come la TV satellitare, è ancora in crescita, seguito dal digitale terrestre. Queste tecnologie continuano a mantenere le quote più alte del mercato, in un rapporto maggiore di dieci a uno rispetto a quelle nuove come la IPTV (Internet Protocol TeleVision, sistema nel quale il servizio televisivo è offerto attraverso un’infrastruttura della rete Internet). In molti Paesi, tra cui l’Italia, la promozione dell’IPTV si è tradotta, da parte di molti operatori, nell’offerta integrata triple play: trasmissione di voce (telefono), video (TV) e dati (Internet). Il fenomeno, almeno per com’è stato proposto finora, può essere visto proprio come un interessante caso di convergenza fallita. Non ha avuto il successo sperato per ragioni di debolezza strutturale dell’infrastruttura non ancora consolidata, ma soprattutto per problematiche sociologiche e di tipologie di fruizione. La IPTV avrebbe dovuto prima imporsi sul mercato tradizionale grazie a maggiori contenuti, tariffe più basse, migliore e più semplice funzionalità. Non avendo compiuto questo sviluppo, con un servizio che anzi si è rivelato spesso peggiore e con novità in opzioni funzionali non sufficienti a trascinare il settore, non ha avuto luogo il passaggio successivo di integrazione più coesa con il web.

Il fallimento di fondo è comunque nelle radici stesse della fruizione. La TV ha continuato a mantenere uno statuto passivo e monodirezionale, perciò la modalità trasmissiva tradizionale, più comoda e affidabile, è stata premiata. D’altro canto, da diversi anni molti programmi TV, in formato e qualità a mano a mano più elevate, sono accessibili sui siti istituzionali dei network televisivi, e sui social networks, in modalità streaming, fruite però da un pubblico fondamentalmente distinto rispetto a quello tradizionale della TV broadcast.

La TV via web può essere vista sia come valore aggiunto di alcuni dispositivi, originariamente non nati nella forma di attuatore televisivo (per es., le console dei videogiochi, anche quelle portatili come la PSP, che di recente offre la possibilità di sfruttare la connessione Wi-Fi per visualizzare i canali TV trasmessi via web), sia come nuovo settore, orientato alla dimensione collaborativa del web, con distinzioni molto meno accentuate tra produttore e consumatore. Su questo fronte riscuote interesse la cosiddetta P2PTV (applicazione software peer-to-peer progettata per una distribuzione videostream in tempo reale), che sfrutta i protocolli peer-to-peer, ossia quelli lanciati inizialmente dall’applicativo Napster per la condivisione di file musicali tra utenti. In una P2PTV ogni utente è potenzialmente sia il fruitore dei video che scarica da altri utenti sia l’erogatore nella rete dei propri video. In pratica, una P2PTV trasmette contenuti simili a quelli tipici di video social network come YouTube, ma in una modalità differente – il consumo della banda di trasmissione è ripartito tra i server e i clients degli utenti, e non come in YouTube solo a ca­rico dei server del proprietario del servizio – in maniera più strutturata e organizzata (più simile a quelli delle TV on demand) e soprattutto con una vastissima scelta, superiore ai mille canali raggiungibili. Se la banda è alta e la P2PTV riesce a sfruttarla bene per garantire qualità all’immagine, ne deriva che l’utente ha la possibilità teorica di accedere ai canali TV di tutto il mondo, attraverso il browser classico web, senza ricorrere a decoder e/o antenne satellitari.

Queste tecnologie si stanno diffondendo molto in Cina e nei Paesi asiatici, in quanto molte P2PTV permettono di accedere via rete ai servizi on demand televisivi tradizionali. Alcuni casi interessanti sono nati anche in Europa, per es. Joost e Babelgum; nel 2009, Babelgum è diventata anche una delle applicazioni per iPhone più scaricate, un fenomeno che potrebbe annunciare un cambiamento di tendenza per la fruizione dei canali TV sugli smartphone e sulle console portatili (con un approccio molto più dinamico e orientato alle visioni in streaming tipiche del web 2.0, piuttosto che il rigido passaggio della TV tradizionale sul TVfonino). L’idea portante di Babelgum è quella di reinventare il mercato della produzione TV, proponendo modalità per l’accesso e la distribuzione di contenuti video, in cui il confine tra fruitore e produttore diventi molto più sfumato e venga offerta la possibilità all’utente di diventare l’autore stesso di prodotti distribuiti nel circuito. A questo proposito, nel 2007 Babelgum ha lanciato l’Online film festival, il primo web festival dedicato al cinema indipendente, con il patrocinio del regista Spike Lee in cui i votanti sono gli stessi utenti connessi. L’iniziativa, lodevole, si prefigge di animare il web, dal punto di vista dell’utilizzo nel settore video, al momento attuale iposfruttato: il web, potenzialmente speranza distributiva di un autore di film e video indipendente a piccolo budget, continua perlopiù a essere una piattaforma per il download (ufficiale e abusivo) dei film del mainstream, in versione a qualità ridotta. Laddove i social networks hanno creato un mercato per gruppi musicali emergenti e indipendenti, lo stesso fenomeno non si è ripetuto per il mondo cinematografico. Non è sfruttata la potenzialità di avere a disposizione una piattaforma distributiva (P2PTV o i video social network) e una realizzativa di notevole portata, interagenti in un unico ambiente. Tranne in rari casi, non si sono create le sinergie opportune per far dialogare la cultura dell’open source film (una modalità, nata negli anni Sessanta e Settanta, di creare film e documentari a partire sia dal contributo di più persone sia remixando materiale eterogeneo di archivio con riprese originali) con quella dei progetti open source e collaborativi, tipici invece dell’era di Internet.

Tra i gruppi impegnati in azioni pionieristiche in queste nuove formule realizzative, si segnalano quello canadese promotore del 2004 del progetto Open source cinema, e quello italiano Hive division che ha realizzato il film Philanthropy (2009), tratto dalla serie di videogame Metal gear solid. Il film è un ibrido di riprese reali e montaggi in postproduzione, con effetti speciali a basso costo ma di qualità sufficiente per una proiezione web via streaming. Gli effetti, l’editing, il mixing e la colonna sonora sono stati realizzati da una rete di collaboratori, reclutati su forum e communities, sfruttando sia la passione comune per un videogioco di culto sia la possibilità di accedere ad ambienti grafici e immagini predefinite, estratte dal videogame. Non c’è da stupirsi che progetti come questo siano rari: nel web manca fondamentalmente un circuito che sia alternativo a quello delle sale cinematografiche; non esiste nessun sistema di finanziamento per produzioni e proiezioni web; anche il principale motore economico del web, ossia l’advertising pubblicitario, premia soltanto il prodotto finale (per es., un video molto cliccato) e non le fasi precedenti.

Ipotesi futuribili di sviluppo

Tra le più suggestive e controverse ipotesi, una congettura sulla convergenza tra l’evoluzione tecnologica e quella biologica è stata proposta nel 2005 dallo statunitense Raymond Kurzweil, personaggio complesso, in parte inventore e in parte futurologo, riconosciuto negli Stati Uniti come uno dei più brillanti innovatori nell’ambito della tecnologia per l’intelligenza artificiale. Kurzweil (2005) si spinge a prefigurare che a metà del 21° sec. il cervello umano e quello artificiale si potranno integrare in un corpo unico. Per chiarire questa ipotesi, egli utilizza il termine singolarità, preso in prestito dalla fisica, per indicare una specie di orizzonte degli eventi oltre il quale, con le attuali potenzialità biologiche, è pressoché impossibile indagare. Egli prevede un cambiamento radicale: entro il 2030 i computer si saranno integrati tra loro in un’unica grande rete (l’ipotesi web of things si sarà avverata), che sarà a sua volta profondamente integrata nell’ambiente, nel corpo e nel cervello umani. Il paradigma sociotecnologico di Kurzweil, che peraltro ha ricevuto severe critiche, è presentato come una serie di passi verso la graduale convergenza tra l’umano e il non umano. All’interno di questo percorso, la rete Internet e il web costituirebbero il collante principale della convergenza tecnologica, uno spazio di comunicazione globale in cui le discipline emergenti (ingegneria genetica, biotecnologie, nanotecnologie, artificial life ecc.) troverebbero il terreno opportuno per scambiarsi le informazioni e sperimentare nuove soluzioni.

Certamente, scoprire nuove modalità di comunicazione dei nodi del web costituirà una delle prossime sfide, in special modo quando tali nodi avranno natura e dimensioni molto diverse da quelle attuali, come nel caso dello sviluppo di componenti nanotecnologici (delle dimensioni di una cellula), o di oggetti autonomi dotati di una propria intelligenza e di proprie esigenze bioenergetiche.

Sebbene aspetti emergenti come quello del semantic web o del web of things potrebbero già oggi esprimere una portata applicativa superiore, essi sono frenati da politiche di mercato, o da fattori completamente estranei a quelli della potenzialità tecnologica. Inoltre, negli ultimi due secoli abbiamo assistito a sempre maggiori differenze economiche e culturali tra i Paesi più avanzati e quelli meno sviluppati del pianeta, per cui la dimensione globale di un beneficio collettivo ottenuto grazie all’evoluzione tecnologica sembra far parte di una visione piuttosto astratta e in controtendenza. Il pensiero di Kurzweil, oltre a qualche intuizione, propone concetti semplicistici. La sua logica tende a trascurare diversi aspetti che il web sta invece mettendo in evidenza, in quanto grande spazio sperimentale e applicativo. Per es., la mancanza di concordanza evolutiva tra i vari dispositivi potenzialmente connettibili e la difficoltà di assegnare loro nuove proprietà e statuti. Non è nemmeno così scontato che tutte le nuove linee di tendenza siano a favore dell’autonomia della macchina intelligente. Si pensi al fenomeno dei software collaborativi, ossia di quegli strumenti software che permettono a comunità in rete di scrivere enciclopedie, documenti, opere collettive, in ma­niera iterativamente correttiva (per es., il wiki di Wikipedia). In questo caso il software collaborativo offre nuove opportunità inventive agli esseri umani, relegando la macchina a puro strumento di connessione e di stimolo alla partecipazione, e incrementando la posizione privilegiata dell’intelligenza umana.

Seguendo questa linea, sono sorte nuove iniziative di integrazione uomo-macchina che, a prima vista, non presentano nulla di futuribile e anzi, si potrebbe dire, propongono un ritorno al passato: per es., la gestione umana di operazioni ancora difficili da attuare in automatico come nel caso del progetto MTurk (Mechanical Turk) di Amazon, un servizio che coordina, tramite il web, il lavoro intellettuale per eseguire compiti non adeguati per i computer. MTurk fa parte di un tipo di servizio chiamato crowdsourcing, che consiste nella gestione di compiti da svolgere sfruttando la potenziale offerta dell’enorme collettività del web (dove è più facile e immediato reperire forza lavoro, qualificata e non, rispetto alla società reale). Probabilmente qui è in gioco una partita tra il transumanesimo e un ritorno al passato, dove l’ibridazione umano-macchina assume aspetti meno fantasiosi e più inerenti a una nuova tappa del fenomeno dell’automazione del lavoro. MTurk riprende l’aspetto cruciale del software di collaborazione e sfrutta la gratuità (o semigratuità) del servizio, non nell’ottica della diffusione della cultura, ma in quella commerciale di una sorta di ottimizzazione dei costi del lavoro. Un aspetto che forse verrà sfruttato dai corporate social networks (co­munità gravitanti attorno a un ambito professionale o a una società multinazionale) e che viene visto da molti come eticamente criticabile, in quanto ha lo sco­po di trovare forza lavoro a bassissimo costo nei Paesi emergenti dove, se si stanno creando infrastrutture di rete, non esistono tuttavia ancora forme di reddito per larghe fasce della popolazione.

Bibliografia

C.M. Christensen, The innovator’s dilemma. When new technologies cause great firms to fail, Boston 1997 (trad. it. Milano 2001).

A.-L. Barabási, Linked. The new science of networks, Cambridge (Mass.) 2002 (trad. it. Torino 2004).

R. Kurzweil, The singularity is near. When humans transcend biology, New York 2005 (trad. it. Milano 2008).

Y. Miyawaki, H. Uchida, O. Yamashita, Y. Morito et al., Visual image reconstruction from human brain activity using a combination of multiscale local image decoders, «Neuron», 2008, 60, 5, pp. 915-29.

© Istituto della Enciclopedia Italiana - Riproduzione riservata