L'IMMAGINARIO TECNOLOGICO

XXI Secolo (2009)

L’immaginario tecnologico

Francesco Ghelli

Il gadget del 2000

Il 23 ottobre 2001, poco dopo il trauma delle Twin Towers che ha inaugurato il 21° sec., è stato presentato un prodotto tecnologico destinato a diventare «l’oggetto nuovo più familiare e più desiderato del XXI secolo» (Levy 2006, p. 1): l’iPod. Lo scrittore e sociologo Richard Sennett (2006) ha colto nell’oggetto un emblema dell’odierno capitalismo che appare più allettato dal possibile che dal reale: «la fenomenale attrattiva commerciale dell’iPod consiste […] nell’offrire più di quanto chiunque possa utilizzare». Nessuno può pensare di ascoltare le migliaia di canzoni che il dispositivo può memorizzare, così «la macchina diventa una gigantesca protesi. Se l’iPod è potente, ma chi lo usa non può gestire questa potenza, l’attrattiva dell’apparecchio sta nella sua potenza sconfinata. Come ha detto senza ironia il commesso che mi ha presentato il mio iPod ‘Il limite è solo il cielo’» (trad. it. 2006, p. 114).

La tecnologia come protesi: la metafora – una delle più recenti variazioni sul tema della cultura come ‘seconda natura’ – è divenuta celebre fin dagli anni Ottanta grazie alla fantascienza cyberpunk. Tuttavia, nel caso dell’iPod, sembra pertinente attivarne un altro di significato, esattamente opposto: più che il potenziamento delle facoltà umane implicito nell’immagine del cyborg, siamo di fronte a una sorta di appendice discreta, capace quasi di far corpo con il fruitore, di dissimulare in tempi rapidissimi la propria novità ed estraneità. Al pari di altre innovazioni tecnologiche degli ultimi tempi caratterizzate dalla miniaturizzazione e dalla user friendliness – si pensi al cellulare e al personal computer –, l’iPod è divenuto parte del nostro quotidiano, al punto da suscitare l’illusione di essere lì da sempre. Come ha scritto proprio William Gibson (n. 1948), il padre della fantascienza cyberpunk, a proposito dell’antenato dell’iPod, il walkman: a pochi mesi dalla sua comparsa, «nessuno era in grado di ricordare cosa volesse dire vivere in un mondo in cui non fosse possibile muoversi negli spazi urbani avvolti nella propria bolla acustica» (Leonard 2007). Più in generale, anche se fa continuamente appello al nuovo, soprattutto nella sua forma pubblicitaria, l’odierna tecnologia di consumo incoraggia un atteggiamento blasé, tipicamente postmoderno, verso le novità. L’innovazione in cui siamo immersi sarebbe ormai una routine incapace di ridestare quegli shock culturali provocati dalle rivoluzioni tecnologiche dell’era industriale. I molti gadget che ci circondano non sembrano in grado di incoraggiare grandi visioni, il sogno (o l’incubo) dell’‘Uomo nuovo’ caro ai molti modernismi del Novecento.

La trovata della Apple è un buon esempio di questa novità ‘debole’. Del resto, lo standard musicale MP3 era stato elaborato all’inizio degli anni Novanta, ed era passato quasi inosservato fino al boom del file sharing alla fine del decennio. Il campo tecnologico dei lettori MP3 portatili, poi, era già frequentato da un paio di anni anche se da prodotti meno pratici ed eleganti dell’iPod. Il processo che portò in pochi mesi all’elaborazione dell’oggetto assomiglia più a un abile bricolage che a una progettazione ex novo. Nella corsa contro il tempo per occupare una nicchia di mercato di cui intuivano le enormi potenzialità, i progettisti della Apple assemblarono componenti di varia provenienza: interfacce grafiche e software musicali elaborati da piccole aziende e freelances californiani; un minuscolo hard-disc ad alta capacità brevettato da Toshiba per il quale i giapponesi non avevano trovato un impiego industriale; gli ultimi ritrovati nel campo delle batterie e dei display prodotti dall’industria dei cellulari. Gli accidenti di questa storia produttiva scompaiono però dietro il design fantascientifico del progettista Jonathan Ive. Si dice che alla vista del piccolo totem bianco Vinnie Chieco, il copywriter incaricato di battezzare il prodotto, abbia ricordato all’istante una battuta del film di Stanley Kubrick 2001: a space odissey (1968; 2001: Odissea nello spazio), un comando rivolto da uno degli astronauti al computer di bordo: «Open the pod bay door, HAL». Si tratta di un frammento di technobabble – ossia il gergo volutamente incomprensibile dei film di fantascienza –, nel quale il termine pod – che in inglese ha molti significati, dal botanico «baccello» al geologico «filone minerario», in parte accomunati dall’idea di involucro che custodisce un contenuto di va;lore – designa una delle capsule spaziali dell’astronave.

Il film di Kubrick ha avuto un’importanza capitale nell’immaginario contemporaneo. Per due decenni, il 2000 ha funzionato a vari livelli come un appello a un’occasione futura di radicale rinnovamento: una versione semplificata di quel balzo superomistico «verso l’infinito», con la nascita del «feto astrale», su cui si conclude il film. Oggetti come l’iPod, esempi di una tecnologia privata, orientata al consumo e al tempo libero, oltre agli eventi geopolitici ed economici di questi ultimi anni, hanno reso inattuale il mondo di 2001, così come le speranze palingenetiche dell’era spaziale. Eppure, per un’ironia della storia che è anche un paradosso della condizione postmoderna, l’odierno prodotto deve attingere a quell’immaginario datato non solo un nome per i più puramente eufonico, ma anche alcune suggestioni che vanno ad alimentare il suo fascino.

Un mondo fantascientifico: oggetti e metafore

Secondo un luogo comune giornalistico, incoraggiato dai cyberpunks stessi, vivremmo in un mondo fantascientifico, nel quale la tecnologia avrebbe realizzato, se non addirittura superato, i sogni degli scrittori. Tuttavia, il nostro mondo può essere ‘fantascientifico’ in senso meno trionfalistico. Già uno dei primi racconti di Gibson, The Gernsback continuum (1981; trad. it. Il continuum di Gernsback, in Mirrorshades. L’antologia della fantascienza cyberpunk, 1994), lascia intuire che le utopie fantascientifiche non sono presenti solo in film come Metropolis (1927) di Fritz Lang o sulle prime riviste pulp americane, ma anche nei manufatti della stessa epoca che ha visto la nascita della fantascienza come genere letterario di largo consumo. Lo stile aerodinamico in voga negli anni Trenta rispondeva alla medesima aspirazione dei fumetti di Flash Gordon: «era tutto un palcoscenico, una serie di fondali elaborati per giocare a vivere nel futuro» (trad. it. 1994, p. 28). Così come per secoli gli aristocratici europei si sono deliziati con suppellettili e decori ispirati alla mitologia greco-romana o alla fantasia pastorale dell’Arcadia, i prodotti della moderna cultura dei consumi hanno provato più volte a dar vita ai mondi possibili della fantascienza. Si pensi alle auto americane degli anni Cinquanta che facevano di tutto per assomigliare a razzi spaziali (McCracken 2005, parte terza), oppure agli svariati oggetti e mobili di plastica che fra anni Sessanta e Settanta portavano atmosfere da conquista dello spazio nelle case dei cultori del design moderno (Topham 2003). In tal senso la ‘tematizzazione’, ossia la trasformazione di merci e luoghi di consumo in evocazioni dei più vari universi culturali – un fenomeno tipico del mondo postmoderno con la sua tendenza a ‘imparare da Las Vegas’ e dai parchi giochi come Disneyland – è solo l’ultimo episodio di una lunga storia di interazioni fra immaginario e cultura materiale. Il futuro allora non è qui e ora più di quanto l’antica Roma non riviva nel Caesars Palace o l’Egitto dei faraoni nell’hotel Luxor. In realtà, grazie al design futuribile e citazionista di innumerevoli creativi – da Joe Colombo a Matti Suuronen al già citato J. Ive – alcuni oggetti quotidiani sono divenuti frammenti di un parco a tema fantascientifico. L’apparenza futuribile di certi prodotti, insomma, non ha a che fare solo con il loro contenuto tecnologico innovativo, ma anche con una messa in scena che si conforma ai nostri ideali di come il futuro dovrebbe essere (Midal, Dahlström 2007).

Il gioco di specchi fra realtà consumistico-tecnologica e immaginario fantascientifico non è però unidirezionale. Ripensiamo al ruolo del cyberpunk: ben presto questo filone letterario appare «una lingua morta del futuro […] nel breve volgere degli anni Ottanta, il movimento letterario era reso obsoleto dalle stesse trasformazioni tecnologiche e sociali che aveva individuato» (Brolli 1994, p. 14). Esemplare il destino della principale invenzione di Gibson: il cyberspazio. Nei primi romanzi di Gibson il cyberspazio è «un’allucinazione collettiva elettronica» (Burning Chrome, 1986; trad. it. La notte che bruciammo Chrome, 1993, p. 32), una rappresentazione tridimensionale delle banche dati mondiali all’interno della quale gli hacker si muovono come in un videogame, un nuovo territorio di avventura per una fantascienza che non crede più alla conquista degli spazi cosmici. Dei videogame dell’epoca, così come dei primi esperimenti di computer graphics – si pensi al disneyano Tron (1982) –, il cyberspazio ha l’astrattezza geometrica: «una scacchiera tridimensionale perfettamente trasparente che si estendeva all’infinito» (p. 31). Nonostante questi tratti datati, il cyberspazio è divenuto negli anni Novanta un sinonimo di Internet, mentre il world wide web è apparso a molti osservatori una pronta realizzazione delle profezie dello scrittore. Per lo scrittore Bruce Sterling (n. 1954) è stato John Perry Barlow, pioniere della psichedelia americana, ad applicare per primo il termine alla nascente realtà della rete in un intervento del 1990 (Crime and puzzlement, http://w2.eff.org/Misc/Publications/John_Perry_Barlow/HTML/crime_and_puzzlement_1.html, 27 apr. 2009). Un impiego non privo di forzature, visto che Internet era allora un ambiente prevalentemente scritto, ben poco illusionistico: «In questo mondo silenzioso, ogni conversazione è scritta a macchina. Per entrarci, uno abbandona il corpo e il luogo e diviene una creatura di sole parole. Si può vedere quel che dicono i vicini (o hanno detto di recente), non si può vedere il loro aspetto o l’aspetto di ciò che fisicamente li circonda. Gli incontri sono incessanti e furoreggiano discussioni su ogni cosa, dalle perversioni sessuali ai piani di svalutazione. Sono tutte collegate le une alle altre, che lo siano da un solo viticcio telefonico o da milioni. Nel complesso, formano ciò che i loro abitanti chiamano la Rete. Si estende attraverso regioni di stati elettronici, microonde, campi magnetici, impulsi luminosi, attraverso quel che lo scrittore di fantascienza William Gibson ha chiamato il cyberspazio».

In virtù della metafora letteraria, un immenso archivio di ipertesti diviene uno spazio praticabile in cui si ‘naviga’ e si ‘surfa’, un territorio extraterritoriale in cui ci si può smarrire senza spostarsi dalla poltrona di casa, mentre il prefisso cyber- si trasforma nel contrassegno di tutto ciò che ha a che fare con il nuovo mondo della rete (solo in Italia, per es., oltre 60 libri a partire dal 1992 includono il prefisso nel titolo). Allora, non è tanto il progresso tecnologico a mettersi al passo con l’immaginazione fantascientifica, al contrario è l’innovazione a essere percepita attraverso il filtro della fantascienza recente. Una realtà – quella della rete – presto familiare a milioni di persone, anche se ostica nei suoi presupposti tecnici, nonché portatrice di inquietudini riguardo alla violabilità della privacy, è divenuta comprensibile agli occhi di una maggioranza più o meno digiuna di informatica grazie alla mediazione della letteratura. Quello stesso immaginario però era stato alimentato a sua volta da altra tecnologia. Stando alle dichiarazioni di Gibson, fra le fonti di ispirazione del cyberspazio ci sono i giocatori dei primi videogame con la loro fede in un mondo al di là dello schermo. Ma addirittura l’idea rivoluzionaria di un’interfaccia fra il cervello e il computer fu suggerita da una delle prime tecnologie miniaturizzate di nuova generazione: il walkman. Ancora esaltato dalla possibilità di vagare per le vie di Vancouver avvolto nella propria colonna sonora, Gibson racconta di aver visto un manifesto della Apple che raffigurava solo la CPU (Central Processing Unit) e la tastiera di un personal computer, non il monitor, e di aver avuto una sorta di folgorazione: «Pensai a un punto immaginario di convergenza, chissà come sarebbe stato se l’informazione che quella macchina manipola avrebbe potuto essere accessibile con l’intimità sottocutanea del walkman» (Headlam 1999). Certo, il cyberspazio gibsoniano è qualcosa di più di un’illusione suscitata da tecnologie che negli anni Ottanta muovevano i primi passi. È una metafora efficace per ‘mappare’ i processi di globalizzazione, di un’economia che come il denaro elettronico è ormai indipendente dalla geografia, oltre che un efficace espediente per condurre un vertiginoso entrelacement delle linee narrative. Prima di diventare un passe-partout culturale negli anni Novanta è stato una buona soluzione letteraria, capace di rispondere a esigenze tanto realistiche che romanzesche, al bisogno di rappresentare in modo efficace il presente, regalando al tempo stesso azione e intrattenimento.

In ogni caso, non bisogna sottovalutare il ruolo dell’immaginario letterario nell’odierna rivoluzione digitale, basti pensare a un’altra invenzione: il ‘metaverso’, che fa la sua comparsa in un romanzo cyberpunk della seconda generazione, Snow crash (1992; trad. it. 1995) di Neal Stephenson. Si tratta di un vero e proprio universo parallelo, nel quale si è rappresentati da un avatar, un corpo vicario più o meno realistico, si possono possedere terreni e abitazioni, si compiono le più varie operazioni visitando le sedi virtuali di aziende e istituzioni pubbliche, o semplicemente si può andare in giro e incontrare gente. È evidente in questo caso il parallelo con il fenomeno Second life, la piattaforma di social networks realizzata dall’azienda Linden Lab a partire dal 2003 che in questi anni ha attirato l’attenzione dei mass media, è frequentata in tutto il mondo da 10 milioni di ‘residenti’ e promette di fare da modello ai futuri sistemi operativi sempre più immersivi e ludici. Anziché da filtro o da metafora, in quest’ultimo caso l’idea di uno scrittore ha funzionato come un prototipo per l’elaborazione di un nuovo standard tecnologico.

Contenuti e contenitori: tecnologia e cultura

È evidente come, in barba a certe contrapposizioni care agli umanisti, quella odierna sia una tecnologia satura anche di cultura, strettamente legata alla produzione immaginaria. Come abbiamo visto, i prodotti di consumo hanno bisogno per raggiungere il grande pubblico di una buona dose di trasfigurazione fantascientifica, a costo magari di tacitare quella tendenza verso la tecnofobia quasi connaturata alle finzioni letterarie e cinematografiche (cfr. Dinello 2005). Soprattutto, tale interdipendenza è iscritta nella natura comunicativa delle nuove tecnologie. Internet, il cellulare, l’iPod sono media, strumenti potenti ma del tutto inutili senza contenuti culturali. Come ha dichiarato l’amministratore delegato di Apple, Steve Jobs, «non abbiamo dovuto convincere le persone ad amare la musica» (cit. in Levy 2006, p. 255). Un apparecchio che prometteva a chiunque di portare in tasca la propria collezione di dischi poteva contare sul repertorio sconfinato della musica popolare – jazz, blues, rock, pop –, uno dei molti lasciti del Novecento americano, ossia su generi musicali che da decenni si prestavano a un ascolto come sottofondo, lontano dall’attenzione esclusiva richiesta dalla musica classica.

È difficile trovare una migliore dimostrazione dell’interdipendenza fra tecnologia e cultura, tra contenuti e contenitori, dell’evoluzione di Apple che, da pioniere dell’informatica domestica, è divenuta negli anni sempre più una sorta di ibrido, un produttore di elettronica di consumo ma anche un attore dell’industria culturale (l’Apple Store è ormai un portale multimediale che distribuisce in tutto il mondo non solo musica, ma anche audiolibri, videogame, serial TV, film e podcast). In effetti, l’odierna evoluzione tecnologica sembra aprire inedite possibilità di un consumo culturale libero dalle costrizioni spazio-temporali dei palinsesti radio-televisivi. Se saranno superati i veti incrociati dei vari attori – network televisivi, majors cinematografiche e discografiche, gestori delle reti telefoniche e colossi della net economy –, si andrà verso la disponibilità on demand di ogni sorta di contenuti, un’eventualità che la letteratura aveva esplorato fin dal 1996, con Infinite jest (trad. it. 2000) di David Foster Wallace (1962-2008). Tale scenario potrebbe essere favorito dalla tanto auspicata convergenza tecnologica, un processo che sono gli stessi consumatori a mettere in atto, in mancanza per ora di una ‘scatola magica’ capace di racchiudere le funzioni ora sparse e sovrapposte fra svariati apparecchi (cfr. Jenkins 2006). La nota legge di Moore, che prevede la possibilità di trasmettere e memorizzare sempre più bit a costi sempre più bassi, ha avuto immediate ripercussioni nella distribuzione di contenuti culturali: da una sterminata collezione musicale portatile siamo passati in pochi anni a una vasta scelta di contenuti multimediali. Non sappiamo se siamo destinati ad assistere in tempi brevi a un effetto iPod anche fra gli audiovisivi. Probabilmente esistono dei limiti fisiologici all’estensione di quel tipo di fruizione, poiché non è possibile, per es., guardare un film guidando e passeggiando. In ogni caso, se per decenni il terminale dell’industria culturale è stato il salotto domestico, tant’è che la televisione prometteva di portare a domicilio lo spettacolo del vasto mondo, adesso il processo sembra capovolto. Un lettore MP3 con la nostra musica, un computer portatile con i nostri serial o i nostri film preferiti, un telefono cellulare con la voce dei nostri cari in qualche modo trasformano le strade cittadine, un autobus o il vagone ferroviario in una propaggine di casa. Addomesticano lo spazio pubblico, in una nuova versione di quell’intérieur su cui secondo Walter Benjamin la borghesia ottocentesca desiderava fossero modellate le città. Una delle ragioni del successo delle nostre tecnologie, più che in un bisogno smodato di comunicazione e intrattenimento, risiederebbe quindi nella loro capacità di dare l’illusione di essere a casa a individui che per cause molteplici, sociali ed economiche, sono sempre più sradicati e nomadi. Tutti i nostri gadget produrrebbero un inedito essere al mondo: il confort di essere sempre e ovunque collegati, in rete, in contatto con sterminate e remote risorse comunicative e culturali e, al tempo stesso, liberi dagli accidenti della geografia, indifferenti alle piccole cose che ci circondano così come chi ascolta l’iPod lo è ai rumori circostanti. Per la prima volta in concreto abbiamo la straordinaria possibilità di essere vicini a chi ci è lontano e lontani da chi ci è vicino (D’Eramo 1999, pp. 156 e sgg.).

Il libro e il futuro postumano

Se ci pensiamo bene, proprio il libro e la scrittura hanno svolto per secoli una simile funzione, consentendo un dialogo virtuale con voci lontane o appartenenti al passato e al tempo stesso assicurando quella momentanea ma potente evasione dal qui e ora tanto invisa a generazioni di critici del romanzo. Il libro è stato anche il primo e, fino a qualche decennio fa, l’unico dispositivo portatile d’intrattenimento; basti pensare al fenomeno della letteratura ferroviaria, ai romanzi venduti nelle bancarelle delle stazioni che fin dal tardo Ottocento miravano ad allietare il tempo interlocutorio reso disponibile dal nuovo modo – coatto e passivo – di viaggiare. Anche per ovvie ragioni di quantità dell’informazione, i testi (letterari e non) sono stati digitalizzati ben prima di altri linguaggi artistici, con la costituzione di vaste biblioteche on-line di classici di ogni letteratura. Per ora, tuttavia, si tratta di strumenti di consultazione, capaci di semplificare il lavoro di studiosi e specialisti, non di rivoluzionare le abitudini di lettura del grande pubblico. In effetti, il libro è il contenuto culturale che più resiste alla rivoluzione digitale, l’«ultimo bastione dell’analogico», come ha dichiarato il patron di Amazon Jeff Bezos (cit. in Levy 2007). Finora il successo degli e-book – i lettori di libri digitali – è stato modesto, nonostante giganti come Sony (e la stessa Amazon) abbiano profuso energie e capitali per realizzare un equivalente per la parola scritta dell’iPod in campo musicale. Non è facile scalzare un oggetto pressoché inalterato da secoli, «ergonomicamente quasi perfetto» (Roncaglia 2001) in virtù di un’evoluzione dai tempi più lunghi rispetto ai rapidi avvicendamenti delle nuove tecnologie.

Eppure, per uno dei molti paradossi dei rapporti fra tecnologia e cultura, si affidano proprio a questo medium immutato da secoli i più convinti sostenitori di una rivoluzione tecnologica prossima ventura. Dopotutto hanno scritto libri – romanzi, saggi, racconti – i cyberpunks, come, seppur controvoglia, si è affidato alla carta stampata il guru digitale per eccellenza, Nicholas Negroponte. La pubblicazione e il lancio di libri sono una delle principali attività dei cosiddetti transumanisti, scienziati e scrittori come Vernor Vinge (n. 1944), Hans Moravec (n. 1948), Eric Drexler (n. 1955), Nick Bostrom (n. 1973), Ray Kurzweil (n. 1948), che profetizzano l’imminente superamento dei limiti biologici dell’uomo grazie alle nuove frontiere delle biotecnologie, delle nanotecnologie e dell’intelligenza artificiale. C’è di che alimentare una piccola biblioteca: da Engines of creation. The coming era of nanotechnology (1986; trad. it. on-line www.estropico.com/id171.htm), la bibbia delle nanotecnologie di Drexler, a Mind children: the future of robot and human intelligence (1988) di Moravec e The age of intelligent machines (1990) di Kurzweil, sulle nuove frontiere della robotica, a Redesigning humans (2002; trad. it. Riprogettare gli esseri umani, 2004) del paladino delle biotecnologie Gregory Stock, per tacere i molti titoli di segno opposto, su tutti Our posthuman future (2002; trad. it. L’uomo oltre l’uomo. Le conseguenze della rivoluzione biotecnologica, 2002) di Francis Fukuyama. Da un lato, il libro sembra smentire decenni di profezie vagamente mcluhaniane che sembravano annunciarne la morte inevitabile, dovuta di volta in volta all’oralità di ritorno della civiltà televisiva, ai suoi brevi tempi di attenzione, nonché, più di recente, agli ipertesti che avrebbero reso inattuale la struttura lineare e irreversibile delle narrazioni e delle argomentazioni complesse. Dall’altro, è proprio all’interno di questo medium apparentemente anacronistico che sono elaborati i più radicali scenari futuribili. Scrivere è ancora il miglior modo per immaginare un mondo in cui nulla sarà come prima, perfino un mondo in cui la stessa sopravvivenza dell’umanità, così come la conosciamo, sarà messa in discussione. L’immaginazione apocalittica svela un’implicita natura apotropaica, a suo modo è uno scongiuro che assicura la sopravvivenza di quella cultura, di quel territorio di discussione di cui teme – e talvolta auspica – la fine imminente.

In effetti, a dispetto dell’epigonismo della cultura postmoderna, del suo scetticismo verso novità e rotture radicali, la fine del millennio ha visto un fiorire di utopie tecnologiche, il trionfo di quella che Mark Dery (1996) ha chiamato la «retorica della velocità di fuga […] con la sua promessa di liberazione dalla storia umana e dalla morte» (trad. it. 1997, p. 17). Nella storia delle tecnologie, solitamente le grandi rivoluzioni si realizzano quando più innovazioni appartenenti a campi distanti si concretizzano nel breve volgere di tempo innescando dei balzi di sistema. È quanto è accaduto in passato all’inizio dei grandi cicli economici – da quello dell’acciaio e dell’industria pesante (1870 ca.) a quello dell’elettricità e dell’auto (1900 ca.), fino al più recente dell’energia nucleare e delle telecomunicazioni (1970 ca.). Ed è quanto potrebbe accadere ai giorni nostri, se ai progressi indiscussi dell’informatica si affiancassero quelli per ora solo potenziali delle biotecnologie e delle nanotecnologie. In ogni caso, il nuovo secolo è iniziato con l’annuncio epocale della decifrazione del genoma umano; «l’immenso manuale di istruzioni per costruire un uomo è tutto da studiare e interpretare, ma ora è qui, finalmente aperto davanti a noi» (Boncinelli, Sciarretta 2005, p. 60). Sulle prospettive di tale acquisizione, la comunità scientifica è prudente (almeno quando è alle prese con i tempi lenti della ricerca e non è impegnata a sedurre gli investitori), non così i trasumanisti o i devoti dello scientismo radicale raccolti attorno all’etichetta extropy (neologismo coniato in opposizione a entropia, quella tendenza universale verso il disordine che l’uomo vorrebbe sovvertire a colpi mirabolanti di scienza e tecnologia). Il repertorio di queste tecnoutopie aggiornate può fare invidia a tipici scenari fantascientifici. V. Vinge fin dal 1983 parla di una «singolarità» imminente, vero e proprio punto di non ritorno nel progresso tecnologico rappresentato dalla creazione di intelligenze artificiali con capacità superiori a quelle umane, un processo che potrebbe anche coincidere con l’estinzione dell’umanità e l’avvento di una specie «post-biologica». Altri invece prevedono la possibilità di un allungamento illimitato della vita dell’uomo, grazie ai progressi della terapia genica o al trapianto di organi e tessuti creati in laboratorio. L’immortalità, una prospettiva per secoli appannaggio delle credenze religiose o della superstizione alchimistica, per la prima volta diviene l’oggetto della speculazione scientifica, in particolare con lo scenario, per primo ipotizzato da H. Moravec, del mind uploading: la possibilità di ‘scaricare’ il contenuto di un cervello umano su un supporto informatico per permettere la sopravvivenza della coscienza in un empireo virtuale ben oltre i limiti di ogni organismo biologico (anche di quelli futuri e perfezionati). Le remore degli ambientalisti e dei sostenitori dei limiti dello sviluppo sono saltate a piè pari dai teorici transumanisti confidando nella saggezza e nelle inimmaginabili capacità scientifiche dei nostri discendenti postumani, nonché nelle possibilità delle nanotecnologie di creare ogni sorta di risorse e prodotti a partire dai loro costituenti chimici elementari a costi praticamente irrisori.

Scienza o fantascienza? Non spetta ovviamente agli umanisti valutare la fattibilità di simili scenari. Quel che lascia scettici, semmai, è il parallelo con tecno-utopie abortite del passato. Attorno agli anni Cinquanta – ricordiamo – i viaggi spaziali passarono dalla fiction fantascientifica alle previsioni più accreditate: la conquista dello spazio, con la colonizzazione dei pianeti del sistema solare, sembrava questione di pochi decenni, come parve confermato dagli exploit sovietici e americani. Un romanziere come Arthur Ch. Clarke (1917-2008) scrisse nel 1951 un libro di divulgazione sulle future esplorazioni spaziali che gli valse la presidenza di un organismo autorevole, la British interplanetary society. Mentre la rivista «Life» dedicava una storica copertina all’ingegnere missilistico Werner Von Braun, era abituale riferirsi al presente come all’«era spaziale». Sappiamo com’è andata a finire: dal 1972 nessun uomo ha messo piede sulla Luna, l’esplorazione umana di Marte è ancora lontana, gli Shuttle e le Soyuz impegnati nelle attuali missioni orbitali sono ormai dei residuati industriali e l’era spaziale si è svelata a posteriori per quello che era: non il segno di un progresso tecnico-scientifico ineluttabile, quanto un’impresa in larga parte gonfiata dalla propaganda del tempo, frutto di condizioni geopolitiche ormai superate, quelle della guerra fredda. Fra quarant’anni si potrà forse pensare lo stesso dei sogni e degli incubi postumani di quest’inizio secolo e magari scorgervi ugualmente più che il segno di una rivoluzione scientifica in atto, l’influsso di particolari condizioni socioeconomiche, quelle della globalizzazione rampante e della finanza creativa (non dimentichiamo infatti il ruolo talvolta svolto dall’impresa privata e dai venture capitals in alcuni progetti di ricerca e il rischio di una ‘bolla’ biotech dopo quella della new economy).

L’età dell’informazione

Lo scetticismo verso i più audaci scenari postumani non deve spingersi tuttavia fino a negare la portata epocale della scoperta del DNA, forse la vera rivoluzione scientifica del Novecento. Mai come in questo caso appare miope il tipico atteggiamento di alcuni umanisti che trattano la scienza come una tendenza culturale fra le altre, figlia dello Zeitgeist, dei suoi simboli e delle sue parole chiave. Si pensi solo a Jean Baudrillard che parlò a suo tempo di «metafisica del codice» e vide nella genetica solo un altro esempio di quella temperie rappresentata in ambito letterario dallo strutturalismo. In realtà, la scoperta di Francis Crick e James Watson – l’idea che la vita è informazione – chiama in causa gli stessi confini fra natura e cultura, ben oltre le metafore linguistiche care ai divulgatori della genetica (il ‘libro’ della vita, il ‘testo sacro’ da postillare e riscrivere e così via).

Due biologi di fama, John Maynard Smith ed Eörs Szathmáry, hanno ripensato la storia della vita sottolineando che le transizioni fondamentali non riguardano tanto la struttura degli organismi o le loro tradizionali classificazioni, quanto il modo in cui l’informazione genetica è conservata, tradotta e trasmessa (per es., nel passaggio dai replicanti molecolari alle cellule dotate di nucleo, dagli organismi unicellulari a quelli pluricellulari, dalla riproduzione per scissione a quella sessuata ecc.). L’invenzione del linguaggio da parte di un primate molto particolare appare così l’ultima grande transizione in ordine di tempo: con il linguaggio, un altro sistema di informazione ereditaria si aggiunge al DNA (si ripensi anche alla definizione di Jurij M. Lotman della cultura come «eredità non biologica della collettività»). Con il linguaggio l’uomo è stato capace di creare dei replicanti culturali – idee, testi, leggi, usanze, istituzioni – che si trasmettono di generazione in generazione grazie all’opera delle menti: i «memi egoisti» della cultura dopo i «geni egoisti» della natura (cfr. Dawkins 1976). Riflettendo sulle analogie fra DNA e linguaggio, Italo Calvino vi scorgeva una paradossale vittoria dei nostri antenati «immortali» (i virus) sugli organismi complessi, che nascono e muoiono poiché sono costituiti da un irripetibile assortimento genetico: «sopra di noi si estende un altro tetto, il guscio di parole che noi continuamente secerniamo. Appena fuori dalla continuità della materia primordiale, siamo saldati da un tessuto connettivo che riempie l’iato tra le nostre discontinuità, tra le nostre morti e nascite, un insieme di segni, suoni articolati, ideogrammi, morfemi, numeri, perforature di schede, magnetizzazioni di nastri, tatuaggi […] tutto quel che è linguaggio in senso lato. Il pericolo non è ancora finito. Siamo in allarme nella foresta che perde le foglie. Come un duplicato della crosta terrestre la calotta sta saldandosi sopra le nostre teste: sarà un involucro nemico, una prigione, se non troviamo il punto giusto in cui spezzarlo, impedendogli la ripetizione perpetua di se stesso. […] Il circuito dell’informazione vitale che corre dagli acidi nucleici alla scrittura si prolunga nei nastri perforati di automi figli di altri automi: generazioni di macchine forse migliori di noi continueranno a vivere e parlare vite e parole che sono anche state nostre» (Ti con zero [1967], in Romanzi e racconti, 2° vol., a cura di M. Barenghi, C. Falcetto, 1992, pp. 302-03).

L’incubo poststrutturalista della ‘prigione del linguaggio’, del peso dei codici e del già detto, si salda a quello oggi familiare dei nostri successori postumani, delle macchine intelligenti e autoreplicanti da noi create destinate a ereditare la Terra. Uno scenario sul quale, qualche anno prima di Matrix (1999), anche i due biologi concludevano la loro cavalcata di tre miliardi di anni di evoluzione dei viventi: «Si evolveranno forme di simbiosi tra la conservazione genetica dei dati e quella elettronica? Gli apparecchi elettronici acquisiranno la capacità di autoreplicarsi e si evolveranno per rimpiazzare le primitive forme di vita che li hanno fatti nascere? Non lo sappiamo» (Maynard Smith, Szathmáry 1999; trad. it. 2001, p. 269).

Per una volta non è così facile liquidare l’immaginario apocalittico (e non solo per il valore delle autorità citate). Stando alle conclusioni di un filosofo dell’intelligenza artificiale come Daniel Dennett tale prospettiva non sarebbe inquietante, poiché c’è una sostanziale continuità fra la capacità euristica della selezione naturale, con la sua straordinaria abilità di risolvere problemi, scegliendo le migliori soluzioni fra un pool di variazioni generate dal caso, e i progetti più consapevoli dei moderni ingegneri. Tanto l’evoluzione che la moderna computer science sono il territorio degli algoritmi, procedimenti meccanici capaci di ottenere risultati complessi attraverso una grande quantità di passi semplici e apparentemente stupidi. L’età che ha visto, da un lato, la scoperta del DNA, il consolidamento della teoria dell’evoluzione e, dall’altro, la nascita della cibernetica e la diffusione capillare delle macchine pensanti, ci ha messo insomma in una posizione particolarmente vantaggiosa per cogliere l’«unicità dello spazio dei progetti»: «le conquiste della cultura umana – il linguaggio, l’arte, la religione, l’etica, la scienza stessa – sono tutte il prodotto […] dello stesso progetto fondamentale che ha fatto sviluppare i batteri, i mammiferi e l’homo sapiens» (Dennett 1995; trad. it. 1997, p. 182). L’immaginario cyberpunk, con le interfacce mente-computer, le metafore trasversali ai due ambiti biologico e informatico – i virus agenti patogeni e i virus che infettano i nostri personal computer, gli ingegneri genetici come hacker del nostro software biologico –, nonché gli incubi o le spericolate speculazioni sul nostro futuro di ostaggi di macchine intelligenti sarebbero in fondo altrettanti tentativi di esplorare il nuovo paradigma conoscitivo inaugurato dalla scoperta del DNA.

Ontologie digitali e antiutopie commerciali

Come l’iPod e il progetto genoma, Matrix, la trilogia cinematografica o, meglio, la «franchise intermediale» (Jenkins 2006) lanciata dai fratelli Wachowsky nel 1999 – vi si contano infatti oltre ai tre blockbusters, una serie di cartoons (gli Animatrix), una ventina di fumetti d’autore e due fortunati videogame – potrebbe essere presa a simbolo di questo inizio secolo. Con Matrix, è stato detto, la fantascienza cyberpunk muore per esaurimento. Infatti, tutti i motivi cyberpunk – dalla simbiosi uomo-macchina, alla realtà virtuale, alla gnosi in salsa digitale – finiscono nella centrifuga dei fratelli Wachowsky, unitamente a temi fantascientifici più datati (la rivolta delle macchine, la paranoia di un potere totalitario, la grande sfiducia dickiana nelle apparenze della ‘realtà’).

Un paio di decenni prima, W. Gibson aveva immaginato due tipi di realtà virtuale: da un lato il cyberspazio (detto anche la matrice), astratto, geometrico, funzionale, il territorio dove circolano le informazioni e i capitali; dall’altro, il simstim, una sorta di film a cinque sensi totalmente immersivo, l’evoluzione perfezionata degli odierni mass media. Nella trilogia di Matrix questi due campi collassano: l’universo digitale e quello sensuale divengono tutt’uno, salvo occasionali falle nel tessuto della Matrice: l’immagine della pioggia che si dissolve nelle sequenze di codici informatici verdognoli si è ormai depositata nel nostro immaginario come un equivalente contemporaneo del montaliano «anello che non tiene».

Già l’hacker Case, però, al termine di Neuromancer (1984; trad. it. Neuromante, 1986) di Gibson era passato per un analogo disinganno informatico. La spiaggia in cui aveva trascorso interminabili giorni beati, di nuovo insieme alla fidanzata defunta Linda Lee, si era rivelata un ‘costrutto’ elaborato da un’intelligenza artificiale. È il ‘Neuromante’ del titolo: colui che rievoca i morti, custodisce anime ridotte ormai a pura informazione. Questo ennesimo paradiso artificiale si decompone in un flusso di numeri: «La sua visione era sferica, come se una singola retina rivestisse la superficie interna di un globo che conteneva tutte le cose, se tutte le cose si potevano contare.

E qui le cose potevano venir contate, una a una. Conosceva il numero dei granelli di sabbia nel costrutto della spiaggia (un numero codificato in un sistema matematico che non esisteva da nessun’altra parte al di fuori della mente che era Neuromante). Conosceva il numero dei pacchetti gialli di generi alimentari contenuti dentro il bunker (quattrocentosette), conosceva il numero dei denti di ottone della metà sinistra della cerniera aperta della giacca di cuoio incrostata che Linda Lee indossava […] (duecentodue)» (trad. it. Neuromante, 1986, p. 245).

La letteratura postmoderna ha una ‘dominante ontologica’, appare più attratta dalla pluralità e dall’incommensurabilità dei mondi possibili, dei diversi livelli di realtà, piuttosto che da interrogativi epistemologici sulla correttezza e l’affidabilità della conoscenza e dei punti di vista (McHale 1987). Tale scelta si traduce spesso in momenti metanarrativi in cui la datità del mondo d’invenzione si dissolve mettendo a nudo il ‘mondo di carta’ del testo e della scrittura. L’era digitale ha impresso un’accelerazione a tali procedimenti. Se i mondi della fiction postmoderna sono spesso autocontraddittori e intermittenti, adesso anche i nuovi significanti digitali – si pensi alla videoscrittura infinitamente perfettibile – assumono un identico statuto reversibile e provvisorio: una sorta di ‘sfarfallio’ (flickering) ontologico, per usare l’espressione di Katherine Hayles (1999, pp. 29-30). Al tempo stesso appare difficile contrapporre realtà e rappresentazioni, cose e testi, in un mondo sempre più interpenetrato di informazione, già esperito quotidianamente come essenzialmente mediato.

Gli esempi letterari potrebbero essere molti, anche al di fuori del realismo futuribile dei cyberpunks. Si pensi alle «onde e radiazioni» onnipresenti in uno dei più esemplari romanzi postmoderni, White noise (1985; trad. it. Rumore bianco, 1999) di Don DeLillo, al «rumore bianco» del paesaggio mediatico e tecnologico contemporaneo. In una scena emblematica del romanzo, il protagonista Jack Gladney, dopo essere stato contaminato da una nube tossica, si rivolge a un’unità di crisi. Si vede ridotto così alla «somma totale» dei suoi «dati», smaterializzato nel profilo statistico tracciato da un computer: «numeri tra parentesi, con asterischi intermittenti. […] Si dice che stai morendo eppure sei distaccato dal fatto di morire […]. È quando la propria morte è resa graficamente, viene, per così dire, trasmessa in televisione, che si avverte un’inquietante separazione dal proprio stato di salute […]. Ti fa sentire un estraneo nella tua stessa morte» (trad. it. 1999, pp. 170-72).

Nell’era digitale, ciascuno di noi dissemina una sorta di doppio, un’ombra composta di informazioni: documenti amministrativi, acquisti effettuati con la carta di credito, siti Internet visitati e così via. In questa congerie di dati, Laney, un «rabdomante cibernetico», uno dei personaggi di Idoru (1996; trad. it. Aidoru, 1997) di Gibson, sa individuare i «punti nodali», fino a leggere il destino della persona che è incaricato di spiare. In modo analogo il romanzo racconta l’eclisse di ogni distanza fra reale e virtuale, fra esistenza biologica e informazione, attraverso il «matrimonio alchemico» fra il cantante rock Rez e l’idoru (termine giapponese che letteralmente significa «idolo») Rei Toei, una pop star artificiale, dotata di un software intelligente. Proprio la celebrità, il personaggio totalmente identificato con la propria immagine mediatica, si appresta per primo a colmare il fossato che separa gli uomini dagli esseri artificiali, frutto della moderna ricerca informatica, ma anche dei voleri dell’industria culturale.

Come accade in diversi romanzi recenti, l’ultima frontiera tecnologica, l’avanguardia del postumano, coincide con il trionfo delle ragioni commerciali. È una sorta di giro di vite rispetto a quanto già avviene ai nostri giorni grazie a tecnologie di consumo come l’iPod. Per es., gli adolescenti protagonisti di Feed (2002; trad. it. 2005) di Matthew T. Anderson, come ogni altro americano benestante in un futuro imprecisato, sono dotati di microcomputer impiantati nei loro cervelli grazie ai quali sono costantemente connessi alla rete. Tutto ciò si traduce in un bombardamento pubblicitario interattivo e personalizzato (giacché le corporations conoscono ormai alla perfezione i gusti di ciascuno) che non lascia liberi nemmeno i sogni o le fantasticherie. Esemplare questo stream of consciousness pubblicitario del protagonista Titus al momento di addormentarsi: «Immagini di Coke che scende a ruscelletti da fianchi di montagna cesellati; bambini sollevati verso il sole; lame tagliaerba; una mano, una mano tesa verso la limonata come quella di Dio Creatore; ragazzi in magliette Gap ripresi da un razzo; […] asciugatori che stirano le protesi facciali dei ricchi; amici che si aggrappano a uccelli in lega; soci di studi legali che scavalcano siepi; altezza; lacrime; abbracci; notte» (2002, pp. 27-28).

Se Laney in Idoru era un ‘rabdomante’ dei dati informatici, Cayce Pollard, protagonista di Pattern recognition (2003; trad. it. L’accademia dei sogni, 2004) ancora di Gibson, è «una specie di ‘sensitiva’, una rabdomante del mercato globale» (trad. it. 2004, p. 8): due forme diverse di pattern recognition, di riconoscimento di forme, nel brusio onnipresente dell’informazione. Grazie a un’ipersensibilità congenita per i loghi, Cayce è in grado di intuire quale tendenza emersa fra gli stili di strada, o quale marchio elaborato da uffici marketing e multinazionali, otterrà il successo globale. Sempre a caccia di un terreno non contaminato dai loghi, Cayce si appassiona a un’affascinante e gratuita forma di arte distribuita on-line: «le sequenze», un enigmatico work in progress cinematografico che ha già attratto devoti in tutto il mondo. Per il pubblicitario Bigend, tuttavia, le sequenze sono «la manovra di marketing più brillante di questo giovanissimo secolo» (p. 72), tant’è che dà a Cayce l’incarico di scoprire il misterioso artefice dell’opera, in vista di un suo sfruttamento economico. Dietro la creazione avanguardistica, apparentemente fuori dal mercato, si scopriranno così un dramma familiare, ma anche le più avanzate tecnologie di rendering digitale (generazione di un’immagine a partire da una descrizione degli oggetti tridimensionali, mediante un programma di calcolo), nonché i nuovi capitali della mafia russa, in uno scenario di piena globalizzazione. In modo analogo, i giovani e brillanti programmatori di Città perfetta (2005) di Guglielmo Pispisa, nella loro doppia vita di hacker hanno dato vita a Daryl Domino, un rocker virtuale (un altro idoru) che irrompe nei palinsesti televisivi per lanciare messaggi beffardi e nichilisti. Creato come un esperimento di pirateria mediatica, Domino è divenuto un idolo dei teenager i quali lo credono reale. Dietro tanta gratuita creatività è in agguato tuttavia una potente multinazionale che si appresta a rilevare la piccola software house dei protagonisti proprio per mettere le mani su Daryl Domino e trasformarlo in un potente veicolo pubblicitario. Questo «perché non sembra un marchio, e mai dovrà sembrarlo. Non un ridicolo logo da stampare sulle magliette, ma un marchio filosofico, etico. Un marchio che si può stampare sull’anima e non dura lo spazio di una campagna pubblicitaria» (p. 326).

Questa convergenza fra tecnologia e consumo nella letteratura più recente si è sviluppata di pari passo con il progressivo allineamento del paesaggio tecnologico letterario a quello contemporaneo. Gibson del resto è passato dal 21° sec. alla Blade runner della trilogia dello Sprawl, al futuro prossimo di romanzi come Idoru e Virtual light (1993; trad. it. Luce virtuale, 1994), fino al realismo del presente di Pattern rec;og;nition, nel quale il cyberspazio, il simstim e le protesi dei cyborgs sono definitivamente sostituite da uno sfondo familiare di forum on-line, MacBook e cellulari satellitari. Nel campo della tecnologia letteraria, insomma, siamo passati in pochi anni dagli effetti speciali agli effetti di realtà.

Dalla parte di cloni e mutanti

Se la rivoluzione digitale è stata accompagnata fin dalle sue avvisaglie da un diffuso entusiasmo, ben diversi sono gli atteggiamenti di fronte alle biotecnologie. Non appena va a toccare gli esseri viventi e soprattutto il corpo, intervenendo sui ‘sacri’ limiti della vita umana – nascita e morte –, la ricerca tecnologica riattiva antichi tabù. Tuttavia, se la religione e l’etica sono in prima fila nella condanna delle nuove tecnologie, ancora una volta appare decisivo il ruolo dell’immaginario letterario. Infatti, se l’archetipo dello scienziato e dell’inventore è Prometeo, per cui «non esiste grande invenzione, dal fuoco al volo, che non sia stata salutata come un insulto a qualche divinità», come scrive il biologo John Burdon Sanderson Haldane nel suo Daedalus, or Science and the future (1924; cit. in Turney 1998, trad. it. 2000, p. 130), il modello popolare del biologo è il dottor Frankenstein, l’empio scienziato che scopre il «segreto della vita», emulo di dio padre e rivale di madre natura. Così, «se l’invenzione fisica o chimica è sempre una bestemmia, l’invenzione biologica è una perversione» (scrive ancora Haldane). Il mito di Frankenstein percorre come un fil rouge la storia del dibattito sulle scienze della vita, dall’Ottocento a oggi, e i frammenti di questa trama ormai proverbiale riemergono in occasione di novità presentate come dirompenti: dalla scoperta degli ormoni all’inizio del Novecento, al primo concepimento in provetta negli anni Settanta, fino alle odierne manipolazioni genetiche (Turney 1998). Basti pensare alla grande fortuna di un’espressione come Frankenstein’s food che ha di fatto orientato l’opinione pubblica sugli OGM prevenendo una seria valutazione degli eventuali rischi o vantaggi di queste colture.

Ma è senz’altro un tema – quello della clonazione – a monopolizzare la scena in questo torno di anni, finendo un po’ per simboleggiare i timori delle biotecnologie (Biotechnology Australia 2006). Il termine clonare (che deriva dal greco clon «germoglio») aveva già alle spalle una lunga storia nella fantascienza nera, designando la duplicazione perfetta di un essere umano. In ambito letterario la clonazione si presta a riattualizzare le secolari inquietudini di un tema di lunga durata come quello del doppio e, al tempo stesso, esprime nuove angosce: da quelle industriali e totalitarie di una produzione in serie degli esseri umani – si pensi a testi ormai classici come R.U.R. (1921; trad. it. 1971) di Karel Čapek o Brave new world (1932; trad. it. Il mondo nuovo, 1935) di Aldous Huxley –, al timore, decisamente più postmoderno, della serialità, della morte dell’originale e dell’avvento dei simulacri. Non va dimenticato, inoltre, che uno dei primi film sulla clonazione, The boys from Brazil (1978; I ragazzi venuti dal Brasile) di Franklin J. Schaffner, riguardava un complotto ordito dal dottor Mengele per clonare Hitler, stabilendo quindi un nesso fra la ricerca biotecnologica e gli orrori nazisti.

La clonazione in blockbusters recenti esemplifica la tecnologia che sfugge al controllo: dai dinosauri di Jurassic Park (1993) di Steven Spielberg, sino all’esercito di cloni che propizia l’avvento della dittatura in Star wars: episode II - Attack of the clones (2002; Star wars: episodio II - L’attacco dei cloni) di George Lucas, fino alla stanza degli orrori di Alien: resurrection (1997; Alien: la clonazione) di Jean-Pierre Jeunet. Sono due tuttavia le novità che emergono nel trattamento recente del tema. Da un lato, un mutamento copernicano della prospettiva, per cui il clone umano non è più l’altro, percepito con inquietudine o orrore, bensì l’io protagonista, alle prese con una faticosa elaborazione della propria identità, come accade in film per il resto di qualità assai diversa come The Island (2005) di Michael Bay o Blueprint (2003) di Rolf Schübel. In tal modo il tema è potuto uscire dall’ambito di genere ed essere adottato da scrittori mainstream che hanno poco o nulla a che vedere con la fantascienza propriamente detta.

Attraverso gli occhi di Kathy, Tommy e Ruth, protagonisti del romanzo Never let me go (2005; trad. it. Non lasciarmi, 2006) di Kazuo Ishiguro, vediamo prendere forma un’Inghilterra alternativa, nella quale la clonazione umana è praticata da decenni e i cloni sono educati fin da bambini a essere «donatori»: passata l’adolescenza, dovranno infatti privarsi di organi vitali fino a «completare il loro ciclo». Kathy, Ruth e Tommy sono dei privilegiati fra i cloni – come scopriranno al termine della vicenda –, i beneficiari di un programma sperimentale che prevede un trattamento più umano per quest’umanità di serie B. Allevati in un collegio in campagna, hanno ricevuto un’educazione letteraria, sono stati incoraggiati a produrre opere d’arte e hanno potuto coltivare, sia pure per breve tempo, vaghi sogni di un futuro umano e professionale. E tuttavia è proprio dall’atteggiamento di Madame, la loro benefattrice, che intuiscono fin da bambini la loro diversità: «Madame aveva paura di noi. Ma aveva paura di noi nello stesso modo in cui qualcuno potrebbe avere paura dei ragni. A questo non eravamo preparate. Non ci aveva mai sfiorate l’idea di domandarci come ci saremmo sentite noi a essere viste in quel modo, come dei ragni» (trad. it. 2006, p. 41). In modo analogo, Siri, la protagonista del film Blueprint, appena scopre di essere un clone della madre, una celebre pianista affetta da sclerosi, ma vogliosa di perpetuare a ogni costo il proprio talento, si appunta una stella di Davide all’abito con su scritto clone. In effetti, la prospettiva postumana di infrangere in un futuro prossimo l’unità biologica della specie Homo sapiens rischia di dare nuova sostanza a distinzioni razziali di cui pensavamo di esserci sbarazzati (Foster 2005). L’identificazione romanzesca tuttavia compensa le stesse discriminazioni messe in scena. L’accantonamento, da parte di Kathy e compagni, delle speranze adolescenziali di rimandare la loro sorte, la rassegnazione cui approdano, l’understatement di una voce narrante che minimizza gli aspetti più disumani della vicenda, finiscono per fare del loro destino non un’eccezione mostruosa, ma un emblema pietoso della nostra comune finitezza umana.

Del tutto opposta è l’operazione compiuta da Michel Houellebecq (n. 1958). Nel suo caso l’adozione del punto di vista dei cloni, nostri successori postumani, permette uno sguardo retrospettivo straniante, al tempo stesso ambizioso e sarcastico, sul nostro presente. Con un singolare mutamento, tuttavia, a cavallo della fine del millennio, nel passaggio da Les particules élémentaires (1998; trad. it. Le particelle elementari, 2000) a La possibilité d’une île (2005; trad. it. La possibilità di un’isola, 2005). L’avvento dei cloni, nel primo caso, segna la fine della storia e il superamento di un’umanità votata per sua natura all’infelicità: «Questa specie dolorosa e vile, di poco diversa dalla scimmia, e che pure recava in sé aspirazioni assai nobili. Questa specie tormentata, contraddittoria, individualista e rissosa, di un egoismo sconfinato, talvolta capace di inaudite esplosioni di violenza, ma che tuttavia non cessò mai di credere nella bontà e nell’amore» (trad. it. 2000, p. 316). Nel secondo romanzo, tuttavia, nemmeno i nostri successori «neoumani» – cloni ormai privi di emozioni che vivono in una completa segregazione ipertecnologica, dotati inoltre di un singolare metabolismo vegetale in virtù di una «rettifica genetica» – a mille anni dal loro avvento hanno raggiunto la felicità. Passano, infatti, la vita a meditare sull’autobiografia del loro originale umano vissuto alla fine del 20° sec.: la perpetuazione della memoria attraverso il racconto è, infatti, l’unico modo per assicurare l’illusione dell’immortalità oltre alla perpetuazione del patrimonio genetico. Pur commiserando l’infelicità umana, provano nostalgia per qualcosa che non conoscono più: il desiderio.

Di contro alle fantasie di potenza dei transumanisti, nella letteratura recente l’avvento della postumanità presenta più i tratti radicalmente antiantropocentrici di un’involuzione che il ripudio di tratti autenticamente umani. Esemplare la nuova specie creata dall’ingegnere genetico Crake in Oryx and Crake (2003; trad. it. L’ultimo degli uomini, 2003) di Margaret Atwood. Nudi e dalla pelle variopinta, capaci di difendersi dai predatori grazie all’odore della propria urina, dotati di un metabolismo speciale per cibarsi di radici e bacche, questi «figli di Crake» hanno una mitezza e un istinto gregario programmato geneticamente che li mette al riparo da tensioni e frustrazioni. Il sesso stesso è perfettamente subordinato alla procreazione: le femmine segnalano attraverso mutamenti di pigmentazione il proprio periodo fertile e i maschi danno allora vita a danze di accoppiamento simili a quelle di certi volatili. Sopravvissuti a un’epidemia che ha sterminato l’umanità – un virus letale messo a punto dallo stesso Crake in un’ansia palingenetica di cui ha finito suo malgrado per essere vittima –, i neoumani vivono sotto lo sguardo malinconico dell’«ultimo degli uomini», il pubblicitario Jimmy, complice involontario dello sterminio e forse unico scampato alla catastrofe. In un pianeta ridotto a un’unica sterminata isola di Robinson, i novelli Venerdì vegetano in una beatifica post-storia, senza cultura, senza lavoro, senza violenza. Orme umane nella sabbia, nell’ultimo capitolo del romanzo, segnalano tuttavia la presenza di altri sopravvissuti, forse una minaccia letale per i «figli di Crake». Il romanzo lascia aperto il dilemma: Jimmy andrà incontro ai suoi simili, ponendo fine alla sua insostenibile solitudine, oppure resterà fedele al dovere di proteggere i nostri indifesi successori da tutto ciò che ha avvelenato la storia dell’umanità?

La perplessità, in effetti, è la tonalità dominante della letteratura, che pure è capace di esplorare fino ai loro limiti le (anti)utopie tecnologiche in circolazione. In bilico fra disperazione e allettamento, straniamento e familiarizzazione, utopia e antiutopia, la

letteratura svolge nei confronti dei violenti mutamenti del paesaggio tecnologico un’essenziale funzione di mediazione culturale. Con alcuni rischi del caso: in fondo, abbiamo imparato ad accettare la tecnologia, proprio nel bel mezzo di un immaginario antitecnologico, apocalittico e perfino luddista. Dopo decenni di fiction catastrofista non sappiamo davvero quanto prendere sul serio gli scenari postumani o i più accorati allarmi ecologisti. Da coscienza critica e vigile, l’immaginazione potrebbe tramutarsi nell’anestetico che ci ottunde poco prima del pericolo finale.

Bibliografia

R. Dawkins, The selfish gene, Oxford-New York 1976 (trad. it. Il gene egoista, Bologna 1979).

B. McHale, Postmodernist fiction, London-New York 1987.

D. Brolli, Cavalieri elettrici, Roma 1994.

D.C. Dennett, Darwin’s dangerous idea. Evolution and the meanings of life, New York 1995 (trad. it. Torino 1997).

M. Dery, Escape velocity. Cyberculture at the end of the century, New York 1996 (trad. it. Milano 1997).

J. Turney, Frankenstein’s footsteps: science, genetics and popular culture, New Haven 1998 (trad. it. Torino 2000).

M. D’Eramo, Lo sciamano in elicottero. Per una storia del presente, Milano 1999.

K. Hayles, How we became posthuman. Virtual bodies in cybernetics, literature, and informatics, Chicago 1999.

B. Headlam, Origins: Walkman sounded bell for cyberspace, «The New York Times», 29 luglio 1999.

J. Maynard Smith, E. Szathmáry, The origins of life: from the birth of life to the origin of language, Oxford-New York 1999 (trad. it. Le origini della vita. Dalle molecole organiche alla nascita del linguaggio, Torino 2001).

G. Roncaglia, Libri elettronici: problemi e prospettive, «Bollettino AIB», 2001, 2, pp. 7-37.

S. Topham, Where’s my space age? The rise and fall of futuristic design, Münich 2003.

E. Boncinelli, G. Sciarretta, Verso l’immortalità? La scienza e il sogno di vincere il tempo, Milano 2005.

D. Dinello, Technophobia! Science fiction visions of posthuman technology, Austin 2005.

T. Foster, The souls of cyberfolk. Posthumanism as vernacular theory, Minneapolis 2005.

G. McCracken, Culture and consumption II. Markets, meaning, and brand management, Bloomington 2005.

H. Jenkins, Convergence culture: where old and new media collide, New York 2006 (trad. it. Milano 2007).

S. Levy, The perfect thing: how the iPod shuffles commerce, culture, and coolness, New York 2006 (trad. it. Semplicemente perfetto: la storia di un’idea geniale, Milano 2007).

R. Sennett, The culture of the new capitalism, New Haven 2006 (trad. it. Bologna 2006).

A. Leonard, William Gibson: the Rolling Stone 40th anniversary interview, «Rolling Stone», 15 nov. 2007.

S. Levy, The future of reading, «Newsweek», 17 nov. 2007.

Webgrafia

Biotechnology Australia, Cloning goes to the movies. A study of the portrayal of human reproductive cloning in films and a comparison with public attitudes, 2006, http:// www.biotechnology.gov.au/assets/documents/bainternet/cloning%5Fto%5Fthe%5Fmovies20060815090308%2Epdf.

A. Midal, B. Dahlström, Tomorrow now. When design meets science fiction, «Egodesign.ca», dicembre 2007, http:// www.egodesign.ca/en/article.php?article_id=108.

Tutte le pagine web si intendono visitate per l’ultima volta il 27 aprile 2009.