Il computer

Storia della civiltà europea a cura di Umberto Eco (2014)

Giorgio Strano
SCE:13 Cover ebook Storia della civilta-69.jpg

Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook

Il computer, un oggetto ormai di uso quotidiano, ha una storia che affonda le sue origini negli ultimi anni del Seicento, quando Leibniz inventa un dispositivo capace di risparmiare all’uomo lunghi lavori di calcolo per ottenere dei risultati matematici. Questo obiettivo attraversa i secoli e resta una costante nelle ricerca di quanti (da Babbage a Turing, da Aiken a Eckert e Mauchly) hanno lavorato per potenziare la capacità di calcolo degli elaboratori e per miniaturizzare i loro componenti fino a renderli efficienti, compatti e versatili.

Illustri precedenti

““Sire, nel dedicare questo volume a Sua Maestà, io compio un atto di giustizia nei confronti del vostro illustrissimo Padre. Nel 1840 il Re Carlo Alberto invitò i saggi d’Italia a riunirsi nella sua capitale. Su invito del suo più grande matematico, io portai con me i disegni e le spiegazioni dell’Analitical Engine. . Al Re, Vostro Padre, io devo il primo riconoscimento pubblico e ufficiale di questa invenzione. Sono lieto di esprimere la mia riconoscenza a Suo Figlio, il Sovrano dell’Italia unita, il Paese di Archimede e di Galileo”.” Così Charles Babbage, oggi ritenuto uno dei padri del computer, dedica a Vittorio Emanuele II la sua autobiografia pubblicata nel 1862 per l’invito che il padre Carlo Alberto gli aveva fatto oltre 20 anni prima all’Accademia delle Scienze di Torino per illustrare il funzionamento del suo calcolatore.

Babbage dava forma teorica a un desiderio antico nella storia dell’umanità da secoli: quello di risparmiare alla mente umana calcoli complessi e ripetitivi. Così come gli abachi e gli astrolabi , anche la “macchina da calcolo digitale” di Blaise Pascal alla metà del Seicento aveva questo obiettivo: il padre del filosofo era infatti esattore delle tasse e aveva bisogno di uno strumento che gli permettesse di effettuare velocemente le addizioni. Intorno alla fine del Seicento, anche Gottfried Wilhelm Leibniz inventò un dispositivo in grado di effettuare alcune operazioni matematiche, ritenendo che non fosse “degno di un uomo eminente perdere tante ore, come uno schiavo, in lavori di calcolo che chiunque potrebbe risolvere se venisse utilizzata una macchina”.

Come già per Pascal e Leibniz, anche i congegni di Charles Babbage lasciarono piuttosto indifferenti i contemporanei: i suoi studi non trovarono però applicazione pratica per tre ragioni: la scarsa precisione della strumentazione dell’epoca, la volubilità del matematico stesso (che abbandonava un progetto appena intravedeva altre possibilità più innovative) e – come già detto – lo scarso interesse che le sue ricerche suscitarono nei contemporanei almeno fino alla seconda metà dell’Ottocento quando si constata un aumento dell’interesse nei confronti degli elaboratori automatici. Saranno poi i problemi burocratici dei nascenti Stati nazionali a imporre l’adozione di un congegno che eseguisse rapidamente calcoli ripetitivi: per risolvere l’annoso problema dell’analisi dei dati nel censimento del 1880, infatti, due dipendenti del ministero (Herman Hollerith, poi fondatore della IBM, e James Powers) svilupperanno alcune apparecchiature capaci di leggere automaticamente le informazioni perforate sulle schede, senza alcuna intermediazione umana.

Le novità novecentesche: la scienza informatica, i calcolatori elettronici, le reti di computer

Anche se nella prima metà del Novecento – complici un periodo “riflessivo” nella storia dei media che faceva seguito a un ventennio vivacissimo, e la prima guerra mondiale – lo sviluppo di elaboratori digitali subisce una battuta d’arresto, si assiste invece a una serie di inferenze teoriche sulla nascente scienza dell’informatica (in particolare i contributi di Alan Turing) e, soprattutto, una generazione di calcolatori analogici senza troppe conseguenze.

Allo scoppio della seconda guerra mondiale, la necessità di calcolare con precisione le traiettorie balistiche dei proiettili impone la costruzione di nuovi e più potenti strumenti. Sono anni frenetici. Lo studioso americano Athaway Aiken, in collaborazione con alcuni tecnici IBM, intraprende la costruzione di un elaboratore digitale automatico del peso di 35 tonnellate (Mark 1), che utilizza i relè già applicati alle prime reti telefoniche. Tra il 1943 e il 1945 John Presper Eckert e John William Mauchly, dell’Università della Pennsylvania, realizzano un elaboratore digitale elettronico: ENIAC (Electronic Numerical Integrator and Computer). Mille volte più veloce della generazione a relè, grazie alla sostituzione degli interruttori elettromeccanici con le valvole termoioniche utilizzate nelle radio e nei primi apparecchi televisivi, ENIAC è il rappresentante della prima generazione di computer a valvole. La lotta tra paradigma elettrico ed elettromeccanico si risolve così a favore del primo, in grado di effettuare più operazioni simultaneamente.

Negli anni 1947-1948 viene messa a punto una componente tecnologica di fondamentale importanza sia per la storia degli elaboratori sia per quella di molte altre tecnologie: il transistor. Negli anni Cinquanta un chip di silicio di pochi millimetri quadrati, che contiene oltre 2000 transistor miniaturizzati, possiede la stessa potenza di calcolo di ENIAC, la cui superficie occupa invece una stanza intera. Prende le mosse quel processo di miniaturizzazione e, al tempo stesso, di crescita nella potenza di elaborazione, che è tuttora in atto. Così, a metà degli anni Cinquanta si può parlare dell’avvento di una seconda generazione di computer a transistor, che sarà poi superata dalla terza a circuiti integrati della fine degli anni Sessanta.

Sebbene un documento risalente al 1945 avesse già trattato il tema (il cosiddetto First Draft on a Report on the Electronic Discrete Variable Automatic Computer – EDVAC) di von Neumann), proprio in questo periodo avviene un fondamentale salto di paradigma nella storia degli elaboratori. Il computer, ritenuto fin qui solo una macchina per eseguire calcoli, comincia a essere visto come un medium di comunicazione, utilizzabile anche dalle persone comuni per svolgere compiti quotidiani. E proprio nel 1969 nasce ARPAnet, una rete che interconnette diversi elaboratori creata dall’Advanced Projects Research Agency, un’agenzia del Dipartimento della Difesa americano.

All’idea della messa in rete degli elaboratori fa seguito negli anni Settanta una progressiva spinta alla miniaturizzazione degli enormi apparati. Si giunge così alla realizzazione dei microprocessori e, negli anni Ottanta, al personal computer: il Macintosh, costruito nel 1984 da Steven Jobs e Steve Wozniak (gli stessi inventori di Apple I e II), dà inizio alla progressiva penetrazione del nuovo elaboratore nelle abitazioni private. A metà degli anni Settanta viene coniato anche il termine “telematica”, oggi di uso comune. Con esso si indica la convergenza in atto tra il settore delle telecomunicazioni e quello dell’informatica. Con l’aggiunta di un terzo elemento, rappresentato dai contenuti editoriali, esso caratterizza tuttora in modo decisivo il sistema dei media. Nello stesso periodo, grazie ai lavori di alcuni economisti statunitensi, nasce il concetto di “società dell’informazione” per segnalare anche il progressivo affermarsi di una “economia immateriale”, gestita anche e soprattutto attraverso i computer.

Oggi la sfera semantica del termine computer è indissolubilmente legata a quella di internet. All’inizio degli anni Novanta, infatti, seguendo le linee guida del progetto ARPAnet, il CERN di Ginevra riesce a “mettere in rete” alcuni computer: i PC (personal computer) di ogni parte del globo riescono a comunicare fra loro attraverso la rete telefonica. Questo ha reso l’elaboratore uno dei maggiori strumenti di comunicazione dei nostri tempi, indispensabile nel lavoro così come nei rapporti sociali e nella vita privata. Si può affermare che il motivo reale dell’informatizzazione diffusa sia proprio la versatilità del nuovo mezzo: il computer, infatti, non è solo uno strumento di lavoro, esso serve a giocare, a intrattenere relazioni, a comunicare (così come è avvenuto per altri media quali il fonografo, il telefono, la radio e il telefono cellulare).

Due aspetti della storia del computer sono comuni alla storia di molti altri mezzi precedenti. In primo luogo gli sviluppi e i salti di paradigma nella storia dell’elaborazione paiono essere stati imposti e guidati da sollecitazioni provenienti da gruppi sociali assai circoscritti; in secondo luogo, in modo complementare, spesso i nuovi modelli di calcolatore non hanno trovato applicazioni rispondenti a interessi generali. È forse per questo motivo che i computer sono stati percepiti spesso come macchine “difficili”: complesse, troppo avanzate rispetto al periodo storico (come capitò, ad esempio, al pantelegrafo, antenato del fax messo a punto negli ultimi decenni dell’Ottocento dall’abate Caselli). Questa diffidenza, durata 400 anni, pare essere oggi superata grazie allo sforzo di rendere sempre più friendly e intuitivo il funzionamento attraverso il lavoro sulla intefaccia grafica dei programmi e l’uso comunicativo e sociale del computer reso possibile da internet.

© Istituto della Enciclopedia Italiana - Riproduzione riservata

TAG

Accademia delle scienze di torino

Gottfried wilhelm leibniz

Seconda guerra mondiale

Calcolatori elettronici

Prima guerra mondiale