1944 · computer

Macchina elettronica per il calcolo in grado di ricevere, immagazzinare, elaborare e restituire grandi quantità di dati e informazioni. ► Sin.: calcolatore (elettronico), elaboratore elettronico.

Il 7 agosto viene presentato ufficialmente il computer elettromeccanico Mark I.

Un colosso di nome Bessie

Il 7 agosto di quest’anno viene presentato ufficialmente l’Harvard Mark 1, donato dalla IBM alla Harvard University: è il primo calcolatore automatico universale a programma esterno (Automatic Sequence Controlled Calculator), ossia il primo esempio di moderno computer, in grado di funzionare con programmi registrati che anticipano di fatto gli odierni software. A metterlo a punto, nei laboratori IBM, è un gruppo di ricercatori della stessa prestigiosa università, coordinato da Howard Aiken: la realizzazione del macchinario prevede 800 km di cavi e oltre tremila relè, per una struttura lunga 16 metri e mezzo, alta 2 e mezzo e pesante 5 tonnellate; un colosso, chiamato affettuosamente Bessie, impiegato dalla marina militare americana per la progettazione navale e per gli studi di balistica (cfr. Morelli 2001: 181-185). Già negli anni Trenta un tedesco, Konrad Zuse (1910-1995), aveva tentato di mettere a punto una macchina simile. Solo il terzo prototipo di questa invenzione, lo Z3 (1941), aveva però risposto alle aspettative del suo creatore: era un calcolatore programmabile che utilizzava schede perforate ricavate dalle pellicole usate (nella Germania nazista la carta era un bene prezioso); il progetto sarebbe rimasto nel laboratorio casalingo di Zuse fino al dopoguerra, e quando avrebbe visto la luce sarebbe stato un prodotto già superato (cfr. Rojas 1993: 366).
Durante la Seconda Guerra Mondiale diversi centri di ricerca si interessano ai calcolatori. Il padre degli studi in questo settore è il matematico inglese Alan Mathison Turing, il primo a presentare, negli anni Trenta, uno studio su una macchina calcolatrice adatta a risolvere tutti i problemi matematici. Il progetto di Turing prevede la costruzione di un calcolatore in grado di leggere un nastro continuo diviso in due parti, su cui sono riprodotte le istruzioni; è il passo iniziale che conduce (1942) alla progettazione di Colossus, il primo calcolatore elettromeccanico in grado di decrittare i messaggi in codice della Germania nazista. Negli stessi anni, presso il Dipartimento di Fisica dell’Iowa State University, John Vincent Atanasoff e Clifford Edward Berry creano l’Atanasoff-Berry Computer, conosciuto anche con l’acronimo ABC, prima macchina a essere totalmente elettronica. I suoi inventori non brevettano però il modello, che sarà depositato nel 1947 da John Presper Eckert e John Mauchly con il nome di ENIAC (Electronic Numerical Integrator and Computer). La battaglia legale tra ABC e ENIAC sarebbe durata 26 anni: solo nel 1973 la Corte Distrettuale di Minneapolis, nel Minnesota, avrebbe annullato il brevetto dell’ENIAC, dando piena accoglienza alle richieste avanzate da Atanasoff (cfr. Bozzo 1996: 75).


Dai dinosauri alle pulci

Se nel secondo dopoguerra i computer sono macchine enormi, grandi dinosauri che occupano intere pareti, negli anni successivi vengono realizzati computer sempre più piccoli, maneggevoli e soprattutto potenti. L’innovazione che facilita la creazione di tali macchine di misura ridotta è il transistor (crasi di transfer, ‘trasferire’, e resistor, ‘dispositivo di resistenza’), invenzione dei ricercatori americani John Bardeen e Walter Brattain – del gruppo guidato da William Bradford Shockley –, vincitori del Nobel per la fisica nel 1956. Introdotto a partire dal 1947, il transistor sostituisce rapidamente le più grandi e costose valvole, per le sue ridotte dimensioni e per la sua notevole durata (circa novantamila ore). A tale rivoluzione fa seguito, nel 1958, l’introduzione del circuito integrato (1958), meglio conosciuto con il termine inglese chip (lett. ‘scheggia’), che permette un ulteriore sviluppo dei computer inaugurando l’era della miniaturizzazione dei circuiti elettrici.
I primi computer dotati di transistor sono il PDP-1 (1957) e il suo successore PDP-8, grande quanto un frigorifero, venduto in cinquantamila esemplari nonostante il prezzo tutt’altro che contenuto (circa 18.000 dollari). In Italia i primi dispositivi appaiono in quegli stessi anni. Nel 1958 il Banco di Roma si segnala come il primo istituto di credito in Europa a usare un calcolatore che svolge tutte le operazioni di calcolo e di controllo su una rete di 200 sportelli. L’anno successivo la Olivetti presenta Elea 9003, il primo computer interamente costruito in Italia. Nel 1965 l’azienda di Ivrea raggiunge un altro traguardo di assoluto rilievo: presenta a New York il primo personal computer (Programma 101) prodotto in serie, una macchina di dimensioni talmente ridotte da poter essere alloggiata su una scrivania. Sono questi anche gli anni in cui si affaccia, nel nostro paese, la parola computer. Fra le sue prime attestazioni quella di un annuncio dell'Italsider, pubblicato sulla “Stampa” del 14 gennaio 1962, nel quale si parla di «computer e sistemi elettronici di elaborazione dei dati»; seguiranno computerizzare, computerese (cfr. Arcangeli 2011a: 245), computeristico, ecc.
Gli anni Settanta del Novecento sono decisivi per la miniaturizzazione dei componenti del computer. L’Intel produce nel 1970 la prima Random Access Memory (RAM), la parte della memoria centrale di un computer nella quale è possibile scrivere e leggere dati; la RAM, delle dimensioni inziali di 1 Kbyte, viene  subito adottata nella costruzione delle nuove macchine ed è ancora oggi presente, seppur notevolmente potenziata, nei prodotti in commercio. Nel 1971 l’italiano Federico Faggin, insieme a Marcian Edward Hoff jr. e a Stanley Mazer, realizza il primo microprocessore, riuscendo a inserire su una piastra di quattro millimetri per tre un circuito integrato composto da 2.250 transistor. Nel 1972 Faggin e Hoff creano invece per la Intel il microprocessore 8008, il primo chip a 8 bit della storia. Tra il 1975 e il 1976 altre due innovazioni sono destinate a rivoluzionare totalmente il mondo dell’informatica e il nostro modo di vivere: nel 1975 due studenti universitari, William “Bill” Gates e Paul Allen, fondano ad Albuquerque (New Mexico) la Windows, una piccola azienda che sviluppa software e linguaggi innovativi per il computer; nel luglio dell’anno successivo Steven (Paul) Jobs e Stephen (Gary) Wozniak costruiscono l’Apple I, un computer con un linguaggio di programmazione completamente diverso da quello di Windows e alternativo al computer (Altair) prodotto da Gates e Allen:

Wozniak descrisse le caratteristiche tecniche della macchina – cose come la potenza della memoria, il BASIC disponibile e la velocità di clock della memoria. Jobs chiese ai membri quanto sarebbero stati disposti a pagare per un computer che, contrariamente all’Altair, racchiudeva tutte le funzionalità essenziali in un unico circuito stampato (Moritz 2012: 144).


Ancora una questione di misure

La legge del mercato impone computer sempre più piccoli, veloci e connessi in rete: a partire dagli ultimi anni del Novecento iniziano a diffondersi i notebook, computer portatili che permettono di lavorare ovunque, cui seguono presto i tablet, leggeri, sottili e dotati di touchscreen, valida alternativa alla tastiera fisica. Il primo tablet viene progettato e commercializzato da Apple (con il nome di Ipad) il 27 gennaio 2010; già il 4 giugno dello stesso anno, però, viene presentato il phablet, un dispositivo ibrido, a metà tra un telefono cellulare e un tablet, con schermo touchscreen leggermente più grande di quello di uno smartphone e più piccolo di quello di un computer portatile.
Ma la ricerca non si limita a sviluppare dispositivi di dimensioni sempre più ridotte; crea sistemi sempre più efficienti, anche per le esigenze industriali e per le grandi banche dati:

Hewlett-Packard sta sviluppando un tipo di computer completamente nuovo. Ma non si tratta di un laptop economico, di un dispositivo mobile particolare o qualsiasi altra cosa possa venirvi in mente che HP potrebbe produrre in questo momento. Si tratta di una macchina di livello industriale che può sostituire un intero data center con una sola unità delle dimensioni di un frigorifero. […] Una forma completamente diversa di architettura che potrebbe completamente sostituire quella dei computer a cui siamo abituati: memoria differente, trasferimento super veloce di dati, nuovi sistemi operativi.
(Caterina Coppola, HP prepara The Machine, il computer che cambierà la storia dei computer: http://www.gizmodo.it/2014/06/12/hp-prepara-the-machine-computer-cambiera-storia-dei-computer.html)

Prossimo obiettivo il computer quantico, nel quale i dati vengono elaborati attraverso superconduttori che seguono le leggi della meccanica quantistica. Non ci resta che attendere.

Fabio Di Nicola

Bibliografia

Anastasi Pietro, 2004, Nasce il primo calcolatore elettronico, “Lettera Matematica Pristem”, n. 53 (ottobre), pp. 50-60.
Arcangeli Massimo, 2011a, Burocratese, in Arcangeli 2011b, pp.  244-248.
Arcangeli Massimo, 2011b (a cura di), Itabolario. L'Italia unita in 150 parole, Roma, Carocci.
Bozzo Massimo, 1996, La grande storia del computer: dall’abaco all’intelligenza artificiale, Bari, Dedalo.
Gautschi Walter, 1993 (ed.), Fifty Years Mathematics of Computation. Proceedings of Symposia in Applied Mathematics, Providence, American Mathematical Society.
Morelli Marcello, 2001, Dalle calcolatrici ai computer degli anni Cinquanta, Roma, Franco Angeli.
Moritz Michael, 2012, Ritorno al piccolo regno. Steve Jobs e la Apple. Alle origini del mito, Milano, il Saggiatore.
Rojas Ràul, 1993, Who Invented the Computer? The Debate from the Viewpoint of Computer Architecture, in Gautschi, pp. 361-366.