Cibernetica

Enciclopedia del Novecento (1975)

Cibernetica

Ernest H. Hutten

di Ernest H. Hutten

Cibernetica

sommario: 1. Introduzione storica. 2. L'epistemologia delle macchine. 3. La struttura informativa delle macchine. 4. Sistema, processo, informazione e metodo scientifico. □ Bibliografia.

1. Introduzione storica

Lo sviluppo umano, sia intellettuale che sociale, si riflette negli oggetti artificiali che l'uomo crea allo scopo di controllare la natura. La direzione del progresso umano va dall'utensile verso lo strumento e la macchina. Il semplice utensile, per esempio la zappa, è l'estensione della mano dell'uomo, un mezzo comodo e perfezionato per eseguire il compito necessario di dissodare la terra. L'utensile, o attrezzo che dir si voglia, è un oggetto passivo che aumenta la capacità umana e che fu inventato dall'uomo non appena questi scoprì che certi materiali naturali molto comuni - ad esempio bastoni e pietre - se adattati e usati opportunamente, possono alleviare lo sforzo che egli deve compiere. Può accadere talvolta che un utensile particolarmente indovinato, com'è il caso del martello, centuplichi l'effetto che la mano dell'uomo riesce a produrre da sola, ed allora al suo impiego restano collegate in larga misura credenze magiche, come s'è immancabilmente verificato durante le fasi primordiali dello sviluppo, nelle epoche preistoriche. È chiaro che, con il perfezionarsi delle capacità umane e quindi con il destarsi di desideri e di paure, viene messo in causa il concetto che l'uomo ha di se stesso. Questo è lo stadio della tecnologia prescientifica, dell'invenzione e dell'uso di semplici utensili atti a eseguire compiti quotidiani. L'attività umana oggi, anche nei paesi occidentali industrializzati, è rimasta ancora in gran parte a questo stadio primitivo o non molto lontana da esso: basti pensare all'agricoltura.

Il primo balzo in avanti fu determinato dall'invenzione degli strumenti: si costruirono cioè oggetti artificiali progettati specificamente per realizzare compiti particolari e precedentemente determinati. Si può considerare Archimede con la sua leva come rappresentante di questo stadio e ricordare la sua celebre frase: ‟Δός μοι ποῦ στῶ καὶ τὴν γῆν κινὴσω". Se si accetta l'interpretazione comunemente data a queste parole, egli intendeva spostare la Terra dal suo asse e alterarne così il moto per mezzo della leva. In maniera più evidente, questo secondo stadio fu raggiunto con l'avvento degli strumenti scientifici. Galileo, col piano inclinato o col telescopio, fu il rappresentante principale e l'artefice di questo sviluppo. Per la prima volta venne costruito un oggetto particolare al solo scopo di dimostrare e verificare un'affermazione scientifica riguardante un fenomeno naturale. L'orologio, in cui molti hanno creduto di vedere uno strumento di questo tipo, in realtà è molto più simile a un semplice attrezzo o utensile. Esso riproduce lo scorrere del tempo - o meglio, simula la rotazione della Terra intorno al Sole - ma non può da solo migliorare l'azione dell'uomo. Quindi, per essere esatti, l'orologio non è nè un utensile nè uno strumento, a meno che non sia usato in laboratorio unitamente ad apparecchiature scientifiche. Esso esegue semplicemente una registrazione meccanica, è un aiuto mnemonico, come lo era in origine la clessidra.

La macchina concepita in senso scientifico comparve con Newton. Le innumerevoli ‛macchine' di Leonardo - dall'aliante alle macchine da guerra - erano sempre e soltanto utensili, progettati per migliorare una prestazione umana naturale. La pompa e più ancora la macchina a vapore, sebbene non siano state le prime invenzioni del genere, sono diventate il prototipo della macchina quale mezzo per trasformare l'energia in lavoro. Fu la macchina a vapore a innescare la prima rivoluzione industriale. In essa il carburante, energia a basso livello, è trasformato direttamente in lavoro meccanico ad alto livello. L'enorme ampliamento delle attività umane, reso possibile dalle macchine, ha caratterizzato indelebilmente la civiltà occidentale. Le sue ripercussioni sociali sono tuttora avvertibili e noi continuiamo a pagare il prezzo di una conquista vecchia ormai di un secolo e mezzo. La caratteristica di questa prima rivoluzione è l'energia. La teoria newtoniana ha reso possibile una descrizione globale unificata dei processi fisici in termini meccanici e ha conquistato l'immaginazione dei pensatori occidentali suggerendo un'immagine meccanicistica del mondo. L'energia, la causalità e la legge universale che governa il movimento dei corpi materiali sono le principali caratteristiche di questa immagine. È una visione del mondo che è ampiamente accettata ancor oggi.

Lo stadio seguente dello sviluppo fu raggiunto soltanto nella prima metà di questo secolo allorché, con lo sviluppo della teoria quantistica, la fisica classica superò la fase meccanicistica. Originariamente il movimento di una particella lungo un percorso o un'orbita era spiegato con il principio di causalità; adesso si sa che esso è guidato anche dalla propagazione nello spazio di un'onda. La radio trasmittente e quella ricevente sono gli strumenti che hanno aperto questo nuovo regno delle onde, superando e trascendendo i familiari fenomeni della luce. Il dispositivo essenziale in questi strumenti è costituito dal feedback (o controreazione), cioè dal controllo dell'energia. È questa innovazione che promosse la seconda rivoluzione industriale, il cui avvento spesso si suole imputare alla cibernetica, alla nuova possibilità del controllo automatico. Il termine ‛cibernetica' dal greco κυβερνητικὴ, o ‛arte del pilota' - fu introdotto da N. Wiener in quanto sottintende chiaramente anche la presenza dell'uomo nel processo di controllo.

Oggi i calcolatori rappresentano le più perfezionate macchine impiegate nei processi di controllo. Un calcolatore non è semplicemente uno strumento di calcolo. La memoria e la possibilità di scegliere tra più alternative - cioè la programmazione, che gli fornisce un certo potere di valutare le proprie attività - lo rendono in qualche modo simile a un sistema che produce decisioni. Spesso i calcolatori e gli altri strumenti d'informazione sono raccolti sotto la stessa etichetta di cibernetica, alla stessa stregua del semplice feedback. A mio giudizio, sarebbe più giusto considerare il concetto d'informazione e il processo di comunicazione sotto l'aspetto di un nuovo stadio a sé stante e d'importanza decisiva. Infatti, in questo caso, oltre al controllo, abbiamo la possibilità di imporre ordine a un processo spontaneo. Mi sembra giustificato dire che adesso stiamo entrando in una nuova fase o stiamo iniziando una terza rivoluzione industriale che è caratterizzata dall'ordine. L'energia, il controllo e l'ordine riflettono i tre stadi decisivi di questo sviluppo. Così come il primo stadio doveva meccanizzare i processi fisici e il secondo doveva controllarli, il terzo stadio deve meccanizzare i processi intellettuali. Il risparmio di lavoro è necessario e possibile non solo per comuni compiti di tipo fisico, ma anche per compiti intellettuali. È in questo modo che l'uomo può rendersi libero per un lavoro veramente creativo e conseguire così un progresso autentico.

La cibernetica diventa quindi un termine generale per denotare la teoria dei sistemi costruiti dall'uomo. Sotto forma di teoria dell'informazione noi possiamo considerare la cibernetica come uno studio interdisciplinare che abbraccia la totalità del mondo naturale, compreso l'uomo. Pertanto l'informazione è oggi il concetto più importante per la spiegazione scientifica. La cibernetica e la teoria dell'informazione o della comunicazione possono essere quindi impiegate come una metateoria della scienza.

2. L'epistemologia delle macchine

Una teoria costruita per spiegare la scienza e la tecnologia doveva necessariamente svilupparsi essa stessa nell'ambito della ricerca scientifica. Le idee, i concetti e i metodi - sia teorici che pratici - usati dagli scienziati nascono dal loro effettivo lavoro. Tuttavia, soltanto le idee a carattere più generale e i metodi sperimentali che sono più ampiamente usati in molteplici settori possono essere adoperati per descrivere e ‛spiegare' l'attività scientifica. I concetti interdisciplinari sono quindi di primaria importanza; anzi, in realtà, sono essenziali. Nessuno accetterebbe come spiegazione una qualsiasi proposizione, o una serie di proposizioni, applicabili solamente a un settore particolare o a un campo limitato di attività. L'universalità è sempre stata la pretesa dei filosofi tradizionali che hanno creato una teoria della conoscenza o epistemologia; ma tale pretesa è di dubbio valore in quanto le loro concezioni si sono formate in un periodo prescientifico. La loro visione del mondo e dell'uomo, o la chiave in cui interpretavano le esperienze umane, sono derivate da un atteggiamento piuttosto semplice, ingenuo e comune di fronte a quelle stesse esperienze. Ciò è naturale, o meglio inevitabile: ogni forma di teorizzazione deve partire da umili inizi di questo genere. Oggi, tuttavia, siamo avvantaggiati dal fatto di avere alle spalle quasi cinque secoli di ciò che noi chiamiamo scienza moderna. Certamente, dai tempi di Galileo e Newton, grazie ai contributi di scienziati come Darwin, Freud e Einstein, la nostra conoscenza del mondo fisico e degli esseri umani è cambiata enormemente ed è progredita. Benché siano ancora evidenti le tracce - e, talvolta, anche dei residui assai consistenti - del vecchio pensiero prescientifico e magico, sia nella scienza sia nella vita quotidiana, possiamo fondare la spiegazione della scienza, o metascienza, sulla base della scienza moderna stessa.

La scienza moderna comincia con la sperimentazione progettata. Il piano inclinato di Galileo è stàto il primo esperimento progettato per verificare un'ipotesi, cioè una affermazione teorica formulata in termini matematici sulla base di certi presupposti riguardanti la gravitazione. Galileo ideò una situazione artificiale che poteva in qualche modo riprodurre o rappresentare un processo naturale. Così le leggi della caduta libera dei gravi poterono essere comprovate tramite il mezzo artificiale di un piano inclinato che servì da modello. Tutti gli esperimenti scientifici si debbono basare sulla costruzione di un sistema artificiale progettato per riprodurre, almeno nelle sue caratteristiche essenziali, un processo naturale che il fisico, ad esempio, si propone di studiare. La sua fantasia, unita alla comprensione e alla conoscenza effettiva del mondo fisico, gli permette di isolare un dato particolare di questo mondo e di ricostruirlo in modo tale che esso diventi accessibile alla manipolazione voluta. La scienza moderna è quindi in primo luogo, e soprattutto, un'attività imperniata su una situazione artificiale prodotta in laboratorio. L'esperimento di laboratorio è costruito secondo un modello teorico che rappresenta una data parte o un dato fenomeno o un dato processo del mondo fisico. La pura e semplice osservazione passiva dei fenomeni che si manifestano spontaneamente non è più sufficiente, come invece era, o doveva essere, per forza di cose, durante lo stadio prescientifico. Il metodo fondamentale della scienza moderna è la sperimentazione attiva basata sul modello teorico di un processo naturale. L'uomo, l'elemento umano, entra così come componente essenziale nella teoria e nella pratica scientifiche. Ciò non è sempre riconosciuto, anche se si guarda alla sperimentazione attiva come al marchio di garanzia della scienza moderna. Con la scienza moderna la stessa natura dell'uomo e le sue capacità dovevano venire considerate come parte integrante del processo scientifico. Nel passato, l'osservazione passiva delle stelle lontane e la teorizzazione semiteologica del loro comportamento, ad esempio, alimentarono l'illusione che il ruolo dell'uomo nel processo conoscitivo fosse insignificante. Analogamente, la richiesta di ‛obiettività', cioè la necessità di tenere lontano dalla rappresentazione del mondo le fantasie, i desideri, i timori personali dello scienziato, condusse all'idea che l'uomo, lo sperimentatore, dovesse rimanere assolutamente escluso dal processo di spiegazione scientifica. Oggi si è compreso che questo punto di vista è completamente sbagliato, anche in fisica.

In laboratorio un processo naturale viene riprodotto in condizioni speciali costruendo un apparato progettato per evidenziarne o rappresentarne le caratteristiche principali secondo un modello teorico. Lo sperimentatore provoca fenomeni che simulano o rappresentano, in parte o nella sua totalità, un processo naturale. Il piano inclinato consente di riprodurre il processo del moto gravitazionale adeguatamente rallentato, in modo da renderlo accessibile alla manipolazione e alla misurazione. Il moto di una particella lungo una traiettoria per effetto della forza di gravitazione è stato, storicamente, il primo modello di un processo naturale. La prima realizzazione sperimentale di tale modello fu ottenuta facendo rotolare una palla lungo un piano inclinato, costruito con il minimo possibile di attrito. In base alle leggi ricavate e confermate per mezzo di questo primo modello, fu possibile calcolare il moto dei pianeti, i fenomeni balistici e tutti gli altri processi di meccanica celeste e terrestre. Gradualmente, e in special modo come risultato della teoria di Newton, non solo i processi meccanici, ma tutti i processi naturali furono visti nei termini di questo modello. La realizzazione sperimentale del modello, e cioè lo speciale apparato costruito per riprodurre e studiare un dato processo, si differenziò in molti tipi diversi. Il modello più generale per schematizzare un processo naturale rimase quello della particella meccanica che si muove lungo un cammino sotto l'azione di una forza centrale e universale. La gravitazione divenne il modello della causalità in atto, e di qui nacque la visione meccanicistica del mondo.

Storicamente la meccanica è stata la prima teoria scientifica; è quindi comprensibile che essa abbia mantenuto la sua presa filosofica su di noi così a lungo, addirittura sino a oggi. Ma sia l'elettromagnetismo sia, in seguito, la termodinamica mutarono la concezione meccanicistica della natura e introdussero effettivamente nuovi modelli del mondo, benché ciò non sia stato riconosciuto per molto tempo.

Con la teoria termodinamica fu possibile interpretare qualsiasi processo naturale come una serie di trasformazioni di energia di un sistema chiuso. La macchina - in primo luogo quella a vapore - divenne così il modello generale di ogni processo naturale.

Comunque, la termodinamica rimase a lungo all'ombra della meccanica. I sistemi, e i processi termodinamici che essi svolgevano, erano visti in termini meccanici, e si deve ritenere che molti dei primi equivoci sul secondo principio e sul concetto di entropia abbiano avuto origine proprio da questa interpretazione angusta e piuttosto mal indirizzata. Non è possibile, per esempio, apprezzare la portata e l'importanza del secondo principio fintanto che si interpreti l'entropia in termini puramente meccanici, come dovuta agli urti tra le molecole di un gas ideale o al moto disordinato di tali particelle.

Soltanto ai nostri giorni si è raggiunta una visione più ampia, dopo che la teoria della relatività ha fornito un quadro dell'universo dal punto di vista elettromagnetico. Un'onda elettromagnetica che si propaga nello spazio è un altro modello, teorico e pratico, di un processo naturale. L'energia è trasmessa da un punto all'altro dello spazio, pensato uniformemente continuo, in modo da soddisfare il principio di causalità. Questa energia radiante, tuttavia, può anche essere usata come segnale per trasportare un messaggio. Il fatto che la più alta velocità possibile per la trasmissione di un segnale sia quella della luce e che questa velocità massima sia una costante universale è postulato nella teoria di Einstein della relatività ristretta. In questo caso, il segnale è concepito semplicemente come una concentrazione di energia, un pacchetto d'onde, invece di un'unica onda a una sola frequenza. Il fatto che un pacchetto d'onde possa essere modulato, sia atto cioè a trasportare un messaggio, non viene preso in considerazione nel contesto relativistico. Tuttavia, l'‛universo della luce' di Einstein è un progresso significativo rispetto al ‛meccanismo dei cieli' di Newton.

Il terzo stadio di sviluppo si attua con la termodinamica ed è, come ho appena detto, di data recente. Si può anche dire che, in seguito alla scoperta del controllo mediante il feedback e della trasmissione delle informazioni, abbiamo dovuto modificare la nostra immagine dell'universo. Il sistema termodinamico è la concezione più generale di un processo naturale. Qualsiasi fenomeno può essere considerato come un sistema siffatto, qualsiasi situazione si può ricostruire in questi termini, purché si ammetta una semplificazione ragionevole. Astrarre significa escludere tutti quegli elementi del mondo reale che per il momento non vogliamo studiare, o perché non sono di alcun interesse per noi, oppure perché sono troppo complessi per poterli rappresentare nel nostro modello. Qualsiasi modello è una idealizzazione, nel senso che lasciamo fuori di esso certi aspetti che in natura sono di fatto presenti. Il grosso problema di fondo è sempre quello di creare un modello che sia il più semplice possibile, ma che resti ancora sufficientemente complesso da rappresentare adeguatamente il processo reale.

Un modello è descritto in termini teorici e spesso matematici, poiché intendiamo servircene per calcolare i valori dei parametri che caratterizzano il processo naturale. Un modello è quindi un insieme di relazioni tra variabili, e ogni relazione è specificata sotto forma di equazioni. Questo almeno è ciò che di solito si cerca di fare in fisica. Quando ai parametri di un'equazione vengono dati valori numerici, si ottiene una struttura particolare. Un modello è perciò anche una classe di strutture. E, a seconda delle varie ipotesi fondamentali che vengono fatte, abbiamo di volta in volta modelli lineari, statici, dinamici, stocastici, micro e macro-modelli; i termini qui usati si spiegano chiaramente da soli.

Il processo termodinamico è un modello astratto e universale, di tipo lineare e dinamico, che combina caratteristiche macroscopiche e microscopiche. Ormai non concepiamo più un processo alla stregua di una palla che rotola per gravità lungo un piano inclinato. Abbiamo, invece, un sistema totalmente isolato da influenze esterne incontrollabili; e nel sistema si svolge un processo, per il quale si passa ‛in modo infinitamente lento' da uno stato di equilibrio a un altro stato di equilibrio. Il grado di astrazione e di idealizzazione richiesto in questo caso è certo grandissimo. Malgrado ciò, sia il modello che la teoria costruita su di esso hanno avuto immenso successo, come è dimostrato dal motore termico o, più in generale, dal funzionamento di qualsiasi macchina.

Consideriamo per prima cosa il sistema termodinamico. Le molecole di gas sono contenute in un cilindro che è chiuso da un pistone in grado di muoversi in su e in giù; il processo consiste nel fatto che il sistema cambia la sua energia passando da uno stato di equilibrio a un altro stato di equilibrio in maniera ‛reversibile'; e i diversi stati sono indicati dalla posizione del pistone. Le tre restrizioni fondamentali - il carattere chiuso del sistema, il carattere di equilibrio dei suoi stati e la reversibilità del processo - sono inevitabili. Persino la termodinamica moderna, così detta ‛irreversibile' (v. termodinamica irreversibile e sinergetica), che tratta di sistemi ‛aperti', non sfugge a queste restrizioni. Tutto ciò che si può ottenere trattando i sistemi ‛aperti' è di specificare un meccanismo, in casi particolari, che ci permetta di calcolare la perdita di energia disponibile, cioè la quantità di irreversibilità. Il carattere ‛aperto' del sistema consiste soltanto nella ‛stazionarietà' dello stato - tanta energia entra quanta ne esce dal sistema -, che lo rende nuovamente uno stato di equilibrio dinamico simile all'equilibrio statico del sistema chiuso. Comunque, l'ambiente, selezionato e limitato secondo criteri particolari, è ora incluso nel processo. Certo, questo è un miglioramento rispetto alla versione più antica del sistema termodinamico; ma non è, o per lo meno non è ancora, un superamento radicale.

Così, sarà sufficiente trattare il sistema termodinamico come di solito è stato concepito e rappresentato dalla macchina di Carnot. Il sistema che passa da uno stato di equilibrio ad un altro ‛in maniera infinitamente lenta' rende possibile usare ‛variabili di stato' per descrivere il processo. L'equilibrio è uno stato che il sistema chiuso raggiungerà alla fine se lasciato indisturbato. Questo implica che qualsiasi perturbazione deve provenire dall'esterno; così per iniziare il processo il sistema deve essere aperto. Comunque questa apertura iniziale che serve per introdurre nel sistema energia, o calore o lavoro, non può essere inclusa nella descrizione teorica e quindi rimane al di fuori del modello. Tutto ciò che possiamo descrivere è lo stato di equilibrio iniziale e il fatto che, intervenendo in qualche modo sul sistema, lo portiamo in un altro stato di equilibrio. Non si può specificare esattamente la quantità di energia ‛esterna', calore o lavoro, necessaria per lo svolgimento del processo, benché i due stati interessati siano ritenuti di equilibrio e differiscano per una quantità esatta di energia ‛interna'. Ciò significa che un tale stato è caratterizzato da un insieme unico di variabili di stato, i cui valori sono indipendenti dal modo in cui è stato prodotto l'equilibrio. La pressione, il volume e la temperatura sono quindi variabili di stato, mentre il lavoro e il calore non lo sono, poiché la loro entità dipende necessariamente dal modo in cui vengono ceduti al sistema. Tuttavia, è possibile definire una variabile di stato che ci consenta di tener conto, anche se indirettamente, del calore o energia ‛disorganizzata'. Questa variabile è l'entropia.

L'entropia, quale misura dell'ordine o del disordine dell'energia, è la più importante variabile del sistema. Lo stato di equilibrio quindi è caratterizzato dal massimo valore di entropia che risulta compatibile con i valori della pressione, del volume, della temperatura, ecc., del sistema considerato nel suo insieme. Il secondo principio stabilisce che in qualsiasi processo naturale l'entropia aumenta o, tutt'al più, rimane costante. Questa perdita di energia ‛utilizzabile' è perciò senz'altro compatibile con il primo principio e cioè con la conservazione dell'energia. L'energia, infatti, non viene perduta in assoluto, mediante l'attrito o qualche altra azione di dispersione, ma semplicemente diventa non più disponibile per un lavoro utile nell'ambito del particolare sistema che si sta considerando.

L'entropia diventa la misura dell'ordine, in particolare allo zero assoluto in cui lo stato di energia del sistema è al livello più basso possibile. Qui abbiamo l'energia di ‛punto zero', che il terzo principio descrive in termini di impossibilità di raggiungere lo zero assoluto di temperatura. E qui si precisa anche il limite di questa idealizzazione: nessun sistema può essere assolutamente privo di energia; non si può attuare alcun processo senza che vi sia per esso un minimo di energia disponibile. Analogamente, benché l'entropia di un sistema - come misura del suo disordine - possa sempre essere posta arbitrariamente uguale a zero, qualsiasi processo produrrà sempre un aumento di entropia eccetto che allo zero assoluto. Tale aumento pone un altro limite all'idealizzazione teorica: ciò che si spende in qualsiasi processo va considerato non solo in termini di energia, ma anche in termini di ordine.

A prima vista, viene fatto di considerare ordinato un sistema di atomi, ad esempio, se esso mostra un'effettiva disposizione spaziale ordinata, del tipo di quella di un cristallo; infatti, questa è la condizione generale di un qualsiasi sistema a bassa temperatura. Poi quest'ordine - o disordine - viene rappresentato in termini di energia, come distribuzione delle particelle tra le celle di uno spazio immaginario delle energie, o delle quantità di moto, o, in generale, delle fasi. Il punto principale è che l'ordine - concetto chiave - è un qualcosa di artificiosamente e arbitrariamente definito. Una distribuzione omogenea, e cioè una ripartizione di tutte le energie di cui il sistema è capace (dall'energia di punto zero al massimo) uguale per tutte le particelle, è considerata come il più alto grado di disordine. L'ordine, da questo punto di vista, non è ‛uniformità'. Non è l'ordine del cristallo nello spazio reale. L'ordine è definito qui come lo stato in cui tutte le particelle hanno la stessa energia, oppure occupano la stessa cella nello spazio delle fasi. Queste considerazioni mostrano subito che qualsiasi sistema deve essere riguardato da un punto di vista statistico, poiché può rivelare ordine solo se è composto da un grande numero di costituenti. Questo punto di vista microfisico ebbe origine storicamente dall'atomismo, che è parte della concezione meccanicistica del mondo.

Esempio di questo processo naturale è il motore termico, che è a sua volta il prototipo di qualsiasi altra macchina. Il movimento effettivo di ogni sua componente è puramente accidentale rispetto alla trasformazione di energia che si verifica. Il moto delle particelle nello spazio e nel tempo, secondo le leggi della meccanica, non rappresenta più, ormai, la descrizione di un processo naturale. Adesso tale descrizione è data dalla variazione nella distribuzione statistica dell'energia tra le particelle. La prestazione di una macchina - il ciclo di Carnot -, che ripete periodicamente le stesse variazioni, va quindi descritta in termini statistici. Al posto della legge di gravitazione che governa, ad esempio, il comportamento di una singola massa puntiforme, abbiamo una legge di distribuzione statistica, che si realizza nell'incontro casuale delle molecole. Al posto della legge universale di causalità che unisce un punto al suo successivo, lungo una singola catena di eventi, abbiamo una rete estesa di eventi che terminano comunque in uno stato di equilibrio. Invece di svilupparsi attraverso una semplice linea di azione causale, il processo tende verso un fine ultimo, o effetto, che consente il verificarsi di fluttuazioni e deviazioni.

Prima di continuare a illustrare il modo di operare dei processi statistici, vorrei descrivere il controllo sull'azione di una macchina quale è stato introdotto dal feedback. Fin qui, la macchina è semplicemente un motore termico - per esempio la macchina di Carnot - che trasforma energia in lavoro. La rappresentazione materiale è, diciamo, la macchina a vapore. Il regolatore di Watt controlla il funzionamento della macchina a vapore interrompendo l'erogazione di energia - in questo caso il vapore - quando la ruota gira troppo velocemente, e viceversa. La regolazione avviene automaticamente mediante un comando di velocità. In altre parole, il meccanismo causale della macchina viene ad essere complicato dall'effetto stesso, che reagisce sulla causa: vale a dire dalla velocità della ruota che controlla l'erogazione del vapore. Questo ‛ciclo causale' è un'altra limitazione imposta a quell'idea semplice di azione causale, individuale e universale, che ci viene fornita dalla meccanica di Newton. Inoltre, da un punto di vista metateorico, il controllo si attua mediante una deviazione dalla norma, oppure mediante l'errore provocato dal funzionamento scorretto della macchina. L'errore, come ad esempio la fluttuazione intorno a uno stato di equilibrio, è un fattore inevitabile in qualsiasi macchina reale. Invece di un legame semplice e diretto tra causa ed effetto, abbiamo adesso una ‛funzione transfer' (o ‛funzione di trasferimento') tra input e output - cioè tra causa ed effetto, o tra stimolo e risposta - che non è più né completamente determinata dall'input né con esso coincidente.

Vediamo allora la macchina come un sistema termodinamico che funziona secondo un ciclo simile a quello della macchina di Carnot, ma sotto controllo automatico.

Un sistema termodinamico, lasciato a se stesso, finirà sempre per raggiungere uno stato di equilibrio che è determinato dai valori globali delle variabili di stato. Questo è lo stato più probabile o lo stato di massima entropia per le condizioni date. C'è quindi una tendenza già evidente in un sistema chiuso: la tendenza all'equilibrio. Comunque, si deve distinguere nettamente questo comportamento dal modo in cui un motore termico, quando si trova sotto controllo del feedback, raggiunge una produzione stabile di lavoro per una data entrata di calore. Qualsiasi motore, per quanto ideale, ha un gas come propellente il cui comportamento è statistico e quindi comporta necessariamente delle fluttuazioni. Ciò rappresenta la caratteristica microscopica nel modello di funzionamento della macchina, che per il resto è macroscopico. Fintanto che per un dato input queste fluttuazioni sono relativamente piccole - per esempio, quando vogliamo far funzionare il motore al massimo della sua efficienza - possiamo impiegare un feedback negativo per stabilizzare l'output. L'esistenza di un equilibrio è, comunque, la condizione di partenza per un controllo a feedback. L'errore o lo scarto tra input e output genera la sua correzione, ma soltanto entro certi limiti. Pertanto, si raggiunge l'organizzazione attraverso l'azione dinamica, retroattiva. Lo stato finale di equilibrio di un sistema chiuso, lasciato a se stesso e senza controllo, è un livello statico, morto. L'equilibrio di un sistema sotto controllo a feedback è dinamico e potrebbe, in linea di principio, condurre ad altri stati, se il controllo venisse sospeso o modificato.

Il feedback è quindi l'agente che può produrre organizzazione e ordine per certe caratteristiche, per l'output ad esempio, di un sistema dinamico. Tale comportamento può anche essere chiamato ‛stabilizzazione' del sistema dinamico. Uno stato del sistema altamente organizzato è stabilizzato dall'azione del feedback, mentre l'equilibrio del sistema non controllato è lo stato naturale di organizzazione minima. Ambedue le tendenze - per il sistema chiuso la tendenza a giungere a un equilibrio e per la macchina controllata la tendenza a mantenere un output stabile - dipendono dal comportamento statistico del mezzo che produce lavoro.

Non c'è dubbio che il carattere statistico o casuale del processo termodinamico conduca all'equilibrio finale del sistema chiuso. Un po' meno sicuro è che l'azione di feedback stessa sia statistica, in quanto l'accoppiamento tra fluttuazioni e output stabilizzato avviene mediante un collegamento meccanico o elettromagnetico. Il regolatore di Watt rallenta, o consente di accelerare; la rotazione di un asse per inerzia meccanica. Il feedback elettromagnetico in un amplificatore mantiene costanti le oscillazioni tramite una reazione di tensione-corrente. Al contrario del feedback meccanico, quello elettromagnetico permette di amplificare il segnale di errore a livello utile e aumentare così la sensibilità del dispositivo; è per questa ragione che la cibernetica basata sul feedback ebbe inizio solamente con l'invenzione della radio. Sebbene l'azione del feedback richieda del tempo, in linea di principio, per passare dall'effetto alla causa e per modificare l'azione, in pratica tuttavia spesso essa è istantanea. Comunque, ciò che dà luogo al feedback è la fluttuazione, cioè lo scarto tra l'output istantaneo e una norma prefissata: ad esempio la velocità stabilita dell'asse o il livello predeterminato di ampiezza delle oscillazioni. Tali fluttuazioni sono proprie anche del sistema fisico più perfetto o ‛ideale', sempre che si intenda costituito da qualche componente microfisica. Se non ci fossero gli errori, quel dispositivo di correzione degli errori che è il feedback non potrebbe funzionare.

Tutto ciò è importante per capire il carattere causale del processo di feedback. Benché si possa considerare strettamente deterministica la retroazione dall'effetto alla causa - dall'output istantaneo all'input istantaneo -, l'effetto, preso come causa di tale retroazione, è dovuto a una fluttuazione statistica. Difficilmente si può pensare che la barra metallica del regolatore di Watt, che apre e chiude la valvola per azione dell'inerzia dei contrappesi rotanti, produca qualcosa di diverso da un effetto deterministico. La corrente elettrica o la tensione, che regolano il feedback elettromagnetico, potrebbero essere considerate come un collegamento statistico a patto di ritenerle dovute agli elettroni, cioè se si adotta il punto di vista microfisico. Arriviamo così all'intuizione profonda che il determinismo rigoroso - e cioè la connessione necessaria e univoca fra causa ed effetto - già non regge più non appena si tratti di interpretare il funzionamento di una macchina controllata dal feedback, mentre proprio la macchina è ciò che viene generalmente citato come l'esempio per eccellenza di sistema deterministico.

Prima di proseguire questa trattazione teorica, consideriamo nei particolari il feedback da un punto di vista più tecnico. La regolazione o la stabilizzazione dell'effetto mediante la controreazione dipende dalle caratteristiche generali del sistema nel suo complesso. Il diagramma  rappresenta il sistema più semplice possibile; ϑi, ϑ0 sono rispettivamente l'input e l'output ed A è il fattore di amplificazione. Indicando con

ε=ϑi−ϑ0 (1)

e, presupponendo la linearità, si ha

ϑ0=A• ε, (2)

in cui A è il fattore guadagno. Se la maglia del feedback è disconnessa, il sistema si comporta come se fosse ϑ0=0; per tale condizione di maglia aperta si ha:

ϑ0=0, ε=ϑi. (2a)

In generale:

ϑ0/ϑi0/ε=A, (2b)

e

ϑ0/Ai−ϑ0 (3)

quindi

ϑ0/ϑi=A/(1+A). (3a)

Questa funzione di trasferimento tra input e output può quindi rappresentare la relazione di feedback in una linea aperta.

La funzione di trasferimento dimostra che l'azione del feedback somiglia a un processo causale benché esso comporti una ramificazione di percorsi causali. C'è uno stato finale, un effetto che è stato programmato; la sua stabilità è garantita dal feedback, il cui funzionamento dipende dalle variazioni statistiche dell'effetto. Le fluttuazioni derivano da perturbazioni del sistema sia interne che esterne. Il feedback fa funzionare il sistema indipendentemente dalle perturbazioni, a patto che queste non siano troppo grandi. Le fluttuazioni statistiche vengono così rese inefficaci dal sistema. La funzione di trasferimento rappresenta quindi un tipo di legame causale tra input e output; ma il legame possiede limiti di estensione, contiene elementi di indeterminazione ed è limitato dal sistema.

Nella fisica classica si considera la catena causale, in linea di principio, come una linea continua, cioè unica e quindi necessaria, illimitata e anche infinita in lunghezza. La teoria della relatività spezza la catena causale in elementi la cui lunghezza finita è quella determinata dalla velocità della luce. Il feedback abbrevia i percorsi causali possibili adattandoli alla dimensione del sistema. Nel sistema la perdita di potere causale è compensata dal corrispondente guadagno di organizzazione. Si verifica minore interferenza nei confronti dell'effetto programmato, maggiore libertà da disturbi incontrollabili, e quindi ne risulta un grado maggiore di organizzazione.

Non esiste alcun circolo vizioso nel feedback negativo, come si potrebbe credere secondo un rigido determinismo. L'effetto non è la causa della causa originaria. Supponiamo che la causa originaria sia, ad esempio, il combustibile che fa funzionare la macchina a vapore; il feedback assorbe una piccola parte dell'energia contenuta nell'effetto per far sì che il regolatore di Watt apra la valvola. Questa seconda causa è la deviazione dallo stato di output stabile ed è decisamente statistica. Se mancasse il feedback, la macchina funzionerebbe irregolarmente, ma secondo il principio di causalità. Se il feedback fosse completo, la macchina funzionerebbe regolarmente, ma statisticamente. Il funzionamento reale della macchina sta fra questi due estremi. Il determinismo assoluto e il caso assoluto sono solo astrazioni matematiche.

Le fluttuazioni nell'output sono trasmesse a un congegno di controllo e influiscono così sull'input e cioè sulla causa; di solito, per migliorare il rendimento dell'azione di feedback, viene introdotta una fonte autonoma di energia, e cioè un servomeccanismo. Ciò dimostra che è necessario molto di più della semplice causalità se si vuole spiegare il modo in cui funziona un controllo. Il feedback aumenta la probabilità di ottenere un effetto programmato. Quindi si deve veramente considerare il feedback come uno strumento primario di elaborazione dell'informazione. L'informazione è ritrasmessa a un controllo che è stato predisposto da un operatore al livello di prestazione desiderato e per un dato scopo. La prestazione della macchina è descritta piuttosto tramite il concetto di comunicazione che tramite quello della semplice causalità, e comporta necessariamente un agente umano. Al di sopra e al di là della sequenza degli eventi nello spazio e nel tempo, dobbiamo considerare l'ordine e l'organizzazione di un sistema.

Se consideriamo la ‛macchina' il modello di un processo naturale e desideriamo spiegarne il funzionamento, dobbiamo ricadere nel modello dell'universo, che è quello più generale che ci offre la natura, e che fornisce una base epistemologica. Siamo quindi portati a giudicare la macchina dal punto di vista di una tradizione vecchia e non più valida e a introdurre un metodo ontologico che è insito nelle ipotesi che sono alla base del modello. La macchina è considerata normalmente il frutto della meccanica di Newton. L'universo infinito, così come è esemplificato dalla meccanica celeste di Newton, comporta un determinismo assoluto. Le condizioni iniziali in qualsiasi momento, in assenza di condizioni al contorno finite, dipendono soltanto dalle condizioni iniziali di un qualunque momento precedente. Così, tutti gli eventi dell'universo sono legati insieme in una catena infinitamente lunga di azione causale, cioè di trasmissione di energia. Se guardiamo alla sequenza degli eventi dal punto di vista della creazione avvenuta da un'infinità di tempo, abbiamo un determinismo completo e addirittura la predeterminazione. La struttura assoluta di spazio e tempo di Newton, secondo la definizione che compare nello Scolio, stabilisce anche la struttura causale dell'universo.

L'universo finito introdotto da Einstein rende relativi lo spazio e il tempo e la catena di causalità è ristretta alla distanza tra gli eventi così come è data dalla velocità della luce. Quindi, nell'universo ci sono sempre eventi che non sono legati per causalità e che non lo saranno mai. Nella rappresentazione del mondo è perciò ammessa la casualità.

La catena causale si spezza completamente quando, nel misurare gli eventi, siamo costretti, come in microfisica, a correlare spazio, tempo ed energia. Il principio di indeterminazione: ΔxΔp ~ ℏ e ΔEΔt ~ ℏ rende statistica la sequenza degli eventi. Essa è ancora causale, nel senso che la trasmissione di energia collega fra di loro gli eventi; la conoscenza degli eventi precedenti può ancora essere utilizzata per predire gli eventi successivi e quindi per stabilire così la sequenza; ma la sequenza mostra dispersione, una ‛dispersione' statistica. Questa dispersione, misurata ad esempio dalla varianza, non è infinita; essa è finita e dell'ordine di h. Il caos assoluto è quindi escluso. Ci sono relazioni tra gli eventi, l'azione causale è possibile ma incerta. La causa e l'effetto non sono né rigidamente connessi nè completamente isolati l'uno dall'altro. Comunque, nei limiti dell'incertezza si possono stabilire nuove relazioni tra le cose e gli eventi, così come l'entropia consente di stabilirne nel regno della microfisica classica. Le cose e gli eventi possono essere organizzati in modelli; dobbiamo spiegare un processo naturale in termini di ordine e non solo di energia - proprietà queste di un sistema di particelle e non solo della particella singola.

Se guardiamo la ‛macchina' sullo sfondo di queste nuove idee introdotte dalla fisica moderna, possiamo dire quanto segue. Non possiamo più spiegare il comportamento della macchina in termini newtoniani. Il determinismo assoluto e anche il determinismo relativo e la causalità statistica non sono sufficienti. Se vogliamo descrivere ciò che le macchine possono fare, abbiamo bisogno dell'ordine e dell'organizzazione del sistema, che sono proprietà di secondo livello. (v. anche relatività; quanti, teoria dei; meccanica statistica).

3. La struttura informativa delle macchine

L'ordine e l'organizzazione, non la causalità, sono la caratteristica principale delle macchine. Nasce quindi una gerarchia delle macchine secondo il grado di organizzazione e la quantità di ordine che esse sono in grado di produrre. Il motore termico trasforma l'energia degradata, o combustibile, in lavoro, o energia coordinata. L'ordine è prodotto a spese dell'energia e dell'ordine esistenti altrove. La macchina propriamente detta, controllata dal feedback, mantiene stazionario il suo output sia a un basso livello stabile che a un massimo. Quindi, una certa quantità di ordine è mantenuta dall'azione del feedback. Mentre un motore è di per sé un convertitore di energia, la macchina controllata converte energia e produce ordine. Arriviamo così al terzo stadio: il calcolatore e i suoi derivati. Il compito del calcolatore consiste nel trasformare un input relativamente poco ordinato in un output fortemente ordinato, o nel cambiare una quantità di informazioni o istruzioni potenziali in una quantità più ampia di informazione effettiva. Il calcolatore è uno strumento di elaborazione dell'informazione. L'organizzazione interna di un calcolatore, specialmente la sua memoria e il meccanismo decisionale, consente lo svolgimento di un processo dinamico che causa un aumento di organizzazione o ordine. Le istruzioni e i dati - cioè l'input di incertezza relativamente alta - vengono trasformati in informazione, cioè in un output ben determinato.

L'ordine è una proprietà di secondo livello; per un qualsiasi sistema si richiede, come entità di primo livello, energia o materia. Comunque questo non significa che l'ordine o l'organizzazione o la distribuzione siano meno reali delle entità che li compongono. Qui stiamo parlando di sistemi piuttosto che di unità isolate: è il sistema nel suo complesso, e la sua organizzazione, che posseggono le proprietà più alte, quelle di secondo livello. Si raggiunge quindi un livello più alto di ‛integrazione' dei fenomeni naturali se si può indagare e conoscere l'intero sistema piuttosto che le singole parti. Diventano accessibili all'indagine una gamma pìu ampia e un livello più alto di fenomeni.

Dall'amplificatore di energia al convertitore di energia e al produttore di energia coordinata (e cioè dallo strumento al motore termico e alla macchina) fino all'elaboratore dell'informazione: questa sequenza illustra in quale modo si sviluppino la scienza e la tecnologia e come si ampli la conoscenza umana. Non si tratta tanto di disporre di più energia, quanto di servirsene meglio.

Il risultato dell'azione di ogni macchina è un aumento di ordine. Perfino la trasformazione del calore in lavoro - essendo il lavoro espresso dal prodotto fra una forza e uno spostamento ed essendo quindi in esso implicito il concetto di direzione - comporta un aumento di ordine, anche se la termodinamica classica non si sofferma su questo punto. L'ordine non è una proprietà che la fisica classica possa trattare in maniera adeguata; il secondo principio ha un carattere essenzialmente microfisico, statistico e quindi non soggetto al determinismo.

Naturalmente, per ottenere un aumento di ordine si deve spendere sia energia che ordine. Malgrado tutto, le macchine sono dispositivi antientropici nei loro effetti, e quindi la loro analogia con gli esseri viventi è molto spiccata. Non va dimenticato che, storicamente, la macchina fu concepita a immagine dell'uomo, come dimostrano gli automi del XV e XVI secolo che ne furono i precursori. Si può quindi capire perché lo studio degli automi (o ‛robotica') sia così strettamente connesso ai calcolatori. C'è di più: anche l'organismo, o la cellula, non è soltanto un semplice convertitore di energia, ma, come ha dimostrato la genetica, è un elaboratore di informazioni. L'organizzazione e la gerarchia dell'ordine costituiscono la caratteristica essenziale della vita: ne troviamo un esempio anche nella macchina. Esistono buone ragioni per dire che il susseguirsi delle invenzioni di dispositivi meccanici ed elettronici è parallelo, in certo qual modo, all'evoluzione intellettuale ed emotiva dell'uomo. La scienza occidentale è cominciata con l'astronomia, con l'osservazione degli oggetti più remoti che si riuscissero a scorgere, ed è arrivata finalmente, nell'epoca moderna, alla psicologia (sia individuale che sociale) e alle ricerche sull'uomo.

L'enorme divario, apparentemente incolmabile, tra le scienze cosiddette naturali (o fisiche) e le scienze sociali (o umane) può adesso ridursi e forse scomparire. La scienza, intesa come iniziativa di ricerca, sta diventando interdisciplinare. Originariamente la macchina fu concepita in rapporto con l'uomo, come una sua estensione e quindi come una sua riproduzione. Il progresso della scienza e della tecnologia ha poi trasformato questa macchina in qualcosa che somiglia più da vicino a un sistema vivente, all'organismo. Oggetto attuale della ricerca scientifica sono l'organizzazione, le proprietà dei sistemi, l'integrazione di entità isolate in un modello e lo studio di quelle proprietà dei modelli che risultano molto diverse da quelle degli oggetti isolati.

Ciò si riflette nel rigetto del meccanicismo, nel rifiuto di spiegare ogni fenomeno in termini meccanici; di conseguenza viene abbandonato il determinismo assoluto che fa della causalità un'unica sequenza di azioni, necessaria e infinitamente estesa. La chiave di questo sviluppo rivoluzionario è il concetto di ordine. L'ordine è un concetto di secondo livello, una proprietà dei sistemi, non delle cose. Così, ogni discussione sulla realtà di tali proprietà verte sul problema di stabilire se siano più fondamentali i concetti di primo o di secondo livello. È come dire che non si può distinguere tra un mucchio di mattoni e una casa, poiché differiscono solamente per l'ordine in cui sono disposti i mattoni. Se l'argomento che ci sta a cuore sono le case, ad esempio, e il modo di renderle più comode, esse saranno da noi assunte come la realtà da studiare. Se vogliamo costruire una casa solida, la nostra prima preoccupazione sarà la qualità dei mattoni. Indubbiamente tale problema sarebbe stato privo di significato per l'uomo delle caverne poiché egli ignorava l'arte di costruire le case in mattoni. L'uomo moderno, tuttora convinto che l'unica realtà sia rappresentata dalla meccanica classica delle particelle, non fa altro che condividere lo stesso punto di vista del cavernicolo. Gli elementi del mondo reale che appartengono al secondo livello sono non-materiali, ma non necessariamente frutto della nostra immaginazione. Al contrario: sembra che l'evoluzione, processo fondamentale della vita sulla Terra, conduca in ogni sfera a livelli di organizzazione sempre più alti.

Anche questo risulta evidente se consideriamo lo sviluppo storico delle macchine. L'introduzione del controllo automatico mediante il feedback fu soltanto il primo passo. Allorché divenne possibile il controllo variabile del funzionamento di una macchina, aggiungendo una memoria e un meccanismo di decisioni, si ottenne il calcolatore. Il calcolatore è la prima e fondamentale macchina che sia stata chiamata intelligente. E dal calcolatore si è evoluto un numero sempre crescente di tali macchine, dotate di capacità sempre più perfezionate: dapprima la macchina logica capace di deduzione e di dimostrazione matematica; poi la macchina che riconosce forme e il perceptron; poi le macchine che apprendono e che possono migliorare il proprio rendimento in base all'esperienza; infine, i sistemi che si autorganizzano e si autoriproducono: questo sviluppo giunge alla sua conclusione naturale allorché si arriva a un dispositivo che somiglia a un organismo. Se teniamo presente che, in origine, la macchina nacque dall'automa progettato per riprodurre caratteristiche umane, ci accorgiamo che siamo ritornati al punto di partenza. Ovviamente, l'impulso iniziale che ha promosso questo sviluppo si mantiene tuttora. È importante comprendere queste considerazioni, dal momento che sono sorte tante futili polemiche sul rapporto tra l'uomo e la macchina.

Se si accetta l'idea che queste macchine possono ‛pensare', in una certa accezione di questo termine, allora ne consegue una gerarchia logica di processi. Al primo livello abbiamo un sistema interamente determinato, con causalità newtoniana; ciò è irrealizzabile nella pratica, benché si creda comunemente ed erroneamente che ogni macchina sia l'esemplificazione di un tale sistema. Il secondo livello di questa gerarchia è rappresentato da un sistema controllato dal feedback in cui un dispositivo automatico fisso regola il comportamento. Il processo stocastico che è implicito in questo sistema, tuttavia, distrugge il modello di azione deterministico univoco e lo sostituisce con un modello plurivoco, per quanto la distribuzione di probabilità possa essere molto stretta. Nonostante ciò, questo è un tipo di autocorrezione che viene considerato normalmente come comportamento intelligente, dato che manifesta una certa capacità di adattamento: le deviazioni dallo stato di equilibrio retroagiscono su se stesse per mantenere stabile l'output. Tale sistema di secondo livello è un dispositivo che elabora ordine. Il livello successivo, il terzo, è quello del calcolatore con controllo variabile o istruzione. Il calcolatore ha un programma che gli consente di comportarsi secondo una gamma ampia, ma pur sempre limitata, di modelli plurivoci di risposta. Il programma fornisce le istruzioni - cioè l'informazione potenziale - che trasformano i dati iniziali in informazione effettiva. Un calcolo matematico, ad esempio, può essere eseguito rapidamente seguendo un metodo di approssimazione numerica. A questo proposito, si deve tenere ben presente il fatto che i calcolatori numerici più perfezionati possono eseguire una sola operazione aritmetica, vale a dire addizionare un'unità all'altra, e una sola operazione logica, cioè la scelta tra le due alternative ‛sì' e ‛no'. Tutto quello che si chiede a un calcolatore è di eseguire le addizioni e di decidere univocamente fra due alternative. I risultati che si ottengono in base a tale meccanismo - uno dei più semplici che si possano immaginare - sono il prodotto della complessità dei dati e del programma introdotti dall'esterno.

Ora, se si programma un calcolatore in modo che esso possa scegliere tra varie alternative, lo si rende adattabile secondo un'accezione ragionevole del termine. E questo è il quarto livello: il sistema può adattarsi a una gamma di possibilità e prendere una decisione. Il programma contiene una funzione discriminante o valutativa che fa sì che il calcolatore provi ed esamini per tentativi i vari percorsi di calcolo possibili, che confronti i risultati con una data risposta campione e scopra se si adattano a un dato modello. Le macchine ‛che apprendono' si possono porre a questo livello poiché, entro certi limiti, possono migliorare la propria prestazione con l'esperienza acquisita nelle operazioni di confronto.

Lo stadio finale è l'autorganizzazione e l'autoriproduzione. Come ha dimostrato J. von Neumann, questo è teoricamente possibile purché tanto il calcolatore quanto l'ambiente siano sufficientemente ‛complessi'. ‟La complessità" egli ha detto, è ‟un'idea intuitiva, ma vaga, non scientifica e imperfetta. Questo concetto appartiene chiaramente al campo della teoria della informazione, e ad essa sono pertinenti considerazioni semi-termodinamiche" (v. von Neumann, 1966). Ancora oggi il problema principale della cibernetica consiste nel descrivere e nello spiegare la complessità - cioè il grado di organizzazione del sistema così come è rappresentato dai dati e dal programma - in termini di teoria dell'informazione. Si deve giudicare la gerarchia degli strumenti di elaborazione dell'informazione sulla base dell'informazione potenziale o delle istruzioni necessarie affinché essi funzionino.

A questo punto si rende quindi necessario esaminare il modello più generale di calcolatore e il suo funzionamento. Il calcolatore o elaboratore è oggi una macchina elettronico-numerica ad alta velocità, destinata a impieghi svariati con programma memorizzato. Ha un'unità di ingresso o input (per es., un lettore di schede perforate), un'unità di uscita o output (per es., un perforatore di schede), un'unità di memoria (per es., un nastro magnetico), un'unità aritmetica (di calcolo) e un'unità di controllo. Il calcolatore riceve un programma e i dati attraverso l'unità d'ingresso; il programma è un elenco di istruzioni che indica come vanno risolti i problemi di un certo tipo. Il calcolatore memorizza il programma e i dati; l'unità di controllo esamina ciascuna istruzione e, se è necessario, fa uso dell'unità aritmetica; anche i risultati temporanei sono memorizzati. L'unità di uscita comunica il risultato finale. I calcolatori moderni sono velocissimi e precisi: possono moltiplicare, ogni secondo, circa 106 numeri di 12 cifre ed eseguire 109 operazioni senza commettere un solo errore. L'unità di calcolo è in grado di accettare, mettiamo, i dati A e B e di seguire le istruzioni specifiche di un'assegnata operazione, per esempio di confronto, che indichiamo qui con il simbolo o; quindi esegue l'operazione per ottenere AB =C. L'unità di controllo può scegliere tra vari programmi; spesso è costruita per seguire nuove istruzioni ricavate dalla macchina per mezzo delle istruzioni originali; in tal senso il calcolatore è automatico, cioè si autoguida.  I canali di segnale trasmettono le istruzioni e i dati che debbono essere elaborati. I canali di controllo mettono in comunicazione l'unità di controllo e l'unità aritmetica, e, in risposta a segnali appropriati, ‛aprono' le soglie dei canali di segnale. Il calcolatore numerico ‛simula' le operazioni prescritte dalle istruzioni con numeri (espressi con un certo numero finito di cifre significative). Abbiamo quindi sempre a che fare con quantità discrete. Si possono simulare le più svariate operazioni aritmetiche e logiche; è perfino possibile rappresentare con una sequenza temporale di operazioni numeriche le funzioni continue, fino al grado di precisione richiesto.

Così, ciò che è ‛intelligente' è il programma piuttosto che la macchina stessa. I calcoli logici e aritmetici vengono eseguiti disponendo le operazioni ‛di base' in una certa sequenza, l'‛algoritmo'. Si tratta quindi di inventare un algoritmo adatto per un dato obiettivo. Devono essere soddisfatte le seguenti condizioni: ogni singolo passo deve essere eseguibile; la sequenza dei passi deve essere univoca; l'obiettivo deve essere raggiunto dopo un numero finito di passi. Poiché di solito l'algoritmo parte da dati che sono, entro certi limiti, variabili, uno stesso algoritmo risolverà tutti i problemi di una certa classe. Il concetto di algoritmo è quindi più ampio di quello di ‛programma'; infatti, il programma non è che un algoritmo specifico già elaborato per un calcolatore particolare.

L'algoritmo prescrive la sequenza delle operazioni sotto forma numerica, però dipende da come si interpretano i numeri, cioè da come abbiamo simulato la sequenza del processo naturale reale di cui vogliamo trovare il risultato e da come vengono rappresentati i dati dell'input, nonché i risultati finali dell'output. Perciò l'algoritmo è un modello simbolico del processo reale.

Il programma, o algoritmo ‛adattato', contiene due tipi fondamentali di istruzioni: la funzione e l'indirizzo. La funzione specifica, in un appropriato codice, il tipo di operazioni da eseguire; l'indirizzo dà il numero di serie, o ‛cella', in cui è memorizzata l'operazione fondamentale. Le celle di memoria contengono anche i dati. L'istruzione esegue qualsiasi operazione sui dati forniti e procede aritmeticamente, essendo stata codificata sotto forma numerica. Così, si può simulare qualsiasi comportamento, per complicato che sia, come ad esempio l'apprendimento o l'autorganizzazione, purché si riesca a escogitare e a codificare il programma pertinente. La teoria degli ‛automi intelligenti' si dissolve così nella matematica. La macchina diventa ‛smaterializzata' e la sua prestazione è descritta completamente dall'algoritmo appropriato.

Quando parliamo di apprendimento o di autorganizzazione, intendiamo dire che, per un dato calcolatore, può essere ideato un programma che simuli tali processi naturali. Abbiamo una sequenza di numeri, cioè, la sequenza di operazioni codificate in un particolare linguaggio-macchina. Interpretiamo queste operazioni come apprendimento, ad esempio, quando l'output, e cioè un numero o un grafico, migliora o si approssima sempre più al risultato numerico o al grafico che ci si aspetta a mano a mano che si ripetono le prestazioni.

L'epistemologia delle operazioni della macchina si deve occupare di algoritmi e di programmazione; analogamente, la gerarchia delle macchine esprime anch'essa il potere logico (e matematico) del programma. La macchina stessa, il calcolatore di base, può essere in linea di principio talmente semplice da risultare banale: tale è la macchina di Turing. Si può trascurare la disposizione geometrica e la natura fisica delle componenti meccaniche della macchina, e ignorare anche il problema dell'energia necessaria per azionarla. Adesso la macchina non è altro che il modello fisico di un processo ‛astratto'; ciò che conta è la struttura simbolica ovvero teorico-informativa della sua prestazione: l'algoritmo.

La macchina di Turing consiste semplicemente di un nastro infinito suddiviso in caselle, di uno strumento che fa scorrere il nastro di una casella alla volta a sinistra o a destra, e di una testina di registrazione che scrive o cancella un simbolo in ogni casella. Così la macchina registra, esplora e legge le informazioni che sono sul nastro.

Naturalmente, la macchina di Turing è soltanto una ‛tigre di carta'; la sua importanza teorica, tuttavia, è grandissima: essa dimostra che qualsiasi calcolatore è descritto completamente dalla teoria matematica delle funzioni calcolabili. Lo studio del comportamento delle macchine ‛intelligenti' equivale alla ricerca sui fondamenti della matematica.

Al giorno d'oggi si definisce l'automa come un sistema formale di regole. Questa caratterizzazione basilare si applica alle macchine di Turing ed a qualsiasi ‛trasduttore' sequenziale, dalle macchine che riconoscono forme a quelle che si autorganizzano e perfino alle reti neuroniche e alle grammatiche generative di Chomsky. Rientra in tale definizione qualsiasi oggetto che possa essere considerato come un automa a stati discreti, o un dispositivo che elabora dati.

La teoria degli automi classifica le macchine a seconda delle loro capacità. Questa gerarchia delle macchine per l'informazione s'inizia, diciamo, dal singolo filo che trasmette un impulso elettrico e termina con il dispositivo che funziona sulla base di algoritmi; infatti non può esistere un livello più alto - o ‛più profondo' - del livello matematico, che è il più astratto possibile, giacché rappresenta il fondamento del simbolismo stesso. Quali processi si possono allora descrivere?

La tesi di Turing è che può essere realizzato dalla sua macchina qualsiasi processo che possa definirsi una procedura effettiva per calcolare numeri. La tesi di Church completa quella di Turing stabilendo che si può dimostrare che ogni procedura effettiva è equivalente, in un modo o nell'altro, all'operazione svolta da una macchina di Turing. Quindi la procedura effettiva è equivalente alla calcolabilità effettiva che è, a sua volta, equivalente alla funzione effettiva. Nella teoria delle funzioni ricorsive viene definito il concetto di calcolabilità effettiva, e si tratta del risultato più elegante ed importante della ricerca matematica recente. Questa teoria ci fornisce tutte le conoscenze necessarie sulla natura e sui limiti della programmazione dei calcolatori.

La funzione f(x1, ..., xn) è effettivamente calcolabile se esiste una procedura ‛meccanica' per determinare il valore f(y1, ..., yn) quando siano dàti gli argomenti y1, ..., yn. Per ‛procedura meccanica' si intende semplicemente un processo ripetitivo che non richiede alcuna innovazione per il proprio svolgimento. Ne è un esempio la semplice addizione di due numeri interi. Spesso è chiaro già intuitivamente se una data funzione è effettivamente calcolabile oppure no. Di solito, tuttavia, riscontriamo che non esiste alcuna funzione di un certo tipo effettivamente calcolabile oppure che non esiste una procedura effettiva per risolvere un'ampia classe di problemi. Ora, qualsiasi problema può essere formulato, in un certo linguaggio, come un'espressione, cioè come una sequenza di simboli di quel linguaggio (inclusi gli spazi in bianco destinati a separare le parole). Un alfabeto è un insieme di simboli finito e non vuoto. Una parola di un alfabeto A è qualsiasi sequenza finita di simboli che appartengono ad esso. Infine, per algoritmo in un certo alfabeto intendiamo una funzione effettivamente calcolabile il cui dominio è un sottoinsieme degli insiemi delle parole di A, i cui valori sono anch'essi parole dell'alfabeto A. Gli algoritmi più comuni possono essere decomposti in semplici passi (Markov). Tutti questi temi sono ampiamente trattati nei moderni manuali di logica matematica e nei testi di metamatematica.

Pertanto, è l'aritmetica ricorsiva che fornisce la teoria matematica degli automi. Se si considera l'insieme dei numeri naturali come una progressione - e Peano, Russell e Whitehead, e Hilbert sono stati i pionieri di questo sviluppo - si giunge ai cosiddetti ‛fondamenti' della matematica. L'aritmetica ricorsiva è stata sviluppata come un sistema formale; esistono vari schemi, primitivi e generali, di ricorsività o di procedimenti iterativi; alla fine, si è arrivati al concetto molto ampio di funzione ricorsiva generale, in cui non appare più l'elemento iterativo (Herbrand-Gödel-Kleene). Il concetto di ricorsività generale precisa l'idea intuitiva secondo cui si può determinare senza ambiguità tutta la serie dei valori di una funzione aritmetica mediante un insieme di equazioni. Vediamo così come la semplice idea della definizione ricorsiva di una funzione, come l'avevano concepita originariamente Peano e i suoi successori, è stata gradualmente generalizzata fino a raggiungere il concetto preciso di effettività o ‛costruibilità'. Ma con ciò siamo anche pervenuti ad uno dei problemi fondamentali della matematica: il cosiddetto problema della decidibilità o della decisione (Gödel). La nozione metamatematica di costruttività porta al problema di trovare un procedimento che, se applicato a una formula arbitraria f di un sistema formale F, sia in grado di decidere in un numero finito di passi se f è derivabile in F oppure no.

La soluzione del problema della decisione è, da un punto di vista metamatematico, equivalente alla effettiva costruzione della derivazione in F. Come ben si sa adesso, il problema della decisione può essere risolto per sistemi ristretti, ad esempio il calcolo delle proposizioni, ma non per sistemi logicamente ‛più forti' quale il calcolo dei predicati (anche se ristretto). Church, nel 1936, ha dimostrato che l'Entscheidungsproblem è insolubile nel caso di un qualsiasi sistema Λ di logica simbolica che sia ω-coerente e che sia abbastanza forte da consentire certi metodi relativamente semplici di definizione e di dimostrazione (v. Church, 1953). Turing ha dimostrato, con il suo calcolatore ideale, che non vi può essere alcun processo generale per determinare se una data formula ???OUT-a??? del calcolo funzionale K (calcolo ristretto dei predicati) sia dimostrabile, cioè non può esistere alcuna macchina tale che, sottoponendo ad essa una qualsiasi, ???OUT-a???, di queste formule, sia in grado di dire se ???OUT-a??? è dimostrabile (v. Mirsky, 1967).

Questo concetto è stato espresso anche da Post: ‟Il problema della decisione per la classe di tutti gli insiemi ricorsivamente numerabili di interi positivi è irresolubile ricorsivamente e quindi, con ogni probabilità, irresolubile in senso intuitivo". Ed egli aggiungeva: ‟È inevitabile la conclusione che anche per tale corpo di proposizioni matematiche fisso e ben definito, il pensiero matematico è, e deve rimanere, essenzialmente creativo [...]" (v. Post, 1944, p. 288).

È su questo sfondo metamatematico che si deve analizzare e giudicare la prestazione dei calcolatori e delle macchine ‛intelligenti'. Dalla tesi di Church, per cui tutte le funzioni ricorsive sono calcolabili, deriva che gli algoritmi e le macchine di Turing sono equivalenti; e il programma è la versione specifica, ‛adattata', di un algoritmo. In verità, un calcolatore a programma memorizzato con un nastro infinitamente lungo è equivalente alla macchina universale di Turing; e quindi tutti i risultati che si riferiscono alle classi di funzioni calcolabili e alla non risolubilità si possono applicare alle macchine reali. Così, i vari programmi ideati per simulare l'apprendimento e altri processi di autorganizzazione sono limitati essenzialmente dal problema della decisione, come avviene per qualsiasi sistema formale in matematica.

La programmazione è perciò il problema centrale della teoria delle macchine. Un algoritmo scritto in un ‛linguaggio macchina' adatto e codificato si può ottenere dai metodi matematici noti come programmazione lineare, dinamica e euristica. La programmazione euristica è la più versatile, la più adatta a rappresentare l'‛intelligenza artificiale'. I problemi che sfuggono ad una soluzione diretta vengono risolti per mezzo di istruzioni ricavate empiricamente, oppure permettendo al calcolatore di ‛imparare', cioè di modificare il procedimento risolutivo dopo averlo applicato a una serie di esempi selezionati.

Il programma memorizzato ci permette di operare sulle istruzioni stesse come se queste fossero dei dati. Questo significa, di fatto, che il calcolatore può cambiare le proprie istruzioni. Per quanto ciò si svolga in maniera prestabilita, ne risulta pur sempre un alto grado di versatilità. I programmi sono insiemi di istruzioni rappresentate da numeri e composti di parti che sono esse stesse soggette a istruzioni, o sottoprogrammi.

La macchina che dimostra teoremi di geometria è un programma di calcolatore che può servire da esempio a questo proposito. I suoi elementi essenziali sono i seguenti: 1) un sottoprogramma, il calcolatore di diagrammi, che contiene la rappresentazione del teorema in termini di insiemi di coordinate di punti e di rette. Tale calcolatore può anche trarre inferenze dal diagramma, per esempio decidere quali segmenti di retta siano opposti e quali angoli e quali elementi si possano chiamare triangoli, angoli o rette; 2) un altro sottoprogramma, chiamato calcolatore di sintassi, che genera sequenze di enunciati; 3) un terzo sottoprogramma, il calcolatore euristico, che controlla il processo di dimostrazione di teoremi, ricorrendo, se necessario, ai calcolatori di sintassi e di diagrammi. Nel funzionamento del calcolatore euristico il passo critico è il suo uso di subobiettivi nella risoluzione del problema.

Se G0 denota l'enunciato da stabilire mediante la dimostrazione e G1j il j-esimo enunciato immediatamente precedente G0, allora possiamo generalizzare e usare Gi (con gli adatti indici in alto) per denotare un enunciato immediatamente precedente Gi-1. Si può illustrare questo legame graficamente  indicando con le frecce le inferenze dirette da un enunciato a un altro; ad esempio, G22→ G11 oppure G23→ G15G0, in cui il simbolo → significa ‛implica'. Questo grafico è prestabilito all'inizio del pro- cedimento e consente di scegliere i subobiettivi, che vengono poi sviluppati. Con l'aiuto del diagramma che rappresenta il teorema, si può determinare se questi sviluppi sono utili. Quando un subobiettivo viene dimostrato a partire dagli assiomi, dai teoremi precedentemente stabiliti, e dalle ipotesi, allora la struttura del grafico mette in evidenza la dimostrazione valida del teorema. Ciò significa che si può costruire un grafico in cui il subobiettivo Gi prende la posizione di G0, allo scopo di trovare subobiettivi di livello più basso. A mano a mano che ciascuno di questi viene risolto ed eliminato, si passa a esaminarne uno nuovo. Un procedimento speciale, che controlla se i subobiettivi non ancora esaminati siano equivalenti ad altri già passati al vaglio, scongiura il pericolo di una verifica ridondante.

Anche la macchina che gioca a scacchi, come quella di Gelernter che dimostra teoremi di geometria, non è altro che una serie di programmi di calcolatore. Essa revisiona tutti i programmi in base all'esperienza acquisita nel gioco e ‛apprende' sia per memorizzazione meccanica, sia per generalizzazione. La memorizzazione è l'accumulo di esperienza ottenuto mantenendo un archivio delle posizioni dei pezzi sulla scacchiera, del valore delle singole mosse e dei relativi risultati. La macchina trattiene così solo i risultati più validi; l'informazione viene eliminata dall'archivio se non è usata abbastanza spesso. La seconda procedura di apprendimento - la generalizzazione - riesamina il numero delle mosse previste, nonché i termini e i coefficienti impiegati nel polinomio di stima (tale polinomio non è altro che una combinazione pesata dei vari vantaggi che potrebbero derivare da qualsiasi disposizione dei pezzi sulla scacchiera, come ad esempio il rapporto tra i pezzi o i vantaggi di posizione di vario tipo). La procedura di generalizzazione è realizzata costruendo due giocatori-macchina, che il loro inventore - Samuel - ha chiamato alfa e beta. Alfa cambia frequentemente, durante il corso del gioco, sia i suoi coefficienti che i suoi termini, nel tentativo di migliorarli; beta mantiene costante la sua strategia. Se alfa vince la maggior parte delle partite, la strategia fissa di beta viene rivista per conformarla a quella di alfa e si inizia una nuova serie di partite. Samuel scoprì che il calcolatore imparava velocemente ma in modo completamente casuale. Egli ne trasse la conclusione che, sulla base di questi esperimenti, si può dire con certezza che è possibile escogitare schemi di apprendimento che supereranno di gran lunga le capacità di una persona media e che tali schemi di apprendimento potrebbero dimostrarsi economicamente fattibili e suscettibili di utili applicazioni ai problemi della vita reale (v. Mirsky, 1967).

Un programma di apprendimento consiste quindi nel riconoscere, confrontare e classificare l'informazione, sia sotto forma numerica che visiva, come nella macchina che riconosce le forme. La classificazione richiede un meccanismo di decisione, che potrebbe essere probabilistico; oppure la decisione potrebbe essere presa da una ‛funzione di distanza', che utilizza i risultati del confronto tra l'informazione osservata e quella memorizzata, per giungere alla classificazione. Nel riconoscimento di forme, le regole di decisione per risolvere problemi di classificazione comportano misure di ‛similarità' e ‛diagnosi' statistiche (teorema di Bayes). La macchina che impara e che può essere ‛addestrata' a riconoscere forme - il perceptron ne è l'esempio più famoso - è stata ampiamente studiata e sviluppata, indubbiamente perché presenta ovvie analogie col comportamento umano. Il metodo di base comporta il concetto di funzione discriminante. Quindi una macchina addestrabile è quella con funzioni discriminanti ‛adattabili'. Esistono metodi di addestramento parametrici, che si fondano sulla teoria della decisione, e metodi non parametrici. Un esempio di questi ultimi è il metodo iterativo di adattamento ponderale.

La programmazione euristica è quindi un processo molto complesso. La caratteristica principale di questi programmi sta nel fatto che essi contengono sottoprogrammi e che inoltre danno la possibilità di scegliere tra essi. Così i programmi rappresentano non solo istruzioni di primo livello, ma anche di secondo livello e, talvolta, vengono implicati anche livelli ulteriori.

Giochi e obiettivi a ramificazioni multiple danno la procedura per la ricerca e la generalizzazione; poi le funzioni matematiche per riconoscere e valutare i risultati consentono l'addestramento e l'apprendimento. Ciò significa non solo che il programma euristico apprende quando ricorre all'esperienza per migliorare la prestazione, ma anche che la pianificazione e l'autorganizzazione possono svolgersi in modo limitato. Il programma, in un senso piuttosto lato del termine, impara a scrivere se stesso. ‛Teddy' - il solo programma autoscrivente inventato finora - imparava però molto male, e la sua abilità si dimostrò inferiore al comportamento casuale. È indubbio che ulteriori esperimenti contribuiranno a migliorarne la prestazione. Il punto essenziale è che qui siamo giunti alla fase più avanzata dell'evoluzione dei calcolatori: gli automi che si autorganizzano e si autoriproducono concepiti per la prima volta da von Neumann.

La complessità è il problema principale della teoria degli automi. Secondo von Neumann, l'automa deve svolgere non solo le funzioni più alte di cui sono capaci gli esseri umani, ma deve anche essere in grado di risolvere problemi come quelli presentati dai grandi sistemi di equazioni differenziali non lineari alle derivate parziali, cosa che noi adesso non sappiamo fare. Nel calcolatore ‛complesso' debbono essere incorporate l'attendibilità, la capacità di correggere gli errori e anche di fare autodiagnosi e auto- riparazioni. Inoltre, se il calcolatore o l'automa è destinato a riprodursi, deve anche essere capace - come lo sono gli organismi - di produrre qualcosa di più complicato di se stesso. Ma allora, cos'è la complessità?

La complessità è la capacità di intervento efficace in situazioni ampiamente diverse, oppure la capacità potenziale di eseguire azioni che non siano necessariamente al medesimo livello di complessità dell'automa stesso. È chiaro che deve esistere nell'organizzazione un certo grado di complessità, ma ciò che conta è la complessità del modo di operare del sistema. L'analogia con l'organismo vivente è ovvia. Gli automi debbono essere, in definitiva, un'integrazione di componenti elementari, come le macchine utensili; gli esseri viventi sono anch'essi, tutto sommato, null'altro che complicatissimi aggregati di componenti elementari, ossia di atomi e molecole. Da un punto di vista termodinamico, gli organismi sono ‛altamente improbabili'. È l'ambiente favorevole che migliora le loro possibilità di essere e di sussistere; ma anche l'ambiente favorevole, a sua volta, è improbabile termodinamicamente. Queste stime di probabilità sono naturalmente arbitrarie poiché sono fondate sull'ipotesi che la probabilità iniziale sia scelta secondo le frequenze delle combinazioni molecolari che si osservano in sistemi fisici semplici. Malgrado ciò, a questo punto c'è una ‛scappatoia' nel meccanismo della probabilità: è il processo di autoriproduzione che accresce enormemente le possibilità di esistere di un organismo, e tale processo diventa possibile quando viene raggiunto un certo livello di organizzazione molecolare. In effetti, l'evoluzione sta almeno un gradino più in alto della semplice autoriproduzione, poiché nel corso del tempo gli organismi sono diventati più elaborati. Dal punto di vista evolutivo, l'organismo o l'automa devono essere capaci di produrre qualcosa di più complicato di se stessi.

Dal punto di vista meccanicistico, invece, partendo dalla costruzione degli automi artificiali, si potrebbe trarre la conclusione opposta riguardo alla complessità di tale costruzione. La macchina utensile deve essere più complicata degli oggetti che con essa si possono produrre. L'organizzazione, che costruisce, deve essere necessariamente di ordine più alto del prodotto. Sembra così che la complessità, o capacità di produrre, sia degenerativa. Nell'evoluzione, al contrario, essa deve avere un potere generativo.

Ciò ha condotto von Neumann a formulare il suo principio della complessità, e cioè che al di sotto di un certo livello la complessità è degenerativa e l'autoriproduzione è impossibile. Perfino misurando la complicazione con il metro più grezzo, cioè con il numero delle componenti elementari, esiste un numero minimo - sosteneva von Neumann - al di sotto del quale la complessità conduce alla degenerazione. Il secondo automa deve essere meno complesso del primo che lo ha prodotto. Ma al di sopra di questa soglia - e, secondo una stima che è stata fatta, il numero di parti necessarie è dell'ordine di un milione - è possibile a un automa costruire un altro automa e anche diventare ‛esplosivamente' produttivo.

Il principio è illustrato dalla serie di modelli proposta da von Neumann, dal modello cinematico-geometrico, al modello soglia-stimolo-abbassamento di soglia, al modello continuo, a quello cellulare. È proprio quest'ultimo, il modello cellulare, quello su cui si è concentrata l'attenzione, e va osservato che si tratta del modello più vicino all'organismo vivente.

Così è prevedibile che facciano la loro ricomparsa gli antiquati rompicapo metafisici sull'evoluzione biologica. In verità, l'argomentazione aprioristica contro l'autoriproduzione sostiene che l'automa che costruisce deve essere più complesso di quello che è costruito. L'automa deve contenere in qualche modo la sua matrice. Questo fatto conduce al regresso infinito del preformismo, poiché l'automa originale deve contenere anche le matrici di tutti i suoi discendenti.

Il problema dell'autoriproduzione fu risolto da von Neumann praticamente nello stesso modo in cui i biofisici scoprirono che era stato risolto dall'organismo. L'operazione di copia per produrre un altro automa richiede l'uso di enunciati linguistici, o simbolici. Qualsiasi procedura per dirigere l'operazione di copia di un dato automa dall'originale fallirebbe e comporterebbe una antinomia logica del tipo di quella di Richard. La descrizione sostituisce l'automa attivo, originario, col suo equivalente semantico. L'automa deve ottenere una descrizione di se stesso, ma con questo metodo ‛passivo' l'autoriferimento viene evitato, poiche l'automa può leggere la sua descrizione senza interferire con se stesso. Questo procedimento implica, tuttavia, un livello logico più elevato, o metalivello, insieme con la concezione semantica della verità.

L'automa che costruisce è perciò analogo alla macchina finita di Turing con un nastro infinito. La matrice lineare L (la ‛descrizione') è posta sul nastro, ed L viene usata due volte: una prima volta per costruire l'automa secondario e una seconda per fare una copia di L che è annessa all'automa secondario. In questo modo l'automa che si autoriproduce memorizza la descrizione completa di se stesso in una sua apposita componente, sul nastro L. Un automa che sia al tempo stesso costruttore e calcolatore può memorizzare una tale descrizione e si stabilisce così un parallelismo tra le macchine di Turing e gli automi che si autoriproducono. La macchina di Turing può contenere una descrizione di se stessa. Quindi, nella struttura cellulare, l'autoriproduzione è un caso speciale di costruzione; inoltre, costruire e calcolare sono attività simili.

Torniamo così a considerare l'algoritmo o programma come il rappresentante fondamentale di qualsiasi sistema, sia esso un automa artificiale o un organismo naturale. La trasmissione dei caratteri ereditari richiede una descrizione, o codice, e la semplice operazione di copia o la duplicazione per stampaggio non presenta alcun interesse nè sul piano logico nè su quello evolutivo. C'è sempre una scissione in due parti nell'ambito del sistema: come l'organismo, anche la macchina ha un fenotipo ed è dotata di materiale genetico, per esempio una scheda perforata che contiene il genotipo. Il processo ereditario quindi non è una pura e semplice questione di complessità ma comporta, invece, seri problemi concettuali. Lo sviluppo di un organismo o la costruzione di una macchina richiede un meccanismo di codificazione capace sia di interpretare sia di ripetere una descrizione. Un tale processo di descrizione-codificazione-costruzione - di cui è un esempio la duplicazione del DNA nella cellula vivente - non è quindi nè preformismo nè epigenesi. L'idea di una descrizione simbolica e di un codice genetico, oppure l'idea del genotipo concepito come algoritmo, non solo ha riunito la vita e le scienze fisiche in un ampio spettro interdisciplinare, ma ha rivoluzionato anche la nostra concezione della scienza stessa e dei metodi con i quali operano gli scienzati.

4. Sistema, processo, informazione e metodo scientifico

Le macchine e gli organismi sono sistemi; essi differiscono non per i materiali di cui sono composti, ma per i livelli di organizzazione che possiedono. Ci si deve quindi aspettare che i sistemi organizzati si comportino in modo completamente differente rispetto a entità e particelle non organizzate e isolate. I sistemi svolgono processi; le particelle si muovono lungo linee dello spazio-tempo. I processi consistono di trasformazioni del sistema e le trasformazioni sono transizioni da uno stato ad un altro del sistema; lo stato di equilibrio rappresenta il tipo più semplice di livello organizzato. Il tipo più semplice di sistema fisico - il motore termodinamico - introduce già, oltre all'energia, il concetto di ordine sotto forma di entropia. In fisica si usa di solito il termine ‛ordine' per descrivere il comportamento dei sistemi, mentre il termine ‛organizzazione' è impiegato più comunemente in biologia. Ciò indica subito una differenza: di solito i sistemi biologici possiedono molti livelli di ordine, sono organizzati in maniera gerarchica, mentre i sistemi fisici, almeno nella teoria classica, richiedono spesso un solo tipo di ordine, e cioè quello al livello atomico o molecolare. Tuttavia, questo discorso non è più valido nel campo, aperto abbastanza recentemente, della fisica della simmetria delle cosiddette particelle elementari.

La caratteristica generale dei sistemi è la gerarchia dei livelli. L'idea di processo si ritrova in tutte le discipline, dalla fisica alla biologia e alla psicologia: si tratta sempre di una transizione, o di una serie di transizioni che modificano l'ordine e l'organizzazione all'interno del sistema. Questi concetti segnano l'inizio di una concezione interdisciplinare della scienza intesa globalmente. Nasce allora il problema di sapere in che modo si possano correlare l'uno all'altro i vari livelli di un sistema e in che modo sia possibile integrarli tutti in un unico sistema. Che cos'è che caratterizza un dato livello di organizzazione? Qual è il processo che viene svolto da un sistema altamente organizzato? È simile alla transizione tra stati di equilibrio o è più complesso? Esiste più di un tipo di processo? Quali criteri si debbono applicare a un sistema nel suo complesso per definirne il grado di organizzazione?

Il principio della complessità minima di von Neumann ci offre qui un ottimo punto di partenza per la discussione. È necessario un livello minimo di organizzazione perché un sistema si autoriproduca. Per analogia, si potrebbe ipotizzare (benché von Neumann non abbia ampliato la sua idea in questa direzione) che debba esistere anche un massimo, come accade se si considera l'esempio dell'evoluzione delle specie nella storia naturale. Per quanto ci è possibile supporre, certi organismi o animali si sono estinti non a causa di un ambiente sfavorevole, bensì per ragioni ‛interne' come nel caso dei dinosauri. È allora molto suggestiva l'ipotesi che esistano due tendenze in conflitto tra di loro, che limitano i sistemi autoriproducentisi ed evolutivi. Il suggerimento ovvio - che deriva dalla termodinamica - è che siano l'energia e l'ordine a svolgere questo ruolo. L'ordine è dato dall'entropia, o capacità di informazione, e si tratta pur sempre di energia scambiata ad una assegnata temperatura. Siamo perciò autorizzati a parlare di autoriproduzione o riproduzione - cioè del processo fenotipico o di quello genotipico - usando il concetto-chiave di informazione, e ciò sia per i sistemi artificiali che per quelli naturali.

Ogni processo di questo tipo potrà svolgersi soltanto in un ambiente adatto. Abbiamo sistemi ‛aperti' e stati approssimativamente ‛stazionari' poiché i sistemi interagiscono con l'ambiente: i ‛dati' vengono forniti ai sistemi dall'esterno. In base alla termodinamica, la variazione di energia libera ΔF deve essere minima. Perciò, l'equazione di Helmholtz-Gibbs F=U−TS (in cui F è l'energia libera, U l'energia interna, TS l'energia ‛di legame', S l'entropia e T la temperatura) può essere interpretata dicendo che un sistema può autoriprodursi a condizione che in tale processo l'aumento di informazione sia compensato da una diminuzione di energia interna così da rendere minima l'energia libera.

Questa ipotesi stabilirebbe il limite inferiore e quello superiore per la vitalità di un sistema organizzato. Una eccessiva disponibilità di energia per un assegnato livello di ordine, o di capacità di informazione, distruggerebbe il sistema, mentre troppo ordine per una data energia lo renderebbe rigido e incapace di cambiamenti. Un'energia troppo scarsa per un dato ordine impedirebbe al sistema di formarsi; vi deve essere energia sufficiente, cioè un'energia di attivazione, per consentire la formazione di un minimo di capacità di informazione a partire dai numerosi elementi separati che formano il sistema. Affinché un qualsiasi sistema possa formarsi, l'energia dev'essere sempre maggiore dell'entropia, ma la formazione sarebbe altrettanto impossibile se per una data energia l'ordine fosse troppo scarso, ossia se vi fosse troppo ‛rumore'. Poiché la variazione dell'energia libera è nulla (ΔF=0) soltanto alla temperatura assoluta di zero gradi Kelvin, avremmo in tal caso ΔU=Δ(TS): la variazione di energia interna è pari alla variazione della capacità di informazione, ovvero alla variazione nel grado di organizzazione. Poiché la formazione dei cristalli che avviene a zero gradi Kelvin è caratterizzata da un singolo stato di energia, l'energia del punto zero, possiamo dire che questa è la capacità minima di informazione del sistema, il livello di organizzazione più basso possibile.

Abbiamo così un indizio per venire a capo del problema dell'organizzazione e della complessità com'è formulato dal principio di von Neumann. Parlando degli automi autoriproducentisi, egli stesso disse: ‟Ho cercato di giustificare l'assenrita necessità di una teoria dell'informazione e di dimostrare che ben poco di ciò che è noto finora può servire allo scopo [...] Questa nuova teoria dell'informazione, benché simile per molti aspetti alla logica formale, sarà probabilmente più vicina di quest'ultima alla matematica comune [...]" (v. von Neumann, 1966, p. 320).

La relazione tra termodinamica e organizzazione biologica deve essere inevitabilmente più complessa di quella tra termodinamica e ordine fisico. Sia gli automi che gli organismi debbono essere considerati sistemi ‛aperti', e non chiusi come lo sono i sistemi fisici; inoltre sono entrambi a stati ‛stazionari' e non di equilibrio. Un singolo livello di organizzazione può consistere di molti stati di equilibrio, e il sistema nel suo insieme possiede caratteristiche proprie. Il semplice modello di trasmissione dell'informazione, o comunicazione, costituito dalla sorgente, dal canale e dal ricevitore che formano un sistema chiuso non è più sufficiente. Questo è il modello ‛telegrafo': funziona abbastanza bene in fisica, ma difficilmente ci si può aspettare che funzioni in biologia. Al contrario, dobbiamo prendere il nostro modello di comunicazione proprio dalla biologia - e precisamente dalla teoria degli automi - per renderlo adatto a spiegare fenomeni complessi. Il modello più completo per la trasmissione dell'informazione ci viene offerto non dal semplice telegrafo, bensì dall'evoluzione.

Quando si parla di informazione genetica si usano termini come messaggero, messaggio, trascrizione, traduzione, riconoscimento, specificità (riguardo agli enzimi), interpretazione, ecc. Inoltre, va osservato che l'oggetto di studio è sempre il genotipo e non già il fenotipo, cioè il sistema invisibile anziché quello macroscopico. Così, l'oggetto fondamentale della teoria dell'informazione non è il grande apparato fisico - sia esso la cellula o la macchina - bensì la ‛doppia elica' del DNA, cioè il programma, o l'algoritmo. Ciò che conta è l'idea di algoritmo, di programma, di sotto-programma, di programma di programmi che può essere variato in base all'esperienza, per ‛selezione naturale' di un tipo o di un altro. Questa concezione riunisce la logica, la matematica, la teoria degli automi, la fisica, la biologia e la psicologia: si tratta di un'idea veramente interdisciplinare. Quest'idea può dunque servire da punto focale per il metodo scientifico, che deve sempre scaturire dalle esperienze concrete e fornire la ricostruzione razionale di quanto fanno gli scienziati. Saranno quindi i livelli di informazione e di metacomunicazione a fornirci la metateoria della scienza.

L'informazione come semplice segnale elettromagnetico presuppone un linguaggio, un codice, un significato; e l'unico ostacolo nel canale di trasmissione è il rumore. Se si prende come modello la duplicazione del DNA, oppure l'algoritmo dell'automa che si autoriproduce, abbiamo allora una gerarchia di livelli di informazione. L'istruzione, che al livello inferiore è un'espressione simbolica, viene interpretata come informazione (effettiva) al livello immediatamente più alto. Così, nel processo di trasmissione dell'informazione compare una ‛profondità logica' - come la chiama von Neumann - che non appare nel modello ‛telegrafo'. In realtà il processo di misurazione nella meccanica quantistica richiede effettivamente due livelli di informazione; e da questo fatto nascono le difficoltà che sono espresse dal principio di indeterminazione. Questa analogia tra riproduzione evolutiva e misurazione secondo la meccanica quantistica è stata messa in evidenza recentemente (H. H. Pattee).

Perciò i dubbi che sono qua e là affiorati sulla possibilità che la teoria dell'informazione possa descrivere lo sviluppo evolutivo sono giustificati nella misura in cui si usano soltanto concezioni semplici riferite a sistemi con un solo livello. La relazione tra il genotipo e il fenotipo è stata descritta come il rapporto tra l'elenco degli assiomi della geometria di Euclide e i tre volumi che contengono le conseguenze di tali assiomi (v. Waddington, 1968-1970). In verità, per passare dall'uno all'altro è necessario procedere all'interpretazione e all'elaborazione mediante il contatto con l'esperienza. Questa interazione con l'ambiente è descritta nella maniera migliore dal concetto di ‛creodi', cammini stabilizzati e preferenziali attraverso i quali opera la selezione naturale. La selezione opera soltanto se gli organismi contengono molti sottoprogrammi e se quindi possono variare dall'uno all'altro come risultato dell'esperienza. Ancora una volta si ha una stretta analogia tra automi e organismi, che è sostanziata dal concetto di algoritmo, o programma, o istruzione, o informazione potenziale.

La complessità di un qualsiasi sistema, sia naturale che artificiale, è data dalla gerarchia dei suoi livelli di organizzazione, e si riflette nei livelli di informazione necessari per descrivere un processo. Spesso un sistema si fraziona in sottosistemi; così, come prima approssimazione, si può considerare il numero di punti di contatto, o interfacce, di ciascun sottosistema come misura del suo livello di organizzazione. Un altro modo di affermare forse la stessa cosa è dire che il sistema è caratterizzato dalla ‛condizionalità' o numero di ‛vincoli' che operano a questo livello (Ashby): Prendiamo come esempio i livelli di organizzazione che si potrebbero attribuire all'uomo considerato come un sistema. Innanzitutto si ha il livello chimico degli atomi e delle molecole, quindi i livelli successivi potrebbero essere dati dai geni, dai cromosomi, dalla fisiologia, dal funzionamento degli organi, dal sistema nervoso e dall'attività emotiva e mentale. Ogni livello ‛più alto' sembra possedere più vincoli, benché, nel complesso, quanto più il sistema è organizzato, tanti più gradi di libertà possiede. Pertanto, è stato detto da alcuni che il livello più alto impone condizioni al contorno per le operazioni del livello inferiore. La relazione tra livelli deve allora includere anche qualche caratteristica che si riferisce all'integrazione del sistema complessivo.

Secondo la teoria dell'informazione, ‛vincolo' significa ridondanza, vale a dire, informazione effettiva fornita al sistema. Ma esistono dei limiti: un eccesso di ridondanza, o la correlazione totale tra gli elementi, provocherebbe l'arresto di tutti i cambiamenti; d'altra parte, una ridondanza eccessivamente scarsa - cioè l'assenza di qualsiasi vincolo, come in uno sciame di particelle libere - non produrrebbe nulla a sua volta. Esistono un massimo e un minimo per una data ‛dimensione' del sistema. Questo fatto è comprensibile solo se si pensa non in termini di un contenuto fisso di informazione, o messaggio, per ciascun livello del sistema o per tutto il sistema, bensì in termini di messaggio variabile; oppure vi sono programmi e programmi di programmi tali che il messaggio reale cambia per interazione con l'ambiente. L'apprendimento dall'esperienza e l'autocorrezione sono le capacità che caratterizzano il livello più alto di organizzazione, sia negli automi che negli organismi. Questo, beninteso, introduce una notevole incertezza, giacché potrebbero diventare necessarie la decisione, la scelta di alternative e perfino la sostituzione di una parte del programma. Nell'evoluzione l'esperienza passata è incorporata nei creodi, cosicché l'ambiente svolge un ruolo necessario nella scelta delle decisioni: il ‛paesaggio epigenetico' rappresenta la memoria ‛esterna' dei successi e degli insuccessi precedenti.

L'evoluzione è il processo naturale più generale; e benché i suoi meccanismi differiscano a seconda della sfera in cui operano, si può ‛ricostruire' il suo funzionamento in termini di gerarchia dell'informazione. Però dobbiamo ampliare la teoria tradizionale dell'informazione: il segnale elettromagnetico può rappresentare solamente il livello inferiore, ancora molto vicino alla trasmissione di energia che avviene secondo la legge di causalità. L'alfabeto, il codice, il significato, la descrizione e l'interpretazione non possono più essere ammessi o presupposti tacitamente ma debbono essere inclusi nel processo di comunicazione, come ci è stato insegnato sia dalla biologia molecolare sia dalla teoria degli automi. Anche la tipologia logica e semantica interviene allora nel processo, con rischio di giungere a un paradosso quando si abbia informazione effettiva.

Al giorno d'oggi, il problema della complessità è ancora in primo piano; tuttavia, viene gradualmente ridimensionato con l'impostazione interdisciplinare che riunisce la logica, il linguaggio, la matematica e le scienze sia fisiche che naturali, in altre parole tutto l'arco della conoscenza. Abbiamo raggiunto un nuovo livello di comprensione della natura. Abbiamo ottenuto un nuovo livello di integrazione della scienza che è più vicino alla realtà di quanto non si fosse riusciti a ottenere in precedenza. I falsi problemi come quello del dualismo fra il mondo materiale e quello mentale oppure quello del libero arbitrio, provocati dall'assolutismo e dalla eccessiva semplificazione delle teorie scientifiche del passato e in particolar modo dal metodo causale, vengono ora spazzate via dalla teoria dell'informazione e della metacomunicazione. Stiamo per entrare in una nuova epoca della storia della scienza, in cui le scienze fisiche e le scienze umane si unificheranno nello studio dell'uomo che crea e controlla e decide non solo gli aspetti materiali della realtà ma anche quelli del suo ordine. (V. anche informatica e omeostasi).

bibliografia

Abramson, N., Information theory and coding, New York 1963.

Ackoff, R. L., Salieni, M. L., Fundamentals of operations research, New York 1968.

Apter, M. J., The computer simulation of behaviour, London 1970.

Ash, R. B., Information theory, London 1965.

Bell, D. A., Information theory, London 1968.

Berkeley, E. C., Symbolic machines and intelligent machines, London 1959.

Bongard, M., Pattern recognition, New York 1971.

Bonsack, F., Information, thermodynamique, vie et pensée, Paris 1961.

Brown J., Glazier, E. V. D., Telecommunication, London 1969.

Church, A., Introduction to mathematical logic, Princeton 1953.

Coombs, C. H., Theory of data, New York 1964.

Coombs, C. H., Daws, R. M., Tversky, A., Mathematical psychology, Englewood Cliffs, N. J., 1970.

Davis, M., The undecidable, New York 1965.

Edwards, E., Information transmission, London 1969.

Feigenbaum, E. A., Computers and thought, New York 1963.

Foerster, H. von (a cura di), Principles of self-organisation, Oxford 1962.

Garner, W. R., Uncertainty and structures as psychological concepts, New York 1962.

Harrison, H. L., Bollinger, J. G., Automatic controls, London 1969.

Hilton, A. M., Logic, computing machines and automation, London 1963.

Hintikka, J. (a cura di), Information and inference, den Haag 1970.

Hutten, E. H., The ideas of physics, Edinburgh 1967.

Hutten, E. H., Physique des symétries et théorie de l'information, in ‟Diogène", 1970, LXXII, pp. 3-26.

Kleene, S. C., Introduction to metamathematics, Amsterdam 1952.

Klir, J., Valach, M., Cybernetic modelling, London 1967.

Kneebone, G., Mathematical logic, New York 1963.

Latil, P. de, Thinking by machine, London 1956.

Lwoff, A., Biological order, Cambridge, Mass., 1965.

MacFarlane, A. G. J., Dynamic systems models, London 1971.

McKay, D. L., Information, mechanism and meaning, Cambridge, Mass., 1969.

Maisel, H., Introduction to electronic digital computers, New York 1969.

Mendelson, E. H., Introduction to mathematical logic, New York 1964.

Mirsky, M. L., Computation. Finite and infinite machines, Englewood Cliffs, N. J., 1967.

Moles, A., Information theory and esthetic perception, Urbana 1966.

Monod, J., Le hasard et la nécessité. Essai sur la philosophie naturelle de la biologie moderne, Paris 1970 (tr. it.: Il caso e la necessità. Saggio sulla filosofia naturale della biologia contemporanea, Milano 19725).

Nelson, R. J., Introduction to automata, New York 1968.

Neumann, J. von, Theory of self-reproducing automata (a cura di A. W. Burks), Urbana 1966.

Nilsson, N. J., Learning Machines, New York 1965.

Pitman, R. J., Automatic control systems, New York 1966.

Post, E. L., Recursively enumerable sets of positive integers and their decision problems, ‟Bulletin of the American Mathematical Society", 1944, XX, pp. 284-316.

Raisbeck, G., Information theory, Cambridge, Mass., 1965.

Rosie, A. M., Information and communication theory, London 1966.

Schroder, H. M. e altri, Human information processing, New York 1967.

Singh, J., Great ideas in information theory, London 1967.

Slagle, J. R., Artificial intelligence, New York 1971.

Somenzi, V., La fisica della mente, Torino 1969.

Somenzi, V. (a cura di), L'evoluzionismo, Torino 1971.

Somenzi, V., Guzzo A. (a cura di), L'uomo e la macchina. Atti del XXI congresso nazionale di filosofia, 3 voll., Torino 1967.

Trakthenbrot, B. A., Algorithms and automatic computing machines, Lexington 1963.

Uhr, L., Pattern recognition, New York 1966.

Waddington, C. H. (a cura di), Towards a theoretical biology, 3 voll., Edinburgh 1968-1970.

Watanabe, S., Knowing and guessing, New York 1969.

Young, J. F. (a cura di), Information theory, London 1971.

Yovits, M. C., Self-organising systems, New York 1962.

CATEGORIE
TAG

Intelligenza artificiale

Approssimazione numerica

Rivoluzione industriale

Equazioni differenziali

Programmazione lineare