Il caso e la necessita

Enciclopedia della Matematica (2013)

Il caso e la necessita


Il caso e la necessità

Il termine caso evoca subito qualcosa di accidentale e fortuito e riporta alla mente, per analogia o contrapposizione semantica, i concetti di determinazione, causalità, prevedibilità, possibilità, probabilità. Di primo acchito, potrebbe sembrare che il caso non abbia nulla a che fare con una visione scientifica del mondo che si caratterizza appunto in quanto contrapposta a spiegazioni effettuate in termini di miracoli o di pura casualità. In realtà, il caso non è estraneo al mondo scientifico, dove si delinea una interessante traiettoria tra le due polarità del caso come condizione della nostra conoscenza e come stato ontologico degli eventi e dei processi in sé.

In campo matematico, l’ingresso del caso è legato all’attenzione rivolta a fenomeni aleatori quali il lancio dei dadi o, in generale, i giochi d’azzardo. Mentre il calcolo delle probabilità costruisce la propria ossatura e miete i primi successi con Cardano, Pascal, Fermat, Huygens, Jakob Bernoulli, l’atteggiamento prevalente nei confronti dell’aleatorio rimane quello espresso da Leibniz per cui se qualcuno avesse sufficiente intelligenza e memoria per tener conto di tutte le circostanze, questi potrebbe vedere il futuro nel presente come in uno specchio. Altro che imprevedibilità, altro che caso! Del resto, Laplace nell’introduzione alla Théorie analytique des probabilités (Teoria analitica delle probabilità, 1812) parla della probabilità come di una teoria necessaria pro tempore ad affrontare quei fenomeni che ancora non erano stati assoggettati a leggi matematiche sufficientemente precise. In un altro passo, ribadisce così la convinzione che i fenomeni fisici siano di natura strettamente causale: «Se noi immaginiamo un’intelligenza che a un istante dato comprendesse tutte le relazioni tra le entità di questo universo, essa potrebbe conoscere le rispettive posizioni, i moti e le disposizioni generali di tutte quelle entità in qualunque istante del futuro». Vale a dire: se il lanciatore di moneta fosse sufficientemente intelligente − e prima o poi ci arriverà − da saper valutare con precisione la forza della sua mano, le correnti d’aria e le irregolarità del suolo su cui la moneta atterrerà, la scelta tra testa e croce non sarebbe più affidata al caso e potrebbe essere prevista con certezza.

La svolta si verifica alla fine dell’Ottocento con J.-H. Poincaré, che giunge alla conclusione che caso e determinismo possono essere resi compatibili dall’imprevedibilità a lungo termine. Studiando il cosiddetto moto dei tre corpi (il moto della Luna soggetto all’attrazione di Sole e Terra), il fisico e matematico francese osserva che ci sono dei fenomeni che risultano estremamente sensibili rispetto a piccole variazioni che intervengono nelle condizioni iniziali. Mentre lo strumento matematico alla base del determinismo fisico − le equazioni differenziali e il teorema di esistenza e unicità per il problema di Cauchy − sembrava stabilire che dalla legge evolutiva di un sistema e dal suo stato attuale si potesse prevedere ogni suo stato futuro, fanno ora la loro comparsa fenomeni che non dipendono in modo esclusivo dalle cosiddette condizioni iniziali. Poiché la loro conoscenza è intrinsecamente approssimata o incompleta, non si può prevedere con precisione la tendenza asintotica del fenomeno né necessariamente vale ancora una legge di continuità secondo cui a una piccola imprecisione nella misurazione dello stato attuale corrisponde una leggera divergenza rispetto alla tendenza asintotica della situazione reale. La situazione sfugge di mano. Non è più possibile, per taluni fenomeni e in determinate circostanze, la previsione a lungo termine: eppure non si tratta del lancio di una moneta bensì di fenomeni “classicamente” deterministici.

La svolta annunciata da Poincaré non sembra inizialmente destare particolare interesse presso la comunità dei fisici. Nei primi decenni del Novecento, la loro attenzione verso il tema dell’evento casuale (nella sua accezione però di difficilmente prevedibile, in quanto troppo complesso da analizzare compiutamente) viene piuttosto assorbita dallo studio del moto browniano, grazie soprattutto ai lavori di A. Einstein e alla modellizzazione operata da N. Wiener, il padre della cibernetica. Quasi un secolo prima il botanico irlandese Robert Brown (1773-1858), osservando del polline sospeso nell’acqua, aveva notato il carattere completamente erratico del moto delle particelle microscopiche in sospensione in un liquido. Le sue molecole, nel loro moto disordinato di agitazione termica, coinvolgono le particelle microscopiche che si muovono come se non avessero nessuna meta e nessuna direzione preferenziale. Quello delle connessioni tra le proprietà macroscopiche di un sistema e le proprietà dei microsistemi che lo compongono, costituiti da atomi e molecole in continua agitazione, è un problema che verrà affrontato dalla meccanica statistica, rinunciando all’idea di partire dalle tantissime equazioni che regolano ciascuno dei microsistemi.

Nei decenni successivi, quasi a insistere nel “distrarre” i fisici dal prendere in serio esame l’osservazione di Poincaré, è la meccanica quantistica a far intervenire il caso in modo nuovo e intrinseco. A livello atomico e subatomico, infatti, emergono seri limiti nel definire i concetti di posizione e di velocità di una particella e nel valutare simultaneamente la loro misura. La funzione d’onda ψ non permette di localizzare con certezza le coordinate di un sistema, in quanto assegna solamente una distribuzione di probabilità nello spazio delle configurazioni. Anche il suo calcolo per un tempo futuro deve essere inteso in senso probabilistico e presuppone in particolare che il sistema rimanga isolato. Ancora più in particolare, non debbono essere eseguite misure e questo implica l’assenza di qualsiasi osservatore. La sua ineliminabilità può allora portare ad ammettere che la realtà non sia deduttivamente conoscibile e prevedibile.

Detronizzato nel mondo microscopico nella prima metà del Novecento dalla meccanica quantistica, a livello macroscopico il modello newtoniano di scienza, con le sue caratteristiche di regolarità e di prevedibilità, rimane dominante fino agli anni Sessanta, quando il panorama scientifico incomincia a mutare radicalmente: la ricerca nei settori di punta si concentra sullo studio degli aspetti che caratterizzano l’evoluzione di processi irregolari e irripetibili, in altre parole caotici. Nel 1963 il matematico e meteorologo statunitense Edward Lorenz riscopre, studiando le equazioni di un modello semplice di atmosfera, i risultati delle ricerche di Poincaré, risalenti al 1889, sull’instabilità dinamica delle equazioni di Newton per sistemi non lineari, nei quali alla somma delle cause non corrisponde la somma degli effetti. In questi sistemi l’ordine e il disordine, il regolare e l’irregolare, il prevedibile e l’imprevedibile si intrecciano indissolubilmente. Interessato al problema della convezione atmosferica e alle correnti ascendenti dell’aria calda (e discendenti di quella fredda) dovute al riscaldamento del suolo da parte del Sole, Lorenz scrive un sistema di equazioni differenziali − l’architrave su cui poggiava il determinismo classico! − non lineari e (ri)scopre che le traiettorie disegnate grazie a un elaboratore elettronico risultano molto sensibili rispetto a minuscoli cambiamenti, dei semplici arrotondamenti, operati sulle condizioni iniziali. È la metafora del battito delle ali di una farfalla che pure si trova anticipato, quasi con le stesse parole, in un racconto di Carlo Emilio Gadda (Legoista, 1953), che scrive di una libellula che vola a Tokyo e «innesca una catena di reazioni che raggiungono me». La metafora di Lorenz viene resa celebre dalla pubblicazione del testo di una conferenza che il meteorologo aveva tenuto nel 1972 dal titolo appunto Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?. La diffusione del computer e l’immagine di un comune insetto che vola lungo il Rio delle Amazzoni e che con un semplice battito delle ali sconvolge il clima del mondo rende estremamente popolare la teoria del caos. Il termine caos deterministico, coniato in quegli anni, è un ossimoro che esprime in modo efficace come l’imprevedibile non sia solo legato a eventi di per sé aleatori, ma si insinui anche in fenomeni che a prima vista nulla hanno a che fare con il caso. La previsione a priori può essere impossibile: il caos può insinuarsi nell’ordine. D’altra parte, gli sviluppi degli studi sul caos deterministico sembrano esprimere la tenacia del pensiero umano, con l’ordine che tenta di intervenire nel caos. Dagli anni Sessanta lo studio del caos deterministico ha vissuto una rapida crescita, che ha investito un ampio spettro di discipline: dalla fisica alla chimica, dall’ingegneria alla medicina, dall’ecologia all’economia. Ne sono esempi tipici lo studio dei fenomeni meteorologici, del battito del cuore, del gocciolio del rubinetto di casa o del rotolamento caotico di Iperione, satellite di Saturno, sulla sua orbita ellittica.

La riflessione sui rapporti tra necessità e caso, sul conflitto tra una concezione deterministica e una concezione probabilistica della realtà, sui rapporti tra la natura dei macroprocessi e quella dei singoli microeventi che li compongono, non è riservata alla sola fisica. Riguarda anche altre discipline che all’esperienza della fisica possono fare riferimento, ma che pure devono tener conto della loro diversità e della problematicità, per esse, di ricorrere a una regolare ricorrenza di eventi.

In biologia, l’introduzione della nozione di caso risale a Charles Darwin (1809-1882) che nel suo On the origin of species (L’origine delle specie, 1859) espone la teoria evoluzionistica convinto che sia necessario abbandonare il dogma della fissità delle specie: le specie sono soggette a variazioni fortuite che consentono loro di adattarsi alle mutate condizioni ambientali. Le variazioni morfologiche degli esseri viventi sono dovute alla casualità e non al finalismo di una qualsiasi azione provvidenziale. Nelle inevitabili polemiche che una tale teoria ha alimentato si è inserito, in tempi più recenti e con una sua posizione originale, Jacques Monod (1910-1976). Premio Nobel per la medicina nel 1965, consapevole dell’importanza anche filosofica dei risultati ottenuti dalla genetica molecolare, Monod è autore del saggio Le hasard et la nécessité (Caso e necessità, 1970) dove propone una originale sintesi tra il caso che origina le mutazioni e il determinismo che opera nel meccanismo della selezione naturale e nel processo di adattamento dell’essere vivente all’ambiente. Egli conferma l’abbandono di ogni concezione finalistica del mondo e dell’uomo: non c’è nessuna marcia di avvicinamento ad alcun obiettivo, ma un’esuberante esplorazione di possibilità; l’evoluzione va concepita come una somma di eventi casuali, la creazione e la trasmissione dei messaggi genetici alla base della vita avvengono in presenza del caso. Nel suo testo, Monod scrive che le alterazioni nel dna «sono accidentali, avvengono a caso. E poiché esse rappresentano la sola fonte possibile di modificazione del testo genetico, a sua volta unico depositario delle strutture ereditarie dell’organismo, ne consegue necessariamente che soltanto il caso è all’origine di ogni novità, di ogni creazione nella biosfera. Il caso puro, il solo caso, libertà assoluta ma cieca, alla radice stessa del prodigioso edificio dell’evoluzione: oggi questa nozione centrale della biologia non è più un’ipotesi fra le molte possibili o perlomeno concepibili, ma è la sola concepibile in quanto è l’unica compatibile con la realtà quale ce la mostrano l’osservazione e l’esperienza. Nulla lascia supporre (o sperare) che si dovranno, o anche solo potranno, rivedere le nostre idee in proposito». Gli eventi iniziali, che schiudono la via dell’evoluzione, sono fortuiti e senza alcun rapporto con gli effetti che possono produrre. Tuttavia, una volta avvenuta la mutazione e la modifica nella struttura del dna, «l’avvenimento singolare, e in quanto tale essenzialmente imprevedibile, verrà automaticamente e fedelmente replicato e tradotto, cioè contemporaneamente moltiplicato e trasposto in milioni o miliardi di esemplari. Uscito dall’ambito del puro caso, esso entra in quello della necessità, delle più inesorabili determinazioni».

TAG

Premio nobel per la medicina

Distribuzione di probabilità

Spazio delle configurazioni

Calcolo delle probabilità

Equazioni differenziali