L'Ottocento. Introduzione. Le radici del sapere contemporaneo

Storia della Scienza (2003)

L'Ottocento. Introduzione. Le radici del sapere contemporaneo

Enrico Bellone

Le radici del sapere contemporaneo

Nell'introduzione allo sviluppo scientifico e culturale che si è realizzato durante la transizione dall'età romantica alla società industriale, Paolo Rossi, riprendendo una tesi di Alexandre Koyré, ci ricorda che "non dobbiamo concepire la scienza (così come noi la intendiamo e così come essa è venuta configurandosi in Europa fra la metà del Seicento e la fine dell'Ottocento) come qualcosa di 'necessario' alla vita di una società, allo sviluppo di una cultura, perfino all'edificazione di Stati e di grandi Imperi". Questa tesi deve essere sempre sottolineata, anche perché l'evoluzione conoscitiva ottocentesca ha potuto realizzarsi unicamente in virtù della formazione di condizioni sociali e istituzionali estremamente specifiche. Nel rivolgere lo sguardo all'Ottocento, troviamo infatti un panorama che non consente, se non al prezzo di forzature, di tracciare confini netti tra argomenti filosofici e argomenti scientifici.

Il panorama dei linguaggi con i quali gli esseri umani descrivono i fenomeni ha la struttura di un paesaggio che varia con continuità. Alla sua periferia si possono trovare raffigurazioni di senso comune, ancorate ai dati più immediati della percezione; viaggiando poi fra i documenti disponibili negli archivi e anche nelle biblioteche ci spostiamo verso zone più austere, tuttavia non incontriamo mai fratture irriducibili, come quelle che invece una certa tradizione instaura tra cultura, scienza e tecnica.

In realtà, molte pagine di Immanuel Kant o di Johann Wolfgang von Goethe rinviano a informazioni rigorose sullo stato reale dell'astronomia o della botanica, e interi settori dell'opera di Auguste Comte hanno fondamenta ben poste nella più raffinata matematica dei primi anni dell'Ottocento. Le argomentazioni filosofiche di Ernst Mach, Pierre-Maurice-Marie Duhem o Henri-Louis Bergson sono saldamente ancorate a saperi concernenti la meccanica analitica, la termodinamica o la biologia. La fisica sperimentale di Michael Faraday poggia su aspettative messe in luce dalla Naturphilosophie, le indagini di William R. Hamilton sulle algebre sono tessute su richiami alla concezione kantiana del tempo, la scoperta dell'elettrone avviene in una cornice al cui interno sono vivacissime le dispute sull'accettabilità di visioni materialistiche della Natura, ampie parti degli scritti di Charles Darwin ci rimandano alla possibilità di ricondurre il mondo dei valori alla biologia.

Il panorama dei saperi non è, d'altra parte, stabile. Durante l'Ottocento sono venute alla luce teorie che hanno indebolito le concezioni meccanicistiche della Natura che già Newton aveva indicato come ostacoli per la conoscenza dell'Universo. La scienza ottocentesca erode, infatti, le condizioni indispensabili per la sopravvivenza di immagini dei fenomeni in cui abbia senso una descrizione del mondo sotto forma di meccanismo a orologeria. La stessa astronomia introduce a forza nella rappresentazione dell'Universo, grazie a filosofi come Kant, fisici matematici come Pierre-Simon de Laplace e astronomi come William Herschel, la dimensione storica in termini di evoluzione.

Un'analoga mutazione, nell'opera di Jean-Baptiste Lamarck o in quella di Jean-Baptiste-Joseph Fourier, investe scienze quali la biologia o la termodinamica, che diventano portatrici di concetti storici e trasformistici sia nel regno degli organismi viventi, sia in quello della marche naturelle osservabile nei processi termici. La nozione innovativa di quantum emerge, con Ludwig Boltzmann, come fattore determinante nella crescita della teoria cinetica dei gas o nei primi tentativi di fondare matematicamente la nozione di irreversibilità. I filoni dell'evoluzionismo darwiniano e dei nuovi saperi sulla struttura del cervello inoltre introducono, nelle raffigurazioni della Natura, trasformazioni paragonabili a quelle che scaturiscono dalla crescita delle conoscenze geometriche sullo spazio e sul tempo. Alla fine del secolo dunque l'interpretazione del mondo ci appare come la matrice linguistica, di natura scientifica e filosofica, da cui sorgerà, senza soluzioni reali di continuità e in assenza di radicali crisi metodologiche, la cultura del Novecento.

Il problema più difficile: la vita e le trasformazioni nella Natura

Il secolo s'era appena avviato e, nel mese di maggio, un collezionista di conchiglie fossili tenne il discorso di apertura del corso di lezioni che egli svolgeva, presso il Muséum National d'Histoire Naturelle, da una cattedra istituita per impartire lezioni sugli insetti e sui vermi. Nell'ambiente parigino di fine Settecento, quel docente era stato più volte al centro di non troppo benevole attenzioni: aveva infatti sollevato, senza però usare argomenti rilevanti, critiche piuttosto aspre nei confronti della nuova chimica di Antoine-Laurent Lavoisier, e aveva sostenuto opinioni in fisica che Laplace aveva salutato con motti di derisione.

Eppure, in quel discorso che Lamarck sviluppò nella primavera del 1800, ritroviamo, oggi, i primi elementi di una profonda trasformazione ottocentesca nella rappresentazione dell'Universo. Una trasformazione che avrebbe introdotto, nel volgere di pochi anni, criteri evoluzionistici nella conoscenza sia del mondo inorganico sia del mondo della vita.

Lamarck invero si era limitato ad annunciare la propria adesione a un insieme di opinioni attorno alle quali già esisteva un diffuso consenso e che si riassumeva nell'accettazione, più o meno qualitativa, dell'idea secondo la quale gli organismi viventi potevano modificarsi interagendo con l'ambiente circostante e trasmettere alcune modifiche attraverso la riproduzione. Un'adesione improvvisa, date le precedenti simpatie lamarckiane per il fissismo, ma, soprattutto, un primo indizio di una mutazione culturale che, proprio attraverso Lamarck, riuscì, tra mille difficoltà, a installarsi nel pensiero ottocentesco e a contrassegnare la nuova concezione della Natura che, nel Novecento, avrebbe sostituito quella che si era affermata, con successo, durante il Rinascimento, il Seicento e il Settecento.

Come è stato sottolineato, i primi mesi dell'Ottocento furono decisivi per Lamarck. In un manoscritto lamarckiano, intitolato Biologie e databile proprio in quel periodo, ritroviamo infatti la percezione netta dell'importanza che il docente del Muséum attribuiva al problema che si era imposto alla sua attenzione. Secondo Lamarck, "ricercare quale sia l'origine dei corpi viventi e quali siano le cause principali della diversità di questi stessi corpi, degli sviluppi della loro organizzazione e delle loro facoltà, è senza dubbio l'oggetto più vasto e il più importante che si possa abbracciare nello studio della Natura; tuttavia, fra tutti i problemi che l'uomo possa proporsi, è senza dubbio il più difficile da risolvere" (in Corsi 2000, p. 50).

Nell'estate del 1802 quel problema era enunciato e discusso da Lamarck, nelle Recherches sur l'organisation des corps vivants, in una cornice concettuale centrata sulle analogie tra i mutamenti della superficie del pianeta e quelli relativi agli organismi viventi. La soluzione del problema doveva essere trovata in un filone di ricerche che, sebbene incomplete, avevano lo scopo già chiaro di individuare, secondo i principî di una 'dinamica' fondata su leggi fisiche, una rappresentazione unitaria della storia del pianeta e della vita. Il progetto delle Recherches incideva, dunque, sulla nozione stessa di 'vita'. Il nome 'vita' non doveva indicare un ente spirituale o immateriale, ma "un ordine e uno stato di cose nelle parti costitutive di quei corpi che, grazie alla loro complessità, esibivano forme di movimento organico".

Questo movimento era, secondo Lamarck, in grado di produrre modalità di specializzazione progressiva degli organi e delle loro funzioni, e, alla luce di tale specializzazione, aveva senso parlare di animali più o meno semplici così come accettare il punto di vista, già ampiamente esposto da altri studiosi, secondo cui esisteva l'ereditarietà dei caratteri acquisiti. Tutto ciò aveva senso, però, nell'ambito di una teoria globale secondo cui la progressiva trasformazione degli organismi viventi era ricondotta a fondamenti naturalistici: le leggi della fisica, i saperi chimici sul calore, la rappresentazione tassonomica dell'albero della vita, le conoscenze di anatomia comparata e la geologia dovevano, per Lamarck, confluire in un abbozzo di spiegazione secondo il quale, in un periodo lunghissimo di tempo e con il concorso di "una diversità pressoché inesauribile di circostanze influenti, vennero formati i corpi viventi di tutti gli ordini".

La concezione lamarckiana subì, negli anni successivi, mutamenti di varia portata. Eppure lo schema delle Recherches è ancora oggi basilare per cogliere, sul filo dell'evoluzione culturale che si stava realizzando nel primissimo Ottocento, l'irrompere della storia nel mondo naturale. Il problema che ci sta attualmente di fronte non è tanto quello di sottolineare le debolezze della proposta di Lamarck, quanto piuttosto quello di capire che l'Ottocento non fu un lungo periodo di esercitazioni meccanicistiche sull'eredità newtoniana. Sin dal suo avvio, fu un secolo di radicali innovazioni: ne cogliamo gli indizi non appena ricordiamo che le Recherches del 1802 erano state precedute dall'ipotesi kantiana sulla nebulosa da cui avrebbero tratto origine il Sole e i pianeti oppure dalle congetture di Laplace riguardo l'evoluzione stellare.

Tra la fine del Settecento e l'alba dell'Ottocento, la storia, rivisitata come evoluzione naturalistica della materia, sta entrando sulla scena del rapporto tra varie forme del sapere. Anche perché, come risulta dai successivi sviluppi del pensiero di Lamarck, il trasformismo è sempre più concepito come rappresentazione di una storia naturale il cui andamento si realizza senza obbedire alle norme di un progetto precostituito: le variazioni dell'ambiente inducono mutazioni nei corpi viventi, e il destino di questi ultimi non è l'esito di un piano trascendente. Gli organismi si adattano trasformandosi, oppure scompaiono. La storia del pianeta e delle forme viventi è una marche de la Nature: espressione, questa, che come vedremo appare in altri luoghi della cultura scientifica francese del primo Ottocento.

Le stelle e la loro storia

Data la marche de la Nature, si può discendere, verso il passato, dall'uomo agli animali più semplici; ma, sempre in virtù di una marche de la Nature, è possibile un altro viaggio che ci porta a un passato ben più lontano, posto in un abisso di tempo che si misura, come aveva osservato Kant, con montagne di millenni: è il viaggio verso la nascita del Sistema solare. Nel Settecento s'era fatta strada l'idea che il nostro mondo non fosse lo statico risultato di un atto di creazione, ma l'esito di un processo ancora in atto. Così, per esempio, Georges-Louis Leclerc de Buffon aveva suggerito, nell'Histoire naturelle del 1749, che le scansioni di tale processo fossero governate da eventi catastrofici, e aveva discusso l'ipotesi che una cometa, generata dall'esplosione di qualche stella lontana, fosse entrata in collisione con il nostro Sole staccandone frammenti e dando così origine ai pianeti.

Esisteva tuttavia la possibilità di elaborare congetture conformi a processi evolutivi non catastrofici e governati dalle leggi della meccanica celeste. Lungo questa direttrice di lavoro si era mosso Kant, nel 1755, scrivendo le pagine di Allgemeine Naturgeschichte und Theorie des Himmels (Storia universale della Natura e teoria del cielo) e suggerendo che il Sistema solare fosse sorto, grazie all'interazione gravitazionale, da una massa gassosa originaria.

Un'evoluzione dello stesso tipo era stata più tardi descritta da Laplace in un libro che, andato alle stampe nel 1796, nel 1827 era in sesta edizione e ancora figurava come testo di riferimento per ampi settori della cultura scientifica e filosofica europea. Il volume, intitolato Exposition du système du monde, ebbe dunque una fortuna editoriale assai maggiore di quella dell'opera di Kant, che aveva invece avuto una scarsissima diffusione. L'Exposition conteneva la stesura di un modello a nebulosa. Un'enorme estensione di materia rarefatta avrebbe potuto, senza violare le leggi della fisica, essere la sede ideale di un graduale fenomeno di contrazione e raffreddamento. Nelle sue fasi finali, il processo sarebbe stato in grado di produrre una stella centrale e un insieme di pianeti. Un tale sistema di corpi, obbedendo alla forza gravitazionale, avrebbe esibito una notevole stabilità.

Su scale spaziali e temporali ancora maggiori, l'egemonia della gravitazione nell'evoluzione dei corpi celesti era collocata al centro dell'opera dell'astronomo Herschel, il quale, non a caso, aveva descritto sé stesso nelle vesti di storico naturale dei cieli. Parlando, sul finire del Settecento, di ammassi stellari, Herschel stabiliva continue analogie tra le trasformazioni osservabili nel mondo vegetale e quelle che i nuovi telescopi mostravano nello spazio lontano; e le analogie non riguardavano unicamente la nascita e lo sviluppo, ma anche il disfacimento e la morte. Nel 1814, infatti, Herschel pubblicava un saggio in cui sosteneva che la Via Lattea, sotto il continuo lavorio perturbativo delle interazioni agenti al suo interno, era destinata a dissolversi nei tempi scanditi da una sorta di cronometro cosmico.

L'intero Universo, dunque, appariva sempre meno raffigurabile come uno statico meccanismo a orologeria, messo in moto con un atto di creazione: l'insieme delle stelle e dei pianeti diventava sempre più descrivibile in termini di processualità. Ciò emergeva su scale temporali fra loro dissimili, che avevano a che fare con le trasformazioni nel regno vegetale e animale, le mutazioni della superficie del nostro pianeta, l'evoluzione del Sistema solare e la storicità dell'intero dominio dei corpi celesti.

La marche de la Nature, dunque, sembrava contrassegnare tutte le entità materiali, anche se le leggi della meccanica celeste erano costanti e dotate di simmetria rispetto al tempo. Ci si può chiedere come fosse possibile, allora, ricondurre a queste leggi il divenire globale della Natura. Una prima risposta a tale quesito avrebbe investito un settore di fenomeni molto particolare, e cioè quello che riguardava il movimento del calore e che si sarebbe rivelato come esemplare sotto il profilo di ciò che il matematico Fourier avrebbe battezzato con l'espressione marche naturelle dei fenomeni termici, tentando di sottrarre questi ultimi all'egemonia della meccanica analitica e inaugurando l'era della termodinamica.

Simmetrie e 'marche naturelle': Fourier e Comte

La sistemazione della teoria del moto, elaborata per via matematica da studiosi come Euler, Lagrange e Laplace, aveva messo in evidenza che, data la struttura delle equazioni fondamentali della meccanica analitica, esisteva una simmetria globale per l'intero Universo. Tale simmetria poteva essere espressa affermando che l'architettura del mondo non subiva modificazioni quando si cambiava il segno del tempo t: le soluzioni delle medesime equazioni descrivevano gli eventi del passato quando erano riferite a tempi del tipo −t, ed eventi futuri quando erano rapportate a +t. Ciò equivaleva a pensare che l'intera storia dell'Universo fosse determinata da tale simmetria. Torneremo fra poco sul problema, poiché esso aveva, agli inizi del secolo, un'implicazione filosofica generale che riguardava il rapporto tra causalità e probabilità. Ora, invece, dobbiamo tener conto di un altro aspetto della simmetria rispetto al tempo, e cioè se sia possibile, con gli algoritmi della meccanica analitica, rappresentare i processi la cui marche naturelle è irreversibile.

Un tipico raggruppamento di processi di questo genere si stava formando, tra la fine del Settecento e i primi anni dell'Ottocento, nei settori di innovazione tecnologica connessi allo sfruttamento dell'energia termica e alla progettazione di macchine a vapore con elevata efficienza. Il problema teorico centrale, sotto questo profilo, era costituito dall'assenza di un'equazione capace di rappresentare il movimento del calore all'interno di un solido di forma qualsiasi che avesse subito una perturbazione termica di tipo qualsiasi. Laplace aveva sviluppato una soddisfacente teoria matematica per i casi di equilibrio tra particelle di calore e particelle di materia. La sua teoria, pur essendo abbastanza potente da dedurre una legge come quella che Robert Boyle ed Edme Mariotte avevano scoperto sulle relazioni esistenti tra pressione, volume e temperatura, da aprire la strada verso una trattazione delle transizioni di fase oppure da suggerire una più raffinata nozione di temperatura, non permetteva però di affrontare, in modo altrettanto plausibile, le situazioni in cui, per esempio, un fascio di particelle di calore si spostava, nel tempo e nello spazio, all'interno di un oggetto materiale, o transitava fra corpi aventi temperature diverse.

Già nel 1807, però, il matematico Fourier aveva trovato la forma di un'equazione che governava il moto del calore all'interno di materiali qualsiasi e di forma qualsiasi. Quella equazione tuttavia appariva enigmatica sotto molti aspetti. In primo luogo, essa era indipendente da ipotesi sulla natura di ciò che si era soliti battezzare con il nome 'calore'. In secondo luogo, non era deducibile dalle leggi della meccanica. Per giungere alla sua forma, infine, occorreva ammettere a priori il principio secondo il quale, date due porzioni microscopiche di materia disposte all'interno di un corpo, tra loro vicine e dotate di temperature diverse, la porzione più calda cede all'altra una quantità di calore proporzionale alla differenza tra le due temperature.

L'equazione di Fourier regolava, con criteri esclusivamente matematici, le variazioni nel tempo di una funzione delle sole quattro coordinate spaziotemporali. Tale funzione era interpretata, alla fine delle deduzioni consentite dal sistema di calcolo, come 'temperatura', ma le sue caratteristiche dipendevano unicamente dagli algoritmi consentiti, e non dal suo significato fisico. Come Fourier non mancava di sottolineare, l'equazione generale le cui soluzioni fornivano l'andamento della temperatura non era deducibile dalle usuali leggi della meccanica analitica. La non deducibilità dipendeva dalla circostanza per cui la marche naturelle dei fenomeni termici aveva una direzione unica e indipendente dalle condizioni iniziali: se un sistema materiale veniva perturbato termicamente in qualche sua zona, allora la distribuzione delle temperature al suo interno evolveva in maniera spontanea verso una distribuzione finale che era unica e che non conservava tracce degli stati iniziali.

Data la struttura del sistema deduttivo, non vi era il minimo interesse a porre quesiti sulla natura reale del calore: era sufficiente, invece, affidarsi alla matematica. Quest'ultima portava a conclusioni vere poiché non era uno dei tanti linguaggi disponibili per l'uomo e creati dall'uomo, ma costituiva "un elemento preesistente dell'ordine universale" ed era "impressa in tutta la Natura". Quelle che Fourier chiamava 'equazioni del fenomeno' descrivevano, quindi, sequenze di eventi la cui evoluzione nel tempo e nello spazio era autonoma rispetto alle condizioni iniziali. In tal modo, la nuova teoria parlava di un'asimmetria della Natura che era profonda e irriducibile alla simmetria che la teoria della meccanica analitica aveva instaurato tra −t e +t. Un solo fattore era comune ai due sistemi teorici, il linguaggio universale della matematica. Spettava allora a questa disciplina suggerire l'insieme delle esperienze possibili.

Queste tesi erano esposte nella monumentale Théorie analytique de la chaleur, che Fourier pubblicò nel 1822, ed ebbero un peso rilevante nella formazione della concezione filosofica che Comte tracciò nei volumi del Cours de philosophie positive, stampati a partire dal 1830. Va in primo luogo tenuto presente che Comte possedeva le competenze necessarie per leggere e per comprendere gli scritti di scienziati come Lamarck, Laplace o Fourier: ancora giovanissimo era entrato nella prestigiosa École Polytechnique, dove, nel 1836, aveva insegnato geometria. È significativo, pertanto, che a suo avviso la conoscenza umana fosse di stampo evolutivo e potesse essere interpretata sulla base del suo sviluppo storico. Questo messaggio del Cours possedeva una carica innovatrice che ancora oggi permane, anche se sono state abbandonate sia l'opinione di Comte secondo cui l'evoluzione per stadi successivi ‒ teologico, metafisico e scientifico ‒ ha un carattere cumulativo, sia la classificazione positivistica delle scienze. Secondo Comte, una volta raggiunto lo stadio scientifico, il sapere aveva caratteristiche analoghe a quelle che Fourier ‒che veniva indicato nel Cours come il secondo Newton ‒ aveva individuato nella Théorie del 1822: le leggi riguardavano i fenomeni e, in quanto tali, erano autonome da ogni ipotesi metafisica sulla natura di enti come il calorico. Infine, la critica antimetafisica di Comte non risparmiava il sogno filosofico di ricondurre le varie ricerche scientifiche entro un'unica cornice metodologica: il metodo, infatti, secondo Comte, non è separabile dalle specifiche linee di ricerca.

Spazio e tempo. Da Kant a Poincaré

Quale rapporto sussiste tra l'esperienza e la conoscenza scientifica? Esiste un consenso ampio, nel rispondere a questa domanda, attorno all'opinione che l'esperienza svolga un ruolo importante. È tuttavia aperta la discussione sulla natura di tale ruolo. Secondo Comte, per esempio, le spiegazioni in astronomia o nella scienza dei corpi organici presumono certamente l'osservazione, intesa come 'esame del fenomeno'. Per quanto invece riguarda l'esperienza vera e propria, essa è vista nel Cours come un'analisi del fenomeno in funzione di circostanze 'artificiali' in quanto introdotte dallo scienziato. Risulta impossibile, quindi, che essa si realizzi nell'ambito della spiegazione astronomica, che è invece dominata dal raziocinio.

Anche per Laplace l'astronomia è un sapere dal quale "l'empirismo è stato interamente bandito": la teoria matematica dei moti celesti, come si legge nell'Exposition du système du monde, ha sopravanzato le osservazioni, rivelando movimenti che la sola esperienza avrebbe impiegato secoli a porre in evidenza. Inoltre, da un fronte culturale assai critico nei confronti dell'eredità newtoniana, Goethe, nell'ultimo decennio del Settecento, non nega il valore degli esperimenti riproducibili, ma mette in guardia dalle mille insidie che prosperano là dove avviene il passaggio decisivo dall'esperienza al giudizio.

A monte delle discussioni sul ruolo delle osservazioni e delle misure, tuttavia, vi è, agli inizi dell'Ottocento, un quesito centrale riguardo al modo in cui è costituito il processo stesso della conoscenza sensibile. Il quesito, posto da Kant nella sua Kritik der reinen Vernunft (Critica della ragion pura) del 1781, trova una soluzione plausibile a patto di respingere l'idea che la conoscenza sensibile si realizzi come una ricezione passiva di dati percettivi, e di accettare invece il punto di vista secondo cui i dati percettivi sono ordinati da forme a priori. A parere di Kant, tali forme a priori sono rispettivamente lo spazio, considerato alla stregua di forma della sensibilità esterna, e il tempo, inteso come forma della sensibilità interna. I nomi 'spazio' e 'tempo' non indicano dunque proprietà reali delle cose e non sono concetti ricavati dall'esperienza. Un soggetto pensante può rappresentare le cose del mondo in quanto già possiede, prima di ogni esperienza, una rappresentazione dello spazio. Analogamente, un soggetto pensante può ordinare il mondo secondo distinzioni tra il prima e il dopo solamente perché egli possiede, prima di ogni esperienza, una rappresentazione del tempo come forma del senso interno. Essendo tali forme a priori, esse regolamentano tutto ciò che collochiamo sotto la voce 'esperienza'. Ne segue che la geometria, l'aritmetica o la cinematica sono solidamente fondate: la prima può giungere a conoscenze vere sulle strutture spaziali, la seconda opera sui criteri di ordine che caratterizzano, per esempio, le sequenze numeriche, e la terza indaga sul movimento, la cui nozione è resa possibile in quanto l'intuizione del tempo permette di formulare il concetto di mutamento. Kant, come è noto, considerava la propria soluzione del problema dell'esperienza come una rivoluzione copernicana, e riteneva di avere risolto il problema di giustificare la fisica come scienza vera, nel senso che le leggi di Natura gli apparivano fondate su conoscenze a priori. Da questo punto di vista una disciplina come la chimica non sarebbe mai diventata una scienza vera e propria, e sarebbe rimasta un'arte sperimentale, inoltre la geometria era confinata nella cornice delle conoscenze allora note, configurandosi come una scienza di matrice euclidea.

La rivoluzione kantiana influenzò non pochi scienziati. Basti ricordare che uno dei più grandi matematici della prima metà dell'Ottocento, Hamilton, sostenne in uno scritto del 1835 che l'algebra poggiava sulla concezione kantiana del tempo: "la nozione o intuizione di 'ordinamento temporale' non è meno, bensì più profondamente insita nella mente dell'uomo, della nozione o intuizione di 'ordinamento spaziale', e si può fondare sulla prima una scienza matematica altrettanto pura e rigorosa della scienza fondata sulla seconda" (in Rossi 1988, II, p. 228).

La concezione kantiana dello spazio approdava dunque, nella Kritik del 1781, alla "certezza apodittica di tutti i principî della geometria", che erano costruibili a priori. Eppure, proprio a cavallo tra Settecento e Ottocento, una simile presa di posizione sollevava dubbi tra gli studiosi di matematica. Il grande Carl Friedrich Gauss, per esempio, era ben lontano dalle certezze di Hamilton. Egli infatti riteneva che la geometria, così come era nota su base euclidea, non avesse un carattere di necessità a priori, e che fosse piuttosto connessa con la teoria fisica del movimento. Nelle Disquisitiones generales circa superficies curvas, del 1827, Gauss inaugurava di fatto un nuovo settore di ricerca sulla geometria di superfici a curvatura variabile, dove faceva confluire decenni di indagini che egli stesso non aveva rese pubbliche per non scontrarsi con i difensori dell'approccio kantiano al problema dello spazio. Pochi anni dopo, Gauss poteva leggere ciò che János Bólyai già aveva scoperto nel 1823 e che soltanto nel 1832 appariva a stampa, come appendice a un volume del padre, Farkas Bólyai, il quale era stato compagno di studi di Gauss. I risultati di Bólyai non differivano molto da quelli di Gauss, ma questi e Bólyai ignoravano che nel 1826 un professore dell'Università russa di Kazan, Nikolaj Ivanovič Lobačevskij, aveva presentato ai propri colleghi, peraltro increduli e scettici, gli esiti di studi già avviati da una decina d'anni secondo una prospettiva non kantiana, ma esplicitamente riferita alle norme che Francis Bacon aveva suggerito, in anni galileiani, per elaborare una scienza basata sull'esperienza.

La geometria, secondo Bólyai, non era poggiata su concetti assolutamente veri, tuttavia, come la fisica o l'astronomia, dipendeva dalle osservazioni sul movimento dei corpi naturali. Ne seguiva che alcuni fenomeni naturali obbedivano a una data geometria, e che altri fenomeni erano invece regolati da altre strutture geometriche. Sotto il profilo tecnico, Lobačevskij elaborava una geometria indipendente da quel postulato euclideo sul parallelismo che già nel Settecento era stato osservato con sospetto da vari studiosi. Va tuttavia sottolineato che, data l'ampiezza del consenso esistente attorno all'opinione che la geometria euclidea fosse l'unica rappresentazione vera dello spazio, le nuove teorie non riscossero, in tempi brevi, quel successo che avrebbero invece ottenuto nei decenni successivi.

Un punto di svolta fu certamente costituito dalle indagini svolte da un gigante delle scienze matematiche: Bernhard Riemann. Attorno alla metà del secolo egli intervenne su più fronti della ricerca, ponendo radici per ulteriori linee di sviluppo. Per quanto concerne in particolare le trasformazioni che si stavano verificando nella nozione di spazio, furono di monumentale importanza le pagine che nel 1854 Riemann dedicò alle ipotesi che stavano riposte alle fondamenta stesse della geometria, e alle correlazioni che dovevano sussistere tra i rapporti metrici e i fenomeni fisici. La prospettiva aperta da Riemann fu di eccezionale fecondità, e dominò ampia parte delle indagini sulla geometria e sul concetto di spazio che vennero alla luce, gradualmente, nella seconda metà dell'Ottocento, e che posero gli elementi teorici grazie ai quali fu possibile, per Albert Einstein, enunciare la sua teoria della gravitazione. Il testo riemanniano fu pubblicato soltanto nel 1867, e, pochi mesi più tardi, venne ripreso da Hermann von Helmholtz. Si profilava in tal modo un'evoluzione concettuale che, nel fluire dei decenni, sfociava in alcuni lavori fondamentali di Felix Klein, Eugenio Beltrami e di Jules-Henri Poincaré. Giustamente Umberto Bottazzini ha fatto notare che "l'importanza delle ricerche di Riemann e Beltrami in geometria differenziale, di Klein in geometria proiettiva e infine di Poincaré nella teoria delle equazioni differenziali e delle funzioni automorfe ebbe ragione delle più ostinate resistenze e portò le geometrie non euclidee a far stabilmente parte del patrimonio della matematica" (1990, p. 189).

Gli enigmi dell'elettricità e del magnetismo

Agli inizi del secolo, l'idea che la scienza potesse crescere solo su radici newtoniane e con un supporto sempre più esteso di metodi matematici era quanto mai condivisa, e trovava solide conferme nei trionfi settecenteschi della meccanica analitica o dell'astronomia. Quel consenso, però, non era certamente unanime, e, soprattutto nella cultura di lingua tedesca, trovava una fonte costante di critiche nell'intricato evolversi di quelle correnti di pensiero che usualmente vengono etichettate come Naturphilosophie. Un aspetto comune a tali correnti era indubbiamente costituito dall'inclinazione a credere che le varie forze agenti nei fenomeni chimici, fisici e biologici fossero manifestazioni di un solo e unico agente, grazie al cui operato l'intera Natura si comportava come un organismo. Un secondo aspetto, che nel Settecento era stato sottolineato da Ruggero Giuseppe Boscovich e che in buona parte risaliva alla filosofia di Gottfried Wilhelm Leibniz, era centrato sul tentativo di eliminare dalle descrizioni della Natura ogni riferimento a entità materiali dotate di estensione spaziale, e cioè agli atomi.

Da entrambi i punti di vista si giungeva rapidamente a pensare che una rappresentazione unitaria del mondo fosse possibile a patto di ricollocare le interazioni, analizzate in forme sempre più specialistiche all'interno di varie discipline scientifiche, in un quadro concettuale non newtoniano, e ammettendo altresì che non esistesse alcuna separazione netta fra le interazioni, ma che ciascuna di esse fosse, in un certo senso, parte di un continuo: così le attrazioni e repulsioni, tradizionalmente osservabili nei fenomeni elettrici e magnetici, e le azioni termiche o gravitazionali dovevano essere reinterpretate come effetti di un solo potere naturale.

Nel 1790 un pensatore come Goethe aveva esemplificato alcuni di questi temi in uno scritto ‒ Versuch die Metamorphose der Pflanzen zu erklären (Tentativo di spiegare la metamorfosi delle piante) ‒ dove le trasformazioni dei vegetali erano spiegate come sequenze ritmiche di contrazioni ed espansioni in cui prendeva forma l'agire di una regolarità profondissima dell'intera Natura. Era su basi concettuali di questo tipo che Goethe esibiva il proprio rifiuto della scienza fisico-matematica nata con Galilei e Newton.

Non si sottolinea sempre con la dovuta intensità il fatto che fu proprio la Naturphilosophie a rendere credibile, in molti ambienti culturali, l'opinione secondo cui la scienza newtoniana coincide con una visione meccanicista dell'Universo, anche se difficilmente, nella storia della scienza moderna, si trova un critico del meccanicismo più tenace e lucido di Newton. Malgrado non esistesse un bersaglio reale contro cui battersi, il movimento culturale della Naturphilosophie ebbe un momento di notevole espansione. Una sua tipica e influente figura fu Friedrich Wilhelm Joseph Schelling, che aveva studiato teologia e scienze e che scrisse pagine memorabili contro la fisica del movimento e le norme che a suo avviso costituivano l'anima del metodo scientifico. Schelling sviluppò, come alternativa alla scienza del suo tempo, una 'fisica speculativa'. A suo avviso ci si doveva concentrare sui processi grazie ai quali il magnetismo diventava elettricità e, poi, chimismo, così da approdare al galvanismo e riunificare, in tal modo, mondo inorganico e mondo vivente. Il contrasto con la scienza ufficiale non poteva essere più radicale, sia perché l'opera di Charles-Augustin Coulomb aveva razionalizzato l'intero settore allora noto dei fenomeni elettrici e magnetici, sia perché Alessandro Volta aveva già spiegato, senza artifici metafisici, le correlazioni tra elettricità e contrazioni muscolari che erano state scoperte da Luigi Galvani, sia, infine, perché l'Ottocento si apriva celebrando proprio i trionfi della meccanica analitica e della meccanica celeste. Ciononostante, i suggerimenti della Naturphilosophie avrebbero comunque fatto emergere un fatto totalmente inatteso, la cui interpretazione avrebbe introdotto varianti imprevedibili nella scienza. Il protagonista di tale vicenda fu un fisico non brillante, Hans Christian Oersted, il quale condivideva molte istanze sollevate dalla romantica filosofia della Natura di Schelling e da alcune argomentazioni kantiane sugli organismi viventi. Per anni Oersted aveva invano cercato di mostrare esempi concreti in cui un fenomeno osservabile fosse il risultato di qualche conflitto tra forze o poteri primordiali. Nel 1820 scoprì un esempio eclatante, di cui diede notizia in un breve scritto intitolato Experimenta circa effectum conflictus electrici in acum magneticum. Le osservazioni riportate da Oersted erano semplici e facilmente riproducibili: una corrente elettrica era in grado di produrre perturbazioni nella direzione di un ago magnetizzato. Come si leggeva nell'articolo, le perturbazioni erano manifestazioni di un 'conflitto elettrico' che si generava quando le cariche erano in moto, produceva una sfera di attività vorticosa nello spazio circostante i fili conduttori e faceva variare la posizione di equilibrio dell'ago.

Questi fatti non erano conformi alle concezioni che stavano alla base della interazione coulombiana e che negavano ogni possibilità di interazione tra fluidi elettrici e magnetici. La brillante e raffinata soluzione matematica che André-Marie Ampère suggerì allo scopo di ricondurre l'effetto Oersted nello schema dell'interazione a distanza diede origine a una nuova disciplina ‒ l'elettrodinamica ‒ ma sollevò nuovi problemi. La teoria di Ampère, infatti, dichiarava la natura elettrica del magnetismo e seminava lo scompiglio nelle fondamenta stesse della visione allora ammessa per l'interazione coulombiana.

Tale visione, grazie soprattutto agli studi della scuola di Laplace, era riferita ad algoritmi in cui figuravano potenziali distribuiti nello spazio: in questo senso, i potenziali contenevano in sé stessi l'architettura di un campo, ma, come era usuale in una cornice laplaceana, gli algoritmi non erano altro che potenti strumenti di calcolo, e non rappresentavano, quindi, porzioni della realtà. Le mutazioni che si stavano verificando attorno all'effetto Oersted non erano comunque isolate. Nel volgere di pochi mesi l'orizzonte delle scienze fisiche e chimiche si espandeva ulteriormente grazie alla scoperta di nuovi effetti termoelettrici, mentre la disponibilità di tecniche per la produzione di corrente continua investiva gli ambiti dell'elettrochimica. Si stavano rapidamente trasformando, come si vede, intere zone della conoscenza. Quando Ampère riportava l'effetto Oersted nella cornice newtoniana dell'azione a distanza, ma ipotizzava che il magnetismo fosse il risultato di correnti circolanti a livello molecolare, si assisteva a un consolidamento dell'approccio fisico-matematico più tradizionale, a concessioni verso un romantico connubio fra i poteri elettrici e magnetici, oppure, molto più semplicemente, all'emergere improvviso di nuovi e inattesi campi di ricerca?

Le fasi più rapide dell'evoluzione delle conoscenze sono spesso contrassegnate dalla presenza di quegli individui che siamo soliti classificare come geni universali. Nel caso intricato dei rapporti tra newtonianesimo e Naturphilosophie il ruolo del genio fu svolto da Michael Faraday, un autodidatta che si era formato culturalmente al di fuori delle Università, non possedeva competenze di tipo matematico e dichiarava di volersi attenere unicamente ai fatti. Per molti anni Faraday si mosse lungo più direttrici sperimentali, sulla base di una simmetria generale che egli aveva messo in evidenza durante il terzo decennio e che è oggi nota come principio di induzione elettromagnetica. Commentando i risultati ottenuti, Faraday usava un linguaggio dal quale trasparivano numerosi agganci con tesi care alla Naturphilosophie. Ancora nel 1851, per esempio, egli scriveva di avere sempre avuto "la persuasione costante e duratura secondo cui tutte le forze della Natura sono mutuamente dipendenti poiché hanno una origine comune, o, piuttosto, poiché sono manifestazioni differenti di una sola potenza fondamentale". Tale convinzione lo aveva dapprima spinto a cercare connessioni tra elettricità e magnetismo, pensando che queste ultime fossero essenziali per capire "la natura duale o antitetica" dei fenomeni elettrici e magnetici, e, negli anni successivi, a esplorare altre connessioni, in grado di coinvolgere anche il calore, la 'forza chimica' o la gravità. Un programma del genere si reggeva sull'opinione che l'intero Universo fosse governato da una sola e grande legge di Natura, le cui differenti manifestazioni si presentavano sotto forma di effetti magnetici, termici, chimici oppure gravitazionali.

Questo programma, dunque, non collocava la gravitazione al centro della fisica, come pensavano moltissimi fisici e matematici che ritenevano di ispirarsi direttamente a Newton, ma vedeva piuttosto, negli effetti gravitazionali, una parte residua delle manifestazioni della legge fondamentale della Natura. Che dire allora del newtonianesimo? Secondo Faraday, lo stesso Newton avebbe criticato i newtoniani, e lo avrebbe fatto proprio sul problema della gravitazione, che troppi scienziati rappresentavano in termini di azione a distanza, propagantesi su linee rette e con velocità infinita. Citando una famosa lettera di Newton a Bentley, Faraday invitava invece a riflettere sulla natura del mezzo in cui l'azione della gravità doveva propagarsi: una riflessione che non puntava soltanto a criticare un certo newtonianesimo di maniera, ma che, soprattutto, rimetteva in discussione quelle immagini della Natura e della scienza che avevano sino ad allora trovato ampio consenso fra gli scienziati e nel senso comune. L'abbandono dell'azione a distanza era infatti accompagnato dall'accettazione di azioni per contatto, che Faraday aveva messo in evidenza come implicazioni necessarie delle proprie scoperte sull'induzione elettromagnetica e sull'elettrochimica. Le azioni per contatto, dunque, coinvolgevano direttamente il mezzo in cui le azioni stesse erano trasportate, e spingevano ad ammettere che il nome 'materia' indicasse un continuum, non un discreto formato da particelle immerse in un contenitore spaziale, puramente geometrico e privo di qualità fisiche.

La nozione di particella, allora, diventava un dannoso residuo metafisico: non esistevano atomi dotati di estensione e variamente disposti in uno spazio euclideo o in un etere, ma soltanto centri di forza analoghi a quelli suggeriti da Boscovich e circondati da linee di forza le cui curvature variamente intrecciate formavano la struttura fisica del mezzo universale. Nel continuum di Faraday svanivano le nozioni tradizionali di particella, spazio, materia ed etere: restava una Natura continua nella quale agivano, propagandosi con velocità finite in un groviglio di linee di forza, forme tra loro differenziate di un solo e unico potere o legge.

La nuova immagine della Natura e della scienza che così veniva alla luce ebbe vita difficile. La cultura di ispirazione romantica vedeva nelle righe di Faraday troppe concessioni alla scienza tradizionale. I newtoniani dell'accademia, invece, ravvisavano in esse troppi cedimenti verso filosofie propense al misticismo. Gli scienziati professionalmente impegnati in settori fortemente matematizzati facevano 'spallucce' di fronte alle speculazioni di Faraday, lette come troppo intrise di metafisica.

Nessuno, peraltro, negava l'enorme valore dei risultati sperimentali ottenuti da Faraday. Ciononostante, al di là di quei dati sperimentali, si stava profilando, grazie al genio di Faraday, una struttura esplicativa di portata universale la cui profondità era soltanto paragonabile a quella che, nel Seicento, era sfociata nella teoria gravitazionale dei Principia di Newton. Stavano infatti nascendo, con Faraday, l'architettura del campo elettromagnetico e gli enigmi sulla natura della carica elettrica.

Filosofie newtoniane e conservazione dell'energia

Il riferimento a Newton, come s'è visto, è una costante per le riflessioni che scienziati e filosofi sviluppano nei primi decenni dell'Ottocento. Meglio sarebbe, tuttavia, parlare di riferimenti a immagini newtoniane della Natura e delle modalità dei saperi: immagini sempre parziali, a volte esaltate e altre volte criticate. Come già detto, nelle pagine del Cours si celebra la figura del fisico matematico Fourier, paragonandola a quella dell'autore dei Principia in quanto libera da ipotesi o modelli, Faraday raffigura sé stesso nei panni di un vero newtoniano allorché argomenta a favore del continuum e cerca di eliminare le particelle dalla spiegazione dei fenomeni, e Laplace si autodefinisce newtoniano mentre elabora teorie su particelle di ogni genere.

La visione newtoniana, insomma, si presta a numerose varianti. Una di esse è di notevole interesse poiché riguarda la possibilità di trovare spiegazioni per l'azione gravitazionale e si rifà a una celebre lettera che Newton scrisse al vescovo Bentley per sostenere che l'azione della gravità non si propaga nel vuoto, ma in un mezzo. Nel Settecento questo argomento ha una storia peculiare, e porta a esiti imprevedibili a priori.

L'ipotetico mezzo che dovrebbe trasportare l'azione della gravità non può che essere, secondo studiosi come Pierre Prévost o George-Louis Le Sage, formato da particelle. La fisica di questo mezzo può allora, in prima approssimazione, mostrare analogie con un mezzo discreto e molto rarefatto: un gas, per esempio, costituito da grandi numeri di particelle. La fisica dei gas aveva effettivamente trovato, nella settecentesca trattazione di Daniel Bernoulli sull'idrodinamica, uno splendido risultato matematico. La teoria di Bernoulli, infatti, era sfociata in un'equazione di stato per un gas reale che, in opportune condizioni al limite, portava all'equazione di stato per il gas perfetto e all'interpretazione della temperatura in termini di velocità molecolari al quadrato.

La commistione tra il modello di Bernoulli e i tentativi di scovare una fisica del mezzo gravitazionale era quanto mai curiosa, e non suscitava entusiasmi in settori importanti della comunità scientifica. Eppure essa gettò le basi per una visione della materia nello stato gassoso che cominciò a dare frutti attorno alla metà dell'Ottocento e che era alternativa sia al continuum suggerito da Faraday in nome di Newton, sia alle equazioni del fenomeno messe in luce da Fourier e celebrate dal nascente positivismo come trionfo di una metodologia pur sempre newtoniana. Il problema che Fourier aveva trattato in chiave di marche naturelle era ben presente, in tutta la sua enigmaticità, nei manoscritti di Sadi Carnot. Una teoria esauriente delle macchine a vapore presumeva infatti una sorta di marche naturelle del calore verso sorgenti a bassa temperatura. Una concezione newtoniana di tale tendenza spontanea avrebbe dovuto, comunque, rifarsi a ipotesi secondo cui un gas è formato da particelle, con la clausola tipicamente newtoniana per la quale i corpuscoli non entrano mai in contatto tra di loro, e Carnot aveva annotato, in una pagina manoscritta, la presenza di un ostacolo formidabile: "Se, come in meccanica pare si possa dimostrare, non si può avere alcuna effettiva creazione di potenza motrice, allora non può aversi alcuna distruzione di tale potenza, perché altrimenti tutta la potenza motrice dell'universo finirebbe con l'essere distrutta, e quindi non si può avere alcuna reale collisione fra i corpi". Ecco, allora, l'ostacolo: "Ma come è possibile immaginare le forze agenti sulle molecole, se queste non sono mai in contatto reciproco, se ciascuna di esse è completamente isolata? Il postulare fra di esse un fluido sottile semplicemente sposterebbe la difficoltà, in quanto tale fluido sarebbe necessariamente composto di molecole" (Carnot 1824 [1992, p. 71]).

Riemergeva con queste note di Carnot, in una cornice tratteggiata per un verso da esigenze tipicamente connesse alle nuove tecnologie e, per l'altro, da argomentazioni fondate su una precisa immagine della Natura, il delicatissimo tema che proprio Newton aveva sollevato nella criptica Querie 31 dell'Opticks sottolineando che il movimento tende piuttosto a morire che a nascere e, pertanto, occorre escogitare un modo per bloccare la morte termica in un Universo avviato sulla china dell'irreversibilità. Un tema, questo, che la scuola di Laplace aveva ben presente, e che tuttavia non trovava una soluzione esauriente, per esempio, nella monumentale opera che Siméon-Denis Poisson aveva intitolato Théorie mathématique de la chaleur. Il ricorso a inferenze probabilistiche nell'analisi della fisica dei sistemi costituiti da moltissimi corpi doveva pur sempre fare i conti con la marche naturelle, e i conti non erano del tutto fatti nel momento in cui Poisson affermava che "quando un corpo, dopo un certo intervallo di tempo, avrà raggiunto l''equilibrio delle temperature', allora questo equilibrio si manterrà fra tutte le parti del sistema, purché queste ultime siano piccole quanto si vuole ma siano comunque tali da contenere numeri elevatissimi di molecole" (1835b, p. 65). Nessuno poteva sollevare obiezioni sul formarsi di un equilibrio delle temperature. Restava tuttavia aperta la questione di come fosse spiegabile la tendenza all'equilibrio se si era inclini a restare nei confini di quella meccanica analitica che non poteva trascurare, come aveva rilevato Carnot, la nozione di collisione, sostituendola di fatto con famiglie di interazioni a breve raggio tra particelle di radiazione termica (o calorico) e molecole materiali. Una collisione tra due corpuscoli, trattata con gli algoritmi della meccanica analitica, restava indifferente alla marche naturelle e, quindi, alla tendenza verso l'equilibrio.

Questa indifferenza era veramente collocata al cuore stesso della soluzione newtoniana del problema dei due corpi e, più in generale, essa rappresentava una caratteristica essenziale dell'intera meccanica analitica. Di tale essenzialità era ben consapevole Laplace, il quale aveva suggerito che essa fosse da inquadrare nel contesto di una filosofia di stampo deterministico. Nel saggio intitolato Essai philosophique sur les probabilités, Laplace sosteneva che "tutti gli avvenimenti, anche quelli che per loro piccolezza sembrano non ubbidire alle grandi leggi della Natura, ne sono una conseguenza necessaria" (1814, p. 12): anche l'atomo più minuscolo, che appare dominato da comportamenti irregolari, ubbidisce alle medesime leggi che reggono i moti di un pianeta. Se lo scienziato percepiva differenze nette tra i movimenti casuali di una particella d'aria e l'orbita ben determinata di una cometa, allora, secondo Laplace, si doveva ammettere che, in realtà, tra i due fenomeni esisteva una sola effettiva differenza, e che la differenza stessa, però, era unicamente dovuta alla 'nostra ignoranza'. Ecco, allora, il ruolo della nozione di probabilità, intesa come relativa, in parte, alla nostra ignoranza, e, in parte, alle nostre conoscenze. L'immagine della Natura e della conoscenza che in tal modo si delineava era deterministica, e lo era in un senso assai preciso.

Una mente dotata di una capacità infinita di calcolo sarebbe effettivamente stata in grado di risolvere le equazioni del moto di tutte le particelle costituenti l'Universo, e, mutando i valori della variabile tempo, quella mente avrebbe potuto visitare tutta la storia dell'Universo stesso, sia nel passato, sia nel futuro. Si poneva però la questione del modo di conciliare la storicità del mondo con le simmetrie intrinseche alle equazioni della meccanica analitica. Nella collisione tra due particelle, infatti, la distinzione tra 'prima' e 'poi' appariva pur sempre fittizia e non conciliabile con il tema della marche naturelle. Si vede, insomma, che nei manoscritti inediti di Carnot era ben viva la consapevolezza di questa situazione problematica, e che non era sufficiente, per chiarire tale situazione, sostituire le collisioni con ipotesi su interazioni a distanza fra molti corpi.

La questione, da un punto di vista professionale, era particolarmente acuta sul terreno dei fenomeni termici, e Fourier già aveva indicato una via possibile per argomentare sull'irreversibilità in chiave puramente matematica e senza ricorrere a modelli. Eppure si poteva restare entro una cornice di tipo newtoniano anche accettando di elaborare modelli, come quelli che erano stati sviluppati nel Settecento da Bernoulli o da Le Sage. Si correva tuttavia il rischio, nel suggerire modelli di tale natura, di essere ignorati dalla maggioranza della comunità scientifica operante nella prima metà dell'Ottocento. Esemplari furono, a questo proposito, le sorti di alcuni lavori, come quelli che John Herapath e John J. Waterston presentarono alla Royal Society rispettivamente nel 1820 e nel 1845. Entrambi i lavori furono respinti. Il primo faceva esplicito riferimento a modelli in cui collisioni tra particelle avrebbero dovuto chiarire varie questioni relative al calore, ai gas e alla gravitazione.

L'assunto centrale di Herapath era che il fluido calorico non esistesse, e ciò era sufficiente, per molti studiosi, a rigettare tutti gli argomenti dell'autore, anche perché quest'ultimo aveva seguito una linea di ricerca non esente da difetti sotto il profilo formale. Soltanto nel 1847 Herapath riuscì a pubblicare, in un'opera in due volumi, una dettagliata rielaborazione critica delle proprie idee del 1820, della quale fece buon uso, come vedremo più avanti, James P. Joule.

Anche il caso Waterston merita qualche commento, al fine di cogliere certi esiti che erano conseguenze delle divisioni tra gruppi di scienziati che pure proclamavano di ispirarsi a una concezione newtoniana. Il saggio del 1845, giudicato dalla Royal Society come non degno di pubblicazione, fu stampato solamente nel 1892, grazie a John W. Strutt (lord Rayleigh). Tuttavia, nel 1892, la teoria cinetica dei gas aveva ormai raggiunto un elevato livello di maturità, e non furono pochi gli scienziati che si domandarono come si sarebbe sviluppata la teoria cinetica se la Royal Society non avesse commesso l'errore di rigettare le idee di Waterston. Egli era giunto alle soglie di un teorema del viriale e di un principio di equipartizione dell'energia, ma, soprattutto, aveva basato il proprio modello su collisioni tra particelle elastiche, fissando un principio di equiprobabilità delle direzioni dei moti molecolari, che avrebbe comunque svolto un ruolo essenziale in quegli sviluppi della teoria cinetica che altri scienziati, come Rudolf Clausius, James C. Maxwell e Boltzmann, elaborarono in seguito.

Herapath, dunque, aveva intrapreso un programma di ricerca che risaliva alle congetture settecentesche di Le Sage, e che presumeva l'utilità di pensare il fluido discreto gravitazionale come modello per la radiazione termica e per la teoria dei gas. Le Sage aveva infatti suggerito di sviluppare una fisica dei fluidi discreti sotto l'egida di un 'Lucrezio newtoniano'. Sotto quell'egida aveva appunto lavorato Herapath, il quale, nei due volumi intitolati Mathematical physics (1847), dimostrava di essere un intelligente interprete dei primissimi risultati ottenuti da Joule. Nell'avviarsi verso il principio di conservazione dell'energia e nel presentare i primi modelli particellari sui gas, Joule stava appunto rifacendosi, anche grazie a Herapath, alle idee guida di un partito newtoniano che era in netta minoranza rispetto sia ai newtoniani che descrivevano la Natura come un continuum dominato da azioni per contatto e che respingevano la nozione di corpuscolo, sia ai newtoniani che rappresentavano i fenomeni solo per mezzo dell'analisi matematica, sia, infine, ai newtoniani che, in nome della meccanica analitica, volevano ricondurre tutti gli eventi osservabili a reti di interazioni a distanza. Il risultato colto da Joule, ossia la possibilità di enunciare, con un soddisfacente conforto sperimentale, un principio universale di conservazione, scaturiva dunque da un lungo e intricato processo evolutivo, sul cui sviluppo avevano variamente influito contrastanti versioni del newtonianesimo, visioni globali della Natura come organismo, modelli qualitativi e fallaci di etere gravitazionale, dispute sul discreto e sul continuo. Così, intorno alla metà del secolo, il grande principio di conservazione veniva alla luce e in pochi mesi affermava la propria validità grazie alle pagine di un Joule, di un Colding e di un Helmholtz.

Non è necessario, in queste pagine introduttive, sottolineare il carattere radicalmente innovativo e la valenza culturale profonda del principio di conservazione dell'energia, se non per ricordare che il consenso attorno alla sua affidabilità modificò interi programmi di ricerca, e non solo in fisica. Era quanto mai diffusa tra molti chimici, per esempio, l'opinione che fosse necessario, restando sempre su una direttrice newtoniana, ipotizzare in termini discreti la struttura della materia, allo scopo di individuare le forze che regolavano la costituzione delle molecole e il realizzarsi di reazioni. D'altra parte, nella rivoluzione nata con Lavoisier aveva pesato, senza ombra di dubbio, il carattere normativo di un principio di conservazione della massa. Il nuovo principio di Joule e Helmholtz aveva una natura estremamente generale. Esso investiva nello stesso tempo la meccanica e il nascente elettromagnetismo, coinvolgeva l'elettrochimica e l'intera problematica delle affinità chimiche, e non poteva pertanto non influire su quelle linee di sviluppo in biologia che erano connesse, da mille fili, proprio alla chimica.

Dalla conservazione alla dissipazione: ancora un conflitto tra il discreto e il continuo

L'accettazione dei principî di conservazione della massa e dell'energia era una conquista che, però, sottolineava ulteriormente l'enigmaticità di descrizioni dei fenomeni chimici, fisici e biologici nelle quali ci si doveva riferire a processi in cui non tutto si conservava. Contemporaneamente venivano alla luce altri enigmi. Una minoranza di fisici e molti chimici accoglievano volentieri l'idea che la struttura della materia, soprattutto allo stato gassoso, fosse suscettibile di rappresentazioni in termini di corpuscoli, e che queste rappresentazioni spiegassero, per esempio, l'elasticità dei gas. Eppure, come faceva notare William Thomson (lord Kelvin), i modelli corpuscolari non portavano affatto alla spiegazione dell'elasticità osservabile a livello macroscopico. Essi si limitavano a trasferire il problema dal livello macroscopico a quello atomico e molecolare, mediante ipotesi ad hoc secondo cui le particelle erano sfere dotate di elasticità.

L'ammissibilità di modelli corpuscolari era, insomma, ampiamente messa in discussione. Eppure, una modellistica del discreto cominciò ad attirare interessi quando Clausius riuscì a dimostrare che in un gas ideale di ipotetiche particelle vigeva un regime di cammini liberi medi grazie al quale diventavano interpretabili ampie classi di fenomeni come la diffusione gassosa. Nel tentativo esplicito di criticare la sostenibilità della modellistica di Clausius, Maxwell ne aveva generalizzato la struttura algoritmica approdando, per un verso, alle classiche anomalie sui calori specifici, e, per l'altro, alla celeberrima forma di distribuzione che ancora oggi è nota come 'distribuzione maxwelliana'. Proprio Maxwell, comunque, tentò di fornire una prova della necessità che un gas dovesse tendere a collocarsi su una distribuzione di tale natura, anche se la prova maxwelliana non era esente da punti oscuri e vizi logici. Dal fallimento di quel tentativo sorsero, immediatamente, esiti inattesi. La dimostrabilità della tendenza alla distribuzione maxwelliana era interpretabile come dimostrabilità di una necessità, per così dire matematica, della seconda legge della termodinamica, che Clausius, negli anni Sessanta, aveva enunciato in termini di entropia. L'universo di Clausius, insomma, si reggeva su due fondamenta, ossia il principio di conservazione dell'energia e la tendenza dell'entropia a crescere.

Toccò a Boltzmann il merito d'individuare un errore nel programma maxwelliano relativo alle tendenze e di suggerire una differente soluzione del problema secondo cui la seconda legge della termodinamica non era soltanto una regolarità empiricamente ammissibile, ma una necessità in chiave matematica. L'indirizzo di ricerca boltzmanniano era stato caratterizzato, sin dall'inizio, da una costante propensione a ridefinire, entro quadri algoritmici, i termini più importanti nella rappresentazione corpuscolare della materia. Dopo aver introdotto, in tal modo, un principio di equipartizione dell'energia meccanica in un gas rarefatto, Boltzmann affrontò l'intera trattazione maxwelliana mediante una mossa teorica di elevato spessore. Elaborò, infatti, una nuova definizione di ciò che usualmente si intendeva nel parlare di collisioni. La costruzione della nuova definizione aveva un aspetto speciale: la costruzione stessa poteva realizzarsi sia nel continuo, sia nel discreto, e la transizione dalla seconda alla prima implicava normali passaggi al limite.

Nel continuo, l'urto tra due particelle era rappresentabile in modo tale che fosse rispettato il principio di conservazione con energie variabili nel modo tradizionale, che non fosse comunque necessario entrare nei dettagli delle interazioni caratteristiche per la collisione e che diventasse lecito operare in regimi di grandi numeri di urti in grandi numeri di coppie di corpuscoli. Nel discreto, Boltzmann introduceva una variante nello schema precedentemente accennato. Rifacendosi a tecniche più che classiche per l'analisi di questioni connesse alle settecentesche corde vibranti, e tenendo opportunamente conto di alcune trattazioni suggerite da Riemann nella teoria delle equazioni differenziali, Boltzmann esplorò le conseguenze dell'ipotesi secondo la quale, durante una collisione, si realizzano variazioni discontinue nell'energia cinetica di traslazione molecolare. Le variazioni discontinue erano ipotizzate secondo uno schema in cui era fissato un quanto indivisibile di energia (o di velocità). Le energie disponibili erano solamente quelle che si configuravano come numeri interi di quanti. In entrambe le modellizzazioni era in tal modo dimostrabile un teorema secondo cui un gas rarefatto poteva essere rappresentato per mezzo di un'entità matematica il cui andamento temporale non poteva che essere costante o tendente a diminuire. Questa entità, che venne poi ad assumere il nome H, era costruita in modo tale da essere una funzione di funzioni di distribuzione dell'energia, senza doversi specificare la forma delle possibili distribuzioni per un gas non in equilibrio.

L'ente H era dapprima introdotto soltanto dal punto di vista matematico, e si dimostrava un teorema sulla sua dipendenza dal tempo; in seconda istanza si sottolineava che esisteva una sua interpretazione fisica, in quanto H coincideva, a meno del segno, con l'entropia di Clausius. Quando assumeva un valore costante, H era compatibile solamente con l'esistenza, nel gas, di una funzione di distribuzione maxwelliana, e, quando variava, per un verso spiegava l'andamento dell'entropia, e, per l'altro, rendeva esplicite le ragioni formali per le quali un gas tendeva effettivamente a sistemarsi su una maxwelliana.

Attorno al reale significato di questa argomentazione di Boltzmann, nota come 'teorema H', si sviluppò a partire dai primi anni Settanta un dibattito sempre più acceso che, nell'ultimo decennio del secolo, vide da un lato una vera e propria proliferazione di articoli scientifici e, dall'altro lato, l'evoluzione di un raffinatissimo confronto tra lo stesso Boltzmann ed Ernst Zermelo. Ci si chiedeva infatti quale fosse il reale significato del teorema H, e la richiesta era ragionevole. Data la sua struttura matematica, era evidente che l'andamento temporale di H non poteva violare le implicazioni dei teoremi già noti sulle collisioni tra coppie di particelle. Sorgeva allora la questione di come fosse possibile che tale andamento esibisse tendenze precise verso distribuzioni maxwelliane, considerata la simmetria temporale dei meccanismi di collisione. In altre parole, nulla vietava di impiegare un'entità come H al fine di rappresentare configurazioni di equilibrio, ma, proprio per questo, doveva essere presente nella dimostrazione del teorema H una qualche fallacia che rendeva irrazionalmente lecita la sua applicabilità a situazioni lontane dall'equilibrio. In secondo luogo, non era facilmente accettabile la congettura boltzmanniana secondo cui la riedizione matematica della marche naturelle di Fourier diventava chiara se si ammetteva che la tendenza spontanea verso certe configurazioni era il risultato di inferenze probabilistiche. Secondo Boltzmann tali inferenze erano passibili di dimostrazione, e avevano pertanto la medesima validità che si era soliti conferire a inferenze come quelle che scattavano nella teoria delle equazioni differenziali. Una posizione, questa, che non godeva di ampi consensi, dato il prevalente orientamento a credere che un ragionamento centrato sulle probabilità fosse connesso all'ignoranza dei processi reali.

Come faceva per esempio notare Zermelo, l'intero apparato formale escogitato da Boltzmann presumeva la liceità del trasferimento di nozioni di calcolo delle probabilità ai fenomeni caratterizzati da irreversibilità e, nella sostanza, di esprimere giudizi sui rapporti logici tra probabilità e tempo. Ciò era, secondo Zermelo, quanto mai discutibile. Al fondo delle controversie stava, comunque, l'oggettiva problematicità delle correlazioni tra principî di conservazione ed entropia. La situazione era ulteriormente complicata dalle difficoltà che, sul finire del secolo, si presentavano quando nella descrizione di un fenomeno naturale entrava in gioco la funzione specifica del calcolo delle probabilità: si trattava di una rinuncia a spiegazioni complete e rigorose del fenomeno, oppure, come sosteneva Boltzmann, il problema della rinuncia era un'illusione, essendo la teoria delle probabilità un capitolo rigoroso della matematica?

A posteriori non dobbiamo allora sorprenderci se, per esempio, la discussione sul continuo e sul discreto, riferita al teorema H, si concentrava sui rispettivi livelli di rigore di due diversi approcci allo studio della struttura della materia: l'uno basato sulla teoria delle equazioni differenziali e sulle applicazioni di quest'ultima in meccanica analitica, l'altro fondato sulla natura del calcolo delle probabilità e sulla razionalità delle sue applicazioni a sistemi a molti corpi. La focalizzazione degli interessi sui versanti appena citati metteva in ombra l'interesse che pure avrebbe dovuto circondare l'audace introduzione, da parte di Boltzmann, di tecniche di quantizzazione relative alla velocità o all'energia. Toccò a Max Planck, di cui Zermelo era assistente e collaboratore, prendere le distanze dalle critiche che, in forme sempre più massicce, stavano investendo la fisica teorica boltzmanniana. Planck, grazie ad alcune sue analisi accidentalmente condotte su lavori di Gustav Robert Kirchhoff risalenti alla metà del secolo, aveva incontrato il problema del corpo nero e aveva sviluppato un indirizzo di ricerca fondato sulla necessità di risolvere quel problema restando nel continuo e, quindi, impiegando la teoria maxwelliana delle onde elettromagnetiche. Gli ostacoli che erano disseminati in tale ricerca e che Planck non era in grado di superare imposero una svolta radicale: il riesame dei due classici lavori con cui, nel 1872 e nel 1877, Boltzmann aveva introdotto il teorema H e la nozione di quanto di energia. Una transizione dal continuo al discreto, insomma, e l'emersione di una prima soluzione del problema del corpo nero che, dovendo introdurre in fisica la nuova costante universale h, portava alla superficie della consapevolezza un mondo inaspettato di quesiti la cui esplorazione avrebbe caratterizzato i primi decenni del Novecento e avrebbe fatto nascere le prime teorie sui quanti.

L'evoluzione senza progetto e la scoperta del neurone

Il trasformismo nel mondo del vivente, il lento svolgersi di una storia delle stelle e l'evoluzione delle strutture geologiche del nostro pianeta avevano contrassegnato ampi settori della cultura nella prima metà del secolo. Le opere di Lamarck e Laplace, Kant e Charles Lyell erano, infatti, punti di riferimento nella creazione di consensi crescenti attorno all'immagine di un Universo animato da un'intrinseca storicità. Una storicità che implicava sia tempi lunghissimi (e, quindi, un passato esprimibile in termini di abissi temporali), sia l'esigenza che ogni processo astronomico, biologico oppure geologico fosse regolato da leggi. In maniera più o meno esplicita, questa esigenza rendeva molti studiosi propensi a credere che l'evoluzione, nei suoi vari livelli di realizzazione, possedesse la regolarità di ciò che obbedisce a un progetto precostituito e si sviluppa, pertanto, secondo direttrici già stipulate nel progetto stesso.

Due questioni apparivano essenziali affinché fossero accettate le prospettive evoluzionistiche: tempi lunghi, necessari affinché le leggi della fisica e della chimica potessero operare lente e inesorabili trasformazioni nell'assetto del pianeta, e una natura sostanzialmente vettoriale degli sviluppi nel mondo organico e inorganico. Dense nubi, tuttavia, si formarono attorno a tali questioni a partire dalla pubblicazione, nel 1859, del testo di Darwin On the origin of species. Da un punto di vista strettamente scientifico, diventava sempre più difficile datare il Sistema solare in modo da garantire, per la storia di quest'ultimo, quelle migliaia di millenni che l'evoluzione darwiniana doveva invocare per consentire lo svolgersi delle operazioni grazie alle quali la selezione naturale e la selezione sessuale spiegavano l'evoluzione nel mondo vivente. La datazione dell'età della Terra, e più precisamente la stima del periodo di tempo durante il quale si sarebbero potute formare, sulla superficie del pianeta, condizioni fisiche e chimiche sufficienti alla comparsa di forme di vita, dipendeva esclusivamente dai bilanci energetici ammissibili all'interno della nascente termodinamica. Su questo delicato punto, però, la termodinamica non lasciava spazi per un'evoluzione lentissima: pochi milioni di anni, nella migliore delle ipotesi, sembravano disponibili. Darwin aveva fatto leva, nella richiesta di tempi estremamente lunghi, su dati geologici dai quali sembrava ragionevole concludere che, per esempio, alcune zone costiere avevano avuto bisogno, per assumere la loro attuale conformazione, di svariate centinaia di milioni di anni. Un fisico influente come lord Kelvin aveva buon gioco nel seminare critiche e ironie su quelle datazioni e sulle loro intrinseche debolezze: non aveva alcun senso credere in qualcosa che violava le leggi della fisica. Mancando il tempo, andava a pezzi l'intera prospettiva darwiniana, ed era allora più ragionevole, secondo lord Kelvin, ipotizzare che le primissime strutture vitali fossero state trasportate sulla Terra da meteoriti. Non si poteva d'altra parte respingere l'argomentazione à la Kelvin senza rigettare un complesso di dati teorici e sperimentali come quelli che stavano alle fondamenta sia della termodinamica, sia dei modelli in astrofisica che indagavano sulla possibilità che il bilancio energetico del Sole fosse causato da processi di contrazione gravitazionale. Nello stesso tempo, gli scienziati che accettavano le tesi di lord Kelvin erano ben lontani dall'assumere atteggiamenti ispirati al creazionismo: appariva loro più plausibile ammettere forme di evoluzione contrassegnate da eventi più o meno catastrofici, ma subordinati a leggi fisiche, che accettare i tempi pressoché infiniti di cui vi era necessità in un modello evoluzionistico centrato sulla lenta selezione di piccole mutazioni all'interno di un mondo vivente caratterizzato da graduali livelli di plasticità e variabilità.

C'era poi sul tappeto il tema del progetto. Darwin aveva insistito, nel 1859, sul fatto che, a suo avviso, le mutazioni non erano dominate dal caso. A nessun lettore intelligente, però, poteva sfuggire il nodo che il testo del 1859 aveva comunque messo in luce, anche se Darwin non era entrato direttamente nel merito della specie umana. E il nodo era semplice da percepire e inquietante da ammettere come norma centrale per l'evoluzione: la teoria darwiniana aveva una struttura tale da bloccare sul nascere ogni aspirazione a credere che gli esseri umani fossero al vertice dei processi evolutivi. Cadeva, insomma, la marcata inclinazione a considerare l'uomo come prodotto eccellente, come centro del mondo, come creatura che possedeva indubbiamente un corredo biologico ma che, soprattutto, era produttore e fruitore di cultura. Darwin faceva precipitare le persone in un mondo animale al cui interno la selezione naturale operava senza preferenze per questa o quella specie. Per molti intellettuali era inaccettabile una Natura non progettuale e tale da non collocare gli esseri umani in posizioni di privilegio rispetto agli animali.

Su questo terreno culturale era facile il prodursi, tra linee culturali quanto mai divergenti, di consensi circa il rigetto delle pagine del 1859. Da un punto di vista laico, per esempio, era difficile ammettere che la selezione darwiniana fosse stata capace di produrre in poche centinaia di migliaia di anni una struttura di stupefacente complessità come l'occhio di un mammifero. Da un punto di vista ispirato a concezioni religiose, d'altronde, era ancor più semplice ironizzare sulla presunta caduta delle differenze tra bestie e persone in grado di leggere Shakespeare: quelle differenze erano plateali sia per il buon senso, sia alla luce di una plurisecolare tradizione culturale di tipo spiccatamente antropocentrico.

L'asprezza delle controversie assunse forme ancor più evidenti quando, agli inizi degli anni Settanta, furono dati alle stampe i testi che Darwin dedicò, rispettivamente, all'evoluzione dell'uomo e all'espressione delle emozioni nel mondo animale. Sulle gazzette si celebrò il rituale che consisteva nel persuadere i lettori a ritenere che Darwin avesse semplicemente descritto gli esseri umani come discendenti dalle scimmie: di conseguenza, l'evoluzionismo era da respingere in quanto offensivo per la dignità delle persone. Tuttavia, negli ambienti più raffinati, il darwinismo seminava inquietudini ben più serie. Nel rappresentare l'evoluzione umana, infatti, Darwin prospettava la necessità di ricondurre gli eventi culturali a una radice materiale o biologica. A suo avviso le nostre capacità linguistiche erano impensabili senza fare riferimento alla struttura del cervello, e linguaggio e cervello erano in continua interazione reciproca. Un bambino nasceva con un'inclinazione naturale, o istinto, a parlare, ma non con l'istinto a fabbricare la birra o a cuocere il pane. Qui, secondo Darwin, si annodavano le trame di una sostanziale similarità tra il linguaggio umano e i sistemi di comunicazione esistenti in altre specie. Non solo, queste trame rivelavano anche che ampie zone del mondo dei valori erano da ricondurre alla biologia. La cultura di Homosapiens perdeva, in tal modo, la sua funzione di garante assoluta per l'antropocentrismo di maniera. Analoghe considerazioni erano poi valide, sempre a parere di Darwin, quando si esaminava con rigore scientifico l'intricato Universo delle manifestazioni emotive nell'uomo e in altri animali. Tutti coloro che aderivano alla visione dell'essere umano come dotato di una mente immateriale, produttrice di cultura e stati d'animo, non potevano che provare sgomento nel leggere che, secondo Darwin, "alcuni atti, che noi riconosciamo come espressione di determinati stati mentali, sono la diretta conseguenza della costituzione del sistema nervoso, e fin dall'inizio risultano indipendenti dalla volontà e in larga misura dall'abitudine".

La prima edizione del saggio The expression of emotions in man and animals apparve nel 1872, e cioè pochi mesi dopo la pubblicazione dell'opera The descent of man (1871). Molte erano le lacune che restavano aperte nella prospettiva evoluzionistica che stava sorgendo. Non si può pertanto essere, oggi, eccessivamente severi nei confronti di coloro che, dovendo tener conto dei problemi lasciati irrisolti, non riuscivano ad abbandonare visioni più tradizionali e a optare per l'innovazione suggerita da Darwin. Una delle lacune più vaste e profonde riguardava, per esempio, proprio il meccanismo dell'ereditarietà. L'ironia delle vicende umane ci si rivela quando veniamo a sapere che nella biblioteca di Darwin giaceva, mai consultato, un lavoro che era stato pubblicato, pressoché in sordina e su una rivista di scarsa diffusione, nel 1866. Darwin avrebbe veramente tratto vantaggio dalla lettura di quelle pagine, se non altro perché egli stesso si stava interrogando sulle ragioni per cui, incrociando varietà di bocche di leone che sfoggiavano fiori rossi e bianchi, si poteva ottenere una generazione con fiori solamente bianchi e un'altra in cui, invece, si ripresentavano entrambi i colori. Lo scritto mai consultato era firmato da un certo Gregor Mendel, e forniva un'esauriente introduzione alla spiegazione di fenomeni analoghi nei piselli. Non fu soltanto Darwin a non leggere le pagine del monaco autodidatta che aveva dedicato tempo, tenacia, sperimentazione sul campo e formalismi matematici alla ricerca dei meccanismi di base che regolavano i processi dell'ereditarietà. Il valore centrale delle cosiddette leggi mendeliane fu infatti riconosciuto solo a posteriori, e cioè dopo la morte di Darwin e di Mendel.

Un altro settore di studio che suscitava diffidenze e perplessità era poi costituito dal cervello, delle cui funzioni Darwin aveva diffusamente parlato nei due testi pubblicati agli inizi degli anni Settanta. Nell'estate del 1873 una rivista italiana di non grande autorevolezza ospitava un lavoro che era destinato a far scaturire, nel volgere di due o tre decenni, interi orizzonti mai esplorati a proposito del sistema nervoso dell'uomo e degli animali. L'autore di questo articolo era un medico, Camillo Golgi, il quale, nell'ambito di un solitario lavorio sperimentale, aveva scovato, mediante tentativi ed errori, uno strano e sconcertante metodo chimico per la colorazione di porzioni di tessuto cerebrale. Golgi annunciava che il microscopio era in grado di rivelare elementi del tutto imprevedibili in quelle porzioni, dopo che erano state indurite con bicromato di ammoniaca e immerse in soluzioni di nitrato d'argento. Nessuna spiegazione era possibile circa gli effetti reali che un simile trattamento poteva generare nei tessuti, ma, senza la minima ombra di dubbio, si poteva dichiarare che il trattamento consentiva di osservare microstrutture mai precedentemente viste.

Per decenni lo studio del cervello si era dipanato attraverso lunghe dispute sulla sua natura microscopica. Non pochi scienziati, sotto l'influenza di categorie trasmesse dal pensiero romantico, ritenevano che nel sistema nervoso agisse un principio vitalistico, grazie al cui operato il cervello era radicalmente distinto da altri organi. Altri, invece, propendevano per visioni secondo cui il cervello e gli altri organi del corpo umano erano tra loro analoghi, in quanto dotati di architetture di tipo cellulare. La spiccata contrapposizione tra i punti di vista ora schematizzati non era tuttavia decidibile sulla base di osservazioni precise circa la reale costituzione cellulare del cervello. La scoperta di Golgi, ossia il fatto che la cosiddetta 'reazione nera' dovuta a sali d'argento consentiva di evidenziare dettagli sino ad allora impensabili nell'architettura cellulare, aprì insospettabili prospettive di ricerca. Lo spagnolo Santiago Ramón y Cajal introdusse alcune varianti nel metodo di Golgi e diede l'avvio alla teoria del neurone, secondo la quale ogni cellula nervosa era sostanzialmente autonoma e dotata di strutture grazie alle quali trasmetteva e riceveva informazioni da altre cellule. La concezione neuronale di Ramón y Cajal si contrapponeva, sin dall'inizio, alla teoria olistica (condivisa dallo stesso Golgi) secondo cui esisteva invece una sorta di rete nervosa continua in cui l'informazione si propagava con modalità non selettive. Un punto forte, per la visione difesa da Ramón y Cajal, stava nella congettura, non dimostrabile in quegli anni con dati ottenibili al microscopio, che esistessero discontinuità materiali tra neuroni, ovvero minuscole strutture che potevano trasportare informazioni da un neurone all'altro. In tal modo Ramón y Cajal avviava quei filoni di indagine che sarebbero sfociati nella scoperta delle sinapsi e, di conseguenza, nel rapido accrescersi dei saperi che oggi riconosciamo sotto il nome di neuroscienze.

Il campo, le particelle e la scoperta dell'elettrone

All'origine della teoria matematica che Maxwell elaborò al fine di unificare i fenomeni elettrici, magnetici e ottici, era certamente collocata la concezione della Natura che Faraday aveva costruito evocando un continuum solcato, punto per punto, da un intrecciarsi di linee di forza, e suggerendo che ogni interazione si realizzasse per contatto e non a distanza. Nello stesso tempo, la visione in chiave di continuum auspicava che la propagazione della luce e la stessa gravitazione rientrassero in una descrizione unitaria basata su linee di forza, e che la nozione di etere fosse, di conseguenza, superflua. Accanto alle tesi di Faraday, però, altre concezioni stavano maturando lungo diverse direttrici di ricerca in fasi distinte di crescita. Il giovane William Thomson, che sarebbe poi diventato famoso come lord Kelvin, aveva pubblicato nel 1847 un breve e denso saggio dove si analizzavano le analogie matematiche tra teoria del potenziale e teoria della propagazione del calore ed era esplicito il richiamo alle concezioni di Faraday. Secondo Thomson era legittimo pensare che la propagazione del potere gravitazionale, anziché presumere azioni a distanza, fosse assimilabile a effetti provocati da particelle contigue e, quindi, non dissimili dagli effetti che si realizzavano durante la trasmissione per contatto del calore. In secondo luogo, Helmholtz aveva mostrato nel 1858, in un saggio già ricordato sull'idrodinamica, che esistevano analogie matematiche rilevanti tra alcuni aspetti dell'elettrodinamica di Ampère e la propagazione di vortici in fluidi non viscosi. Inoltre, come Maxwell ben sapeva, rilevanti evoluzioni conoscitive si erano già avute sul terreno, sempre più formalizzato, in cui matematici del calibro di Augustin-Louis Cauchy avevano tentato di spiegare la propagazione della luce all'interno di eteri elastici, dotati di bassissima densità ma estremamente rigidi.

Maxwell, in poche parole, non doveva semplicemente scegliere tra azioni per contatto in un continuum e azioni a distanza tra corpi forniti di carica elettrica e dispersi in uno spazio puramente caratterizzato da proprietà geometriche. Maxwell, d'altra parte, era in grado di lavorare sia in chiave di strutture discrete, sia in contesti matematici fondati sul continuo. Per quanto riguarda il primo versante egli aveva pubblicato uno splendido saggio sulla stabilità degli anelli di Saturno e, in seguito, aveva fornito chiarimenti fondamentali per la fisica di gas costituiti da grandi numeri di particelle. Sul secondo versante, invece, Maxwell aveva avviato un processo di matematizzazione delle idee di Faraday.

Nel 1865 egli era infine approdato a una rappresentazione algoritmica unitaria dei fenomeni elettrici, magnetici e ottici, dando alle stampe un lungo e raffinato saggio intitolato A dynamical theory of the electromagnetic field. Il saggio conteneva un gruppo di venti 'equazioni generali' capaci sia di esprimere, in un unico quadro concettuale, tutte le conoscenze allora disponibili nei settori dell'elettromagnetismo e dell'ottica, sia di porsi come raffigurazione alternativa a quella che Weber e altri scienziati avevano realizzato nella cornice dell'azione a distanza. L'articolo del 1865 è la radice della crescita delle successive teorie di campo. È opportuno qui sottolineare, comunque, alcuni aspetti del lavoro maxwelliano. Esso dimostrava, tenendo conto delle misure allora disponibili, che la teoria di campo dava una stima precisa della velocità della luce, se questa era effettivamente un'ondulazione trasversale di un mezzo che era inteso come ambiente naturale di tutti gli eventi elettrici e magnetici. Occorreva tuttavia dimostrare che davvero esistevano onde elettromagnetiche come quelle ipotizzate da Maxwell: la prova sperimentale si ebbe solamente sul finire degli anni Ottanta, grazie agli esperimenti eseguiti da Heinrich Hertz. Ciò giustifica, in parte, la non entusiastica accoglienza che a lungo circondò la teoria maxwelliana. Nello stesso tempo, quella teoria non era in grado di chiarire la natura della carica elettrica, e restava, inoltre, per così dire incerta nel precisare quali fossero i sistemi di riferimento rispetto ai quali le equazioni di Maxwell godevano di invarianza. In terzo luogo, come lo stesso Maxwell precisava in una nota finale al lavoro del 1865, la nuova teoria era impotente per una trattazione del campo gravitazionale. Ciò era grave, dal momento che l'unificazione del campo gravitazionale entro una sola teoria di campo era stata al centro degli interessi di Faraday e aveva svolto un ruolo abbastanza preciso per lo stesso Maxwell, come appare da alcuni tratti della corrispondenza tra i due scienziati. Circolava insomma, intorno alla matematizzazione del campo elettromagnetico, una forma di prudente scetticismo che, pur apprezzando l'eleganza formale dell'approccio maxwelliano, non poteva evitare di coltivare alcuni dubbi sulla fisica che doveva stare alle spalle delle equazioni di campo. Lo stesso Hertz, per esempio, difendeva l'opinione secondo la quale il senso delle equazioni di Maxwell era dato, semplicemente, dalle equazioni di Maxwell stesse. Potremmo in parte giustificare quelle modalità cautelative ricordando che la struttura di un campo era vista alla stregua di una tecnica matematica, di per sé stessa vuota da un punto di vista ontologico. Un campo era una struttura formale, non la realtà. Sorgeva allora la questione di quale realtà fosse alla base della struttura. Se non si trovava una risposta esauriente a tale quesito, allora, nella migliore delle ipotesi, l'apparato matematico maxwelliano rappresentava, semplicemente, un modo elegante per far di conto.

La comunità scientifica era inoltre interessata a capire altri fenomeni comunque connessi all'elettricità, al magnetismo e all'ottica. Stavano proliferando le pubblicazioni nel settore della spettroscopia, ma mancavano spiegazioni plausibili per le regolarità osservabili. Lo sviluppo delle tecnologie per la produzione nei laboratori di vuoti sempre più spinti aprivano nuove prospettive per la ricerca sulla radiazione catodica. Anche in questo settore di frontiera la massa crescente dei fatti riproducibili restava ostinatamente impenetrabile per rappresentazioni che risultassero soddisfacenti in sede teorica. Si poneva la questione di stabilire quale fosse la natura dei raggi catodici, se si trattasse di fasci di particelle portatrici di carica elettrica, o ci si trovasse invece di fronte a fenomeni interpretabili in chiave ondulatoria. Per trovare una risposta adeguata a queste ultime domande sulla radiazione catodica, che già Faraday aveva esplorato con dispositivi meno raffinati di quelli esistenti attorno agli anni Settanta e Ottanta, era necessario ricavare tutte le conseguenze logiche dell'ipotesi corpuscolare e sottoporle a controllo empirico. Toccò a Hertz il compito di trovare una prima risposta. Se si trattava di particelle che portavano una carica elettrica, allora nel loro cammino in presenza di un campo elettrico doveva essere misurabile una deflessione. Le esperienze eseguite da Hertz fornivano invece una risposta negativa. I raggi catodici sentivano un campo magnetico, ma restavano indifferenti nell'attraversare un campo elettrico. Se ne doveva concludere che si trattava di fenomeni ondulatori, in qualche modo analoghi a quelli che proprio Faraday aveva a suo tempo studiato analizzando gli stati di polarizzazione di fasci di luce che si propagavano, in presenza di campi magnetici, all'interno di particolari mezzi ottici.

L'autorevolezza che giustamente circondava la figura di Hertz pose la sordina ai tentativi che pure proseguivano e che invece miravano a costruire un'interpretazione corpuscolare dei raggi catodici. La relativa stagnazione delle ricerche subì tuttavia un colpo quando, sul finire del secolo, una tesi di dottorato, redatta da Jean Perrin, pose in evidenza alcuni dati favorevoli alla concezione criticata da Hertz. Con opportune geometrie di laboratorio, i raggi catodici di Perrin esibivano proprietà tipiche per un fascio di particelle cariche. Anni tumultuosi, quelli. Accanto ai nuovi enigmi sulla radiazione catodica si allineavano, su tempi brevissimi, quelli che si addensavano a proposito dei misteriosi raggi X o delle insospettabili radiazioni emesse da sali di uranio. Alla guida del laboratorio Cavendish era ora insediato Joseph J. Thomson, un fisico matematico che per anni aveva difeso l'idea secondo la quale i veri atomi erano strutture vorticose. Attirato dalla circostanza per cui le nuove radiazioni sembravano essere in grado di ionizzare un gas, Thomson introdusse alcune varianti negli schemi sperimentali utilizzati da Hertz e, in un memorabile lavoro del 1897 sui raggi catodici, annunciò la scoperta dell'esistenza di una particella che trasportava una carica elettrica elementare e che aveva un valore del rapporto tra massa e carica mille volte inferiore al valore relativo al corpuscolo più piccolo allora noto, lo ione idrogeno. Thomson dimostrava in tal modo che era presente, in Natura, uno stato della materia costituito da 'atomi di elettricità' che avevano massa, carica e velocità. Con la scoperta dell'elettrone, il panorama delle scienze fisiche mutava. Crollava il mito secondo cui l'atomo era un ente indivisibile, emergeva la possibilità di descriverne l'interna struttura su base elettronica e l'intera area dei rapporti tra raffigurazioni ondulatorie e corpuscolari si avviava su direttrici imprevedibili.

Materia e radiazione

All'origine di tutti i problemi enunciati, in Età moderna e contemporanea, circa il rapporto tra materia e radiazione, sta l'enigma delle correlazioni tra la luce e i corpi. Si tratta di una situazione problematica di lunga storia, già percepita come complessa nel Seicento, come risulta dalla consultazione, per esempio, di molte pagine di Galilei, Descartes, Huygens e Newton. Nelle Queries che Newton, nella sezione conclusiva delle varie edizioni dell'Opticks, aveva dichiarato di lasciare ai posteri, la radiazione luminosa giocava molti ruoli all'interno delle sostanze corporee. Newton invitava a meditare e sperimentare, sia sul versante della propagazione di luce nella materia e degli effetti osservabili di tale propagazione, sia su quello dei fenomeni, che la luce poteva generare nel sensorium, ponendo in stati di vibrazione le particelle che formavano i nervi ottici e che penetravano nel cervello. Proprio Newton, infatti, aveva assegnato a un abile tecnico e fabbricante di strumenti, Francis Hauksbee, il compito di avviare ricerche di laboratorio sulle frontiere delle interazioni tra luce, materia ed elettricità, approdando all'osservazione di deboli luminescenze nell'aria presente in globi di vetro elettrizzati per strofinio. Accanto alla radiazione luminosa era poi collocata la radiazione termica. La fisica teorica del calorico, nei primi decenni dell'Ottocento, aveva prodotto alcuni capolavori esplicativi. Basandosi su modelli secondo i quali i corpuscoli materiali interagivano con corpuscoli di calorico, la calorimetria e la teoria dei gas erano entrate con decisione sul terreno tipico dell'analisi matematica rivolta al comportamento probabilistico in sistemi a molti corpi.

Un principio bene accettato, nella genesi e nelle molteplici applicazioni di questi ultimi modelli, stabiliva che ogni tipo di molecola fosse circondata, in condizioni di equilibrio, da una specifica atmosfera di particelle di calorico. Ciò comportava un ampio raggruppamento di conseguenze. Una di esse portava a credere che il calore specifico di una sostanza fosse principalmente determinato dalle atmosfere molecolari, e che queste ultime svolgessero funzioni basilari anche nella comprensione di varie regolarità osservabili nei processi chimici e in alcuni settori delle ricerche sulla fisiologia.

Sin dall'inizio del secondo decennio del secolo Amedeo Avogadro aveva ipotizzato che, a parità di temperatura e di pressione, il numero delle molecole fosse lo stesso in un dato volume per ogni gas. Tornando anni dopo sul medesimo tema, Avogadro aveva altresì insistito sulla circostanza per cui doveva esistere una precisa correlazione tra il calore specifico e la quantità di calorico trattenuta dalle molecole, in funzione delle specifiche capacità di queste ultime a esercitare forze di attrazione per la radiazione termica. Data la scarsa trasparenza allora dominante nel linguaggio della nuova chimica, non era immediato cogliere il significato preciso di espressioni centrate sulla congettura che ogni molecola avesse una sua propria inclinazione a interagire, grazie a forze con brevissimo raggio d'azione, con il calorico. Pur nell'ambiguità, dovuta anche alla mancanza di un linguaggio comune per la descrizione dei processi in chimica, era comunque diffusa la speranza che da argomenti sul calorico si potessero trarre indicazioni utili per precisare il concetto di affinità chimica, il quale, secondo ipotesi allora emergenti, avrebbe a sua volta aiutato la comunità scientifica a capire i dettagli delle interazioni tra corpuscoli, luce ed elettricità. Un risultato inatteso, però, doveva seminare ombre e dubbi sull'intero problema delle interazioni tra materia e radiazione. Esso era stato ottenuto con una serie di misure effettuate in laboratorio, sul finire del secondo decennio, da Pierre-Louis Dulong e Alexis-Thérèse Petit.

L'inatteso risultato può essere oggi schematizzato dichiarando che, sulla base di quelle misure sui calori specifici, gli atomi costituenti i corpi semplici possiedono esattamente la stessa capacità per il calore. Era insomma enunciabile una legge che, a partire da informazioni sperimentali che riguardavano alcuni corps simples quali l'oro, il platino o il ferro, era generalizzabile a tutte le 'sostanze elementari'. La legge affermava che il prodotto tra il calore specifico e i 'pesi relativi degli atomi' aveva un valore sorprendentemente costante. Una legge come quella di Dulong e Petit non era interpretabile nel quadro esplicativo delle più sofisticate teorie matematiche allora disponibili sulle interazioni tra materia e radiazione calorica. Tale difficoltà sarebbe stata superata solamente con l'avvento della novecentesca teoria dei quanti. Essa, comunque, contribuì ad avviare il declino degli apparati deduttivi riferiti alla radiazione termica.Va poi ricordato che l'indifferenza con cui furono accolte le tesi di Avogadro, insieme alle congetture che Ampère aveva elaborato in forme sostanzialmente equivalenti a quella esposta da Avogadro, non dipesero dalle crescenti anomalie che stavano sorgendo in seno alle teorie sulla radiazione termica. Esistevano infatti questioni irrisolte rispetto alle quali le considerazioni dei due scienziati non prospettavano agevoli vie d'uscita.

Una svolta significativa si ebbe alcuni decenni più tardi, durante il famoso congresso di chimica tenutosi a Karlsruhe nel 1860. In quell'occasione Stanislao Cannizzaro svolse un ruolo di primaria importanza nel coordinare accese discussioni che si conclusero con la stipulazione di accordi relativi alla distinzione tra atomo e molecola, al significato operativo da assegnare a nozioni centrali come quelle di peso atomico e di valenza, e all'accettazione della validità dell'ipotesi di Avogadro. Il congresso di Karlsruhe non si limitò a porre ordine in un oceano di linguaggi differenziatisi in decenni di pratica di laboratorio; esso fu rilevante anche perché stimolò nuove linee di ricerca il cui scopo era quello di riunificare le conoscenze chimiche all'interno di apparati teorici sempre più potenti. Fra i partecipanti al congresso figurava, tra gli altri, lo scienziato russo Dmitrij Ivanovič Mendeleev, il quale, nel breve periodo compreso tra il 1869 e il 1871, riuscì a porre in evidenza le prime ed essenziali caratteristiche di una periodicità negli elementi. Negli anni del congresso di Karlsruhe erano stati catalogati poco più di 60 elementi, e solo per una parte di questi ultimi si possedevano informazioni collegabili con la nozione di peso atomico. Lavorando con paziente tenacia, e lasciandosi guidare dall'ipotesi semiqualitativa che dovesse agire in Natura una sorta di ciclicità nelle proprietà degli elementi, Mendeleev ottenne un risultato fondamentale. Disponendo gli elementi su una semplice matrice formata da righe e colonne, e seguendo l'ordine secondo il quale i pesi atomici erano crescenti, egli trovò che effettivamente era presente una periodicità, sulla base di correlazioni tra peso atomico e proprietà chimiche. La tabella era incompleta, nel senso che in essa figuravano zone vuote, e, nello stesso tempo, la periodicità era possibile solo introducendo variazioni ad hoc in alcuni pesi atomici. Ciononostante, e malgrado lo scetticismo di non pochi studiosi, era stato compiuto un grandissimo passo in avanti per la conoscenza.

L'intrinseco valore di quel passo divenne ancor più percepibile quando, sul finire del secolo, fu scoperto l'elettrone. Data la presenza di elettroni in Natura, cadeva il dogma della non divisibilità dell'atomo, e le prime formulazioni modellistiche sulla struttura elettronica dell'atomo non potevano ovviamente evitare il problema della periodicità individuata da Mendeleev. Si stabiliva in tal modo un settore interdisciplinare che aveva come pilastro portante la tavola degli elementi, e, come apparati deduttivi, fasci di teorie e modelli che, sino a quell'epoca, si erano sviluppati su direttrici distinte e, spesso, tra loro contrastanti. L'accelerazione del sapere, negli ultimissimi anni dell'Ottocento, fu impressionante. L'estensione degli studi geometrici e matematici, le ricerche sui primi modelli relativi alla struttura dell'atomo, le correlazioni sempre più evidenti tra chimica e fisica, l'affinamento delle strutture matematiche del campo elettromagnetico e la scoperta di nuove forme di radiazione si intersecavano su orizzonti di crescita tecnica e scientifica estremamente mobili. La cornice al cui interno si era tentato di situare il rapporto tra materia e radiazione si stava sfaldando, e insospettabili aperture cominciavano a farsi luce.

Se teniamo dovutamente conto della parallela crescita delle conoscenze nel quadro generale dell'evoluzione darwiniana e delle microstrutture architettoniche del cervello, ci troviamo di fronte a una situazione in cui, sul finire dell'Ottocento, l'intera configurazione dei rapporti tra mondo vivente e mondo inorganico stava acquisendo tratti che nessuno avrebbe potuto immaginare sulla base di quanto era noto negli anni Sessanta. Il secolo, insomma, non si spegneva su una crisi metodologica che incrinava la logica interna alla scienza classica, ma si apriva verso i trionfi che il Novecento avrebbe potuto celebrare grazie alle innovazioni ottocentesche.

Bibliografia

Bottazzini 1990: Bottazzini, Umberto, Il flauto di Hilbert. Storia della matematica moderna e contemporanea, Torino, Utet, 1990 (altra ed.: 2003).

Brush 1976: Brush, Stephen G., The kind of motion we call heat. A history of the kinetic theory of gases in the 19th century, Amsterdam, North Holland, 1976, 2 v.

Corsi 1988: Corsi, Pietro, The age of Lamarck. Evolutionary theories in France, 1790-1830, translated by Jonathan Mandelbaum, Berkeley, University of California Press, 1988 (ed. orig.: Oltre il mito. Lamarck e le scienze naturali del suo tempo, Bologna, Il Mulino, 1983).

‒ 2000: Corsi, Pietro, Lamarck: il mondo naturale si affaccia all'evoluzione, Milano, Le scienze, 2000.

Perrin 1985: Perrin, Jean-Baptiste, Nouvelles propriétés des rayons cathodiques, "Comptes rendus de l'Académie des Sciences", 1985.

Rossi 1988: Storia della scienza moderna e contemporanea, diretta da Paolo Rossi, Torino, Utet, 1988, 3 v. in 5 tomi (altra ed.: Milano, TEA, 2000, 3 v.).

CATEGORIE