FISICA

Enciclopedia Italiana (1932)

FISICA

Goffredo COPPOLA
Guido CALOGERO
Antonio GARBASSO

Il termine greco di ϕυσικός (cioè "concernente la ϕύσις, la "natura") entrò nell'uso propriamente con Arisiotele, che con l'espressione τὸ ϕυσικόν designò generalmente la sfera della realtà naturale, e con quella di ϕυσικὴ ϑεωρία la scienza che ne studiava i principî. Per Aristotele, la scienza "fisica" veniva quindi a contrapporsi a quella "logica" e a quella "etica": e tale distinzione era confermata e resa anche più rigorosa nel sistema stoico. D'altra parte, "fisica" essendo per Aristotele essenzialmente la scienza di "ciò che è soggetto di movimento" (in forza della generale sua riduzione al concetto di movimento, κίνησις, di tutto quel divenire che il naturalismo presocratico, e lo stesso Platone, avevano riconosciuto sostanziale alla realtà immediatamente osservabile delle cose, e cioè alla ϕύσις), essa venne a contrapporre il suo oggetto a quello della "filosofia prima", teorizzatrice dei principî eterni del reale e appunto perciò determinata più tardi (anche per l'ordine che, rispetto alla Fisica, essa aveva nel corpus degli scritti aristotelici) col nome di "metafisica". Così la "fisica" aristotelica, consacrata nell'opera omonima come teoria generale del movimento e dei suoi principî, si distinse tanto dalla "filosofia naturale" (v. natura, filosofia della), quanto da quella scienza descrittiva e classificatoria della natura che dal termine di ἱστορία ("ricerca, descrizione") usato a suo proposito dallo stesso Aristotele, ebbe il nome di "storia naturale" (v. naturale, Scienza). Il Medioevo inclinò a riadoperare il termine di "fisica" per indicare in generale la scienza della natura e in particolare la medicina: nell'età moderna, il significato più tecnico della parola si è venuto costituendo in quanto si sono separate dall'antica fisica le scienze biologiche e mediche, l'astronomia, ecc.; il più originario e generico senso che l'aggettivo "fisico" aveva in quanto equivalente a "naturale" si è conservato nei casi in cui lo si contrappone generalmente a "psichico", a "logico" a "morale".

Storia della fisica. - La geometria moderna procede legittimamente dalla geometria degli antichi, e gli Elementi di Euclide e le Coniche di Apollonio possono considerarsi anche oggi come modelli non superati. Il caso della fisica è del tutto diverso: i Greci crearono il vocabolo, ma non la scienza, che costituì invece l'ultimo fiore del Rinascimento italiano.

I Greci infatti non conobbero il metodo. il quale si concreta nello studio sistematico - sperimentale e quantitativo - di una serie di fatti riproducibili. E appunto per questo ci hanno lasciato una assai scarsa eredità. Si può dire che soltanto i pitagorici di Crotone e Metaponto abbiano condotto delle esperienze nel senso attuale della parola, almeno se ad essi si debbono attribuire le leggi delle vibrazioni delle corde sonore. Archimede stesso non fu uno sperimentatore. Il suo trattato Dei piani in equilibrio, nel quale stabilisce le proprietà delle leve, è puramente matematico; e secondo ogni probabilità anche la scoperta della spinta che un solido subisce quando è immerso in un liquido fu fatta con semplici ragionamenti. In meccanica ebbero forse i Greci qualche idea sana per ciò che riguarda la statica; e vi è chi ha creduto trovare in Aristotele un accenno al principio dei lavori virtuali. Ma la dinamica peripatetica è completamente errata. Erone alessandrino descrisse alcune macchine termiche ingegnose; mentre dobbiamo, secondo la tradizione, a Euclide la legge della riflessione della luce. Gli antichi conobbero pure le singolari proprietà dell'ambra e del magnete naturale. Con questo però la parte attiva del bilancio si chiude.

La caduta dell'Impero Romano e la conquista islamica spensero quell'ultima luce della cultura ellenica, che era rimasta accesa nel Museo di Alessandria. Ma l'islamismo ereditò in gran parte ed elaborò, con qualche elemento nuovo, il patrimonio culturale greco, e quando, più tardi, il commercio rinato e le crociate misero in contatto la cristianità e l'Islam, l'Occidente ricevette dagli Arabi delle nozioni che la cultura classica aveva ignorate.

Un cronista francese delle crociate, Jacques de Vitry, che scriveva alla fine del 1100 o al principio del 1200 riferisce: "Sunt praeterea in partibus Orientis lapides praetiosi admirabilis virtutis... Adamas in ultima India reperitur... ferrum occulta quadam virtute ad se trahit. Acus ferrea postquam adamantem contigerit ad stellam septentrionalem.. semper convertitur".

Questo testo aggiunge due fatti di importanza capitale a ciò che i Greci sapevano, e cioè la magnetizzazione del ferro e l'orientamento di un ago magnetizzato. Che la notizia sia di fonte indiana si deduce dalla presunta origine della pietra di mirabili virtù; il cronista ha chiamato la magnetite con l'antico nome greco del ferro temprato (ἀδάμας), nome che passò dopo Aristotele a significare il diamante, e dall'adamas di Jacques de Vitry deriva l'aimant francese. Il vocabolo italiano calamita, famigliare già ai contemporanei di Dante, è anch'esso di origine greca (καλαμίς "sbarretta"); mentre è schiettamente italiana la parola bussola, usata già nella prima metà del Trecento. Ed è quindi probabile che la bussola marina sia stata costruita in Italia; sebbene non abbia alcun fondamento la leggenda che ne attribuisce l'invenzione a Flavio Gioia, del quale nemmeno si può documentare l'esistenza.

Un altro dono prezioso dobbiamo agli Arabi, che forse anche questo avevano ricevuto dagl'Indiani, ossia l'algebra. La fece conoscere in Occidente Leonardo Fibonacci, figlio di un notaio della concessione pisana a Bugia in Algeria, col suo Liber abbaci, che porta la data del 1202. Il Liber abbaci insegna l'uso delle cifre che ancora adesso chiamiamo arabiche e l'uso dello zero, e l'algebra elementare fino alle equazioni di secondo grado.

Nel secolo seguente Raffaello Canacci, di nobile famiglia fiorentina, componeva il primo trattato in lingua italiana, cioè il primo trattato d'algebra che sia stato scritto in una lingua moderna. E nelle biblioteche fiorentine restano ancora in gran numero i libri d'abbaco, composti nel XIV e nel XV secolo per uso dei mercanti, ad attestare come la cultura matematica fosse allora largamente diffusa: preparazione preziosa per gli sviluppi futuri della scienza moderna, che doveva nascere appunto in Toscana. Frattanto, a Firenze, nell'Ospedale di Santa Maria Nuova (fondato alla fine del sec. XIII) s'iniziava una scuola medica, che, al difuori e al disopra della tradizione classica, preconizzava lo studio diretto della realtà. Affermano gli statuti dello studio fiorentino (1387) "quia nemo potest esse bonus et perfectus medicus, nisi bene cognoscat anatomiam corporis humani".

D'altra parte le arti figurative contribuirono anch'esse, a partire dal sec. XIII, a formare la mentalità che pone l'uomo davanti alla natura, la mentalità senza la quale non è possibile la scienza. Quei grandi artisti avevano intuito una verità che certi moderni rinnegano. Questi si illudono spesso di avere una loro visione particolare o anzi, come dicono, personale. I pittori e gli scultoti dei secoli migliori sapevano invece che l'artista vede come vede ogni uomo normale; sapevano che l'originalità consiste non nel modo di vedere, ma nel modo di guardare. E quello che si dice dell'artista si deve ripetere alla lettera dello scienziato. Sono così poco distinte la mentalità dell'artista e quella dello scienziato, e sono così poco diverse le doti necessarie all'uno e all'altro, che molti dei nostri pittori, scultori e architetti furono contemporaneamente meccanici e fisici e matematici. Il caso di Leonardo, che subito si presenta allo spirito, non è un caso isolato: è solamente il più tipico e il più caratteristico. E se per Filippo di Ser Brunellesco o per Andrea di Cione del Verrocchio ci dobbiamo rimettere alla testimonianza del Vasari, per altri, come Piero della Francesca, e Leon Battista Alberti e Buonaccorso Ghiberti e Antonio Filarete e Francesco di Giorgio Martini ci restano le prove sicure, sebbene in gran parte inedite, che li affermano fratelli spiritua i di Leonardo da Vinci.

Teorici della prospettiva, risolutori di problemi geometrici e soprattutto costruttori di macchine ingegnose, nessuno di essi però, nemmeno il più grande, ebbe influenza diretta sullo sviluppo della fisica, perché le loro ricerche rimasero quasi sempre ignorate. E forse furono uomini di scienza senza sapere di esserlo.

Galileo Galilei (1564-1642), figliolo di un matematico distinto, pronipote di un grande medico, parente per parte di madre di Bartolommeo Ammannati architetto e scultore, raccoglie in sé le eredità della razza e alle eredità aggiunge il suo genio e la consapevolezza che nasce dal genio. Egli afferma dunque che la conoscenza della realtà non può derivare che dalle sensate esperienze e dalle dimostrazioni necessarie (cioè matematiche). Aggiunge di riconoscere sola maestra la natura, e si pone così da un punto di vista schiettamente realistico. I suoi contemporanei, ai quali si attribuisce da taluni il vanto di avere promosso il nuovo indirizzo della fisica, gli sono di troppo inferiori: Francesco Bacone sconsigliava l'uso delle matematiche, e Renato Cartesio, che pure fu un grande geometra, si provò a costruire la natura col risultato che tutti conoscono. Nel trattato delle Meccaniche, che fu composto, secondo la testimonianza di Vincenzo Viviani, nei primi anni del periodo padovano (cioè subito dopo il 1592), Galileo dimostra nel caso della leva il principio dei lavori virtuali e lo verifica nei casi della puleggia mobile e della taglia. E poi espone la teoria del piano inclinato e della vite, esattamente nella forma nella quale si ripete dopo quasi tre secoli e mezzo nei corsi elementari di meccanica. Egli dimostra ed enuncia chiaramente la regola per calcolare la componente di una forza in una data direzione, pure limitandosi alla considerazione di un caso particolare. "Il momento di venire al basso, che ha il mobile sopra il piano inclinato FH, al suo totale momento, col quale gravita nella perpendicolare all'orizzonte FK, ha medesima proporzione che essa linea FK alla FH". Le Meccaniche sono un trattato di statica; ma Galileo si occupò anche lungamente di questioni cinematiche e il risultato delle sue ricerche pubblicò nei Discorsi intorno a due nuove scienze (1638), che è la sua opera maggiore. In quest'opera vengono definite esattamente per la prima volta la velocità e l'accelerazione (o per meglio dire la sua componente tangenziale); sono date la legge della velocità e la legge dello spazio per il caso della caduta libera; viene stabilito il teorema della composizione degli spostamenti e se ne fa un'applicazione al moto dei proietti. Galileo sa anche che la gittata massima corrisponde all'elevazione di 45°. Il passaggio dall'espressione della velocità all'espressione dello spazio nel moto equabilmente accelerato ha importanza capitale dal punto di vista matematico, perché costituisce il primo esempio di integrazione, dopo Archimede. Galileo, fin dai tempi di Pisa (1589-92), aveva cercato di verificare con l'osservazione diretta le leggi della caduta; ma pare che non vi fosse riuscito. Vi riuscì invece più tardi, modificando con un artifizio opportuno le condizioni dell'esperienza, e cioè facendo scendere il mobile lungo un piano inclinato. Egli si richiama, a questo proposito, al passo citato poc'anzi delle Meccaniche; il che lascia supporre che avesse almeno intuito la proporzionalità fra la forza e l'accelerazione. Comunque, l'artifizio del piano inclinato ha un'importanza capitale nella storia del pensiero umano, perché con esso nasce il metodo sperimentale.

Dopo Galileo un progresso indispensabile allo sviluppo della meccanica fu fatto da Cristiano Huygens (1629-1695), che definì e calcolò la componente normale dell'accelerazione. Isacco Newton (1643-1727), da ultimo, introdusse la nozione della massa e formulò la legge secondo la quale si ottiene la forza, moltiplicando la massa appunto per l'accelerazione. Si può dire che nei Philosophiae naturalis principia mathematica (1687) la meccanica che chiamiamo classica fosse già perfetta; i progressi ulteriori furono in realtà quasi esclusivamente analitici, cioè formali.

Della fecondità dei nuovi metodi diede il Newton stesso la prova più brillante, riconducendo le leggi del moto dei pianeti, che Giovanni Keplero (1561-1620) aveva ricavate dalle osservazioni, al solo postulato della forza attrattiva inversamente proporzionale al quadrato della distanza fra due masse elementari. Era completa la meccanica classica nei Philosophiae naturalis principia mathematica coi suoi teoremi sicuri e coi suoi errori. Conviene infatti osservare a questo proposito che, mentre Galileo, già nella seconda giornata del Dialogo dei massimi sistemi (1632), aveva dimostrato l'impossibilità di avvertire con esperienze di meccanica un moto traslatorio uniforme, Isacco Newton introdusse per definizione (1687) lo spazio assoluto, che sine relatione ad externum quodvis semper manet similare et immobile, e con lo spazio il tempo assoluto, il quale sine relatione ad externum quodvis equabiliter fluit. E l'una e l'altra nozione dovettero scomparire, come si ricorderà a suo tempo, in seguito al risultato negativo di un'esperienza d'ottica; mentre la dottrina di Galileo veniva estesa ai fenomeni elettromagnetici.

Con la meccanica dei solidi nacque nel sec. XVII anche la meccanica dei fluidi. Un discepolo di Galileo, Evangelista Torricelli (1608-1647), aveva rivelato e misurato nel 1644 con l'esperienza del barometro la pressione atmosferica. Dieci anni più tardi Ottone di Guericke (1602-1686) dimostrava pubblicamente a Ratisbona il funzionamento della prima macchina pneumatica, e poco dopo (1660) Roberto Boyle (1627-1691) trovava la legge che porta il suo nome, secondo la quale, a temperatura costante, il volume di una massa gassosa è inversamente proporzionale alla pressione.

Di questa legge si valse Isacco Newton per calcolare la velocità del suono nell'aria. Il risultato del calcolo non si accorda coi dati sperimentali, perché il processo della propagazione non è isotermico; basta però sostituire nel ragionamento del Newton alla legge del Boyle quella trovata da S. D. Poisson per le dilatazioni e compressioni adiabatiche, e i conti tornano in modo perfetto. L'interesse del procedimento newtoniano rimane; e consiste in questo che, mentre per descrivere il moto dei pianeti il fisico inglese aveva, sia pure in una forma (forse volutamente) oscura, integrato un'equazione differenziale ordinaria, per calcolare la velocità di propagazione del suono egli dovette in sostanza ottenere una soluzione di un'equazione alle derivate parziali. Sono casi particolari di un fenomeno generalissimo, perché, in realtà, quasi tutte le grandi teorie della matematica moderna sono nate dal bisogno di formulare quantitativamente secondo il metodo galileiano i risultati sperimentali. In questo indirizzo i discepoli immediati di Galileo, Bonaventura Cavalieri, Evangelista Torricelli e Vincenzio Viviani, sono stati dei precursori: precursori dei quali Isacco Newton riconobbe nobilmente i meriti nella Nova methodus fluxionun.

Dai mirabili successi della dinamica newtoniana derivò la preoccupazione d'interpretare con modelli meccanici ogni fenomeno: per due secoli, anzi, il verbo spiegare ha avuto nella fisica questo speciale significato. La legge del Boyle fu dunque spiegata la prima volta (1738) nella Hydrodynamica di Daniele Bernoulli (1700-1782), con l'ipotesi di un gas costituito da molecole tutte uguali e animate, per una certa temperatura, da una stessa velocità. L'ipotesi si manifestò più tardi troppo semplice, diede però lo spunto a considerazioni che hanno avuto ed hanno un'importanza grandissima per gli sviluppi della filosofia naturale.

Ma la meccanica dei gas si intreccia a questo punto con lo studio dei fenomeni termici. Galileo, durante il soggiorno di Padova (1592-1610), aveva ideato un termometro ad aria, in una forma però alquanto imperfetta. Le ricerche quantitative sulla termologia incominciano soltanto con la costruzione del termometro a liquido, che si deve, secondo il Viviani, a Ferdinando II de' Medici, granduca di Toscana (1641); l'istrumento fu descritto insieme con altri (igrometro, ecc.) per la prima volta dagli accademici del Cimento nei Saggi di naturali esperienze, pubblicati l'anno 1667. Gli accademici usavano per i loro termometri una graduazione empirica; solo più tardi uno di essi, Carlo Rinaldini, propose (1691) come punti fissi quelli che usiamo ancora, della temperatura del ghiaccio fondente e della temperatura di ebollizione dell'acqua. Ma i fenomeni della fusione e dell'ebollizione erano stati studiati in molti loro particolari dagli accademici fiorentini, i quali conobbero anche la nozione del calore specifico, o, come essi dicevano, della capacità per il Calore, ma non la pubblicarono. La priorità nella definizione di questa grandezza di notevole importanza spetta invece, al chimico inglese Joseph Black (1728-1799).

Nel caso dei gas la quantità di calore necessaria ad innalzare di un grado la temperatura dell'unità di massa dipende (oltre che, naturalmente, dalla natura chimica della sostanza) dal processo del riscaldamento; e così si parla, per es., di calore specifico a pressione costante e di calore specifico a volume costante. Il primo risulta maggiore del secondo. Robert Mayer (1814-1878) ebbe l'idea geniale di attribuire (1842) la differenza fra le due costanti al lavoro necessario alla dilatazione, e calcolò così un primo valore di quello che fu chiamato più tardi l'equivalente dinamico della caloria. Quando si fa dilatare, scaldandolo, un gas chiuso dentro un recipiente munito di embolo, la pressione interna è in ogni fase del processo estremamente poco superiore a quella che dall'esterno si esercita sull'embolo. In ogni fase del processo basterebbe aumentare di poco la pressione esterna perché il volume del gas tornasse a diminuire. Si tratta, secondo il termine consacrato dall'uso, di un fenomeno reversibile. Ma si possono immaginare delle dilatazioni non reversibili. Se per es. si fanno comunicare con un raccordo due palloncini, uno pieno d'aria e l'altro vuoto, l'aria esce in parte dal primo, entra nel secondo, e il processo si arresta quando nei due palloncini la pressione ha raggiunto il medesimo valore. E non si è osservato mai che il gas tornasse a raccogliersi in uno dei due. Ora, se si vuole spiegare meccanicamente il secondo fenomeno, si va incontro a una difficoltà che sembra insormontabile: le equazioni della dinamica, siano esse scritte nella forma del Newton, o in quella più generale del Lagrange, o in altre equivalenti, prevedono soltanto moti reversibili. Si deve dunque rinunciare al modello di Daniele Bernoulli, magari modificato? La risposta al quesito fu faticosamente cercata e trovata in fine per opera di James Maxwell (1831-1879) e di Ludwig Boltzmann (1844-1906), i quali appunto in questa circostanza applicarono la prima volta in modo sistematico a un problema fisico il calcolo delle probabilità. Il risultato delle loro ricerche è in sostanza che i fenomeni che l'esperienza quotidiana indica come irreversibili non sono tali, rigorosamente parlando; si può dire soltanto che è estremamente improbabile che essi s' invertano. Un'affermazione di questo tipo basta senza dubbio dal punto di vista pratico; può parere non del tutto soddisfacente dal punto di vista teoretico. Si potrebbe dubitare infatti che in casi come quello testé discusso la dinamica classica fosse impotente a prevedere, cioè a calcolare, esattamente il fenomeno. Ma la difficoltà non è di principio, è soltanto di attuazione: secondo dati attendibili vi sono in un centimetro cubo di gas a 0° e alla pressione ordinaria atmosferica 2,73.1019 molecole, e se le si considerano anche come punti materiali, bisognerà dunque per prevedere la condizione di quel centimetro cubo scrivere e integrare 3.2,73.1019 equazioni differenziali, e nelle equazioni integrate introdurre da ultimo la velocità e le coordinate (che si dovrebbero saper misurare) delle singole molecole a un istante assegnato.

Il principio di causalità non è infirmato; noi siamo incapaci di formularlo. Le considerazioni di probabilità soccorrono a dare in questo caso risultati semplici e in pratica sufficienti.

Difficoltà logiche più gravi sono nate invece dagli sviluppi dell'elettrologia e dell'ottica. L'elettrologia moderna nasce con William Gilbert (1540-1603), il quale pubblicò i risultati delle sue ricerche nel volume De magnete magneticisque corporibus (1600). Il Gilbert trovò per il primo le azioni repulsive fra i poli omonimi di due magneti e fece l'esperienza della calamita spezzata; conobbe la declinazione (variatio), che era stata osservata già dai grandi navigatori italiani Cristoforo Colombo e Sebastiano Caboto, e l'inclinazione (declinatio). Dimostrò che oltre all'ambra molte altre sostanze si elettrizzano e che tutti i corpi vengono attratti da un corpo elettrizzato. Gli accademici del Cimento, per loro conto, fecero vedere che le forze magnetiche si esercitano anche attraverso il vuoto torricelliano, e aggiunsero nel campo dell'elettrologia propriamente detta un' osservazione d' importanza capitale: che cioè le fiamme scaricano i corpi elettrizzati.

Nel 1731 Stephen Gray (morto nel 1736) trovò il fenomeno della conduzione metallica, e nel 1733 Charles Dufay (1698-1739) dimostrò l'esistenza delle cariche positive e negative. Nel 1746 da Pieter van Musschenbroek (1692-1761) fu fatta l'esperienza della bottiglia di Leida e nel 1752 Beniamino Franklin (1706-1790) rivelò la natura elettrica di certi fenomeni atmosferici; l'anno appresso Giovanni Battista Beccaria (1716-1781) dimostrava che in un conduttore elettrizzato la carica in equilibrio si riduce alla superficie, il quale risultato implica già la legge delle attrazioni e repulsioni elettriche. Legge stabilita direttamente (anche per il caso del magnetismo) fra il 1785 e il 1786 da Charles Augustin Coulomb (1736-1806).

Restava così numericamente fissata la nozione della quantità di elettricità (e della quantità di magnetismo); le altre nozioni fondamentali dell'elettrostatica, la capacità e il potenziale, trovarono la loro definizione in lavori giovanili di Alessandro Volta (1745-1827). Il quale più tardi, prendendo lo spunto da certe osservazioni di Luigi Galvani (1737-1798), giunse a dimostrare il salto di potenziale che si produce alla superficie di contatto fra due metalli differenti e, da ultimo, a costruire la pila (1800) nelle due forme a colonna e a corona di tazze.

La pila fornì per molti anni, essa sola, la corrente elettrica ed è quindi da considerarsi come uno degli apparecchi più preziosi che gli uomini abbiano trovato mai. Già nel 1801 incominciano le ricerche sull'elettrolisi, che culminano nella preparazione (1807) fatta da Humphry Davy (1778-1829) del sodio e del potassio metallici. Nel 1820 Hans Cristian Ørsted (1777-1851) pubblicò l'azione della corrente sull'ago magnetico. Seguirono a brevissima distanza le mirabili ricerche di André-Marie Ampère (1775-1836) sulle forze che si esercitano fra correnti e correnti, dalle quali l'Ampère stesso dedusse la sua teoria del magnetismo.

Nel 1831 cominciano le grandi scoperte di Michael Faraday (1791-1867); si iniziano con la dimostrazione della correnti indotte, si continuano con l'osservazione delle estra-correnti (1834), con la determinazione delle leggi dell'elettrolisi (1833), con le esperienze sui corpi diamagnetici (1845) e sul potere induttore specifico (costante dielettrica). Le ricerche sulle sostanze diamagnetiche e sulla costante dielettrica avevano convinto il Faraday che le azioni magnetiche ed elettriche fossero propagate dal mezzo. Queste idee, necessariamente vaghe nel loro primo promotore, che non era famigliare con l'uso dei simboli matematici, furono precisate da James Maxwell, il quale, traducendo in formule i concetti del Faraday, giunse a scrivere le celebri equazioni del campo elettromagnetico. Le equazioni del Maxwell prevedono la propagazione nei mezzi isolanti di perturbazioni trasversali, e permettono di calcolarne direttamente (con esperienze elettriche) la velocità, che risulta identica (nel vuoto) alla velocità della luce (1870). Queste divinazioni trovarono una conferma brillantissima nelle esperienze di Heinrich Hertz (1857-1894) sui raggi di forza elettrica (1887). In quell'anno l'elettromagnetismo apparve veramente fuso con l'ottica.

Dell'ottica dobbiamo adesso richiamare rapidamente gli sviluppi. In questo campo la tecnica strumentale precedette di molto l'indagine propriamente scientifica. Già nel Trecento si fabbricavano a Venezia delle lenti biconvesse e biconcave; le biconvesse dovettero precedere le altre, come si deduce dal vocabolo che in tutte le lingue europee è tolto a prestito dalla lenticchia. Giovanni Battista della Porta (1535-1615) nel trattato De magia naturali (1589) descrisse chiaramente la disposizione che va sotto il nome di cannocchiale di Galileo. Il cannocchiale si cominciò a fabbricare in Olanda nel 1608 o nel 1609; in quest'ultimo anno Galileo ne ebbe notizia e ritrovò da sé quella combinazione di lenti, che fu da lui impiegata nelle famose osservazioni celesti. A Galileo appartiene in proprio il microscopio composto, e a Giovanni Keplero il cannocchiale astronomico. Nel 1637 Renato Cartesio (1596-1650) diede la legge della rifrazione e l'applicò subito alla teoria dell'arcobaleno. Nel 1665 in un'opera postuma di Francesco Maria Grimaldi (1618-1663) furono resi noti il fenomeno della diffrazione della luce e lo spettro solare ottenuto con un prisma. Christian Huygens (Traite de la lumière, 1678) preconizzò la teoria ondulatoria della luce e l'applicò felicemente a interpretare la doppia rifrazione dello spato d'Islanda. Isacco Newton fece ricerche accurate sulla dispersione e studiò per la prima volta in condizioni semplici un fenomeno d'interferenza (anelli), e diede così, in un certo senso, la prima determinazione delle lunghezze d'onda luminose. Egli si tenne però sempre fedele alla teoria dell'emissione, che s'inquadrava meglio dell'altra nel suo sistema della filosofia naturale. E la teoria dell'emissione dominò per un secolo. I lavori di Augustin Fresnel (1788-1827) sui fenomeni d'interferenza e diffrazione resero sempre più probabile l'ipotesi ondulatoria; che fu considerata da tutti vittoriosa in seguito a un presunto experimentum crucis (1849) di Armand Fizeau (1819-1896). Tenendo conto della scoperta della polarizzazione (1808) fatta da Etienne Malus (1775-1812) si poté così precisare la natura della perturbazione luminosa, come di una perturbazione periodica normale alla direzione di propagazione. Le proprietà della radiazione visibile furono estese a quella ultrarossa (al calore raggiante), con una bella serie di esperienze da Macedonio Melloni (1798-1854). Verso il 1890 tutto il campo dell'elettromagnetismo e dell'ottica pareva definitivamente sistemato, e Heinrich Hertz mostrava come dalle equazioni del Maxwell, opportunamente completate, si potessero ricavare tutti i fenomeni conosciuti.

Isacco Newton aveva accennato, nello Scolio generale che chiude i Principî matematici della filosofia naturale, alla possibile esistenza di uno spirito sottilissimo, propagatore della luce e delle azioni elettriche e delle magnetiche. Ora, la teoria maxwelliana sembrava attestare l'esistenza di tale mezzo (l'etere) e parve naturale vedere in esso in qualche modo materializzato lo spazio assoluto, similare semper et immobile. E così nacque il pensiero di rivelare con esperienze elettromagnetiche un moto di traslazione rispetto all'etere. Il tentativo fu realizzato con una disposizione singolarmente ingegnosa da Albert Michelson (1931) e ripreso più volte da lui stesso in collaborazione con altri, ma senza risultato. O anzi, con questo risultato: che un raggio di lu̇ce impiega a percorrere due tratti uguali, uno normale e l'altro parallelo alla direzione di traslazione della Terra, esattamente lo stesso tempo. Non è il caso di trattenerci sulle varie interpretazionì proposte per spiegare l'esperienza del Michelson: la via giusta fu trovata da Albert Einstein, il quale si accontentò di accettare il fatto, e cioè di ammettere, generalizzando un'opinione di Galileo, che nemmeno con esperienze elettromagnetiche è possibile rivelare una traslazione uniforme.

Analiticamente parlando, il postulato di Einstein (principio di relatività) si formula chiedendo quali relazioni debbano esistere fra le coordinate di un punto riferite a due sistemi di assi, animato uno rispetto all'altro da una traslazione uniforme, perché le equazioni del Maxwell conservino inalterata la loro forma. Il problema ha una soluzione semplice, ma inaspettata; perché le formule di trasformazione (trasformazioni del Lorentz), invece che tre, sono quattro e legano insieme le coordinate e il tempo dei due sistemi. Anche il tempo cambia quando si passa dall'uno all'altro sistema. E questo solo tempo ha un senso sperimentale, e lo ha proprio perché viene riferito ad externum quodvis. Le trasformazioni, rispetto alle quali le equazioni del Maxwell sono invarianti, non trasformano in loro stesse le equazioni della meccanica newtoniana; per questo sono necessarie altre trasformazioni (trasformazioni di Galileo) più semplici, che lasciano inalterato il tempo. E ci si trova dunque davanti a questo dilemma: o ammettere due gruppi di trasformazioni, validi rispettivamente per i fatti meccanici e per gli elettromagnetici, o modificare le equazioni della dinamica in guisa che anche esse diventino invarianti rispetto alle trasformazioni del Lorentz. Il secondo partito sembra più semplice, più elegante e più pratico. Se lo si adotta, le equazioni del Newton diventano appena più complicate; ma in esse la massa non è più costante, è invece una funzione della velocità (v) del mobile: una funzione bensì che comincia a scostarsi dal valore che corrisponde al riposo solo quando il termine (v/c)2 diviene sensibile in confronto dell'unità, c essendo la velocità di propagazione della luce.

Si è parlato, anche a proposito di questo risultato, di una bancarotta della scienza. È vero precisamente l'opposto: la meccanica viene infatti ricondotta attraverso la teoria della relatività alle sue pure e realistiche origini galileiane. Galileo aveva costruito il suo sistema in seguito ad esperienze condotte con velocità di pochi metri al secondo; fu già un caso fortunato, ma puramente fortuito, che i concetti galileiani si applicassero ancora a velocità dell'ordine di qualche decina di chilometri al secondo (moto dei pianeti), e non si può gridare allo scandalo se la dinamica classica non è più valida quando la velocità del mobile diventa paragonabile a c, che è di 300.000 chilometri al secondo.

Tutti sanno che una colonnina di mercurio si allunga presso a poco uniformemente fra 0° e 100° del termometro centigrado; nessuno si stupisce sentendo dire che la stessa legge di dilatazione non vale più fra − 100° e − 200°. L'estrapolazione è in fisica il modo più pericoloso di ragionare. Caso per caso l'esperienza deve decidere, e le formule della teoria della relatività esprimono appunto un risultato sperimentale. La teoria fu sviluppata più tardi dallo Einstein stesso e sembra se ne possa concludere che lo spazio non è nemmeno in ogni punto similare a sé stesso. Le equazioni del Maxwell apparvero, dopo la prova del fuoco dell'esperienza del Michelson e le ricerche teoriche che ne seguirono, anche più sicure di prima. Ma H. Hertz stesso aveva incidentalmente osservato un fatto che, come si vide poi, non rientrava nello schema classico, il fenomeno fotoelettrico. Vennero poi, nel 1895, la scoperta dei raggi X (K. Röntgen, 1845-1923) e nel 1896 quella dell'effetto Zeeman e quella della radioattività (H. Becquerel, 1852-1908).

Ora nei fenomeni radioattivi si manifestò la presenza di particelle elettrizzate positivamente e negativamente. Le negative apparvero dotate di una massa circa 2000 volte minore di quella che secondo le considerazioni della teoria cinetica si attribuisce all'atomo dell'idrogeno e della stessa carica che a questo atomo spetta secondo le misure elettrolitiche. Particelle identiche per carica e massa si riscontrarono in certi processi di scarica nei gas (raggi catodici), nell'effetto fotoelettrico, nell'effetto Zeeman e nell'effetto termoionico (Thomas A. Edison, 1847-1931). E così, mentre l'atomo dell'idrogeno appariva costituito da una particella negativa (elettrone) e da una positiva ugualmente carica e molto pesante (protone), nacque spontanea l'idea d'immaginare anche gli altri atomi formati da nuclei proporzionalmente maggiori e da un numero di elettroni crescente col peso atomico.

Quel fenomeno di ionizzazione, che si era manifestato la prima volta in un'esperienza degli accademici del Cimento, sembrava adesso trasferirsi dalla molecola all'atomo, il cui vocabolo perdeva dunque il significato etimologico. Frattanto gli elettroni velocissimi emessi dalle sostanze radioattive fornivano una prima verifica delle formule della dinamica relativistica, in quanto la loro massa risultava crescente con la velocità, e proprio nel modo previsto dalla teoria. Il fenomeno Zeeman, che corrisponde senza dubbio a un processo intraatomico, si lasciava calcolare alla sua volta facilmente, almeno nel caso più semplice, con considerazioni di tipo classico. Solamente l'effetto fotoelettrico presentava una difficoltà, in quanto la velocitȧ degli elettroni liberati dal metallo sotto l'azione della luce non risultava dipendente dall'intensità, ma invece dalla frequenza della radiazione incidente. Ora, si era tentato già, senza risultati soddisfacenti, di risolvere teoricamente il problema dello stato stazionario della radiazione in un involucro chiuso, a parete perfettamente riflettente. Maximilian Planck riprese la questione con considerazioni elettromagnetiche, supponendo la parete costituita da oscillatori, nel senso del Hertz; e giunse così a una singolare conclusione: l'espressione dell'intensità corrispondente a una data frequenza non era d'accordo coi risultati sperimentali, salvo che per le onde lunghe (cioè per le piccole frequenze), e quella della radiazione totale era infinita per ogni temperatura.

Il Planck pensò non vi fosse altro mezzo, per mettere d'accordo esperienza e teoria, che quello di sceverare alcuni elementi nell'integrale che rappresenta la radiazione totale. Per ragioni sulle quali non è possibile insistere qui, egli scelse quegli elementi ammettendo che un oscillatore emettesse ed assorbisse dei quanti di energia, della forma hν, essendo ν la frequenza ed h una costante. L'ipotesi mantiene la continuità nella regione delle onde lunghe, e le sue conseguenze si accordano perfettamente coi risultati sperimentali anche nelle altre regioni, purché si faccia h = 6,55.10-27 (costante del Planck). Questa nozione dei quanti, che ripugna all'elettrodinamica classica (equazioni del Maxwell), parve da principio una bizzarria. Di nuovo però si sarebbe potuto osservare che le equazioni del Maxwell erano nate come generalizzazioni di fatti sperimentali (forza elettromotrice di induzione, azione magnetica della corrente) osservati con apparecchi le cui dimensioni sono dell'ordine del centimetro. Perfettamente logico dunque che esse trovassero una conferma nelle esperienze del Hertz; niente di strano invece che non apparissero più applicabili a sistemi come gli atomi, che hanno dimensioni dell'ordine di 10-8 centimetri, e tanto meno agli elettroni, assai più piccoli degli atomi, e ai nuclei.

L'ipotesi del Planck cominciò ad apparire accettabile quando Albert Einstein, aggiungendo per conto suo che l'energia emessa da un oscillatore viaggiasse nello spazio per quanti (fotoni), fece vedere che ne seguiva in tutti i suoi particolari l'effetto fotoelettrico. Questo effetto diede anzi un metodo più semplice e più sicuro per la determinazione della costante h. L'Einstein stesso fece dell'ipotesi dei quanti un'altra notevole applicazione al calcolo dei calori specifici dei corpi solidi.

Si era a questo punto quando, nel 1912, apparvero le belle ricerche di M. Laue sui fenomeni d'interferenza dei raggi X, fenomeni ottenuti con reticoli cristallini, seguite nell'anno successivo da quelle di Johannes Stark e di Antonino Lo Surdo sull'analogo elettrico dell'effetto Zeeman. Gli spettri dei raggi X fornirono ben presto il mezzo per invertire la dimostrazione data dall'Einstein dell'ipotesi quantistica in base al fenomeno fotoelettrico. E quanto all'effetto Stark-Lo Surdo, fu subito chiaro che esso non era calcolabile con l'elettrodinamica classica.

Ma insieme con le ricerche sperimentali, delle quali si è detto or ora, era apparsa anche una memoria teorica di Niels Bohr, dalla quale si può datare a buon diritto una nuova epoca nella fisica; è un lavoro di poche pagine che, per la conoscenza dell'atomo, ha avuto ed ha un'importanza capitale. Lavoro, diciamolo subito, imperfetto però e sconcertante dal punto di vista logico; perché, volendo l'autore calcolare l'atomo dell'idrogeno, egli risolve il problema applicando la legge del Coulomb e la dinamica del Newton, e sceverando poi, fra le infinite orbite possibili dell'elettrone, che si muove intorno al protone, alcune orbite privilegiate, in base a criterî quantistici. In queste orbite, che obbediscono ad ogni modo alla meccanica classica, l'elettrone (secondo il Bohr) non emette energia, come vorrebbe invece l'elettrodinamica classica. Emissione si ha soltanto al passaggio dall'una all'altra delle orbite privilegiate. Con le quali premesse, così poco soddisfacenti, si arriva a calcolare a priori la lunghezza d'onda di un certo numero di righe dello spettro dell'idrogeno (serie del Balmer, ecc.). Non mai forse, nella storia della scienza, si vide un esempio come questo d'intuizione geniale, che elimina, si direbbe, con violenza gli ostacoli frapposti da un modo di pensare e di ragionare disadatto (cioè non legittimamente applicabile) per giungere a risultati aderenti alla realtà. La teoria del Bohr, sia pure nella sua forma imperfetta, dominò per un decennio e fu applicata, dal primo ideatore e da altri, agli spettri di righe corrispondenti ad atomi più complessi (metalli alcalini, ecc.), agli spettri dei raggi X, agli spettri di bande, al sistema periodico degli elementi, all'effetto Stark-Lo Surdo. Anche risultò chiara la ragione per cui l'effetto Zeeman rientrava in apparenza negli schemi tradizionali.

Nonostante questa messe copiosa di resultati, restava, in chi pensasse ad applicare a qualche nuovo problema i metodi del Bohr, un senso innegabile di disagio. E si manifestava ogni giorno di più la necessità di riprendere da capo la trattazione dei fenomeni interatomici, per modo che si potesse, restando fermi ai fatti bene osservati, togliere di mezzo delle nozioni e dei metodi utili bensì e fecondi, ma creati per scopi completamente diversi. Il lavoro di ricostruzione fu fatto, per due vie formalmente diverse, da W. Heisenberg e da E. Schrodinger, e nacquero così la Meccanica delle matrici (1925) e la Meccanica ondulatoria (1926); due sistemi perfettamente logici e conseguenti, se anche in essi l'apparato algoritmico sembri ancora suscettibile di semplificazione. Le due nuove meccaniche hanno come caso limite la meccanica classica, quando si applichino a corpi di dimensioni più che atomiche.

Resta però, e sembra per certi fatti verosimile, il dubbio che anche le nuove meccaniche cessino di valere quando si passi a sistemi sempre più piccoli; in questi casi forse il lavoro sarà da ricominciare.

Per chiudere questa rapida rassegna conviene ricordare ancora due cose. Anzitutto, che sostituendo alle onde i fotoni si possono ritrovare tutti i fenomeni che sembravano caratteristici della teoria ondulatoria (diffrazione, interferenza, effetto Doppler); la stessa esperienza di Fizeau cessa di essere un experimentum crucis. In secondo luogo, che è stata messa in chiaro l'impossibilità sperimentale di determinare a un tempo con esattezza la posizione e la velocità (o l'impulso) di un elettrone; dal che nasce una difficoltà logica diversa e più grave di quella avvertita nel caso della teoria cinetica dei gas: difficoltà che si concreta non in una semplice incapacità di attuazione, bensì nel non poter fissare le condizioni iniziali.

Qui, come nell'altro caso, e a maggior ragione, ci troviamo ridotti ad affermazioni probabili. Che ne resti davvero infirmato il principio di causalità è almeno dubbio; per stabilire l'impossibilità di determinare nel caso dell'elettrone le condizioni iniziali si ragiona infatti proprio come se il principio di causalità fosse valido. A ogni modo il fisico, riconoscendo dei limiti alla sua ricerca, dà un esempio degno di imitazione: perché niente è più facile che non essere realisti e obiettivi.

Bibl.: J. C. Poggendorff, Geschichte der Physik, Lipsia 1879; E. Hoppe, Geschichte der Physik, Brunswick 1926 (trad. fr., Hist. de la physique, Parigi 1928).