Fisica

Enciclopedia Italiana - VII Appendice (2007)

Fisica

Giorgio Parisi

Spiegare cosa è oggi la f. e cosa la differenzia dalle altre discipline non è facile. Dare una precisa definizione di una scienza è arduo, specialmente in questi anni in cui si svolgono sempre di più ricerche interdisciplinari, e ci si espone al rischio di darne una troppo riduttiva o troppo estensiva. Sembra ragionevole definire la f. come la scienza della natura in cui il ragionamento matematico è essenziale. L'universo può essere studiato in tanti modi, per es. in biologia il ragionamento matematico a volte viene usato, ma normalmente non fa parte dei concetti essenziali. La frontiera fra chimica e f. è difficile da tracciare. In particolare, la cosiddetta chimica computazionale (il calcolo delle proprietà delle molecole partendo dal moto degli elettroni intorno al nucleo) può anche essere considerata una parte della f. in quanto le tecniche che usa hanno origine nella f.: il premio Nobel della chimica del 1998 è stato conferito al fisico W. Kohn per i suoi contributi fondamentali alla nascita della chimica computazionale.

Più in generale, la f. può essere considerata al pari di una scienza del 'dover essere', nel senso di seguito specificato: in una teoria fisica 'matura' si prendono le mosse da alcune leggi (oppure assiomi), ispirandosi all'esperienza, e da proprietà fondamentali che dovrebbero avere un corrispondente nel mondo oggettivo. Alla descrizione matematica formale del sistema fisico, seguono le deduzioni sul modo in cui il sistema si 'deve' comportare.

La biologia studia solo gli esseri viventi di questo pianeta. Essa non è una scienza della necessità, del dover essere, come la f., ma è il regno della contingenza: le cose sono come sono, perché storicamente determinate in un modo piuttosto che in un altro: la biologia non studia sistemi che si 'devono' comportare in un dato modo come conseguenza di principi primi, ma oggetti che soddisfano leggi contingenti. La matematica sta addirittura all'opposto della biologia: è la scienza di tutto quello che 'può' essere. Ai matematici non importa se gli oggetti che studiano soddisfano leggi che corrispondono a qualcosa che esiste nel mondo reale, per loro conta solamente che la teoria non sia contraddittoria: le leggi della matematica devono essere logicamente consistenti e di conseguenza potrebbero essere realizzate o in questo universo o in un altro universo.

La f. moderna sta subendo una notevole evoluzione. Per un lunghissimo periodo uno dei problemi chiave era trovare le leggi fondamentali della natura, ovvero determinare i costituenti elementari della materia e le forze che agivano fra di loro. Nel corso del secolo scorso si è raggiunta una formulazione completa e soddisfacente delle leggi della f. su scale che vanno dalla f. nucleare e subnucleare (10−15 cm) fino al moto delle stelle e delle galassie. L'immenso spettro di fenomeni interessati può essere spiegato in linea di principio partendo dalle teorie attualmente accettate. Su scale molto piccole, i fenomeni osservati si possono ben descrivere nell'ambito del quadro generale della meccanica quantistica relativistica. La materia nucleare è composta da quark e da gluoni i quali interagiscono secondo le leggi della cromodinamica quantistica. Queste particelle, che non possono esistere isolate, combinandosi tra loro danno luogo al protone, al neutrone e successivamente ai nuclei atomici; esse sono anche responsabili delle forze fra i nuclei.

La meccanica quantistica permette di investigare le proprietà degli atomi e delle molecole: per es., nel caso di sistemi non troppo complessi le proprietà chimiche degli atomi sono in ottimo accordo con il calcolo teorico. Ovviamente più il sistema diventa complesso, più aumenta il numero di elettroni coinvolti, più i calcoli diventano difficoltosi e hanno bisogno di computer sempre più grandi e veloci per produrre risultati qualitativamente e quantitativamente corretti. Su scala sempre più grande, le forze gravitazionali, nella forma predetta dalla relatività generale, sono capaci di spiegare con grande precisione il moto di pianeti, stelle e galassie. Le difficoltà sono essenzialmente di natura osservativa: non si conosce bene la struttura su larga scala dell'Universo (per es., i grandi vuoti nelle distribuzioni di galassie) e non è da escludere che le leggi della gravitazione vadano modificate a queste distanze.

Dati sperimentali suggeriscono che l'Universo si sta espandendo più velocemente di quanto previsto e questo effetto potrebbe essere causato dall'esistenza di un inaspettato termine cosmologico nelle equazioni per il campo gravitazionale (ipotizzato da A. Einstein), responsabile dell'espansione accelerata dell'Universo.

La situazione cambia se si considerano scale più piccole di 10−15 cm. Non si sa se la lista delle particelle note sia essenzialmente completa, oppure se esistano nuove particelle relativamente leggere (di massa un centinaio di volte superiore al protone) non ancora osservate. Infatti lo schema teorico che è attualmente disponibile non sembra essere completamente soddisfacente se estrapolato a distanze molto più piccole di 10−15 cm. Una modificazione della teoria che pare molto ragionevole (supersimmetria) porterebbe a raddoppiare circa il numero di particelle esistenti rispetto a quelle note. L'esistenza o meno delle nuove particelle predette dalla supersimmetria è cruciale e attualmente sono in corso esperimenti che mirano a scoprire queste particelle. Il quadro teorico delle leggi su piccola scala è completamente diverso a seconda che l'ipotesi di supersimmetria sia o no corretta: solo gli esperimenti possono dire quale delle due ipotesi sia vera.

Il nuovo acceleratore in costruzione al CERN di Ginevra (LHC, Large Hadron Collider), dovrebbe fornire indicazioni per rispondere a questa domanda. LHC, la cui entrata in funzione è prevista nel 2007, è un acceleratore a forma di anello lungo 27 km, nel quale vengono accelerati due fasci di protoni di energia estremamente elevata (14 TeV) che circolano nelle due direzioni opposte: durante le collisioni l'energia dei protoni può essere utilizzata per la creazione di particelle, anche di massa estremamente elevata. È opinione generale degli esperti che se le particelle supersimmetriche esistono, devono essere osservate con il LHC. Esistono di conseguenza due possibili scenari: o le particelle supersimmetriche verranno osservate con il LHC, oppure la teoria sarà ragionevolmente abbandonata e i fisici avranno il notevole imbarazzo di trovare una soluzione diversa alle inconsistenze teoriche che si cercava di eliminare.

Un altro punto la cui chiarificazione richiede un notevole sforzo sperimentale, e che è venuto alla ribalta soltanto in questi ultimi anni, è connesso alle masse dei neutrini (sono stati osservati tre tipi di neutrini). Per quasi cinquanta anni, si è pensato che i neutrini avessero una massa nulla, in quanto essa era inferiore a quella misurabile anche negli esperimenti più raffinati. C'erano però dati sperimentali che suggerivano indirettamente che il neutrini avessero una massa non nulla.

L'esperimento giapponese Super-Kamiokande, realizzato nel 1998, dimostrava in maniera inequivocabile l'esistenza di oscillazioni nel flusso osservabile di neutrini in funzione della distanza dal punto di produzione, fenomeno che si poteva spiegare solo assumendo che la massa dei neutrini fosse diversa da zero: altri esperimenti successivi hanno confermato questo risultato. Nel 2006 è iniziato un esperimento nei laboratori nazionali del Gran Sasso che dovrebbe portare all'osservazione di neutrini prodotti al CERN e inviati nella direzione opportuna, che si spera fornisca ulteriori e più precise informazioni. Sfortunatamente questi esperimenti misurano soltanto le differenze di massa esistenti fra i neutrini di vari tipi e non la massa del singolo neutrino. Se tuttavia si assume che la massa dei neutrini sia dello stesso ordine di grandezza delle differenze di massa, si trova che la massa del neutrino deve essere circa un miliardesimo più piccola della massa dell'elettrone. Le particelle elementari sembrano essere caratterizzate da enormi differenze di massa (la massa del quark più pesante, il top, risulta quasi un milione di volte più grande di quella dell'elettrone). L'origine di tali differenze di massa (e più in generale la spiegazione del perché le masse delle particelle elementari siano proprio quelle osservate) è uno dei grandi problemi teorici aperti; ci sono molte proposte e molti suggerimenti, ma non c'è ancora una teoria soddisfacente.

Su scala miliardi di miliardi di volte più piccola (10−33 cm) bisogna affrontare le problematiche connesse con la quantizzazione della gravità, poiché le forze gravitazionali tra due particelle, per es. elettroni, diventano dominanti rispetto a quelle elettriche. A queste distanze la curvatura dello spazio-tempo diventa importante e il vuoto potrebbe essere pieno di minuscoli buchi neri che appaiono e scompaiono. Molto probabilmente si dovranno ridefinire i concetti di spazio e di tempo. Forse si dovrebbe abbandonare l'idea di un universo in cui gli oggetti si muovono nello spazio e nel tempo, per arrivare a una concezione in cui lo spazio e il tempo sono concetti derivati, ma non fondamentali.

Non è facile costruire una simile teoria, in quanto non si ha la possibilità di fare esperimenti su tali scale. L'unica speranza è che le informazioni già acquisite sulla struttura delle particelle osservate sia sufficiente per determinare in maniera univoca e consistente la teoria. Questa speranza deriva dall'estrema difficoltà nel costruire una teoria coerente della gravità quantistica. Alcuni fisici sperano che sia possibile scrivere equazioni a partire dalle quali la struttura delle particelle osservate (per es., quark, leptoni e bosoni intermedi delle interazioni fondamentali), le loro masse e le loro proprietà siano deducibili in linea di principio in accordo con l'esperimento: sia le leggi gravitazionali sia le forze nucleari sarebbero descritte mediante una trattazione unica. Se questo obiettivo verrà raggiunto si potrebbe in qualche modo ritenere conclusa la ricerca delle leggi fisiche fondamentali, non tanto perché le eventuali leggi proposte siano certamente corrette, ma perché una loro possibile violazione sarebbe probabilmente osservabile solo in regioni di energia non accessibile all'osservatore.

La teoria delle stringhe è agli inizi del nuovo secolo la proposta più promettente, anche se - nonostante gli enormi progressi che sono stati fatti - si è ancora molto lontani da previsioni fisiche univoche verificabili sperimentalmente. I risultati ottenuti sono estremamente interessanti dal punto di vista teorico e hanno anche permesso di fare collegamenti inaspettati con settori estremamente avanzati della matematica moderna. Nel 2005, per es., sono stati trovati collegamenti molto interessanti tra alcune proprietà della teoria delle stringhe e alcune generalizzazioni delle congetture di Langlands, del 1967, che sono tra i problemi aperti più affascinanti della matematica moderna e che includono come caso particolare la congettura di Taniyama-Shimura (ora dimostrata), che ha giocato un ruolo cruciale nella dimostrazione dell'ultimo teorema di Fermat.

Se però non si guardano quei fenomeni su scale di grandezza che si situano così lontane dal mondo che si può osservare in un laboratorio anche di media grandezza, si hanno, seppure unicamente in linea di principio, tutte le conoscenze per capire i fenomeni. Di fatto la conoscenza delle leggi di base non implica affatto una comprensione dei fenomeni. Si consideri, per es., il caso della superconduttività ad alta temperatura. In questo contesto si può tranquillamente assumere che gli elettroni interagiscono elettromagneticamente fra loro (e con i nuclei atomici): non si ha certo bisogno di capire quale sia l'origine delle forze elettromagnetiche e i nuclei atomici possono essere considerati come oggetti puntiformi (la loro costituzione, infatti, in termini di protoni e di neutroni, è del tutto irrilevante).

Esiste una teoria ben compresa, formulata da J. Bardeen, L. Cooper e J.R. Schieffer negli anni Cinquanta del 20° sec., che spiega in dettaglio l'origine della superconduttività (ossia l'annullarsi improvviso della resistenza elettrica con l'abbassarsi della temperatura) nei materiali tradizionali, che diventano superconduttori a temperature molto basse, al massimo una ventina di gradi sopra lo zero assoluto. Tuttavia non è affatto chiaro perché e come certi materiali diventino superconduttori a una temperatura relativamente elevata, a soli −180 °C, non vicino allo zero assoluto. Questi superconduttori ad 'alta temperatura' sono stati scoperti solo negli anni Ottanta e nonostante l'enorme massa di dati accumulata si è ben lontani dal capire le origini del fenomeno, ancora misteriose. Ci sono varie proposte teoriche, ma nessuna è completamente soddisfacente e con un'evidenza sperimentale sufficiente per soppiantare le proposte alternative. In questo caso, anche se si conoscono le leggi che regolano il comportamento di ciascun elettrone, sfuggono le cause dell'emergere del comportamento collettivo degli elettroni che produce la superconduttività ad alta temperatura.

Nei primi anni del Duemila, la vera difficoltà con cui si confronta la f. non sta nella formulazione delle leggi fondamentali alle quali obbediscono gli oggetti elementari, per la stragrande maggioranza dei problemi già note; il compito è scoprire le conseguenze di queste leggi nonché capire teoricamente, oppure sperimentalmente, quale sia il comportamento di sistemi complessi. Spesso bisogna procedere mediante ipotesi di lavoro ed effettuare semplificazioni successive; soltanto alla fine si ottiene una descrizione nitida, ma semplificata, che può essere compresa teoricamente e verificata sperimentalmente.

Certo lsa scoperta di nuovi fenomeni gioca un ruolo importante nell'apertura di nuovi campi di studio. Ci sono fenomeni completamente inattesi, scoperti quasi per caso, come la superconduttività ad alta temperatura o il microscopio a effetto tunnel, alcuni dei quali possono avere una spiegazione teorica estremamente difficile da trovare. A volte invece i fenomeni erano stati per lungo tempo previsti teoricamente, ma richiedevano una notevole abilità per essere osservati; una volta prodotti nei laboratori, hanno spesso aperto nuovi campi di studi sia teorici sia sperimentali e pian piano sono stati utilizzati per produrre nuovi strumenti (alcuni di essi, come il transistor o il laser, sono ormai incorporati in tantissimi oggetti di uso quotidiano). Questo processo si sta verificando attualmente con la condensazione di Bose-Einstein, fenomeno predetto nel 1925 da Einstein per gli atomi e riprodotto in laboratorio solo nel 1995. Un condensato di Bose-Einstein ha proprietà fisiche molto diverse da quelle della materia normale ed è l'equivalente per gli atomi della superconduttività per gli elettroni; moltissimi studi vengono fatti per capire meglio il comportamento di questi condensati, che a volte hanno delle caratteristiche inattese e sorprendenti.

Molti fenomeni, noti da tempo ma che non erano considerati importanti, sono stati ripresi in considerazione e studiati con tecniche della f. teorica. È un processo che è incominciato nel corso della seconda metà degli anni Ottanta del 20° sec. con la comprensione di come molte strutture frattali, per es. la forma dei fulmini, potevano essere analizzate teoricamente e riprodotte in laboratorio. Pian piano gli interessi si sono estesi e si sono studiati problemi che precedentemente un fisico non avrebbe mai affrontato: le macchie d'inchiostro sulla carta prodotte stringendo due fogli di carta l'uno contro l'altro (macchie di Rorschach), le piramidi fatte dalla sabbia che cade, la propagazione degli incendi in una foresta, eccetera. Molto spesso, come, per fare un esempio, per le macchie d'inchiostro nella carta, la difficoltà consiste nel capire, sia qualitativamente sia quantitativamente, come piccole disomogeneità, non percepibili a occhio nudo, producano forme macroscopicamente così differenti. Più recentemente si sono incominciati a studiare i comportamenti collettivi emergenti in sistemi composti da un gran numero (migliaia, milioni o miliardi) di componenti, omogenei o eterogenei, interagenti tra loro, specialmente quando il comportamento collettivo del sistema è qualitativamente differente da quello di ciascun singolo componente.

Problemi del genere sono presenti in f.: per es., sono rilevanti per comprendere il passaggio graduale del vetro o della cera dalla fase liquida alla fase solida. Tuttavia la comprensione dei comportamenti collettivi è uno dei problemi più importanti della biologia (come di tante altre discipline): per es., il comportamento dei singoli neuroni è probabilmente ben compreso, ma non è affatto chiaro perché 10 miliardi di neuroni, collegati da centomila miliardi di sinapsi, formino un cervello che pensa. L'emergenza di comportamenti collettivi è un fenomeno adeguatamente studiato dalla f. in altri contesti: la cooperazione di tanti atomi e molecole è responsabile delle transizioni di fase (tipo acqua-ghiaccio o acqua-vapore); tuttavia nel caso dei sistemi complessi il comportamento globale del sistema non è così semplice come quello dell'acqua.

La meccanica statistica (nata nella seconda metà dell'Ottocento per capire il comportamento dei gas utilizzando tecniche statistiche) è la disciplina principe per lo studio di questa problematica. Tecniche e concetti tratti dalla meccanica statistica vengono molto spesso usati per caratterizzare e comprendere molti fenomeni biologici complessi, come, per es., la rete di interazioni fra le varie proteine della cellula o le reti ecologiche (l'insieme delle varie relazioni di dipendenza e di sfruttamento esistenti fra gli organismi che fanno parte dello stesso ecosistema). Sono ricerche con un forte contenuto interdisciplinare, che stanno alla frontiera della f., in cui però si utilizzano gli strumenti tradizionali della fisica.

Anche l'evoluzione della tecnologia tende sempre più a influenzare e a essere influenzata dallo sviluppo della f. e consente un affinamento delle misure sperimentali. Il progresso dell'elettronica ha rivoluzionato le tecniche di sperimentazione, sia rendendo possibile la realizzazione di strumenti ad altissima precisione e a basso costo, sia permettendo l'acquisizione e l'analisi dei dati controllata da un calcolatore. Tuttavia per effettuare determinate esperienze spesso sono necessarie attrezzature al limite della tecnologia attuale, estremamente ingombranti e costose, che molto difficilmente possono essere gestite da un unico gruppo sperimentale. In casi come questi si costruiscono laboratori attrezzati in appositi centri nei quali possono lavorare ricercatori provenienti da tutte le parti del mondo.

Una volta questi centri (per es., il CERN) erano tipici della f. delle alte energie. Attualmente anche in altri campi della f. sono necessarie grandi apparecchiature, in particolare per la produzione di fasci estremamente intensi e monocromatici di luce, specialmente ultravioletti e X. Anelli di accumulazione di elettroni emettono una grande quantità di radiazione di sincrotrone e sono di gran lunga la migliore sorgente a disposizione: risultati ancora migliori possono essere ottenuti combinando queste sorgenti con la tecnica del free electron laser (che utilizza per l'emissione laser un fascio di elettroni relativistici liberi). Queste apparecchiature risultano fondamentali tanto per la ricerca, specialmente nel campo della f. dei materiali, quanto per applicazioni industriali e sanitarie.

bibliografia

B. Green, The elegant universe: superstrings, hidden dimensions, and the quest for the ultimate theory, New York 1999 (trad. it. Torino 2000).

F. Duan, J. Guojun, Introduction to condensed matter physics, Hackensack (NJ) 2005.

H. Fritzsch, Elementary particles: building blocks of matter, Hackensack (NJ) 2005.

M.L. El Nadi, Modern trends of physics research. First international conference on modern trends of physics research, Berlin 2005.

CATEGORIE
TAG

Cromodinamica quantistica

Radiazione di sincrotrone

Ultimo teorema di fermat

Forze elettromagnetiche

Lista delle particelle