Terra

Enciclopedia del Novecento I Supplemento (1989)

Terra

Enzo Boschi e Michele Dragoni
Ottavio Vittori

Terra solida di Enzo Boschi e Michele Dragoni

SOMMARIO: 1. Introduzione.  2. Dalle osservazioni ai modelli: a) la gravità e la forma della Terra; b) la tettonica globale: la litosfera; c) i terremoti; d) i vulcani e il calore della Terra; e) reologia della Terra: il mantello; f) il magnetismo terrestre e il nucleo. 3. L'immagine attuale: a) il pianeta Terra; b) il problema della previsione.  4. Conclusione. □ Bibliografia.

1. Introduzione

La Terra, contrapposta al cielo, ha costituito per millenni uno dei due poli della cosmologia presso numerosi popoli. L'avvento della teoria copernicana ha privato la Terra della posizione centrale che le competeva nelle teorie precedenti, mentre i successivi sviluppi della fisica e dell'astronomia, dilatando a dismisura le dimensioni dello spazio e del tempo, hanno fatto della Terra un ‛dettaglio' dell'universo, difficile da spiegare perché estremamente complesso. La fisica galileiana, concentrandosi sullo studio delle leggi naturali, ha poi privilegiato la spiegazione di classi di fenomeni, rispetto a quella dei fenomeni singoli, ritenuti il risultato di condizioni iniziali equivalenti. Ma la Terra è unica. Da qui la posizione peculiare che lo studio della Terra occupa nell'ambito delle scienze fisiche: le condizioni iniziali sono determinanti per l'esistenza della Terra e di noi stessi.

Alla geologia (v. geologia), che persegue il tradizionale studio naturalistico della Terra, si affiancano la geofisica e la geochimica (v. geochimica), oggi unificate sotto la denominazione comune di ‛scienze della Terra'. Ma numerose altre discipline, tra le quali l'astronomia, l'astrofisica (v. astronomia e astrofisica), la planetologia, la fisica nucleare, la paleontologia, convergono sullo studio della Terra.

Le scienze della Terra sono quindi oggi un insieme di modelli, di teorie, di tecniche di ricerca, di problemi aperti.

La più ambiziosa delle scienze della Terra, la geofisica, si pone come obiettivo il raggiungimento della conoscenza fisica della Terra, deterministica in quanto la Terra è un sistema macroscopico. Da principio questo scopo è stato perseguito tramite l'applicazione alla Terra di teorie fisiche già sviluppate: la teoria dell'elasticità e la dinamica dei fluidi per studiare il comportamento meccanico del pianeta, l'elettromagnetismo, la teoria del calore, la fisica nucleare, la scienza dei materiali. Le teorie, richiedendo la scomposizione del sistema studiato in classi di fenomeni, semplificano e idealizzano i processi. Ciascuna teoria descrive dunque un aspetto parziale di ciò che è la Terra. La fisica moderna, da Galileo in poi, si è sviluppata tramite l'isolamento e la misurazione di alcune proprietà dei fenomeni, ritenute più fondamentali di altre: questa astrazione ha consentito la costruzione deduttiva della scienza sulla base di principi fisici assunti come fondamentali. Ma la Terra resiste a questo tipo di approccio.

In primo luogo, nella geofisica, per l'oggetto stesso della sua indagine, l'osservazione riveste un ruolo dominante rispetto all'esperimento. È possibile produrre terremoti artificiali tramite esplosioni effettuate in superficie, ma non è possibile isolare un pezzo di Terra e compiere esperimenti su di esso, imporre certe condizioni iniziali e studiare l'evoluzione del sistema. Come l'astrofisica, così la geofisica deve quasi sempre limitarsi a osservare i fenomeni. A causa dell'inaccessibilità dell'interno della Terra, sappiamo che qualcosa vi avviene solo se produce qualche effetto alla superficie. È chiaro che questa situazione rende possibile la costruzione di numerosi modelli diversi basati sulla scelta di grandezze fondamentali diverse o sull'isolamento di cause diverse per i fenomeni osservati. E ciò rende difficile il conseguimento di un unico paradigma per numerosi fenomeni.

In secondo luogo, anche l'applicabilità in linea di principio del programma galileiano viene oggi messa in discussione. La ricerca di un livello fondamentale di descrizione in termini prima di atomi e poi di particelle subatomiche è stata il principale obiettivo della fisica degli ultimi due secoli. La meccanica dei continui, la termodinamica, la fisica delle strutture coerenti (ad esempio le celle convettive) sono però livelli di descrizione differenti, irriducibili al primo. L'evoluzione dei sistemi macroscopici, come la Terra, formati da un grandissimo numero di atomi e molecole, viene descritta in termini di grandezze macroscopiche, quali lo sforzo e la deformazione, la temperatura e la pressione. In particolare le proprietà macroscopiche dei cosiddetti sistemi dissipativi, quelli che si trovano lontani dall'equilibrio termodinamico, non possono essere direttamente estrapolate a partire dalla dinamica dei sistemi semplici, quali quelli descritti dalla fisica classica o quantistica: i fenomeni che vi si producono sono radicalmente nuovi e propri di questo livello di descrizione. La Terra è un sistema complesso e dinamico, le cui diverse parti sono in continua interazione, non isolato (si pensi solo alle maree), continuamente lontano dall'equilibrio. In questo quadro di pluralità di livelli di descrizione del mondo, lo studio della Terra acquista il significato di studio fondamentale: la Terra e i pianeti sono sistemi chiave dell'universo osservabile, i soli sui quali sia possibile la vita, secondo le nostre attuali concezioni.

La geofisica non è dunque semplicemente l'applicazione di leggi più o meno note della fisica ai fenomeni terrestri: è invece nuova fisica, è l'elaborazione di nuove teorie adatte a descrivere fenomeni che avvengono in un campo in gran parte ancora non esplorato dalle altre branche della fisica. E come la teoria della relatività rappresenta un approccio alla descrizione dei fenomeni meccanici quando intervengono velocità elevate e la meccanica quantistica riguarda gli oggetti di dimensioni atomiche, così la geofisica si propone di giungere a formulare teorie riguardanti il comportamento dei materiali terrestri nelle condizioni meccaniche, termodinamiche, elettromagnetiche esistenti nella Terra, che, per non essere riproducibili in laboratorio, rappresentano appunto un vasto campo di fenomeni finora inesplorati. In questo secolo, e soprattutto negli ultimi decenni, le scienze della Terra hanno avuto un grandioso sviluppo, di cui la geofisica ha rappresentato il settore trainante. L'evento più significativo è stato senza dubbio l'accettazione generalizzata della teoria della tettonica a placche, i cui principi, che saranno enunciati nel cap. 2, È b, sono oggi alla base di buona parte della ricerca geofisica e geologica.

2. Dalle osservazioni ai modelli

a) La gravità e la forma della Terra.

Finché si rimane confinati alla superficie della Terra non è immediato farsi un'idea della forma globale del nostro pianeta. Pitagora e i suoi discepoli furono tra i primi, nel VI secolo a.C., a sostenere la tesi della sfericità della Terra. Nel III secolo a.C. Eratostene di Cirene effettuò un calcolo della lunghezza del raggio della Terra. Il calcolo era basato sull'osservazione che a mezzogiorno del solstizio d'estate il Sole era a picco sulla città di Siene (oggi Assuan), perché illuminava il fondo di un profondo pozzo, mentre contemporaneamente ad Alessandria d'Egitto i suoi raggi avevano un'inclinazione di 7,2° rispetto alla verticale.

Eratostene stimò la distanza tra Siene e Alessandria pari a circa 5.000 stadi, forse in base al tempo impiegato da una carovana di cammelli per percorrerla. Il valore trovato da Eratostene per il raggio della Terra, a causa dell'incertezza nella definizione dello stadio, potrebbe corrispondere a 7.330 km o a 6.340 km, valori entrambi prossimi a quello attualmente accettato per il raggio medio, che è di 6.371 km. Numerose osservazioni sono state interpretate nel corso dei secoli come comprovanti la sfericità della Terra. Aristotele ne cita due: la forma circolare dell'ombra che la Terra proietta sulla Luna durante le eclissi e la variazione dell'altezza di una stella fissa con lo spostarsi dell'osservatore in direzione nord-sud. Archimede cita la direzione della forza di gravità, sempre diretta secondo i raggi di una sfera. Cleomede fa notare la forma circolare dell'orizzonte e Tolomeo aggiunge l'allargarsi del cerchio dell'orizzonte quando l'osservatore si sposta verso un luogo elevato. Anche gli Egiziani avevano immaginato la forma sferica: questa non viene più messa in dubbio durante il periodo alessandrino. Oggi è un'immagine familiare nelle fotografie riprese dallo spazio.

La forma sferica della Terra è stata associata alla forza di gravità: sotto l'azione della reciproca attrazione delle sue parti, un fluido assume forma sferica. La superficie della sfera ha la caratteristica di essere perpendicolare in ogni suo punto alla forza di gravità. Ma per la Terra la forma sferica è solo un'approssimazione. Nei Principia, pubblicati nel 1687, Newton osservò che, a causa della rotazione, le leggi della meccanica indicavano che la forza centrifuga doveva produrre un appiattimento della Terra ai poli e un rigonfiamento all'equatore. Per calcolare il valore di tale scostamento dalla sfericità, Newton impiegò un modello costituito da una sfera di fluido rotante, da cui risultò che il raggio equatoriale era maggiore di quello polare di una parte su 230. Nel XVIII secolo furono organizzate numerose spedizioni al fine di verificare l'appiattimento, che comporta che in prossimità dei poli la lunghezza dell'arco corrispondente a 1 grado di latitudine sia maggiore della lunghezza di un arco equivalente all'equatore. Secondo la teoria di Newton, si deve avere anche un aumento della forza di gravità con lo spostarsi verso i poli, che a causa dello schiacciamento risultano più vicini al centro della Terra. Le previsioni di Newton sono state ampiamente confermate dalle misure, anche se l'appiattimento ai poli è risultato minore di quanto egli aveva calcolato. I numerosi satelliti artificiali, lanciati a partire dal 1957, ci hanno fornito un nuovo strumento per lo studio della forma della Terra. L'osservazione delle orbite seguite dai satelliti permette di determinare con grande precisione lo scostamento del pianeta dalla forma sferica: tale scostamento perturba le orbite dei satelliti e dalla misura della perturbazione l'appiattimento può essere calcolato con un errore di una parte su diecimila. Un risultato inaspettato ottenuto dall'analisi delle orbite dei satelliti è che la massa della Terra non è distribuita simmetricamente rispetto al piano equatoriale: la Terra ha una forma leggermente ‛a pera'.

La forma e la gravità della Terra costituiscono oggetto di studio della geodesia. La geodesia moderna è basata sull'opera dei grandi matematici francesi del XVIII secolo, da P.-L. Moreau de Maupertuis ad A.-C. Clairaut, J.-B. d'Alembert, P.-S. de Laplace, A.-M. Legendre. Oggi alla geodesia classica, basata su misure effettuate a terra, si è dunque affiancata la geodesia da satellite. I modelli teorici della Terra, costruiti con grandi semplificazioni della struttura reale, forniscono una forma molto prossima a quella di un ellissoide di rotazione (geoide). In base a questi modelli è anche possibile calcolare l'accelerazione di gravità in ogni punto della superficie terrestre. Lo studio gravimetrico della Terra consiste nella misura dell'accelerazione di gravità in un insieme di punti della superficie terrestre. Le differenze tra i valori ottenuti dalle misure e quelli calcolati in base ai modelli costituiscono le cosiddette ‛anomalie di gravità'. Pur essendo estremamente piccole rispetto al valore medio della gravità, le anomalie ci danno informazioni sull'interno della Terra: è tipico della geofisica possedere dati di osservazione relativi alla superficie terrestre e cercare di risalire da essi alla struttura dell'interno, un procedimento al quale è stato dato il nome di ‛problema inverso'. Le anomalie della gravità riflettono la presenza di disomogeneità all'interno della Terra e sono perciò di grande importanza nello studio dei fenomeni geologici e geofisici sia superficiali sia profondi. L'analisi delle mappe gravimetriche ha suggerito ai geologi e ai geofisici idee fondamentali sulla dinamica della crosta terrestre. La soluzione quantitativa di questo problema inverso, cioè l'interpretazione delle anomalie osservate in termini di una determinata struttura interna della Terra, non è però univoca e richiede l'intervento di altre informazioni geofisiche.

Un importante capitolo degli studi gravimetrici riguarda le anomalie connesse con le catene montuose. Secondo la legge di gravitazione universale di Newton ci si aspettava che in prossimità delle grandi montagne esistessero anomalie del campo di gravità terrestre, dovute all'attrazione di queste grandi masse. Nel 1738 il matematico francese P. Bouguer, che si trovava in Ecuador per eseguire rilievi geodetici, notò invece che il filo a piombo - con il quale determinava le deviazioni della forza di gravità dalla verticale - veniva respinto invece che attratto dalla gigantesca montagna del Chimborazo. Questo deficit di massa, proprio in corrispondenza delle grandi montagne, venne in un primo tempo spiegato supponendo che queste fossero traforate da innumerevoli caverne che si estendevano a grande profondità.

Nel 1855 l'astronomo inglese O. Airy, che aveva osservato lo stesso fenomeno sul Himalaya, lo interpretò invece supponendo che le montagne fossero formate da rocce più leggere di quelle del substrato sul quale poggiano. Se questo - sotto il peso delle montagne - si deforma plasticamente, si ha un effetto analogo a quello per cui un iceberg, data la piccola differenza di densità tra ghiaccio e acqua, galleggia emergendo per solo un decimo del suo volume. Secondo tale ipotesi le montagne ‛galleggerebbero' su un substrato più denso. Airy assumeva che tutte le montagne avessero in media la stessa densità, perciò le montagne più alte dovevano possedere ‛radici più profonde. Negli stessi anni un altro inglese, J. H. Pratt, formulò una variante di questa ipotesi, sostenendo che le montagne più alte sono anche in media più leggere, cosicché l'equilibrio viene raggiunto con le ‛radici' delle montagne tutte alla stessa profondità. Tale condizione di equilibrio delle masse rocciose è stata chiamata ‛isostasia'. Oggi si ritiene che la compensazione isostatica non abbia luogo esattamente punto per punto sulla superficie terrestre. La Terra è un sistema dinamico e l'equilibrio isostatico è una condizione mai raggiunta a causa dei vari fenomeni perturbatori. Ad ogni modo, entrambe le forme di compensazione isostatica previste vengono ammesse: si ritiene che le montagne siano alte soprattutto perché sono spesse e quindi posseggono radici profonde, mentre i continenti, considerati globalmente, sono più elevati dei fondali oceanici perché composti di materiale più leggero. Gli studi sull'isostasia si basano oggi su indagini di tipo sismologico volte a individuare le profondità delle radici dei continenti, mentre le anomalie della gravità terrestre vengono misurate con grande precisione osservando in che modo vengono perturbate le orbite dei satelliti artificiali.

Ma il campo di gravità della Terra non varia soltanto nello spazio, bensì anche nel tempo. La superficie terrestre è in continua, se pur lenta, deformazione. Oltre ai fenomeni periodici, come le maree prodotte dalla Luna e dal Sole (che agiscono anche sulla Terra solida), sono all'opera tutta una serie di forze ‛tettoniche' di origine interna alla Terra, che modificano la superficie del nostro pianeta. L'azione di tali forze può essere assai rapida, come nel caso dei terremoti, che lasciano una deformazione permanente nella crosta terrestre o, più spesso, molto lenta, e connessa con la struttura anelastica della Terra. Rientrano in questa seconda categoria il moto delle grandi placche, la formazione delle montagne, le deformazioni connesse con lo scioglimento delle calotte glaciali o quelle che seguono i grandi terremoti. Strettamente connessa con la variazione della topografia e quindi della forma della Terra è la variazione del campo gravitazionale che circonda la Terra stessa. Per quanto si è detto, la geodesia ha strettissimi legami con discipline quali la sismologia e la vulcanologia, alle quali fornisce dati essenziali per la formulazione di modelli fisici dei processi endogeni.

b) La tettonica globale: la litosfera.

Il termine ‛geologia' fu introdotto all'inizio del Seicento dal medico e naturalista U. Aldrovandi. Nonostante la generalità del termine, la geologia si occupa soltanto dello strato più superficiale della Terra, la crosta, le cui rocce sono almeno in parte accessibili allo studio diretto. La crosta è una regione estremamente complessa a causa dei fenomeni ciclici di sedimentazione, metamorfismo e attività ignea che rielaborano in continuazione i materiali, portando a un'estrema differenziazione dei componenti chimici. Come molte scienze, la geologia è consistita in principio nella raccolta paziente di numerose osservazioni. La geologia sistematica ebbe inizio solo con lo studio di strati che avevano interesse pratico per lo sfruttamento delle miniere o per l'ingegneria. Gradualmente venne accettata l'idea di sedimenti depositati dall'acqua, ma i fossili che vi si trovavano sollevarono molti interrogativi. Durante il Medioevo, e anche in seguito, i fossili venivano considerati ‛scherzi di natura': si pensava anche che potessero formarsi spontaneamente entro le rocce. Leonardo suppose invece che i fossili fossero resti di esseri morti da lunghissimo tempo. Nel XVII secolo il danese N. Stenone enunciò alcune leggi della stratigrafia, ad esempio la legge della sovrapposizione, secondo la quale in una successione di strati quelli più in basso devono essere i più antichi.

Si andavano nel frattempo delineando alcune teorie sulla formazione delle rocce e di tutta la Terra. In particolare, secondo la scuola dei nettunisti, rappresentata tra gli altri dal tedesco A. G. Werner, tutte le rocce si erano formate per precipitazione o per cristallizzazione in un oceano universale. Il nettunismo veniva contrastato dai plutonisti, i quali, pur non mettendo in discussione il verificarsi della deposizione dei sedimenti, non ammettevano che questo processo potesse condurre a rocce solide senza l'intervento del calore. La loro teoria, esposta da J. Hutton, era meno semplice di quella dei nettunisti, ma offriva l'immagine di una Terra più dinamica, in cui le formazioni rocciose potevano essere sollevate e inclinate, opponendosi in tal modo all'azione livellatrice dell'erosione.

Nel XVIII secolo il problema dell'età della Terra veniva risolto in maniere diverse dai sostenitori delle teorie del catastrofismo e dell'attualismo. C'era accordo sul fatto che fossero avvenuti nel passato grandi cambiamenti geologici. La teoria del catastrofismo li spiegava come una serie di enormi sollevamenti dovuti a forze soprannaturali, mentre tra una catastrofe e la successiva i processi geologici si sarebbero svolti in maniera normale, attraverso piccoli cambiamenti. Questa teoria era compatibile con la scala dei tempi biblica, perché grandi cambiamenti potevano avere luogo in tempi molto brevi. La teoria dell'attualismo sosteneva invece la continuità dei processi geologici e il principio secondo cui i processi avvenuti nel passato sono gli stessi che hanno luogo oggi. Le idee dell'attualismo furono sviluppate da J. Playfair e da Ch. Lyell, il quale mostrò che i processi attuali possono rendere conto dei mutamenti geologici osservati, ma richiedono lunghissimi periodi di tempo.

Nel nostro secolo gli studi sulla struttura e sulla dinamica della crosta terrestre hanno avuto il loro sviluppo più significativo nella teoria della ‛deriva dei continenti'. Come molte altre teorie scientifiche, anche quella della deriva dei continenti è stata proposta molto tempo prima di essere accettata, e cioè non appena fu disponibile una carta geografica della Terra ragionevolmente buona. Già all'inizio del XVII secolo Francesco Bacone notò una corrispondenza tra le coste dell'Africa e quelle dell'America meridionale e una certa somiglianza tra i due continenti, che si assottigliano entrambi verso Sud. Nel 1666 F. Placet avanzò l'ipotesi secondo cui le terre emerse sarebbero state indivise prima del diluvio universale: la separazione dell'America si sarebbe realizzata per sprofondamento dell'Atlantide, continente che un tempo avrebbe occupato l'attuale Oceano Atlantico. Questa ipotesi ebbe una parte centrale anche nelle teorie espresse dal naturalista G.-L. Buffon. L'esploratore A. von Humboldt, anch'egli colpito dalla corrispondenza tra le coste prospicienti dell'Africa e dell'America meridionale, immaginò che l'Oceano Atlantico fosse un'immensa valle scavata dal mare. Nel 1858 A. Snider-Pellegrini suppose che, dopo il raffreddamento e la solidificazione della Terra a partire dallo stato fuso, i continenti e le terre emerse formassero una massa unica che si separò in seguito al diluvio. Nel 1879 l'astronomo G. Darwin espresse l'ipotesi che la Luna si fosse formata separandosi dalla Terra e lasciando, quale enorme cicatrice, l'Oceano Pacifico. Sulla scia di questa ipotesi, il geofisico O. Fisher immaginò una successiva frammentazione della crosta terrestre con spostamenti orizzontali, postulando anche l'esistenza di correnti convettive nell'interno fluido della Terra.

L'ipotesi di una deriva dei continenti era dunque in genere associata a eventi catastrofici: questo è uno dei motivi per cui essa non veniva accolta con favore, specie dopo il diffondersi delle teorie attualistiche di Lyell. Ciò valeva soprattutto per la scuola geofisica anglo-americana, scarsamente favorevole alle idee mobilistiche. Tali idee furono invece adottate dalla scuola tedesca contemporanea, che aveva realizzato una maggiore integrazione tra i dati geologici e quelli climatologici. Da questa scuola provenne A. Wegener, considerato il padre della teoria della deriva dei continenti. Nel 1910 l'americano F. B. Taylor pubblicò un lavoro in cui sosteneva che la struttura e la posizione delle montagne terziarie indicavano una deriva dei continenti su vasta scala. Nel 1911 H. B. Baker avanzò l'ipotesi che i continenti attuali fossero un tempo parti di un singolo supercontinente. La teoria di Wegener fu tuttavia sviluppata indipendentemente da questi contributi. Il suo primo lavoro fu pubblicato nel 1912. Il modello di Wegener era notevolmente più completo di quelli dei suoi predecessori; come tutti coloro che realizzano una svolta nelle idee scientifiche, egli seppe presentare le sue idee in maniera estremamente efficace e condurre un'intensa attività per sostenerle e diffonderle. La deriva dei continenti divenne negli anni venti argomento di acceso dibattito. Anche Wegener pensava che in origine fosse esistito un solo grande continente, chiamato Pangea, che avrebbe iniziato a suddividersi nel periodo Giurassico, circa 170 milioni di anni fa. Il moto di allontanamento dei vari continenti continuerebbe tuttora. Uno dei più agguerriti oppositori delle idee di Wegener fu il geofisico inglese H. Jeffreys, il quale sostenne che la Terra presenta una solidità troppo accentuata per essere deformata dalle forze proposte da Wegener e permettere la deriva dei continenti. I più convinti sostenitori di Wegener furono invece A. Holmes e A. Du Toit.

Dopo le controversie degli anni venti, la teoria di Wegener fu messa da parte, in quanto la maggior parte degli studiosi non riteneva convincenti le prove portate a suo sostegno. Le osservazioni decisive per una tettonica globale, cioè una teoria che sia in grado di comprendere in un unico sistema dinamico tutti i processi che avvengono alla superficie terrestre, vennero effettuate solo a partire dagli anni cinquanta. Gli studi di paleomagnetismo, che consistono nel risalire al campo magnetico terrestre del passato sulla base della magnetizzazione attuale delle rocce, mostrarono una migrazione dei poli magnetici rispetto agli attuali continenti. Nello stesso periodo esplorazioni compiute con navi attrezzate per ricerche oceanografiche fornirono per la prima volta un'immagine della topografia dei fondali oceanici. La caratteristica più spettacolare dei fondi oceanici è il sistema delle ‛dorsali' mediooceaniche, un rilievo sottomarino che si estende per circa 60.000 chilometri, caratterizzato da attività sismica e vulcanica.

Nel 1960 il geologo americano H. Hess avanzò l'ipotesi nota oggi come ‛espansione dei fondali oceanici'. Secondo questa ipotesi le dorsali mediooceaniche rappresentano grandiose linee di frattura nella crosta terrestre, lungo le quali si ha la risalita delle correnti di convezione del mantello, e i fondali oceanici stessi partecipano al moto di convezione, allontanandosi simmetricamente ai due lati della dorsale man mano che nuovo fondo oceanico viene formato per solidificazione del materiale caldo del mantello eruttato lungo la dorsale. In questo modello i fondali oceanici sono stati paragonati a giganteschi nastri trasportatori che si muovono alla velocità di alcuni centimetri all'anno. Ai bordi degli oceani, in corrispondenza delle grandi fosse oceaniche, i fondi oceanici si incurvano verso l'interno della Terra e affondano nel mantello, venendone col tempo riassorbiti. Negli stessi anni si osservò che le dorsali oceaniche sono accompagnate da ambo i lati da un sistema di anomalie magnetiche, che gli inglesi F. Vine e D. Matthews interpretarono secondo l'ipotesi di Hess.

Il contributo dei sismologi fu determinante nell'elaborazione della nuova teoria. Nel 1965 J. T. Wilson suggerì l'idea che le zone di frattura siano tutte collegate e frammentino la superficie terrestre in un mosaico di ‛placche'. Sono queste, e non i continenti, a muoversi nel corso del tempo, secondo la nuova teoria, definita perciò ‛tettonica a placche'. La formulazione teorica completa della tettonica a placche è dovuta ai fisici J. Morgan, D. McKenzie e X. Le Pichon. L'espressione ‛deriva dei continenti' non è più appropriata, perché le placche possono consistere tanto di continenti che di oceani. Inoltre lo spessore delle placche non coincide con la crosta terrestre, ma comprende tutto lo strato elastico e meccanicamente fragile in cui avvengono i terremoti: la litosfera. La litosfera terrestre è frammentata in una dozzina di grandi placche, più parecchie altre minori. Lungo i margini delle placche è concentrata la maggior parte dell'attività sismica, vulcanica e orogenetica del nostro pianeta.

c) I terremoti.

La sismologia è nata come studio dei terremoti. Tuttavia, come è avvenuto per molte altre scienze, il campo di ricerca che va sotto questo nome si è notevolmente ampliato col trascorrere del tempo e oggi gli interessi dei sismologi si possono dividere schematicamente in almeno tre settori principali: 1) lo studio dei terremoti; 2) lo studio dell'interno della Terra e degli altri pianeti solidi; 3) la sismologia applicata. L'interesse per i terremoti è stato assai vivo nel passato, anche per il fatto che quasi tutte le grandi civiltà avevano sede in aree notevolmente sismiche (si pensi alla fascia che si estende dal Mediterraneo, attraverso il vicino Oriente, fino al Himalaya e all'Asia orientale). Nel corso della storia si sono spesso alternate spiegazioni meccanicistiche (esplosioni o venti sotterranei ipotizzati dai Greci) ad altre basate sulla mitologia locale (ad esempio quella giapponese). L'ingresso della sismologia nel gruppo delle scienze fisico-matematiche ha avuto luogo alla fine del XIX secolo, grazie alla confluenza di due elementi fondamentali: una teoria fisica già altamente sviluppata, la teoria dell'elasticità, e la costruzione di strumenti (i sismografi) in grado per la prima volta di fornire informazioni quantitative dettagliate sui rapidi movimenti del suolo che costituiscono il terremoto. Da allora la sismologia ha compiuto progressi sostanziali nell'elaborazione del suo assetto di scienza ‛esatta', soprattutto a partire dalla fine degli anni cinquanta, periodo in cui avvenne il superamento definitivo della fase preparadigmatica per quanto riguarda la teoria del meccanismo sismico. Negli anni sessanta la teoria del meccanismo sismico si è mostrata consistente con la teoria geologica della tettonica a placche che spiega la distribuzione spaziale dei terremoti. La sismologia ha oggi raggiunto uno stadio di maturità che la pone allo stesso livello di altre scienze - quale ad esempio l'astrofisica - che studiano sistemi complessi e inaccessibili.

La sismologia è tuttavia anche una scienza sperimentale. A ciò concorrono due fattori: la possibilità di produrre terremoti artificiali per mezzo di esplosioni effettuate alla superficie terrestre (o appena sotto di essa) e la possibilità di compiere esperienze di laboratorio su materiali terrestri sottoposti alle opportune condizioni di temperatura e pressione. I terremoti artificiali sono estremamente utili per indagare la struttura dell'interno della Terra, ma non per lo studio del meccanismo sismico, se non in maniera indiretta. Il meccanismo della sorgente esplosiva è infatti qualitativamente diverso da quello della sorgente naturale.

Prima dell'invenzione del sismografo l'osservazione strumentale dei terremoti era effettuata esclusivamente tramite numerose varietà di ‛sismoscopi', strumenti in grado di indicare poco più che la direzione degli impulsi generati dal sisma. I primi sismografi furono costruiti dall'italiano P. F. Cecchi nel 1875 e dagli inglesi T. Gray, J. Milne e J. A. Ewing, che lavoravano in Giappone, nel 1880. Il sismografo è costituito da un pendolo e da un sistema di registrazione, che ne traccia il moto rispetto al suolo. Le registrazioni dei sismografi (sismogrammi) costituiscono ancora oggi i dati di base della sismologia: il costante incremento nella qualità e nella quantità dei dati di osservazione, avvenuto negli ultimi cento anni, ha avuto un ruolo decisivo nel progresso di questa scienza. Lo studio dei sismogrammi alla luce della teoria dell'elasticità si è rivelato immediatamente proficuo e ha condotto a un rapido progresso nel giro di pochi decenni. Nel marzo 1881, quando venne ottenuto uno dei primi sismogrammi di un terremoto locale con un pendolo orizzontale all'Università di Tokyo, i sismologi Ewing e Milne si trovarono in disaccordo sulla interpretazione del primo gruppo di onde: uno sosteneva che fossero onde di compressione, l'altro onde di taglio. Nel giro di vent'anni, tuttavia, la maggior parte degli scienziati concordava nell'individuare le onde P (onde di compressione), le onde S (onde di taglio) e le onde superficiali.

La sismologia, come tutte le scienze, opera dunque su tre fonti: osservazioni, esperimenti di laboratorio, ricerche teoriche. Poiché l'oggetto di studio - l'interno della Terra - non è raggiungibile direttamente, è necessario basarsi su osservazioni indirette, compiute alla superficie terrestre o appena sotto di essa. L'interpretazione di tali osservazioni comporta grandi difficoltà: si può dire che i problemi sismologici consistono in larga misura in questioni di interpretazione. Gli effetti essenziali del terremoto interessano una regione limitata della superficie terrestre, ma l'assenza di cause visibili indusse a porne l'origine all'interno della Terra e poiché l'interno della Terra è inaccessibile, la nostra comprensione dei fenomeni sismici è proceduta attraverso modelli.

La sismologia rimane tuttavia una scienza difficile, che necessita in maniera determinante di assunzioni semiempiriche per poter applicare le leggi fisiche, generalmente ricavate dallo studio di materiali semplici in condizioni diverse. Questo stato di cose si manifesta particolarmente nella descrizione del meccanismo fisico della sorgente sismica, per la quale l'apporto di conoscenze della scienza dei materiali riveste un ruolo determinante. A parte le difficoltà intrinseche, la situazione in questo settore risente dello scarso interesse rivolto, in passato, allo studio dei materiali. Il progresso in questo campo è estremamente recente ed è stato in gran parte determinato dalle applicazioni tecnologiche: l'estrapolazione dei risultati così raggiunti allo studio dei materiali geofisici (rocce) risulta pertanto spesso problematica.

1. Modelli della sorgente sismica. - Una delle fondamentali acquisizioni della sismologia moderna è costituita dalla associazione logica tra i terremoti e le faglie. Le faglie sono individuabili come discontinuità geologiche della crosta terrestre. L'associazione con i terremoti, raggiunta attraverso un lungo processo che ha visto la convergenza di ipotesi diverse e l'eliminazione di altre, ha stabilito un legame tra sismologia e osservazione geologica. Uno tra i primi sismologi a riconoscere che i terremoti sono prodotti dal rapido scorrimento delle rocce lungo le faglie fu il giapponese B. Koto, in seguito allo studio del terremoto di Mino-Owari del 1891. Nel 1910 l'americano H. F. Reid propose il modello del ‛rimbalzo elastico', secondo cui lo scorrimento lungo la faglia realizza una liberazione di energia elastica accumulata nelle rocce dall'azione delle forze tettoniche; tale modello, di carattere semiqualitativo, nacque dall'osservazione dello scorrimento avvenuto lungo la faglia di San Andreas in California durante il terremoto di San Francisco del 1906. Verso il 1920 il giapponese T. Shida individuò una configurazione regolare a quadranti nel campo di spostamenti statico prodotto alla superficie terrestre da numerosi terremoti: tali osservazioni potevano essere interpretate in termini di un sistema di forze applicato a un mezzo elastico. Tuttavia, a causa della scarsità e dell'imprecisione dei dati disponibili, la natura di tale sistema di forze rimase controversa sino alla fine degli anni cinquanta.

La teoria della sorgente sismica ha raggiunto un assetto stabile a partire dagli anni sessanta. Ciò è dovuto al realizzarsi di alcuni passi decisivi: il raggiungimento di un accordo pressoché generale sul meccanismo della sorgente, l'introduzione in sismologia della teoria delle dislocazioni, l'integrazione della fenomenologia sismica nella teoria geologica della tettonica a placche. Gli ultimi vent'anni hanno visto un grande progresso nella tecnologia sperimentale, di osservazione e di elaborazione dei dati. La sismologia ha inoltre tratto vantaggio da uno stretto collegamento con altri settori delle scienze della Terra e ne è stata allo stesso tempo elemento trainante. La descrizione soddisfacente del fenomeno della frattura presenta notevoli difficoltà matematiche. La sismologia ha mutuato numerose conoscenze sperimentali e teoriche dalla scienza dei materiali e dall'ingegneria, ma queste si sono rivelate presto insufficienti, viste le diversità dei materiali coinvolti e degli scopi delle varie scienze. Ad esempio, le corrette condizioni al contorno da assegnare ai modelli sono ancora oggetto di discussione e spesso di scelta personale. Nel caso della fratturazione di un corpo, la teoria dell'elasticità nell'approssimazione di piccole deformazioni è chiaramente insufficiente. In particolare, la regione ai bordi della frattura richiede la considerazione di deformazioni plastiche. Il problema può essere risolto mediante formule analitiche semplici soltanto nel caso di problemi statici bidimensionali. Il problema di dove e come abbia inizio la fratturazione in un materiale sottoposto a un certo sforzo (nucleazione della frattura), ben lontano dall'essere risolto, coinvolge questioni di fisica dello stato solido e di meccanica statistica e costituisce il legame principale tra sismologia e microfisica: è un tipico esempio di problema con più scale di grandezza, quali si incontrano, ad esempio, nella descrizione delle transizioni di fase. Nella crosta terrestre esistono infatti faglie di tutte le dimensioni, da centinaia di chilometri a pochi metri e, al di sotto di queste, fratture fino a dimensioni microscopiche. Il terremoto è dunque un fenomeno macroscopico che ha la sua genesi in un evento microscopico.

Se i modelli esistenti forniscono una descrizione soddisfacente delle onde elastiche a grande distanza dalla sorgente (campo lontano), non altrettanto si può dire per quanto riguarda l'area epicentrale (campo vicino). In questo caso i dettagli della sorgente, le disomogeneità crostali e le caratteristiche topografiche della superficie terrestre svolgono un ruolo determinante. Poiché è proprio il campo vicino che interessa, soprattutto per l'ingegneria sismica, si è andato caratterizzando un ramo di studio detto ‛Sismologia dei moti violenti', che studia le onde ad alta frequenza, mentre la sismologia si è tradizionalmente concentrata sullo studio dello spettro a bassa frequenza. Si è evidenziato come la natura del moto violento sia definita in maniera locale e non sia approssimabile tramite funzioni spaziali medie. Ciò pone un problema di formidabile difficoltà. Quella che viene talvolta designata come ‛teoria del meccanismo sismico' è dunque costituita da un insieme di modelli, ipotesi, assunzioni, validi in ambiti delimitati. La complessità del problema è evidenziata dall'utilizzo di teorie in cui il comportamento elastico di base del mezzo è di volta in volta accoppiato agli effetti termici (termoelasticità), al flusso dell'acqua (poroelasticità), allo scorrimento delle rocce (viscoelasticità), agli effetti magnetici (magnetoelasticità). Si usano modelli differenti a seconda degli aspetti che si vogliono indagare. Negli ultimi anni l'attenzione dei sismologi si è andata concentrando sulla struttura di dettaglio della sorgente sismica, con l'introduzione dei concetti di ‛barriera' e di ‛asperità', esemplificazioni di fondamentali disomogeneità all'interno della litosfera, e con lo studio degli ‛eventi multipli'. Anche lo studio in laboratorio della meccanica delle fratture e delle proprietà reologiche delle rocce ha acquistato negli ultimi anni un'importanza sempre maggiore. Alcune osservazioni compiute in zona sismica (l'iniezione di acqua sotto pressione nel sottosuolo può produrre eventi sismici di moderata intensità) hanno fatto persino sperare di poter controllare in alcuni casi il verificarsi dei terremoti.

2. La sismologia come studio dell'interno della Terra. - Si è detto che lo studio dell'interno della Terra costituisce uno degli scopi fondamentaìi della sismologia. Le onde elastiche prodotte dai terremoti e dalle esplosioni artificiali sono uno strumento prezioso per ‛osservare' l'interno della Terra. In realtà le considerazioni svolte nel punto precedente mostrano come la comprensione del meccanismo sismico sia imprescindibilmente legata alla comprensione della dinamica interna della Terra. Il problema di risalire dalle osservazioni effettuate alla superficie della Terra alla sua struttura interna costituisce il prototipo dei problemi inversi che sono caratteristici della geofisica. Sulla base delle onde elastiche registrate in superficie la sismologia ha dovuto affrontare un formidabile problema accoppiato, che ha come incognite le coordinate spazio-temporali della sorgente, il suo meccanismo e le proprietà elastiche della Terra.

Gli sviluppi della sismologia a partire dalla fine del secolo scorso coincidono in gran parte con la determinazione del tempo di percorso delle onde sismiche attraverso la Terra. Alla sismologia va il merito della maggior parte delle conoscenze che possediamo sulla struttura della Terra, struttura che si è andata delineando all'inizio di questo secolo con la scoperta di una serie di strati concentrici (crosta, mantello e nucleo) e che viene oggi precisata con l'individuazione delle disomogeneità laterali. La disponibilità di un migliore modello della Terra consente la determinazione più accurata delle coordinate dell'evento sismico ed entrambe consentono una migliore determinazione del suo meccanismo. Un ruolo importante in questo processo è oggi rivestito dallo studio delle oscillazioni libere della Terra, che vengono eccitate dai terremoti. La determinazione teorica delle frequenze caratteristiche di tali oscillazioni si basa sul modello di Terra disponibile e coinvolge dunque regioni lontane dalle zone sismogenetiche, quale ad esempio il nucleo terrestre. Osservate per la prima volta in occasione del terremoto della Kamčatka del 1952, le oscillazioni libere della Terra vengono oggi utilizzate con procedimenti di routine per determinare i parametri delle sorgenti dei terremoti grandi e medi.

La struttura più superficiale della Terra è quella che interagisce in maniera diretta col meccanismo sismico ed è caratterizzata da una variazione nelle proprietà meccaniche con la transizione da uno strato elastico e fragile (litosfera) a uno strato elastico e duttile (astenosfera). La presenza di tale transizione, indotta dalle condizioni termodinamiche a cui è sottoposto il materiale terrestre, pone un complesso problema di meccanica dei continui, in cui le proprietà reologiche del materiale astenosferico svolgono un ruolo essenziale. Per di più il ‛modello termico' della Terra è assai meno noto di quello elastico e di quello petrologico; ciò rende incerta l'utilizzazione delle esperienze di laboratorio. In questo settore i primi modelli teorici risalgono all'inizio degli anni settanta e stanno mostrando il ruolo dei processi presismici e postsismici nella preparazione delle condizioni che producono il terremoto. Il lavoro di questi anni ha prodotto un corpus di semplici modelli analitici, che hanno gettato luce su alcuni fenomeni determinanti, quali la concentrazione e la diffusione dello sforzo elastico. Tali modelli sono per lo più a geometria piana, in quanto descrivono regioni limitate della Terra, e rappresentano il verificarsi di dislocazioni in mezzi dotati di proprietà fisiche che riproducono quelle della Terra. Lo studio dell'interno della Terra è dunque strettamente connesso con quello dei terremoti: ciò riguarda in particolare l'astenosfera. Per questo motivo le proprietà reologiche hanno assunto una grande importanza in sismologia e l'ambito tradizionale della sismologia, costituito dalla teoria dell'elasticità, si è negli ultimi anni ampliato a comprendere la viscoelasticità. La teoria dei corpi viscoelastici, le cui basi furono poste nell'Ottocento da J. C. Maxwell, lord Kelvin, W. Voigt e altri, ha trovato un fertile campo di applicazione e di sviluppo nello studio dei polimeri, attorno alla metà del nostro secolo: è un altro esempio di trasferimento di conoscenze dalla scienza dei materiali alla geofisica.

d) I vulcani e il calore della Terra.

Da sempre i vulcani ispirano all'uomo timore e allo stesso tempo lo affascinano. Questi sentimenti sono comuni sia agli scienziati che studiano i vulcani come manifestazioni naturali della dinamica della Terra, sia agli abitanti del luogo, che spesso coltivano le fertili pendici del vulcano e lo venerano come divinità: basta pensare a ciò che rappresenta il Fujiyama per i Giapponesi. Si tramanda che Empedode, negli ultimi anni della sua vita, si ritirò sull'Etna per studiarne i misteri e terminò la sua vita gettandosi nel cratere del vulcano. Uno dei primi tentativi di spiegare i fenomeni vulcanici risale a Platone, per il quale le eruzioni erano emanazioni di un grande fiume di fuoco posto all'interno della Terra, il Pirifiegetonte. Aristotele sostenne una teoria ‛pneumatica', secondo cui l'aria compressa dalle ondate sulle coste penetrerebbe nel sottosuolo, infiammandovi materiali quali lo zolfo e il bitume: le eruzioni vulcaniche sarebbero la manifestazione di queste combustioni. Pindaro riteneva che l'Etna emettesse sotto forma di vapore le acque marine che si riversavano nella vicina voragine di Cariddi. In generale, in base al fatto che la maggior parte dei vulcani noti si trova in prossimità del mare, era opinione diffusa che l'acqua fosse un elemento indispensabile per le eruzioni. Alle spiegazioni naturalistiche si affiancavano le spiegazioni di carattere mitologico: Virgilio attribuì le eruzioni dell'Etna agli sforzi compiuti dal titano Encelado per liberarsi dalla prigione sotterranea in cui lo teneva Zeus. Vulcano, nelle isole Eolie, era la dimora del dio omonimo che forgiava col fuoco le armi per dei ed eroi. Strabone sostenne l'interessante ipotesi secondo cui i vulcani sarebbero come valvole di sicurezza per la Terra e riconobbe la natura vulcanica del Vesuvio, quiescente da molti secoli. Seneca avanzò un'ipotesi simile a quella sostenuta oggi: che attraverso i vulcani giunga in superficie materiale fuso che si trova all'interno della Terra.

Il primo vulcanologo della storia è spesso considerato Plinio il Vecchio, che per la sua curiosità scientifica perse la vita durante la disastrosa eruzione del Vesuvio nel 79 d.C. Una descrizione dettagliata di questo episodio, di grande importanza scientifica, oltre che storica e letteraria, per le informazioni che ci fornisce sulle caratteristiche dell'eruzione, ci è stata lasciata dal nipote Plinio il Giovane nelle lettere a Tacito. Durante il Medioevo interessanti ipotesi sui vulcani vennero formulate dai naturalisti arabi e poi in Europa nel Rinascimento. Attorno al 1700 il chimico francese N. Lémery trovò che un miscuglio di limatura di ferro e fiori di zolfo inumidito d'acqua si riscalda spontaneamente fino a divenire incandescente e libera con violenza vapore acqueo: nacque così l'ipotesi secondo cui le eruzioni vulcaniche sarebbero prodotte dalla combustione di materiali sotterranei quando entrano in contatto con l'aria e con l'acqua. Tale ipotesi fu adottata da G.-L. Buffon verso la metà del XVIII secolo: nella sua Histoire naturelle egli paragonò il vulcano a un enorme cannone che entra in azione quando i materiali infiammabili quali lo zolfo e il bitume, presenti nel sottosuolo, sono esposti all'aria e all'umidità. In base a questa teoria, sostenne inoltre che la sorgente dell'attività vulcanica doveva trovarsi a non grande profondità.

La teoria accolta da Buffon era in linea con le vedute generali del nettunismo, secondo cui tutte le rocce vulcaniche si formerebbero in ambiente subacqueo per cristallizzazione e sedimentazione di una soluzione acquosa. Secondo A. G. Werner le eruzioni sono fenomeni secondari, dovuti alla combustione di carbone in profondità, il cui calore sarebbe in grado di fondere le rocce circostanti. La combustione sarebbe prodotta da reazioni chimiche simili a quella descritta da Lémery. I plutonisti sostenevano un punto di vista molto diverso. Ritenevano infatti che l'interno della Terra si trovasse permanentemente allo stato fuso e che il materiale fuso potesse talvolta risalire attraverso le fratture della crosta terrestre, dando così origine ai vulcani. Sostenevano inoltre l'origine vulcanica dei basalti. L'osservazione e la descrizione accurata di diverse eruzioni e la scoperta, fatta verso la fine del Settecento, dell'origine vulcanica di numerose montagne segnano momenti importanti nello studio dei vulcani. I vulcani attivi italiani sono i più studiati dagli europei. L. Spallanzani, dopo aver compiuto ricerche sullo Stromboli, effettuò esperienze di laboratorio sulle rocce vulcaniche per studiarne la composizione. Verso la metà del XIX secolo, epoca cui risale l'istituzione dell'osservatorio vulcanologico del Vesuvio (1847), la teoria del plutonismo era stata universalmente accettata e con essa la concezione del vulcano valida in linea di massima ancora oggi: un fenomeno naturale che mette in comunicazione, in maniera temporanea o permanente, una massa di materiale fuso all'interno della Terra con la superficie. Ai primi vulcanologi moderni, quali gli inglesi G. Poulett-Scrope, C. Daubeny e J. Judd, l'olandese R. Verbeek e il francese F.-A. Fouqué, seguono numerosi altri antesignani, quali l'italiano G. Mercalli, l'americano F. Perret, i tedeschi F. von Wolff e K. Th. Sapper, il giapponese F. Omori, l'inglese T. Anderson. Dopo l'accettazione della teoria della tettonica a placche, il vulcanismo ha acquistato un'importanza ben maggiore di quella che aveva in precedenza: i fondali oceanici sono interamente costituiti da lave. Il complesso delle dorsali suboceaniche, la catena montuosa che si distende per quasi 60.000 chilometri sotto gli oceani, è una successione ininterrotta di vulcani. La risalita di magma lungo la dorsale condiziona l'espansione dei fondali oceanici e il moto delle placche tettoniche.

Anche per i vulcani, come per i terremoti, la ricerca di una spiegazione meccanicistica richiede la formulazione di un modello. Da questo punto di vista lo sviluppo della vulcanologia è molto più indietro di quello della sismologia. Ciò dipende in gran parte dall'estrema complessità del problema: l'ascesa e l'eruzione di magma dalle profondità della Terra non sembra infatti descrivibile solo in base alle leggi note della fisica, ma richiede anche la chimica e la mineralogia. Lo studio dei vulcani (vulcanologia) è stato fino ai nostri giorni un campo cui si sono dedicati soprattutto i geologi. Le rocce vulcaniche sono state minuziosamente classificate e le loro caratteristiche poste in relazione con le presunte condizioni di formazione delle rocce stesse all'interno della Terra. Lo studio dell'attività vulcanica del passato ha permesso una ricostruzione delle fasi di attività di numerosi vulcani, sia nel caso di effusione di lave in superficie sia nel caso di intrusioni di magma all'interno di formazioni rocciose preesistenti. Le conoscenze mineralogiche e petrologiche così raggiunte, pur fornendo informazioni sul verificarsi di quei processi profondi che sono all'origine delle manifestazioni vulcaniche, non si sono tuttavia mostrate in grado di rispondere alle domande fondamentali riguardanti il meccanismo che controlla l'attività vulcanica, che si esplica con estrema variabilità: a lunghi periodi di quiescenza si alternano fasi di intensa attività. Le cause delle variazioni dell'attività vulcanica rimangono irraggiungibili tramite i soli metodi geologici.

Solo recentemente i geofisici hanno iniziato un'applicazione sistematica delle teorie fisiche attuali ai fenomeni vulcanici. Ciò non ha ancora condotto tuttavia alla formulazione di un modello fisico soddisfacente del fenomeno vulcanico. Tali teorie fisiche di base sono in sostanza le stesse applicate in sismologia e nello studio di tutti i fenomeni geofisici. Ma i fenomeni vulcanici sono molto diversi dai terremoti. Se, dal punto di vista spaziale, essi sono più localizzati e pertanto più controllabili dei terremoti, d'altra parte comportano, come elemento non trascurabile, l'interazione tra fasi solide, liquide e gassose, data l'eterogeneità del materiale di base, che costituisce le rocce crostali e il mantello superiore. Il ruolo svolto dalla pressione e dalla temperatura nel verificarsi delle trasformazioni di fase, variabile a seconda dei materiali coinvolti e quindi a seconda dei vulcani, dà luogo a un problema in cui fisica e chimica sono inscindibilmente connesse nel determinare il fenomeno di risalita dei magmi attraverso la crosta terrestre e la loro effusione in superficie. Il processo vulcanico è suddivisibile in più stadi. Alla base sta la genesi dei magmi: qui le conoscenze acquisite dagli studi petrologici vengono oggi integrate dallo studio di modelli fisico-matematici inerenti al trasporto di magma nel mantello terrestre. Vi è quindi la fase di risalita del magma attraverso la crosta terrestre. Infine la fase eruttiva. Nell'ambito del modello secondo cui il magma, prima delle eruzioni vulcaniche, si raccoglierebbe in ‛camere' magmatiche, le linee di ricerca attuali sono rivolte ai meccanismi dinamici che causano i movimenti del magma, per interpretare le osservazioni petrologiche, geocronologiche e geochimiche. Sono stati ipotizzati molti possibili meccanismi; tuttavia la loro importanza relativa è strettamente legata alla circolazione convettiva nelle camere magmatiche. Lo studio della convezione nelle camere magmatiche non ha precedenti in altre aree della dinamica dei fluidi, poiché, come si è già accennato, il magma è un mezzo dotato di proprietà fisiche, chimiche e reologiche estremamente complesse. In particolare la forte sensibilità della viscosità dei magmi alle variazioni di temperatura rende difficile la soluzione del problema. Lo studio della convezione nelle camere magmatiche avviene tramite modelli fisico-matematici basati sulla dinamica dei fluidi classica, mediante tecniche numeriche avanzate. Si cercano le relazioni tra i processi magmatici e i dati concernenti i prodotti vulcanici. Il confronto tra le previsioni dei modelli teorici e i dati petrologici ricavati dai prodotti vulcanici permetterà una qualche comprensione dell'evoluzione delle instabilità meccaniche e chimiche caratteristiche dei sistemi magmatici, di cui l'eruzione rappresenta l'ultimo stadio.

Un altro complesso problema di meccanica dei fluidi è posto dal flusso della lava sulla superficie terrestre, in seguito alle eruzioni effusive. Le lave si comportano come fluidi non newtoniani e scorrono solo se viene superato uno sforzo di soglia. Queste proprietà, finora scarsamente studiate, sono all'origine del peculiare comportamento delle colate di lava, che costruiscono da se i propri argini, si arrestano su una pendenza non appena cessa il rifornimento di lava a monte, e anche presso la bocca eruttiva acquistano uno spessore e un'ampiezza determinati, subito dopo l'inizio dell'effusione. Lo studio fisico-matematico della dinamica delle colate di lava, affiancato da esperimenti di laboratorio su fluidi simili e da misure effettuate su colate reali, ha come obiettivo la previsione del comportamento delle lave in relazione alla posizione delle bocche eruttive e alle caratteristiche topografiche che la colata incontra sul suo percorso. A tale riguardo è necessario acquisire maggiori conoscenze fenomenologiche sul comportamento dinamico e sulle proprietà reologiche delle lave, tramite misure effettuate sul campo e in laboratorio. In base al confronto tra i risultati ottenuti dai modelli e le osservazioni sul campo, è possibile giungere a una migliore caratterizzazione reologica delle lave stesse. Ciò risulta della massima importanza, vista la presenza di insediamenti umani in prossimità di vulcani attivi in molte aree del mondo, per la determinazione del rischio vulcanico, per la progettazione e l'esecuzione di opere di prevenzione dei danni prodotti dalla lava e per la programmazione di interventi di protezione civile.

La teoria della meccanica delle fratture, applicata in geofisica dapprima a problemi di carattere prevalentemente sismologico, è oggi ritenuta fondamentale anche nella vulcanologia fisica. L'apertura di fratture nella crosta terrestre è considerata infatti la fase finale della risalita dei magmi verso la superficie. Lo studio teorico e sperimentale della propagazione di fratture, in condizioni che riproducono quelle esistenti nei condotti magmatici, è pertanto in grado di fornire risposte significative sui possibili meccanismi eruttivi. In definitiva, dal punto di vista fisico il fenomeno vulcanico si presenta come un complesso fenomeno di meccanica dei fluidi e meccanica delle fratture. Si consideri poi che il magma, miscuglio di silicati fusi contenenti xenoliti e cristalli in maggiore o minore quantità, con tutta probabilità costituisce solo l'elemento passivo nella fase eruttiva; l'elemento attivo è la fase gassosa. Come si vede, il campo finora più studiato del vulcanismo, cioè la natura chimica e mineralogica delle lave, è soltanto la premessa a un'effettiva comprensione dei fenomeni vulcanici.

Più di 10.000 vulcani si sono formati sulla Terra negli ultimi due milioni di anni. Di questi, circa 500 hanno avuto eruzioni registrate dall'uomo e solo questi ultimi vengono convenzionalmente considerati attivi. Tale criterio è chiaramente inadeguato: numerosi vulcani, ritenuti estinti in base a esso, hanno dato luogo a eruzioni distruttive. Come i terremoti, i vulcani sono concentrati lungo precisi lineamenti che corrispondono ai margini delle placche, nelle quali - secondo la teoria della tettonica a placche - è frammentata la litosfera terrestre: più del 90% dei vulcani recenti si trova lungo questi margini. Le caratteristiche chimiche del magma eruttato e il tipo di attività dei vulcani variano notevolmente. Le eruzioni vulcaniche di entità medio-alta liberano energie comprese tra i 1022 e i 1026 erg, che corrispondono alle energie rilasciate da terremoti di magnitudo 6,3 e 8,5 rispettivamente (la magnitudo è una misura relativa dell'ampiezza massima delle onde sismiche prodotte in un terremoto). Mentre però nei terremoti questa energia viene rilasciata in un tempo di secondi o decine di secondi, nelle eruzioni vulcaniche viene rilasciata in un intervallo di tempo molto più lungo (giorni o addirittura mesi). Spesso più di 2/3 di tale energia è energia termica delle lave e degli altri prodotti eruttati.

La pericolosità di un'eruzione dipende dalla sua ‛esplosività', cioè dalla frazione dell'energia totale che si trasforma in energia cinetica del materiale eruttato: l'energia liberata in una singola esplosione può raggiungere i 1021 erg, paragonabile all'energia di un'esplosione nucleare da 5 kton, e in casi eccezionali i 1023 erg. Si ritiene che l'esplosività di un vulcano dipenda essenzialmente dalla viscosità e dal contenuto di elementi volatili del magma. Se il magma è molto viscoso, la fuoriuscita di gas è ostacolata; i gas si accumulano in sacche all'interno del magma fino a raggiungere la pressione sufficiente a liberarsi, con una violenta esplosione, che lancia in aria brandelli di magma fluido e frammenti di roccia solida (attività piroclastica). La maggiore viscosità dei magmi intermedi o acidi è dovuta alla minore temperatura di eruzione: intorno agli 800 °C, contro i 1.100-1.200 °C dei magmi basici.

e) Reologia della Terra: il mantello.

È significativo che ancora oggi, che la teoria della tettonica a placche è accettata dalla maggior parte degli scienziati della Terra, la causa del moto delle placche non sia stata chiarita. Nel 1908 l'americano F. B. Taylor, un antesignano della teoria della deriva dei continenti, attribuiva il moto dei continenti alle forze di marea esercitate dalla Luna sulla Terra, supponendo che in un passato relativamente recente il nostro satellite fosse stato molto più vicino di quanto non fosse allora. Nel 1912 Wegener attribuiva invece il moto alla Polfluchtkraft, la forza di repulsione dai poli, dovuta in ultima analisi al moto di rotazione della Terra. Ma i calcoli mostrarono che tale forza era irrilevante. L'impossibilità di fornire un meccanismo convincente per il moto dei continenti costituì per decenni un valido argomento usato contro la teoria dai suoi oppositori.

Nel 1928 A. Holmes avanzò l'ipotesi che i continenti si muovessero perché trascinati dal basso da un lento moto di convezione del mantello terrestre, che a causa della sua elevata temperatura dovrebbe essere in grado di ‛scorrere' come un fluido molto viscoso. Oggi tuttavia ci si chiede se siano più importanti le forze che agiscono alla base delle placche oppure quelle che agiscono ai margini delle placche stesse, sotto forma di spinte o trazioni. Nel primo caso le placche potrebbero essere trascinate dal mantello in convezione. Se invece le forze dominanti sono quelle ai margini delle placche, sarebbero le placche a guidare la convezione nel mantello e non viceversa. Tra questi due casi limite esiste naturalmente tutta una serie di possibilità: le placche e il sottostante mantello vanno probabilmente trattati come un sistema unico, non descrivibile assumendo che l'uno muova le altre o viceversa; tra l'altro, ciò potrebbe spiegare alcune osservazioni che non sono interpretabili sulla base di modelli più semplici.

Il mantello ha dunque un ruolo importante nel determinare il moto delle placche e quindi i fenomeni che osserviamo alla superficie della Terra. Il modello oggi accettato dalla maggioranza dei geofisici descrive il mantello come uno strato formato da rocce solide, che però, a causa delle condizioni di temperatura e di pressione in cui si trovano, hanno la capacità di ‛scorrere' lentamente come un fluido viscoso, se sottoposte a sollecitazioni prolungate nel tempo. L'origine di questo modello risale almeno agli inizi del Settecento, quando l'astronomo svedese A. Celsius osservò che la costa del Mar Baltico si sollevava di circa un centimetro all'anno. Celsius attribuì tale fenomeno a un abbassamento del livello del mare, ma in seguito prevalse l'ipotesi secondo cui era la terraferma a sollevarsi. Ciò venne posto in relazione con lo scioglimento dell'enorme calotta di ghiaccio che copriva la Scandinavia durante l'ultima era glaciale e poteva essere spiegato in base alla teoria dell'isostasia: il mantello sottostante, liberato dal peso dei ghiacci, si riportava in equilibrio scorrendo come un fluido viscoso e provocando il sollevamento della crosta. Il valore da attribuire alla viscosità del mantello fu però calcolato soltanto nel 1939 e risultò elevatissimo, dell'ordine di 1022 poise. La teoria della tettonica a placche concordava con il modello del mantello viscoso. Se le placche si muovono deve farlo anche il mantello sottostante: di qui l'ipotesi dell'esistenza di un moto di convezione nel mantello, formulata in realtà già da A. Holmes nel 1928. Esistono però tuttora opinioni diverse sull'estensione in profondità di questo moto. Alcuni ritengono che la convezione sia limitata al mantello superiore, altri che interessi invece tutto quanto il mantello. Una possibilità suggerita negli ultimi anni è che il mantello sia sede di due moti convettivi separati, uno nel mantello superiore e uno in quello inferiore.

Il problema della reologia dell'interno della Terra è oggi uno dei principali oggetti di dibattito tra i geofisici. Oltre che nel rilassamento postglaciale, elementi che consentono di introdurre un comportamento reologico si possono trovare in diverse osservazioni geofisiche, quali l'attenuazione delle onde sismiche e lo smorzamento delle oscillazioni libere della Terra, e nella stessa tettonica a placche. In particolare, i moti convettivi non sarebbero possibili se il mantello non potesse deformarsi in maniera continua come un fluido molto viscoso.

Si pone dunque il problema di come descrivere l'anelasticità. Come sempre, la risposta a questa domanda dipende dall'uso che si deve fare della descrizione cercata. Per certi scopi può essere necessaria una descrizione in termini di microfisica dei processi di deformazione. Ma normalmente in geofisica è richiesta una descrizione nell'ambito della meccanica dei continui, che si effettua specificando la ‛relazione costitutiva' del mezzo, e cioè la relazione tra sforzo e deformazione. Il tentativo di correlare i due livelli di descrizione, macroscopico e microscopico, non porta vantaggi, perché in generale processi microscopici differenti corrispondono a relazioni costitutive diverse. Non è d'altra parte possibile riprodurre in laboratorio i materiali e le condizioni termodinamiche esistenti nel mantello.

La strada seguita è la formulazione di modelli. Seguendo la regola comune nelle scienze, si attribuisce speciale significato alla relazione costitutiva più semplice che è in grado di riprodurre nell'ambito del modello i fenomeni paradigmatici. Viene in genere ritenuta tale la relazione che comporta il numero minimo possibile di parametri variabili. Tali relazioni sono lineari, anche se esistono sia esperimenti di laboratorio, sia osservazioni, da cui è possibile dedurre un comportamento non lineare. Avviene tuttavia che il modello che riproduce un fenomeno (ad esempio il rilassamento postglaciale) non può riprodurne un altro considerato egualmente importante (lo smorzamento delle oscillazioni libere della Terra), se non con drastiche variazioni di certi parametri. Una situazione di questo tipo è considerata insoddisfacente e viene superata con l'introduzione nel modello di relazioni costitutive più complesse.

Numerosi metodi vengono utilizzati oggi per studiare la reologia del mantello alle varie profondità. Tali metodi sono basati sull'effetto che le proprietà anelastiche del mantello hanno su diversi fenomeni. Ad esempio, i terremoti producono una variazione dello stato di sforzo elastico a cui il mantello è sottoposto, ma poiché il mantello può scorrere come un fluido viscoso in tempi lunghi, esso è in grado di rilasciare lentamente tale sforzo. A questo processo si accompagnano lente deformazioni osservabili della superficie terrestre, che dipendono dalle particolari leggi reologiche del mantello. Elaborando modelli matematici della Terra, che descrivono diversi comportamenti reologici, i geofisici tentano di ricavare, per quanto è possibile, gli stessi dati forniti dalle osservazioni effettuate in superficie. Altri fenomeni utilizzati per dedurre il comportamento del mantello sono il lento sollevamento di vaste aree della superficie terrestre, ritenuto l'effetto dello scioglimento delle calotte di ghiaccio che le ricoprivano durante l'ultima era glaciale, e inoltre il periodo del moto di rotazione e del moto di precessione libera della Terra. La geofisica ha così stabilito una relazione quantitativa tra i movimenti globali della Terra e i movimenti dovuti a sorgenti interne, come i terremoti o le deformazioni anelastiche del mantello: tali movimenti, comportando spostamenti di massa, modificano il momento d'inerzia della Terra, e ciò ha effetto sui moti globali del pianeta.

Il mantello non è uno strato omogeneo né in direzione radiale, né in direzione laterale. In base ai dati sismici esso può essere suddiviso in prima approssimazione in tre strati concentrici: il mantello superiore, fino a 400 km di profondità; la zona di transizione, da 400 a circa 1.000 km di profondità; il mantello inferiore, fino a circa 2.900 km. Al contrario delle altre regioni del mantello, la zona di transizione appare caratterizzata da bruschi aumenti della densità al crescere della profondità. La composizione chimica e mineralogica del mantello è ancora oggetto di dibattito tra gli studiosi (v. geochimica). Esistono vincoli fisici, quali pressione e temperatura calcolate per il mantello, che indicano i possibili tipi di roccia esistenti alle varie profondità. Esistono materiali geologici che si ritiene provengano dal mantello, quali i basalti vulcanici, le kimberliti, le ofioliti. Le ipotesi relative alla composizione del mantello superiore possono essere corroborate da esperimenti di laboratorio, nei quali è possibile sottoporre campioni di roccia a pressioni e temperature pari a quelle esistenti nelle prime centinaia di chilometri di profondità. Anche i dati relativi alla composizione dei meteoriti sono presi in considerazione quali fonti di utili informazioni. Attualmente è decisamente preferito il modello ‛a peridotite'. Con tale nome si designa un gruppo di rocce ultrabasiche che contengono tipicamente circa l'80% di olivina e il 20% di pirosseno. A causa dell'aumento della pressione all'interno della Terra, cambiamenti di fase avvengono in queste rocce a 400, 650 e 1.050 km di profondità. Tali cambiamenti consistono nella formazione di strutture atomiche più compatte, con un conseguente aumento della densità.

Lo studio delle onde sismiche attraverso il mantello mostra inoltre l'esistenza di una ‛zona a bassa velocità', che si trova in media tra i 60 e i 250 km di profondità. In tale zona le onde viaggiano con velocità ridotta del 3-6% e subiscono una maggiore attenuazione. La spiegazione adottata più comunemente per tali caratteristiche è che si tratti di una zona in cui le rocce sono parzialmente fuse, anche se in percentuale assai ridotta. La zona a bassa velocità è spesso identificata con l'‛astenosfera', definita come quello strato dal comportamento duttile che si trova sotto la litosfera e consente gli spostamenti verticali e orizzontali di quest'ultima. L'astenosfera, nella concezione attuale, è uno strato a viscosità molto più bassa di quella del resto del mantello e pertanto è in grado di rispondere alle sollecitazioni in tempi più brevi. Il motivo dell'identificazione tra zona a bassa velocità e astenosfera è che le due zone corrispondono spesso alla stessa profondità. Formalmente, esse devono tuttavia considerarsi distinte, poiché le proprietà reologiche e le proprietà sismiche delle rocce non sono legate strettamente. Ad esempio, esperimenti di laboratorio mostrano che la presenza di una piccola quantità di rocce fuse non altera in maniera significativa la viscosità del mezzo. I meccanismi che danno origine alla zona a bassa velocità e all'astenosfera possono dunque essere del tutto distinti.

La sismologia ha un ruolo fondamentale anche nello studio delle disomogeneità laterali del mantello. L'essenza dei metodi utilizzati consiste nell'analisi dei tempi impiegati dalle onde sismiche per compiere percorsi differenti attraverso il mantello, ma, poiché le variazioni di velocità delle onde sono molto piccole (minori dell' 1%), si richiedono tecniche assai sofisticate. L'osservazione di anomalie della gravità di grande estensione costituisce un'altra fonte di informazioni sulle disomogeneità profonde. L'interpretazione dei risultati ottenuti in termini di una identificazione delle disomogeneità con variazioni di temperatura o di composizione all'interno del mantello è tuttavia un problema di difficile soluzione. In particolare, la convezione termica, il meccanismo che si ritiene più plausibile per spiegare la dinamica superficiale della Terra, richiede differenze di temperatura e, quindi, di densità all'interno del mantello. L'osservazione di aree di attività vulcanica isolate, cioè non disposte lungo i margini delle placche, è stata interpretata come l'espressione superficiale di correnti di materiale caldo che risalgono lentamente dalle profondità del mantello, i cosiddetti ‛pennacchi termici', che potrebbero essere strutture relativamente stabili del moto di convezione. L'aspetto che può assumere la convezione è tuttavia fortemente influenzato dalle disomogeneità del mantello, quali la presenza di cambiamenti di fase dei materiali, la distribuzione e le dimensioni delle sorgenti di calore. Queste caratteristiche sono estremamente poco note, né l'analisi matematica è attualmente in grado di trattare insieme le numerose variabili del problema.

f) Il magnetismo terrestre e il nucleo.

Il particolare comportamento delle sostanze magnetiche naturali, come la magnetite, era già noto agli antichi Greci. All'inizio dell'era volgare i Cinesi utilizzavano già la proprietà, manifestata da una sbarretta di materiale magnetico libera di ruotare, di disporsi in direzione nord-sud. L'uso della bussola si diffuse in Europa solo nel basso Medioevo, a opera degli Arabi, e risvegliò l'interesse degli studiosi per il magnetismo terrestre, portandoli a ricercarne le cause. L'intera Terra sembrava infatti possedere proprietà magnetiche su grande scala. Nel 1269 Pietro Peregrino di Maricourt sosteneva l'ipotesi secondo cui il comportamento della bussola era da attribuire a giacimenti di magnetite posti nelle regioni settentrionali della Terra. Nel 1600 W. Gilbert, studioso e medico di corte della regina Elisabetta I d'Inghilterra, pubblicò un'opera fondamentale sul magnetismo, nella quale - sulla base dello studio dell'orientamento che i magneti assumono rispetto alla Terra - dedusse che la Terra stessa doveva essere un enorme magnete i cui poli coincidevano con i poli geografici. Questa spiegazione viene oggi ritenuta insoddisfacente: gli studi di laboratorio sulle sostanze magnetiche mostrano che esiste una temperatura (in genere tra i 550 e gli 800 °C), detta ‛punto di Curie', oltre la quale tali sostanze perdono le loro proprietà magnetiche. Poiché si presume che all'interno della Terra la temperatura superi il punto di Curie di tutte le sostanze magnetiche note, è esclusa l'esistenza di un magnete permanente nel senso ipotizzato da Gilbert. Le misure del campo magnetico effettuate negli ultimi secoli hanno inoltre mostrato che esso varia lentamente nel tempo: anche questa ‛variazione secolare' (così chiamata per distinguerla da quelle a breve periodo) è un elemento a sfavore del magnete permanente. I fisici dell'Ottocento scoprirono un nesso importante tra elettricità e magnetismo: una corrente elettrica produce un campo magnetico. Se si esclude l'ipotesi del magnete permanente come sorgente del campo magnetico terrestre, esiste dunque la possibilità che questo sia prodotto da correnti elettriche che scorrono all'interno della Terra. Oggi si pensa che tali correnti siano localizzate nel nucleo esterno, composto prevalentemente di ferro allo stato liquido. La variabilità di tali correnti sarebbe all'origine della variazione secolare del campo magnetico terrestre.

Esistono altri motivi per cui l'ipotesi che il campo magnetico terrestre sia prodotto da un magnete permanente è stata scartata. In primo luogo, il campo non è esattamente quello di un dipolo magnetico posto al centro della Terra: nel 1835 K. F. Gauss mostrò che esiste anche una componente non dipolare, di intensità più piccola, che presenta massimi e minimi distribuiti in maniera apparentemente casuale. Queste caratteristiche potrebbero naturalmente essere prodotte da un magnete permanente magnetizzato in modo non uniforme, ma c'è in più il fatto che il campo magnetico varia nel tempo, sia in direzione sia in intensità; tale variazione riguarda entrambe le componenti: quella dipolare e quella non dipolare. La ‛variazione secolare' del campo magnetico, registrata in dettaglio negli ultimi secoli, è un fenomeno vecchio di milioni di anni. Il suo studio (‛paleomagnetismo') è possibile in quanto molte rocce, al momento della loro formazione, acquistano una magnetizzazione permanente indotta dal campo magnetico presente in quel momento. Ciò capita, ad esempio, a una lava basaltica ricca di minerali ferrosi, quando si raffredda e scende sotto la temperatura di Curie. Pertanto certe rocce possono conservare il ricordo del campo magnetico che esisteva in un lontanissimo passato. In pratica, tuttavia, l'interpretazione del ‛magnetismo fossile' delle rocce presenta formidabili difficoltà, a causa degli innumerevoli processi che possono avere alterato - nel corso di milioni di anni - l'informazione magnetica contenuta nelle rocce. Ciò nonostante, gli studi di paleomagnetismo hanno costituito un elemento decisivo a favore della teoria della tettonica a placche e sono oggi fondamentali per la ricerca del meccanismo che è all'origine del campo magnetico. In particolare, si è trovato che l'intero campo si è invertito numerose volte nel passato: il campo conserva la stessa polarità per periodi di 105 o 106 anni, poi si inverte. La durata del processo di inversione potrebbe essere dell'ordine di diecimila anni.

Attualmente si pensa che il campo magnetico terrestre sia generato nella parte più interna della Terra: il nucleo. Anche per ottenere informazioni sulla struttura del nucleo, lo strumento principe è la sismologia. Le onde che penetrano nelle zone più profonde della Terra vengono tuttavia fortemente attenuate e il loro studio è reso perciò più difficile. L'interpretazione dei dati sismici ci fornisce l'immagine di un nucleo composto da una parte centrale solida (nucleo interno), circondata da una parte liquida (nucleo esterno). Rimane aperto il problema del perché il nucleo interno sia solido, nonostante si presuma che abbia una temperatura più elevata di quella del nucleo esterno. Questo problema è strettamente legato a quello della composizione del nucleo stesso. Si è già detto che la densità deve aumentare all'interno della Terra. Le nostre conoscenze fisico-chimiche e le teorie sulla formazione del sistema solare indicano che il ferro deve essere il principale componente del nucleo. La presenza di ferro rende altresì possibile che il nucleo contenga la sorgente del campo magnetico terrestre. Gli studi attuali sono dunque volti alla ricerca di un modello di nucleo che: 1) abbia una composizione chimica compatibile con la densità calcolata; 2) abbia una distribuzione di temperatura compatibile con l'esistenza di una parte solida all'interno della parte liquida; 3) comprenda una sorgente di energia in grado di mantenere il campo magnetico. È chiaro che questi tre punti sono stati separati soltanto per chiarezza di esposizione. Essi sono in realtà imprescindibilmente legati e la soluzione data a uno di essi influenza in maniera decisiva gli altri due. Ad esempio, fino al 1970 circa, il modello prevalente prevedeva un nucleo chimicamente omogeneo, la cui temperatura di fusione aumentasse con la profondità a causa dell'aumento di pressione: se si immagina che la temperatura, pur crescendo con la profondità, aumenti più lentamente della temperatura di fusione, un tale modello ammette la possibilità di un nucleo interno solido. Ma se il nucleo esterno deve provvedere alla produzione del campo magnetico e se ciò avviene tramite un moto di convezione del materiale liquido, il gradiente di temperatura nel nucleo deve essere sufficientemente elevato da consentire la convezione: si è trovato che ciò implica un gradiente più elevato di quello della temperatura di fusione, il che rende impossibile l'esistenza del nucleo solido all'interno di quello liquido, se il nucleo è chimicamente omogeneo. Oggi si propende pertanto per un nucleo differenziato, con il nucleo interno composto da una lega di ferro-nichel (20% Ni e 80% Fe) e il nucleo esterno composto da un miscuglio a base di ferro, con circa il 12% di zolfo e il 2% di nichel.

La composizione del nucleo esterno è stata a lungo oggetto di dibattito; oltre al ferro, deve contenere almeno un altro elemento, più leggero, per rendere conto della densità calcolata: i candidati più probabili sono ritenuti il silicio e lo zolfo. Esistono argomenti a favore di entrambi. Durante gli anni sessanta si pensava che l'elemento in questione fosse il silicio: essendo più leggero dello zolfo, ne basta una quantità minore, circa il 10%. Attualmente si ritiene che gli argomenti a favore della presenza di zolfo siano più stringenti. La difficoltà fondamentale in questi studi è che non è possibile riprodurre stabilmente in laboratorio le condizioni di pressione che esistono nel nucleo terrestre. Tali condizioni possono essere raggiunte solo per tempi brevissimi durante esperimenti in cui il campione di materiale è sottoposto a un onda d'urto; pertanto l'interpretazione dei risultati ottenuti è spesso problematica.

Come già accennato, la presenza di ferro nel nucleo consente di formulare ipotesi sulla sorgente del campo magnetico. Secondo le attuali vedute, il nucleo si comporta come una ‛dinamo', cioè trasforma energia meccanica in energia elettrica. Le correnti elettriche così prodotte generano il campo magnetico terrestre. Un tale modello è assai complesso da trattare analiticamente. I movimenti di un fluido conduttore, qual è il materiale del nucleo esterno, entro un campo magnetico danno luogo a complicati effetti di accoppiamento che sono oggetto di studio della magnetofluidodinamica. Dato un piccolo campo magnetico iniziale, è possibile che il campo magnetico prodotto dalle correnti del nucleo vada a rinforzarlo, costituendo così una dinamo ‛autoeccitata', che continuerà a generare magnetismo anche se il campo iniziale viene rimosso. Per funzionare, un simile meccanismo ha bisogno di una fonte continua di energia. Come si è già accennato, il modello generalmente accettato prevede che il materiale fluido del nucleo esterno sia sede di un moto di convezione. Se si tratta di convezione termica, essa è dovuta a un riscaldamento del materiale fluido. Una possibile ipotesi è che isotopi radioattivi presenti nel nucleo (ad esempio il potassio-40) siano responsabili del riscaldamento e della conseguente convezione; ma l'efficienza di questo processo è molto bassa: per generare il campo magnetico, il nucleo dovrebbe contenere una quantità di potassio-40 troppo elevata per essere conciliabile con le attuali teorie sulla composizione della Terra. La presenza di isotopi radioattivi non è del resto la sola causa che potrebbe produrre convezione termica nel nucleo esterno. Un'altra sorgente di calore è disponibile se - come immaginato da alcuni - il nucleo interno si sta lentamente accrescendo per solidificazione del nucleo esterno. Ma, sempre per la bassa efficienza di conversione dell'energia termica in energia magnetica, anche questo processo è probabilmente insufficiente a generare il campo magnetico osservato. Un'altra possibilità presa attualmente in considerazione è che nel nucleo esterno esista una convezione di tipo gravitazionale. Infatti, se il nucleo interno si accresce a spese del nucleo esterno, si può instaurare una circolazione convettiva dovuta non a differenza di temperatura, ma direttamente a una differenza di densità tra il materiale che solidifica, più ricco di nichel, e il liquido restante. L'efficienza di tale processo è elevata e sembra in grado di fornire l'energia necessaria a generare il campo magnetico.

3. L'immagine attuale

a) Il pianeta Terra.

Un nuovo paradigma, costituito dalla teoria della tettonica a placche, si è dunque affermato nelle scienze della Terra a partire dagli anni sessanta del nostro secolo. Questa ‛rivoluzione', durata almeno cinquant'anni, ha prodotto un radicale cambiamento nella nostra immagine della Terra. Le teorie precedenti, prevalentemente fissiste, contenevano spesso spiegazioni ad hoc e non esisteva un generale accordo su quali dovessero essere le osservazioni critiche per valutare le teorie. Viene spontaneo il confronto con l'ottica prenewtoniana o l'elettrostatica prima di Franklin.

L'opposizione alle idee di Wegener è dunque un esempio classico delle difficoltà di fare accettare vedute rivoluzionarie. Le nuove idee sono necessariamente giudicate alla luce delle convinzioni preesistenti. Gli oppositori di Wegener sottolinearono i punti deboli della sua teoria, tra cui l'inadeguatezza del meccanismo proposto per il moto di deriva. Solo l'interpretazione in termini mobilistici delle nuove osservazioni riguardanti i fondali oceanici, realizzate a partire dagli anni cinquanta, ha fornito alla teoria della deriva dei continenti una base esplicativa più ampia, anche se ha reso necessario modificare parzialmente l'originaria teoria di Wegener, trasformandola nella teoria della tettonica a placche.

La tettonica a placche conta anche oggi autorevoli oppositori, i quali respingono del tutto o in parte le sue conseguenze. V. Belousov, studioso di geologia strutturale, sostiene che i movimenti tettonici siano prevalentemente verticali e che la crosta continentale possa trasformarsi in crosta oceanica. Secondo l'inglese H. Jeffreys, che dà maggiore significato alle osservazioni geologiche e biologiche che non a quelle geofisiche, l'elevata viscosità del materiale che costituisce il mantello terrestre rende impossibile i consistenti spostamenti orizzontali ipotizzati dalla tettonica a placche. L'australiano W. Carey sostiene invece il modello di una Terra in espansione. Lo studioso di stratigrafia A. A. Meyerhoff, americano, ha messo in dubbio gran parte delle osservazioni su cui è basata la tettonica a placche.

L'avvento della teoria della tettonica a placche negli anni sessanta ha, tra l'altro, messo in luce il contrasto tra due modi profondamente diversi, anche se entrambi scientifici, di studiare la Terra: la geologia e la geofisica. Tale diversità permane in generale anche attualmente. La formazione culturale diversa di geologi e geofisici è alla base del diverso atteggiamento nella ricerca. La formazione tradizionale del geologo dà infatti notevole importanza alla descrizione qualitativa dei fenomeni, con particolare riguardo all'accuratezza nell'osservazione dei particolari, decisiva ai fini della classificazione. Il geofisico cerca invece di descrivere i fenomeni osservati in base a teorie fisiche già formulate, eventualmente modificandole e costruendone di nuove. Per la formazione ricevuta il geofisico è abituato a un modo di ragionare diverso, che si basa in maniera determinante sull'applicazione delle teorie matematiche più avanzate, e preferisce semplificare anche in maniera drastica i fenomeni studiati pur di poterli trattare in maniera quantitativa.

L'accettazione della tettonica a placche, che ha costituito un indubbio successo dei metodi fisici applicati alla Terra, ha però rappresentato una sfida per la fisica moderna, che ha raggiunto un livello di elaborazione estremo nella descrizione dei fenomeni microscopici, ma non è ancora in grado di fornire descrizioni adeguate di alcuni fenomeni macroscopici, quale ad esempio la convezione. Il tentativo di comprendere fenomeni macroscopici complessi costituisce uno dei rami più vitali della fisica moderna.

L'immagine che oggi ci facciamo dell'interno della Terra deriva in gran parte dalla sismologia. Dopo l'invenzione del sismografo, lo studio delle onde sismiche prodotte dai terremoti ci ha fornito il quadro di una Terra formata da vari strati pressoché concentrici, diversi per spessore, composizione chimica e proprietà fisiche. Si tratta tuttavia di un'immagine estremamente semplificata. Oggi che è possibile ottenere dalle onde sismiche molte più informazioni che nel passato, possiamo intravedere una Terra molto più complessa, le cui proprietà variano non solo radialmente, ma anche in direzione laterale.

L'interpretazione dei dati sismici ci ha dunque fornito un modello ‛elastico' della Terra. La conoscenza delle proprietà elastiche non è però sufficiente per risalire alla composizione chimica e mineralogica. D'altra parte, le rocce che compongono la crosta terrestre hanno densità minore della densità media del nostro pianeta, perciò non possono essere considerate rappresentative del mantello e del nucleo. Dato che non si possono raccogliere campioni di queste rocce profonde, il percorso per giungere al modello chimico e mineralogico della Terra deve essere molto più indiretto. Occorre risalire all'origine della Terra e a quella del sistema planetario di cui la Terra fa parte. Lo studio del sistema solare ci permette di stimare la sua composizione originaria e i processi fisici e chimici che hanno condotto allo stato attuale. I modelli mineralogici del mantello e del nucleo sono stati in parte dedotti in questo modo. Numerosi altri problemi, quali l'andamento della temperatura all'interno della Terra, i meccanismi di deformazione anelastica del mantello, la struttura della convezione e le forze che producono il moto delle placche, non hanno soluzioni univoche e sono legati in definitiva alla storia della Terra. Chiedersi come si formarono la Terra e il sistema solare significa porsi una domanda fondamentale sull'universo che ci circonda.

Alla determinazione della scala temporale cosmologica, misurabile in miliardi di anni, si è giunti gradualmente, attraverso il confronto e il superamento delle teorie sulla Terra che fisici e geologi hanno dibattuto negli ultimi tre secoli. Le stime odierne dell'età della Terra e del sistema solare sono basate sul fenomeno della radioattività, scoperto negli ultimi anni del secolo scorso. L'esistenza di isotopi instabili che si trasmutano progressivamente in altri più stabili con probabilità costante nel tempo consente di utilizzare tale fenomeno come una sorta di orologio naturale. Dallo studio delle rocce alla superficie terrestre si è ricavato che almeno una parte della crosta continentale si formò oltre tre miliardi di anni fa. Questo non significa naturalmente che la Terra abbia la stessa età la formazione della crosta potrebbe essere assai posteriore a quella della Terra. È necessario un modello della formazione della Terra.

Non esiste attualmente una teoria fisica concordemente accettata riguardo alla formazione dei sistemi di pianeti attorno a una stella. Le teorie avanzate negli ultimi due secoli a proposito della formazione del sistema solare possono essere suddivise in tre classi principali. Secondo le prime due il Sole si sarebbe formato prima dei pianeti: questi avrebbero avuto origine dal materiale del Sole stesso o di un'altra stella, oppure dal materiale di una nube interstellare. Secondo la terza classe di teorie il Sole e i pianeti si sarebbero formati insieme da una nube di gas e polveri in rotazione, la ‛nebulosa solare', come risultato naturale dell'evoluzione di tale nube. Le teorie della nebulosa solare sono attualmente le più accreditate. Se si accoglie il modello della nebulosa solare, la composizione chimica più vicina a quella della nebulosa originaria dovrebbe essere quella del Sole, che si formò senza i complicati processi di accrezione e frazionamento subiti dai pianeti. La composizione dei pianeti può essere interpretata come derivante da masse di materiale di composizione solare per frazionamento progressivo. In tale contesto i meteoriti, quei frammenti di materia extraterrestre che di quando in quando raggiungono la superficie del nostro pianeta, hanno un ruolo importante. Geofisici e planetologi ritengono infatti che i meteoriti siano da considerarsi quali campioni del materiale che formò il sistema solare. Meteoriti di tipo diverso rappresenterebbero fasi diverse della formazione del sistema planetario, permettendo così una parziale ricostruzione della sua storia. Ragionando nel quadro delle attuali teorie sulla formazione del sistema solare, si è individuato un tipo di meteoriti che vengono considerati come rappresentativi del materiale più primitivo: si tratta delle condriti carbonacee. La loro composizione sarebbe molto simile a quella della nebulosa solare da cui si originarono il Sole e i pianeti. Da tale circostanza si possono dedurre interessanti conseguenze. In base a un confronto tra la quantità di elementi presenti oggi nella crosta terrestre, nell'atmosfera solare e nelle stesse condriti, si può sostenere che la composizione media della Terra deve essere ancora oggi simile a quella delle condriti carbonacee. Questa ipotesi ha condotto al cosiddetto ‛modello condritico' della Terra. L'accoglimento o meno di tale modello ha profonde conseguenze sulla ricostruzione delle modalità di formazione della Terra e degli altri pianeti.

Abbiamo già detto che la caratteristica più evidente dell'interno della Terra, come risulta dall'analisi della propagazione delle onde sismiche, è la stratificazione. La densità dei materiali che costituiscono la Terra aumenta con la profondità, dai materiali leggeri della crosta a quelli pesanti del nucleo. Si può immaginare che - anche se i vari elementi chimici che compongono la Terra furono un tempo mescolati insieme - col passare del tempo i più pesanti abbiano finito col portarsi in basso, verso il centro della Terra, mentre i più leggeri sono rimasti in alto a costituire lo strato esterno del pianeta. Naturalmente questa separazione degli elementi avrebbe richiesto un certo grado di fusione del pianeta durante un periodo della sua storia. Questo punto di vista è rappresentato da uno dei modelli attuali della formazione della Terra, detto di accrezione omogenea. Come già accennato, oggi si suppone che i pianeti si siano formati dal materiale della nebulosa solare per ‛accrezione', termine col quale si intende un processo di accrescimento graduale dei pianeti a partire da un piccolo nucleo originario, per aggiunte successive di particelle solide. Il modo con cui l'accrezione può essere avvenuta è tuttavia oggetto di discussione. Se è stata omogenea, la stratificazione della Terra si deve essere realizzata in seguito, per separazione degli elementi in base alla loro densità. Ma l'accrezione potrebbe anche essere stata ‛eterogenea', cioè prima si sarebbe formato un nucleo di ferro e poi il mantello di silicati. La scelta dell'uno o dell'altro modello è fondamentale nello studio dell'evoluzione della Terra.

La datazione delle rocce che costituiscono i meteoriti ha fornito valori di circa 4,6 miliardi di anni. Poiché alcune considerazioni sulla composizione isotopica del piombo - elemento che entra nella procedura di datazione - fanno ritenere che la Terra e i meteoriti si siano formati pressoché allo stesso tempo, è questo il valore che viene oggi accettato per l'età della Terra. In quale epoca sia avvenuta la differenziazione degli elementi chimici che doveva portare all'attuale struttura a strati è un problema tuttora aperto. Alcuni dei processi di separazione degli elementi, iniziati con la formazione della Terra, potrebbero continuare tuttora. Come si desume da quanto esposto finora, le scienze della Terra, e in particolare la geofisica, si trovano ad affrontare una serie di quesiti fondamentali ai quali non è possibile fornire risposte soddisfacenti. Tutti i problemi geofisici sono strettamente connessi tra loro: un modello autoconsistente della dinamica interna della Terra costituirebbe una solida base anche per la comprensione dei fenomeni superficiali, quali i terremoti e le eruzioni vulcaniche.

b) Il problema della previsione.

La capacità di prevedere gli eventi futuri è sempre stata una profonda aspirazione degli uomini di tutti i tempi. L'osservazione paziente dei fenomeni e delle loro regolarità ha permesso in molti casi di descriverne lo svolgimento con ‛leggi' relativamente semplici. Così è possibile, ad esempio, calcolare il moto dei pianeti e prevedere l'istante delle eclissi. Ma questa possibilità viene meno quando si considerano sistemi complessi, il cui comportamento è influenzato da numerosissimi fattori. Si pensi, ad esempio, alla complessità dei moti atmosferici e alla difficoltà di formulare previsioni meteorologiche esatte. Se poi consideriamo l'interno della Terra, alla complessità del sistema fisico si aggiunge la sua inaccessibilità.

In linea di principio, la conoscenza delle forze tettoniche che agiscono nella litosfera, unitamente alla conoscenza del comportamento del materiale litosferico, sarebbero sufficienti a consentire una previsione dei terremoti e delle eruzioni vulcaniche: si tratterebbe di calcolare dove e quando si verificano le condizioni fisiche che fanno scattare il terremoto o l'eruzione. Ciò, in pratica, data l'enorme complessità del sistema in questione, non è possibile, almeno per ora. Per di più, la litosfera è un tipico esempio di sistema che non può essere considerato isolato: per conseguire un'adeguata conoscenza delle forze tettoniche, e dunque del campo degli sforzi nella litosfera, bisognerebbe estendere il sistema in istudio fino a comprendervi non solo l'astenosfera (moti convettivi), ma tutta la Terra e persino il Sole e la Luna (effetti mareali). In particolare, la caratteristica della Terra di essere formata da sottosistemi con proprietà fisiche estremamente diverse (ad esempio litosfera e astenosfera), accoppiati tra loro e ciascuno fortemente disomogeneo, ne rende assai difficile lo studio. Date queste condizioni, è difficile formulare previsioni precise. Per quanto riguarda il comportamento del materiale litosferico e terrestre in generale, le conoscenze sono ancora estremamente carenti e si basano su esperienze di laboratorio compiute su campioni di roccia sottoposti a temperature e pressioni elevate, su studi petrologici e geochimici e su considerazioni genetiche.

Per cercare di risolvere il difficile problema della previsione, accanto all'approccio ‛fondamentale', basato su leggi e modelli fisici, si è sviluppato un approccio ‛empirico', basato sull'osservazione di fenomeni precursori dei terremoti e delle eruzioni vulcaniche. Naturalmente le due metodologie si integrano a vicenda: la maggior parte dei fenomeni precursori è interpretabile nell'ambito di modelli che li spiegano come dovuti alle variazioni delle proprietà fisiche del mezzo prima del verificarsi del terremoto o dell'eruzione.

1. La previsione dei terremoti. - Con le limitazioni sopra esposte, si può affermare che il terremoto è un fenomeno prevedibile in senso deterministico se si conoscono: a) la distribuzione delle forze entro la litosfera e la loro evoluzione nel tempo; b) le proprietà fisiche del materiale litosferico. Benché la geofisica della Terra solida abbia compiuto grandi progressi nella seconda metà di questo secolo, la dinamica della litosfera è relativamente poco nota. In linea di principio possediamo una serie di conoscenze necessarie per impostare un programma di previsione secondo uno schema di causa-effetto. Tuttavia non si hanno conoscenze sufficientemente precise e dettagliate di tutti i parametri in gioco, soprattutto perché la sorgente sismica è inaccessibile all'osservazione diretta. A parte l'estrema complessità del sistema, esiste anche un problema, più sottile, di interazione tra i due livelli di descrizione, macrofisico e microfisico. Se la crosta terrestre contiene un grandissimo numero di fratture di tutte le dimensioni, allora il terremoto può avere la sua origine in un evento su scala microscopica: si tratta, come già accennato, del problema di conciliare diversi ordini di grandezza, un problema che solo ora si sta imparando a trattare in maniera quantitativa. Inoltre è ormai evidente che ogni zona sismica ha la sua storia e la sua evoluzione. Per capire l'evoluzione di una zona sismica è necessario inquadrarla nel contesto tettonico in cui si trova: in ciò consistono gli studi di sismotettonica e di paleosismicità, che mirano a correlare l'attività sismica di una zona alla sua evoluzione dinamica.

Le ricerche volte alla previsione dei terremoti seguono quindi due linee diverse, anche se parallele: da una parte si studiano i fenomeni precursori senza preoccuparsi di capirne l'origine, ma assumendo che essi si verifichino sempre, prima di un terremoto, in una data zona sismica (approccio ‛empirico'); dall'altra si tenta di capire l'evoluzione tettonica della zona stessa (approccio ‛fondamentale'). Nell'ambito dell'approccio empirico si collocano anche la previsione di tipo ‛climatologico', basata sulla distribuzione geografica della sismicità, e il metodo ‛statistico', basato sul presupposto che in una data regione i terremoti avvengano in successione con un carattere statistico che si mantiene costante nel tempo. Tali metodi, anche se utili, sono del tutto insufficienti a formulare una previsione nel vero senso della parola, cioè la specificazione del luogo, dell'istante e dell'entità del terremoto, con un margine di errore sufficientemente piccolo. Le speranze di raggiungere questo obiettivo possono essere riposte solo nella previsione ‛fisica' del terremoto, cioè nella previsione basata sulla comprensione del meccanismo sismico in termini di leggi fisiche. Solo in questo modo si potrà giungere a una previsione deterministica del terremoto sulla base degli eventi che lo precedono. Ciò richiede la conoscenza quantitativa di tutti i fattori che determinano il fenomeno. Va comunque detto che, quand'anche si realizzasse, per i terremoti, un modello di previsione paragonabile a quello impiegato per le previsioni meteorologiche, esso, pur rappresentando un indubbio successo, sarebbe tuttavia insufficiente per un impiego socialmente utile.

Osservazioni che hanno fatto ritenere prossimo il momento in cui si sarebbe stati capaci di prevedere i terremoti sono state compiute a partire dagli anni settanta, quando è stata messa in luce tutta una serie di fenomeni precursori. Questi fenomeni sono stati riprodotti in laboratorio. Quando una roccia viene sottoposta a sforzo, essa si deforma e, se lo sforzo raggiunge un valore sufficientemente elevato, si frattura. Le esperienze di laboratorio hanno mostrato che, quando lo sforzo raggiunge circa la metà del valore necessario a provocare la frattura, avvengono mutamenti osservabili nelle proprietà fisiche della roccia, gli stessi che si osservano in natura: tra questi, variazioni della velocità delle onde elastiche che si propagano all'interno della roccia, variazioni della resistenza elettrica, il prodursi di un grande numero di fratture microscopiche, l'aumento di volume della roccia stessa. Analoghi fenomeni sono stati effettivamente osservati prima del verificarsi di molti terremoti: tra questi, anomalie del campo magnetico, emissione di gas radon dalle rocce, variazioni del livello dell'acqua nei laghi e nei fiumi, variazioni di temperatura nell'acqua dei pozzi profondi. Una lenta deformazione del suolo, che può protrarsi per anni prima del terremoto, è un altro fenomeno spesso presente, anche se in misura estremamente variabile. In diversi casi sono state anche registrate onde sismiche a frequenza molto bassa, che sono state attribuite a fenomeni analoghi ai terremoti, ma molto più lenti, chiamati appunto ‛terremoti lenti' o ‛silenziosi'. Se è vero che talvolta è difficile distinguere tra variazioni dei parametri fisici che indicano l'approssimarsi di un terremoto e variazioni dovute ad altre cause, è tuttavia importante il fatto che i fenomeni premonitori che si sono osservati riguardino proprietà fisiche diverse: l'osservazione di numerosi effetti indipendenti accresce infatti la fiducia nella previsione.

Un concetto largamente impiegato dai sismologi per individuare le aree in cui potranno verificarsi in futuro grandi terremoti è quello di ‛lacuna sismica'. Come si è già detto, la maggior parte dei terremoti avviene lungo precisi lineamenti sismici, che coincidono con i margini delle placche tettoniche. Se consideriamo un periodo di tempo sufficientemente lungo, le zone fratturate dai grandi terremoti tendono a coprire totalmente un certo lineamento. In genere tale processo si svolge irregolarmente, con fratturazione ora di un tratto, ora di un altro, a causa della diversa resistenza meccanica delle rocce e della variabilità delle stesse forze tettoniche nei vari tratti del lineamento sismico. Dunque un segmento del lineamento che in un certo ciclo di fratturazione non è stato ancora interessato da terremoti dovrà prima o poi rompersi anch'esso, specialmente se i tratti adiacenti sono già stati sede di terremoti: tale segmento costituisce una lacuna sismica. È chiaro che le lacune sono più evidenti se le aree fratturate dai grandi terremoti hanno coperto in gran parte il lineamento sismico in tempi recenti e solo alcuni segmenti rimangono intatti. Tuttavia certe zone poste lungo un lineamento sismico non costituiscono una lacuna, anche se non vi si verificano terremoti di grandi proporzioni: ciò perché, a causa di particolari condizioni meccaniche, lo scorrimento relativo delle placche avviene in maniera ‛asismica', cioè queste zone tengono il passo con quelle adiacenti in maniera ‛dolce', senza scosse violente.

Anche se è possibile concepire una previsione dei terremoti basata esclusivamente su considerazioni empiriche, quali quelle riportate finora, i geofisici stanno cercando di costruire uno schema concettuale, o modello, che sia in grado di spiegare tutto l'insieme delle osservazioni. Numerosi fenomeni precursori osservati sono stati interpretati in maniera unitaria per mezzo del modello della ‛dilatanza'. Esistono in realtà due versioni di questo modello, a seconda dell'importanza attribuita alla presenza di acqua nei pori e nelle fessure delle rocce. Il modello ‛umido' assegna un ruolo decisivo alla diffusione dell'acqua attraverso le microfratture prodotte dallo sforzo a cui è sottoposta la roccia. Il modello ‛secco' è in grado di spiegare gli stessi fenomeni senza postulare l'intervento dell'acqua. Nonostante esistano differenze osservabili tra i due modelli (ad esempio la resistività elettrica aumenta se la roccia è asciutta e invece diminuisce se la roccia è bagnata), non è stato ancora chiarito quale dei due corrisponda maggiormente a quanto avviene in natura, anche se è possibile che entrambi trovino applicazione, a seconda della situazione locale.

La costruzione di un modello dei fenomeni sismici è il primo passo verso la previsione deterministica dei terremoti; inoltre l'accettazione di un modello permette anche di individuare linee di ricerca più efficienti. Attualmente abbiamo le prove dell'esistenza di numerosi fenomeni fisici che precedono, accompagnano e seguono i terremoti, e possiamo individuarli e misurarli con i nostri strumenti. Nello stesso tempo possediamo un modello fisico-matematico del meccanismo di base dei terremoti che è soddisfacente da diversi punti di vista, ma è ancora troppo semplice rispetto a quanto avviene in natura e non permette di formulare previsioni. Ulteriori elementi devono essere introdotti nel modello, ad esempio la presenza di acqua circolante nel sottosuolo, anche a grande profondità, e le proprietà reologiche delle rocce. Solo in questo modo potremo ottenere una descrizione del fenomeno comprensiva di tutti quei particolari la cui evoluzione nel tempo ci può informare sull'imminenza di un terremoto.

L'incremento nel numero e nella qualità della strumentazione sismologica realizzato negli ultimi anni non ha fornito i risultati decisivi che molti si attendevano. In larga misura ciò dipende dal fatto che la nostra comprensione dei fenomeni a livello teorico è ancora notevolmente incompleta: in altre parole, anche quando gli strumenti registrano fenomeni significativi, l'interpretazione dei dati è difficile e la loro relazione con il meccanismo sismico è spesso scarsamente chiara, a causa della mancanza di modelli teorici adeguati e sufficientemente versatili da consentire un collegamento tra i diversi fenomeni nelle condizioni mutevoli che si presentano in natura. Oltre che per la previsione, un modello adeguato della sorgente sismica riveste un ruolo fondamentale anche per la ‛prevenzione' dei danni prodotti dai terremoti. La disponibilità di un modello che tenga conto delle caratteristiche geologiche e topografiche del territorio costituisce la condizione indispensabile per fornire elementi di giudizio certi a chi è preposto alla stesura di una efficace normativa edilizia antisismica o alla progettazione di insediamenti residenziali o industriali in aree di elevata sismicità.

2. La previsione delle eruzioni vulcaniche. - Uno degli obiettivi dello studio dei vulcani è la previsione dell'inizio di un'eruzione e del suo sviluppo, unitamente alla valutazione dei rischi a cui è sottoposta la popolazione che risiede nelle vicinanze del vulcano. In generale, un' eruzione che avrà un'evoluzione catastrofica inizia con una fase di attività moderata, contrassegnata da un aumento della sismicità, da deformazioni del terreno, da ripresa dell'attività delle fumarole. Tali manifestazioni vengono facilmente riconosciute, soprattutto se il vulcano è tenuto sotto osservazione permanente da parte di un osservatorio, cosicché l'inizio dell'eruzione può essere previsto. L'evoluzione del fenomeno nel tempo, a causa del grande numero di fattori da cui dipende, non può invece essere prevista, allo stato attuale delle nostre conoscenze: è possibile soltanto formulare modelli evolutivi probabili, denominati ‛scenari'. I diversi scenari tengono conto dell'attività trascorsa del vulcano, poiché un'eruzione imminente avrà senz'altro molte caratteristiche in comune con le eruzioni passate. Le ricostruzioni storiche effettuate dai geologi permettono di tracciare delle carte di ‛rischio vulcanico', in base alle quali si stabilisce quali aree devono essere evacuate per prime in caso di allarme.

Non tutte le regioni vulcaniche presentano gli stessi rischi: i vulcani ‛effusivi', la cui attività è regolare, sono molto meno pericolosi dei vulcani ‛esplosivi', i cui periodi di calma possono durare decine o centinaia d'anni. Le eruzioni effusive sono poco pericolose per la popolazione, perché le colate di lava raggiungono raramente velocità elevate; se l'alimentazione dura a lungo, queste colate possono tuttavia percorrere distanze di decine di chilometri e provocare notevoli danni economici, devastando aree agricole e urbane. Molto più pericolose sono le eruzioni esplosive e, particolarmente, quelle che producono valanghe incandescenti, colate piroclastiche e nubi ardenti, formate da una sospensione di frammenti liquidi di magma in una fase gassosa continua: tali nubi hanno un enorme potere distruttivo. Nel caso delle eruzioni esplosive, l'unica difesa possibile consiste nella tempestiva evacuazione dell'area minacciata. In generale, il problema della previsione delle eruzioni è semplificato rispetto a quello della previsione dei terremoti, per il fatto che le eruzioni avvengono all'interno di aree note e di ampiezza limitata. Dal punto di vista della protezione civile, quello che è importante è prevedere con sufficiente anticipo il momento parossistico, il più pericoloso dell'eruzione, che spesso non coincide con l'inizio del fenomeno eruttivo. Il problema è stato finora affrontato in maniera essenzialmente empirica, a causa della mancanza di un modello fisico soddisfacente del fenomeno vulcanico.

La previsione delle eruzioni vulcaniche passa naturalmente attraverso la conoscenza dei meccanismi fisico-chimici che producono tali fenomeni: lo studio in situ dei vulcani si basa su metodi geologici, geofisici e geochimici. I metodi geologici e strutturali consentono la ricostruzione dell'attività trascorsa dei vulcani. I metodi geofisici danno informazioni soprattutto sulla struttura superficiale e profonda degli edifici vulcanici, nonché sui movimenti del magma. I metodi geochimici e petrologici permettono di evidenziare i meccanismi energetici del processo magmatico.

I metodi della sismologia vengono utilizzati per determinare la struttura profonda degli edifici vulcanici e la natura della sismicità associata alle aree vulcaniche. I dati ottenuti per mezzo di reti di stazioni sismiche permettono, dopo un sufficiente periodo di osservazione, di tracciare mappe della sismicità, che forniscono indicazioni sui meccanismi di deformazione, sulle intrusioni di magma, sulla posizione delle camere magmatiche. La rilevazione sismica costituisce nello stesso tempo uno dei metodi più efficaci di sorveglianza dei vulcani. Si suppone che i terremoti siano prodotti da instabilità nella camera magmatica o dall'azione delle forze tettoniche regionali, che generano sforzi nell'edificio vulcanico. È infatti possibile che talune crisi sismiche che interessano un'area vulcanica siano di origine tettonica: in tal caso non sono seguite da eruzione. Tuttavia si è osservato che la maggior parte delle eruzioni sono precedute da un aumento dell'attività sismica: meno del 4% delle eruzioni studiate hanno fatto eccezione. Di conseguenza, tutti gli osservatori vulcanologici dispongono di una rete di stazioni sismiche, il cui compito è di controllare in permanenza l'attività sismica e di localizzarne gli ipocentri. Anche lo studio delle deformazioni del suolo associate alla risalita o alla differenziazione del magma entro la crosta terrestre è un fondamentale strumento di analisi del fenomeno vulcanico. La misura delle deformazioni del suolo fornisce dati che, introdotti in un modello fisico del sistema, permettono di valutare la profondità e le dimensioni della camera magmatica, nonché la pressione del magma.

Le rocce fuse eruttate dai vulcani sono ricche di minerali ferrosi e, raffreddandosi, acquistano proprietà magnetiche. Per questo motivo le aree vulcaniche modificano localmente il campo magnetico terrestre. La costruzione di mappe delle anomalie magnetiche permette di individuare anche quelle strutture di origine magmatica che non affiorano alla superficie terrestre. Per taluni vulcani si sono osservate correlazioni tra le eruzioni stesse e le variazioni locali del campo magnetico: si attribuiscono tali variazioni agli effetti della risalita del magma, poiché la magnetizzazione delle rocce dipende, tra le altre cose, dalla temperatura e dagli sforzi elastici. Anche la misura sul campo delle proprietà elettriche delle rocce in una regione vulcanica rende possibile individuare le aree fratturate e la posizione delle camere magmatiche. La resistività elettrica delle rocce dipende infatti dalla loro composizione, temperatura, porosità e dal contenuto d'acqua.

Le misure dell'attrazione gravitazionale permettono di tracciare una mappa delle anomalie della gravità. Queste mappe forniscono la distribuzione della densità nel sottosuolo e quindi la profondità approssimativa delle disomogeneità della densità. Una zona vulcanica si caratterizza per l'esistenza di una forte anomalia positiva della gravità, rispetto alle regioni circostanti, a causa della densità elevata dei materiali vulcanici. I metodi gravimetrici permettono anche di seguire l'attività del vulcano, perché mediante essi si possono individuare spostamenti di masse eterogenee rispetto alle rocce incassanti, quali gli spostamenti di magma. In certi casi, a causa di variazioni della pressione all'interno dell'edificio vulcanico, il suolo si solleva, oppure si abbassa: il movimento è rivelato dai gravimetri, perché un aumento o una diminuzione di quota producono rispettivamente una diminuzione o un aumento della gravità. Nelle rocce della crosta terrestre è presente radon-222, un elemento che risulta dalla sequenza di disintegrazioni radioattive dell'uranio naturale (238U). Il radon può raggiungere la superficie tramite meccanismi di trasporto forzato. In particolare, la risalita del magma, producendo un aumento di pressione e di temperatura, provoca lo spostamento del radon e un aumento misurabile della sua emissione. In pratica ciò che viene rivelato non è direttamente il radon, ma le particelle a che derivano dalla sua disintegrazione. La ripetizione di queste misure consente di stabilire qual è il valore medio locale dell'emissione: ogni aumento persistente e progressivo rispetto a tale valore medio può essere il segnale di un'eruzione imminente. Come è noto, lo stesso metodo può essere applicato per la sorveglianza delle zone sismiche. La risalita di un corpo magmatico, anche di dimensioni ridotte, modifica, inoltre, lo stato termico dell'edificio vulcanico, a causa della sua temperatura elevata. La roccia è però un cattivo conduttore di calore e le variazioni di temperatura in superficie sono estremamente piccole: occorrono tecniche molto sensibili per evidenziarle. Attualmente si cerca di individuare le anomalie termiche di un vulcano con due metodi: il metodo della termografia infrarossa e la misura diretta della temperatura del suolo.

I metodi petrologici e geochimici sono volti a stabilire le caratteristiche del magma tramite l'analisi delle rocce vulcaniche, che si trovano in superficie, e dei gas emessi. Inoltre mirano a riconoscere i processi di genesi e di differenziazione dei magmi stessi. Tra le tecniche utilizzate sono da annoverare l'esame microscopico dei campioni di roccia, l'analisi chimica, l'analisi della composizione isotopica. Per quanto riguarda i gas, il loro prelievo e la conseguente analisi sono necessari al fine di comprendere i meccanismi di raffreddamento durante la risalita del magma verso la superficie e il comportamento degli elementi che lo costituiscono. Prelievi regolari di gas sono utili alla sorveglianza del vulcano e per la previsione delle eruzioni: infatti, al momento dell'inizio dell'attività eruttiva, anche se il movimento del magma può essere lento, i gas liberati raggiungono la superficie molto rapidamente, preannunciando l'eruzione.

Infine, la ricostruzione della storia delle eruzioni di un vulcano e dei meccanismi eruttivi e magmatici è una tappa fondamentale per la previsione del suo comportamento futuro. Tale ricostruzione è basata essenzialmente su misure cronologiche e sull'identificazione dei prodotti emessi dal vulcano. I metodi geocronologici mirano a stabilire l'età delle rocce, al fine di determinare i periodi di attività del vulcano. Le tecniche più utilizzate sono quelle radiocronologiche, basate sul fatto che i minerali delle rocce incorporano isotopi radioattivi al momento della loro cristallizzazione. Questi si disintegrano al passare del tempo, dando origine a isotopi figli: una misura della loro concentrazione attuale permette di risalire all'età della roccia (tenendo conto dei possibili apporti estranei al processo di disintegrazione). A seconda dell'antichità presunta della roccia, vengono usati metodi basati su ‛famiglie' di isotopi radioattivi diversi: potassio-argon, uranio-tono-piombo, carbonio-14.

4. Conclusione

In questo secolo l'uomo ha visto per la prima volta il proprio pianeta dall'esterno. Le conoscenze acquisite riguardo alla Terra hanno avuto un ruolo di primo piano nel costruire l'immagine del mondo fornita dalla scienza moderna: la dilatazione del passato a tempi di miliardi di anni è a fondamento non solo della geologia e della paleontologia, ma anche dell'astrofisica e della cosmologia e costituisce la cornice entro cui è situato tutto l'edificio della scienza attuale. Si assiste oggi a una differenziazione dello studio della fisica: mentre un settore della fisica, quello che ha avuto origine dallo studio del mondo submicroscopico, si avvia verso formulazioni sempre più astratte, per ovviare all'informulabilità, in termini semplici, delle relazioni tra i presunti costituenti fondamentali della materia, un altro settore, quello dei sistemi macroscopici, sta facendo grandi progressi. In quest'ultimo settore si situa principalmente la geofisica.

Lo studio della Terra solida è affrontato dalla fisica (geofisica), dalla chimica (geochimica) e dalla geologia: l'integrazione tra i diversi settori non è ancora raggiunta. Anche nel campo delle scienze della Terra l'apporto della fisica è stato determinante. Gli eventi che provocano fenomeni quali il moto delle placche tettoniche e il magnetismo terrestre si verificano a grande profondità nella Terra, e pertanto sono ricostruibili soltanto attraverso i metodi indiretti della geofisica. La fisica organizza la nostra esperienza in teorie basandosi su grandezze misurabili. Lo studio fisico della Terra (geofisica) implica dunque la misurazione di grandezze ritenute significative. Si costruiscono modelli del fenomeno studiato, se ne esaminano le conseguenze e le si confronta con i dati di osservazione. L'interpretazione dei dati consiste in un processo iterativo nel quale si alternano un processo diretto (dal modello alla previsione dei fenomeni) e uno inverso (dalle osservazioni al modello che le riproduce).

Se la Terra con i suoi fenomeni macroscopici ha attirato l'attenzione dell'uomo dall'inizio dei tempi, lo studio quantitativo è arrivato solo tardi, con l'applicazione delle teorie fisiche già elaborate. L'applicazione di queste teorie alla Terra solida da parte della geofisica rappresenta una novità sostanziale nell'ambito della fisica, in quanto esse vengono molto spesso applicate a campi di valori diversi da quelli per i quali erano state ideate. La geofisica è dunque un banco di prova importante per molte teorie e una finestra aperta su nuovi affascinanti orizzonti scientifici.

Il tentativo di formulare leggi semplici per i fenomeni studiati conduce, in prima approssimazione, allo sviluppo di modelli estremamente riduttivi: si cerca di estendere a sistemi complessi quelle semplici relazioni di causa ed effetto che è stato possibile applicare al moto dei gravi sulla Terra o a quello dei pianeti. Ma la nuova geofisica sarà sempre più costituita dalla fisica dei sistemi complessi. I sistemi complessi non si possono ridurre alla somma delle loro parti, in quanto rispetto a esse presentano caratteristiche e schemi dinamici completamente nuovi. Una piccola fluttuazione in una struttura dissipativa non lineare può essere amplificata e può far passare il sistema a una condizione macroscopica nuova, che è tanto imprevedibile quanto è imprevedibile la piccola fluttuazione che la genera. Inoltre, la nuova situazione può far comparire un ordine che era assente nel sistema originario.

L'avvicendarsi delle ipotesi e delle teorie sottolinea la provvisorietà dell'immagine scientifica del mondo. La storia delle scienze della Terra, come in fondo quella di tutte le scienze, ci mette in guardia contro la tentazione di assolutizzare i risultati conseguiti in un dato periodo storico. Nonostante queste limitazioni, i risultati ottenuti dalle scienze della Terra si possono concretamente utilizzare per agire sulla realtà. Assai più di altre discipline, le scienze della Terra sono chiamate a rivestire un ruolo sempre maggiore nell'evoluzione della società civile, poiché nel loro ambito vengono affrontati problemi che toccano da vicino l'esistenza quotidiana dell'uomo sulla Terra.

Numerosi e complessi problemi si presentano oggi nella interazione tra le attività umane e il pianeta su cui si svolgono. Da un lato l'uomo modifica incessantemente l'ambiente che lo circonda, senza tenere in conto e, spesso, senza conoscere le conseguenze che ne deriveranno, dall'altro eventi catastrofici naturali minacciano periodicamente numerosi insediamenti umani sparsi in tutto il mondo.

In questo ambito la geofisica, per i successi conseguiti e per gli sviluppi futuri che ci è permesso di intravedere, si configura quale punto di riferimento fondamentale. Ciò è particolarmente vero per quei paesi che sono maggiormente esposti ai fenomeni geofisici distruttivi. Una maggiore sensibilità nel promuovere la ricerca geofisica e nel tenere conto dei suoi risultati nelle decisioni politiche potrà avere una grande resa in termini di vite umane salvate e di danni economici evitati.

BIBLIOGRAFIA

Aki, K., Richards, P.G., Quantitative seismology. Theory and methods, San Francisco 1980.

Brown, G.C., Mussett, A.E., The inaccessible Earth, London 1981.

Dziewonski, A.M., Boschi, E. (a cura di), Physics and the Earth's interior (Enrico Fermi summer school series, N° 78), Amsterdam 1980.

Elder, J., The bowels of the Earth, London 1978.

Hallam, A., A revolution in the Earth sciences, London 1973.

York, D., Planet Earth, New York 1975.

Bilancio termico della Terra di Ottavio Vittori

SOMMARIO: 1. Introduzione.  2. Considerazioni generali.  3. Formulazione del bilancio termico di superficie. 4. L'effetto serra dell'atmosfera. 5. Il bilancio planetario come somma dei bilanci radiativi della superficie terrestre e dell'atmosfera. 6. Il termine ‛flusso di calore' Q nel bilancio termico della superficie terrestre. 7. Variazione dei termini del bilancio e previsioni di cambiamenti climatici su scala planetaria. □ Bibliografia.

1. Introduzione

Per bilancio termico della Terra s'intende la somma algebrica delle quantità di energia acquisite e perdute, nell'unità di tempo, dal sistema fisico costituito dalla superficie terrestre e dall'atmosfera. Un tale bilancio si può fare anche per singole parti del sistema in cui, caso per caso, si ritenga conveniente suddividerlo (atmosfera, superficie terrestre globale, continenti, oceani, foreste, deserti, laghi, città, ecc.).

Il calcolo dei bilanci termici si configura come uno strumento fondamentale dello studio del sistema superficie terrestre-atmosfera, che contraddistingue una nuova branca delle scienze della Terra: la climatologia fisica. Quest'ultima si prefigge di descrivere in termini quantitativi il clima e la sua distribuzione geografica, giustificarne i cambiamenti, a breve e lungo termine, verificatisi nel passato e prevederne i futuri. In effetti lo studio del clima si articola in varie discipline specialistiche quali la climatologia dinamica, la climatologia sinottica, la climatologia regionale ecc.: ciò sta a indicare che il clima è un argomento estremamente complesso.

Qualche chiarimento si rende qui necessario per dare l'idea, se non altro, di alcuni concetti che informano la climatologia fisica. Il cosiddetto ‛tempo meteorologico' e il clima hanno molti punti in comune, ma non sono la stessa cosa. Il primo, quale che sia la località a cui ci si riferisce, viene espresso dall'insieme dei valori che i parametri fisici atmosferici assumono in tempi relativamente brevi, ad esempio un giorno, una settimana. Il secondo si riferisce a regimi ambientali di maggior durata. Tuttavia il clima non si presta a essere raffigurato per mezzo di valori medi dei parametri del tempo meteorologico; la sua concezione non può prescindere dalle fluttuazioni diurne e stagionali dei parametri stessi, nonché dai cambiamenti che costantemente si verificano nel tempo meteorologico. Le variazioni di medie e scarti dalle medie nel corso del tempo, nonché i valori estremi stagionali dei singoli parametri, sono informazioni climatiche altrettanto importanti. In breve, sembra che non ci sia modo di combinare tra loro dati di temperatura, piovosità, insolazione, umidità, ecc. per raggrupparli in grandezze atte a dare una misura di carattere generale del clima della regione a cui le osservazioni si riferiscono.

Si è precedentemente affermato che il calcolo dei bilanci termici è uno degli strumenti di indagine del comportamento del sistema fisico superficie-atmosfera in uso nella climatologia fisica. L'altro mezzo é il calcolo dei bilanci di materia, all'atto pratico dell'acqua. A questo proposito C. A. Thorntwaite, in qualità di presidente dell'Associazione dei Geografi Americani, affermò: ‟Esiste una climatologia per l'agricoltura, una per l'aviazione, una per la salute, una per l'urbanistica, una per il turismo e così via. Ebbene, esse possono essere ricondotte a una sola dal potere unificante dei bilanci di calore e di acqua". Giova far notare che i due indirizzi di indagine usano procedure comuni, poiché le due entità oggetto di stima sono caratterizzate entrambe dal fatto di soddisfare un'equazione di continuità che esprime, rispettivamente, il principio di conservazione della massa e dell'energia.

Lo studio del clima terrestre attraverso il computo dei bilanci termici e idrici si propone di valutare i processi fisici che lo determinano, e ciò quale che sia la scala del sistema superficie-atmosfera in cui essi si svolgono.

Per quanto riguarda i bilanci termici si può affermare che tutte le fluttuazioni, periodiche e non, che si osservano nei parametri atmosferici possono essere fatte risalire a un'unica forma di energia: il calore. Per comprendere il clima in termini di cause ed effetti bisogna scoprire dove e come, nel sistema superficie-atmosfera, il calore venga prodotto e trasportato, trasformato in altre forme di energia e perduto. Visto in quest'ottica il clima si configura come un insieme di fenomeni estremamente complesso cui qui si è solo accennato, essendo il tema in oggetto quello dei bilanci termici su scala globale, di impostazione relativamente semplice.

I quadri schematici che risultano dallo studio dei bilanci termici terrestri non si prestano naturalmente a interpretare la varietà delle condizioni climatiche terrestri. Sono tuttavia estremamente significativi nel mettere in chiara evidenza i fattori fisici del sistema superficie terrestre-atmosfera che svolgono il ruolo più rilevante nel rendere il nostro pianeta atto a ospitare la vita quale essa è.

2. Considerazioni generali.

Il nostro pianeta, inteso nel suo insieme di globo terracqueo e atmosfera, scambia continuamente calore con l'universo che lo circonda, ma in media, nel tempo, tanto calore da esso riceve quanto a esso ne cede. Il bilancio termico globale del pianeta è quindi in pari.

Tabella 1

Il Sole è praticamente la sola sorgente di energia del sistema (v. tab. I). La quantità di radiazione solare incidente sul pianeta varia nel corso dell'anno al variare della distanza Terra-Sole. Nel calcolo dei bilanci termici stagionali si usa fare riferimento a un flusso solare medio, una grandezza che va sotto il nome di ‛costante solare'. Essa viene definita come il flusso di radiazione solare incidente ai limiti estremi superiori dell'atmosfera su una superficie normale alla direzione Terra-Sole; quest'ultimo si considera posto alla sua distanza media dalla Terra.

L'orbita (ellittica) descritta dalla Terra ha una eccentricità così piccola (e = 0,01673) che la si può, in prima approssimazione, considerare circolare. La minore e la maggiore distanza Terra-Sole sono date rispettivamente da

Rp = a(1 − e) = 147,10 × 106 km,

Ra = a(1 + e) = 152,10 × 106 km,

dove a è il semiasse maggiore dell'ellisse dell'orbita terrestre. La distanza media Terra-Sole è definita da (Rp + Ra)/2 e quindi è pari ad a: essa vale 149,6 × 106 km.

La costante solare è oggetto di programmi di misura sempre più intensivi, al fine di determinarne il valore entro margini d'errore più piccoli. La si misura sia da Terra che da satelliti. In ambedue i casi si incontrano difficoltà, naturalmente di carattere diverso, nel misurare con la medesima precisione nelle diverse parti dello spettro l'intensità della radiazione solare incidente. Le misure effettuate da Terra risultano abbastanza affidabili nella regione spettrale λ > 0,3 μm. Quelle da satellite danno informazioni accurate nell'ultravioletto (0,22 ÷ 0,34 μm). In base a una progressiva analisi di serie di dati provenienti dalle due fonti si è giunti a stabilire che il valore oggi più attendibile della costante solare è

S0 = 2,0 ± 0,04 cal cm-2 min-1 = 1.396 ± 128 Wm-2.

L'unità di misura della densità di flusso radiativo adottata da S. P. Langley nel 1913, quando lo Smithsonian Institute iniziò a misurare S0, fu 1 langley = 1 cal cm-2 min-1 = 698 Wm-2.

Lo spettro della radiazione emessa dal Sole è molto vicino a quello di corpo nero in un grande intervallo di lunghezze d'onda. Se si assume che il Sole emetta come un corpo nero perfetto, se ne può calcolare la temperatura TS, una volta determinata S0, per mezzo della legge di Stefan-Boltzmann; si ottiene così TS = 5.700 K, la ‛temperatura effettiva' del Sole. TS differisce da TC, la cosiddetta temperatura di colore di corpo nero del Sole, data dalla legge di Wien

b/λmax = TC, (1)

dove λmax è la lunghezza d'onda corrispondente alla massima intensità di emissione di radiazione di corpo nero e b è una costante che vale 2,89 × 10-3 mK. Poiché la λmax del Sole vale 0,474 μm, dalla (1) si ha TC = 6.097 K.

Questa differenza si spiega con il fatto che lo spettro solare non è di corpo nero. La radiazione viene emessa simultaneamente da strati della fotosfera solare di diversa profondità e temperatura. La porzione ultravioletta dello spettro risente in misura maggiore, rispetto alle altre, di questa struttura del Sole: ad esempio, varia sensibilmente al variare dell'attività solare. Si può quindi affermare che la cosiddetta ‛costante solare' è una grandezza che in realtà non rimane costante nel corso del tempo, ma può variare anche da un anno all'altro. Il problema di un accurato aggiornamento del valore della costante solare, in particolare nell'ultravioletto, rimane tuttora aperto. Tuttavia, nello studio dei parametri climatici attraverso il computo di bilanci termici il fatto di assumere S = 2 cal cm-2 min-1 e che questo valore rimanga costante nel corso del tempo comporta errori del tutto trascurabili.

Il flusso totale medio di radiazione solare incidente sulla Terra è quindi, con ottima approssimazione, S0 × πR2, dove πR2 è l'area della sezione geometrica del pianeta. Per ottenere un valore medio del flusso solare incidente sull'unità di superficie del pianeta si divide il flusso totale per la superficie stessa. Si ha

Formula

Una porzione della quantità di radiazione solare incidente sul pianeta viene rinviata indietro nello spazio per: a) riflessione da parte delle nubi e della superficie terrestre; b) diffusione da parte delle molecole dell'aria atmosferica e delle particelle solide e liquide in essa sospese.

Il potere riflettente delle nubi è molto variabile, poiché dipende essenzialmente dal loro spessore e dalla loro forma. Lo stesso dicasi per quello della superficie terrestre, le cui proprietà ottiche variano notevolmente da luogo a luogo e, nello stesso luogo, nel corso del tempo, al variare della natura della crosta terrestre sottostante e dello stato della superficie sulla quale la radiazione incide.

In fisica il flusso totale di radiazione F riflesso da una superficie viene espresso da ∫ F(λ)R(λ) dλ, dove F(λ) è il flusso di radiazione incidente alla lunghezza d'onda λ e R(λ) la riflettività della superficie, funzione di λ. Per ciò che concerne la radiazione solare riflessa dalla Terra è conveniente, il più delle volte, far uso di una grandezza integrale, la cosiddetta albedo planetaria A, definita come la frazione di quantità di radiazione globale incidente rinviata indietro dal pianeta verso lo spazio.

Per la Terra è A = AC + AN + AS = 0,35, dove AC = 0,02 è l'albedo di superficie, AN = 0,25 quella delle nubi e AS = 0,08 quella da diffusione atmosferica.

Il 35% della radiazione solare incidente sul pianeta viene quindi riflesso senza aver subito processi di assorbimento nell'interno del pianeta. Giova menzionare a questo proposito che il concetto di un'albedo terrestre di valore elevato risale a Galileo. Nel lavoro Sopra il candore della Luna (1640) egli giunge a concludere che la luce ‛bianca' che illumina la porzione buia della Luna è radiazione solare riflessa dalla Terra verso lo spazio.

Tornando al bilancio termico planetario globale della Terra, la quantità Å0(1 − A) è il flusso di radiazione solare assorbito dal pianeta e quindi la quantità di calore che il pianeta riceve dal Sole nell'unità di tempo e sull'unità di superficie.

Non ci interessa qui conoscere come questo calore si distribuisca nell'interno del sistema, nè in quali forme di energia venga di volta in volta trasformato. Stiamo computando il bilancio termico di un corpo del sistema planetario di cui si sa che la sua temperatura media non aumenta nè diminuisce nel corso del tempo. Conseguentemente un flusso di energia F, equivalente a Å0(1 − A), deve essere inviato dal pianeta Terra al mondo circostante e ciò avviene per irraggiamento verso lo spazio cosmico. Questo assorbe radiazione come un corpo nero a una temperatura T0 di poco superiore allo zero assoluto.

Lo spettro della radiazione emessa dalla Terra si avvicina moltissimo a quello di corpo nero. La quasi totalità di questa radiazione è situata nella porzione dello spettro delle onde elettromagnetiche detta infrarossa e pertanto invisibile.

Il bilancio termico medio della Terra si traduce pertanto nel seguente bilancio radiativo:

B = Å0(1 − A) − F = 0,

ovvero, esprimendo F mediante la legge di Stefan-Boltzmann,

B = Å0(1 − A) − σT4P = 0,

dove TP è la temperatura del nostro pianeta approssimata a quella di corpo nero e σ = 5,735 × 10-8 Wm-2 K-4 è la costante di Stefan-Boltzmann. Introducendo nell'ultima equazione i valori di Å0 A e σ, si ottiene TP = 250,7 K = − 22,5 °C.

Giova riaffermare che il valore TP = 250,7 K risulta da un calcolo del bilancio termico planetario della Terra di carattere globale, nel senso che i valori numerici dei termini del bilancio sono il risultato di medie spazio-temporali.

Tabella 2
Tabella 3
Tabella 4

All'atto pratico, questi valori medi vengono ottenuti suddividendo l'intero sistema superficie-atmosfera (lo si pensi come una sfera cava) in settori compresi entro 10° di latitudine. In ciascun settore si effettuano misure atte a computarne il bilancio medio temporale. Si ottiene così una distribuzione media latitudinale dei termini del bilancio globale. Le tabb. II e III illustrano come variano nel corso della stagione i termini del bilancio globale planetario; la tab. III contiene anche un'informazione sul clima che, pur se di carattere molto generale, riveste una particolare importanza in problemi di natura economica e sociale di grande attualità: la transizione del bilanci o annuale da valori positivi a valori negativi si verifica (dal sud al nord) intorno ai 40° di latitudine. I dati riportati nella tab. IV si riferiscono a molti anni di osservazioni, ma concordano con altri, concernenti poche stagioni, nell'indicare che il pianeta Terra, nella sua globalità, resta quasi costantemente assestato su un bilancio medio stagionale radiativo in pareggio, con variazioni relativamente piccole. Il flusso di radiazione infrarossa emessa verso lo spazio dall'emisfero nord della Terra risulta di 0,324 cal cm-2 min-1, cui corrisponde una temperatura TP di −22 °C, in ottimo accordo con i risultati del calcolo sopra effettuato. La tab. III tuttavia mette in evidenza un aspetto molto interessante del comportamento climatico del nostro pianeta, e cioè che il bilancio radiativo dell'emisfero sud è più grande di quello dell'emisfero nord.

Qualche ulteriore considerazione sul bilancio globale radiativo del pianeta può essere utile per stabilirne il significato.

La temperatura media dell'intera superficie della crosta terrestre (una misura ottenuta da medie spazio-temporali analoghe a quelle impiegate per calcolare TP e quindi con questa confrontabile) è di 286,4 K, pari a + 13,2 °C. Nel capitolo seguente saranno messe in evidenza le proprietà fisiche del sistema superficie-atmosfera che determinano i 35 °C circa in più, rispetto a TP, di cui beneficia l'ambiente planetario in cui è concentrata la vita.

Giova tuttavia far notare che il bilancio planetario globale del nostro pianeta potrebbe anche calcolarsi per mezzo di misure dei valori medi dei termini del bilancio effettuate dallo spazio (satelliti artificiali). Da un accurato programma di misure di A e di Å0 si otterrebbe un valore di F e quindi di TP (tra l'altro anch'essa misurabile dallo spazio) che risulterebbe praticamente uguale a quello sopra ricavato. Tuttavia, assumendo di non possedere informazioni di altro tipo sulla struttura e sulla natura del nostro pianeta, non ci sarebbe modo di servirsi dei risultati così ottenuti per formulare ipotesi sulle condizioni termiche, e quindi sul clima, esistenti alla superficie della crosta terrestre.

Un esempio che si adatta perfettamente al caso ci è fornito dal pianeta Venere, il cui bilancio radiativo planetario globale è stato valutato con buona precisione già da parecchi anni. Il diametro di Venere è del 40/o minore di quello terrestre. L'albedo planetaria di Venere è AV = 0,7. Conseguentemente Venere, essendo più vicina al Sole del 25% circa rispetto alla Terra, assorbe dal Sole meno energia del nostro pianeta. Dal computo del bilancio radiativo di Venere si ottiene Tv, il cui valore risulta di 15 °C inferiore a quello di TP. Questo valore di Tv era noto fin dall'inizio del secolo. Tuttavia soltanto in tempi recenti si è appreso, da misure effettuate per mezzo di sensori termici inviati direttamente su Venere, che la temperatura superficiale della ‛crosta venusiana' è molto più elevata di quella terrestre: secondo i rilevamenti fatti, si aggira intorno agli 800 K, una temperatura di ben 200 K superiore a quella di fusione del piombo.

In definitiva - è questo il punto che si voleva mettere in evidenza - sono le proprietà ottiche e termiche delle atmosfere planetarie che, a parte lo spessore, svolgono il ruolo fondamentale nello stabilire le entrate e le uscite del bilancio termico globale alla superficie ‛solida' del pianeta e quindi la temperatura della superficie stessa.

3. Formulazione del bilancio termico di superficie.

La temperatura media TT dell'intera superficie della crosta terrestre è, come già detto, di 13,2 °C. Da misure effettuate negli ultimi 30 anni risulta che praticamente essa rimane costante nel corso del tempo. I termini del bilancio termico medio globale di superficie si prestano a mettere in evidenza i processi che, nell'interno del sistema, concorrono a determinare questo valore di TT , Più elevato rispetto a TP.

Le entrate e le uscite del bilancio termico di superficie, la cui somma è in media nulla, consistono in quantità di energia raggiante e quantità di energia termica.

Al fine di esprimere queste ultime come termini del bilancio termico di superficie, sarebbe necessario passare in rassegna la varietà dei processi di trasferimento di calore nell'interno del sistema, per valutarne i singoli contributi. Ciò comporterebbe un'analisi di tutte le possibili interazioni tra l'atmosfera e la superficie della crosta (litosfera e idrosfera). Per tracciare un quadro esauriente dei trasporti di calore in gioco si renderebbe pertanto necessario un esame particolareggiato di concetti e argomenti che sono ampiamente trattati in altre voci di questa Enciclopedia (v. ATMOSFERA; v. METEOROLOGIA; v. OCEANOGRAFIA). Inoltre si troverebbe che alcuni scambi di calore che si verificano nell'interno del sistema contano poco o nulla nel bilancio globale di superficie, poiché costituiti da guadagni e perdite che finiscono in media per compensarsi gli uni con le altre.

Al fine di evitare di percorrere questa strada, per molti aspetti poco stimolante, si può procedere in modo diverso. Si prende come riferimento il bilancio medio planetario radiativo E sopra descritto e lo si scrive

B = BT + BA = 0,

dove BT e BA sono i bilanci globali radiativi della superficie terrestre e dell'atmosfera, rispettivamente. Dal confronto tra i due si ricava poi il termine che esprime il flusso di calore Q che equilibra il bilancio termico di superficie BT* e quello atmosferico B*A. Deve essere BT* = BT Q = 0 e BA* = BA + Q = 0.

I processi che determinano questo scambio di calore, essendo i più rilevanti tra quelli dovuti alle interazioni tra l'atmosfera e la superficie, si prestano a essere descritti in modo molto succinto. Giova aggiungere che un siffatto modo di procedere offre anche il vantaggio di fornire direttamente un quadro estremamente sintetico dell'essenza fisica del comportamento termico-radiativo dell'intero sistema e del ruolo che in esso svolgono rispettivamente l'atmosfera e la superficie della crosta terrestre.

4. L'effetto serra dell'atmosfera.

Nel tracciare il bilancio medio radiativo della superficie terrestre BT s'incontrano certe condizioni che, come si è affermato precedentemente, dipendono interamente dalle proprietà dell'atmosfera. Proprietà di estrema rilevanza nel bilancio, poiché è a esse che si deve il cosiddetto effetto serra dell'atmosfera.

L'atmosfera è un miscuglio di gas che assorbe ed emette radiazione. La capacità di un gas di assorbire radiazione è in generale funzione della lunghezza d'onda: ogni gas ha un suo caratteristico spettro di assorbimento. L'atmosfera presenta uno spettro di struttura estremamente complicata che si estende dall'ultravioletto (UV) al lontano infrarosso (IR).

Poiché la radiazione che crea l'effetto serra è praticamente tutta situata nella parte dello spettro IR, si può semplificare lo schema del comportamento radiativo dell'atmosfera come segue: a) l'emissione e l'assorbimento atmosferici di radiazione IR sono dovuti essenzialmente a due costituenti minori dell'aria, il vapor d'acqua e il diossido di carbonio. Si considerano trascurabili, al confronto, i contributi dell'ossigeno e dell'azoto e di altri componenti minori quali l'ozono, vari ossidi di azoto e gli idrocarburi; b) i comportamenti delle molecole di CO2 e di H2O (quest'ultima in particolare) sono così straordinariamente complessi che il loro spettro di assorbimento, dovuto nell'IR a transizioni vibrazionali, rotazionali e vibro-rotazionali delle molecole, si presenta come una successione di insiemi di righe, praticamente irrisolvibili l'una dalle altre, che possono tuttavia raggrupparsi in bande di ampiezza spettrale abbastanza ben definita. Gli intervalli di lunghezza d'onda tra una banda e le viciniori vengono chiamati ‛finestre atmosferiche'. In realtà le finestre non sono del tutto trasparenti, in quanto le ali delle bande confinanti, all'aumentare dello spessore ottico del gas, ‛restringono' le finestre con il risultato di ‛opacizzarle'. Questo effetto d'ala varia da banda a banda, per cui nello spettro atmosferico ci sono finestre più trasparenti di altre.  c) per calcolare il flusso radiativo emesso dall'aria si assume che la temperatura dell'atmosfera sia funzione soltanto della quota z (l'atmosfera è piano-stratificata) e quindi l'atmosfera può essere suddivisa in straterelli piani orizzontali di spessore infinitesimo dz (si assume piana la superficie terrestre). Ciascuno straterello è in equilibrio termodinamico. Di conseguenza (anche secondo b), se Kλ e αλ sono rispettivamente i coefficienti di emissione e di assorbimento alla lunghezza d'onda λ, si ha, per la legge di Kirchhoff,

Kλ = αλ.

Su queste basi si può dare un'idea di come si effettui il calcolo del flusso di radiazione emesso dall'atmosfera verso la Terra.

Se ρv(z) è la concentrazione del gas ‛emettitore' alla quota z (si assuma per semplicità che l'atmosfera contenga soltanto H2O) nello straterello di spessore dz, si definisce du = ρv dz lo spessore ottico dello straterello. L'intensità della radiazione da questo emessa verso la superficie nella direzione θ è Lλl*λ du sec θ dove I*λ è l'intensità della radiazione di lunghezza d'onda λ emessa da un corpo nero alla temperatura T dell'aria al livello u.

La radiazione emessa viene attenuata nell'attraversare l'atmosfera sottostante di spessore ottico u. Di conseguenza l'intensità della radiazione emessa dallo straterello, che raggiunge la superficie della Terra, è data da (legge di Lambert-Beer)

Kλl*λ du sec θ exp(−u sec θ).

Il flusso totale in arrivo (una volta integrato su θ) si presenta come un integrale che è funzione di u, di λ (attraverso Kλ) e di T (attraverso I*λ).

Poiché all'atto pratico la conoscenza di Kλ dipende da misure di laboratorio molto limitate in risoluzione spettrale e accuratezza (si è detto della complessità dello spettro), si può semplificare il calcolo assumendo che il flusso di radiazione IR in arrivo sulla superficie sia proporzionale a quello di emissione di corpo nero alla temperatura T e che il valore del coefficiente di proporzionalità sia indipendente da T. Queste ipotesi trovano un soddisfacente riscontro in natura, in quanto la porzione della bassa atmosfera che contribuisce alla quasi totalità del flusso è di modesto spessore. L'andamento della temperatura dell'aria in funzione dell'altezza fa sì che l'intervallo di temperatura corrispondente a questo spessore sia relativamente piccolo.

Quanto detto sopra permette di esprimere il flusso infinitesimo di radiazione IR emessa dall'atmosfera verso la superficie terrestre nella seguente forma:

dFA↓ = γT4 du, (2)

dove γ (il coefficiente di proporzionalità sopra introdotto) è funzione soltanto di u.

Il prodotto γdu nell'eq. (2) si configura come il contributo da parte dello straterello di spessore ottico du all'‛emissività di flusso' totale. In conclusione, il flusso di radiazione emesso dall'atmosfera verso la Terra (il cosiddetto effetto serra) è dato, con buona approssimazione, da

Formula

L'eq. (3) descrive qualsiasi atmosfera di cui siano noti T(z) e u(z) (i sondaggi in quota forniscono T(z) e ρv(z)). Il contributo del CO2 allo spessore ottico u(z) si ricava facilmente, in quanto la frazione di CO2 contenuta nell'atmosfera è attualmente 3,5 × 10-2% in volume). I risultati che si ottengono sono molto soddisfacenti (i flussi calcolati concordano con quelli misurati), anche perché sono basati su misure di laboratorio di γ che sono di gran lunga più agevoli rispetto a quelle di Kλ.

È il caso di dare un'idea della dipendenza di FA↓ dai fattori T e u. Nella fig. 3 sono riportate misure di intensità monocromatica della radiazione IR emessa dall'atmosfera, cioè flussi di energia raggiante per unità di angolo solido in funzione di λ. Le curve della fig. 3A si riferiscono a misure effettuate su angoli zenitali compresi tra 90° (lo zenit) e 0° (l'orizzonte). Le curve mostrano anche il comportamento della finestra al variare dello spessore ottico atmosferico, riproducono cioè sia lo spettro di emissione che quello di assorbimento di atmosfere reali. Nella curva corrispondente a θ = 90° (minimo spessore ottico dell'atmosfera) si può notare che la finestra 8,5 μm 〈 λ 〈 11 μm domina su tutte le altre dello spettro atmosferico. All'aumentare dello spessore ottico (θ 〈 90°) la finestra diventa via via meno trasparente fino a opacizzarsi del tutto a θ = 0°. Lungo l'orizzonte (θ = 0°) lo spessore dell'atmosfera non è infinito (sfericità della superficie terrestre), purtuttavia la fig. 3A mostra che in un'atmosfera reale (le misure sono state effettuate al livello del mare) lo spessore ottico diventa tanto grande che l'effetto d'ala delle bande di emissione di CO2 e H2O, vicine all'intervallo spettrale 8-11 μm, provoca una saturazione completa della finestra: la curva spettrale θ = 0° coincide infatti con quella di emissione di corpo nero alla temperatura di 27 °C, che è per l'appunto la temperatura dell'aria vicino al suolo. La curva tratteggiata descrive FA↓ (λ) dell'atmosfera, vale a dire il flusso monocromatico di radiazione IR emesso dall'intera volta celeste sull'unità di superficie terrestre in funzione di λ. L'integrale

Formula

è equivalente a FA↓ dato dall'eq. (3).

La fig. 3B mette in evidenza l'importanza del fattore temperatura dell'aria rispetto allo spessore ottico. Le due misure (ambedue a θ = 90°) sono state effettuate a quota 3.500 m e 2.000 m, rispettivamente, ma su atmosfere le cui temperature vicino al suolo differivano fra loro notevolmente. Le curve tratteggiate coincidono con quelle di emissione di corpo nero alle temperature dell'aria al suolo.

Si può affermare che, in sostanza, l'effetto serra è dovuto alla capacità dell'atmosfera di assorbire radiazione IR emessa dalla superficie terrestre e di riemetterne una parte verso la superficie stessa. Per dare un'idea di come questo effetto si traduca in un guadagno di radiazione per la superficie terrestre si può ricorrere al seguente schema esemplificatore.

Si supponga che l'atmosfera sia completamente trasparente alla radiazione solare e assorba l'80% della radiazione IR terrestre. 100 unità di radiazione solare attraversano l'atmosfera e raggiungono la superficie, che le assorbe e le riemette verso l'alto come radiazione IR. 20 unità attraversano l'atmosfera e vengono perdute verso lo spazio; delle 80 unità assorbite dall'atmosfera, questa ne emette 40 verso lo spazio e 40 verso la superficie terrestre, che le assorbe e le riemette verso l'alto. L'atmosfera ne assorbe 32, di cui 16 vengono riemesse verso la superficie e così via. In definitiva, secondo questo schema molto grossolano, le unità di radiazione incidenti sulla superficie terrestre ammontano a: 100 + 40 + 16 + 6,4 + ... = 166.

5. Il bilancio planetario come somma dei bilanci radiativi della superficie terrestre e dell'atmosfera

La radiazione solare in arrivo sulla superficie terrestre si compone di quella direttamerite incidente e di quella diffusa. La diffusione molecolare della radiazione, che contribuisce all'albedo del pianeta, è isotropa. Inoltre l'atmosfera assorbe radiazione solare.

Il flusso di radiazione solare assorbita dalla superficie terrestre è pertanto espresso da

FST = Å0[l −(AS + AN)](l − AC) − q′ + qS,

dove qS è il flusso di radiazione solare diffusa dall'atmosfera e assorbita in superficie e q′ il flusso di radiazione solare assorbita dall'atmosfera.

Il bilancio radiativo medio della superficie terrestre si completa con i flussi di radiazione IR e cioè: FN↓ (radiazione emessa dalle nubi verso la superficie), FA↓ (radiazione emessa dall'atmosfera: eq. 3) e FT↑ (radiazione emessa verso l'alto dalla superficie).

Il flusso netto IR, cioè la differenza tra flussi entranti e uscenti, dato da

F* = FN↓ + FA↓ − FT↑

viene chiamato ‛flusso di radiazione effettiva IR della superficie'.

Nel campo della radiazione IR la superficie terrestre, nel suo insieme, si comporta con ottima approssimazione come un corpo nero. Non si commettono quindi errori apprezzabili nell'assumere che la radiazione di FN+ e FA venga completamente assorbita dalla superficie terrestre e che sia

FT = σT4T.

In definitiva il bilancio radiativo della superficie terrestre è dato da

BT = FST F*.

Il bilancio radiativo dell'atmosfera, BA, si compone di tre termini:

BA = q′ + F* − F,

dove F, giova rammentarlo, è il flusso di radiazione emessa dal pianeta verso lo spazio, vale a dire σT4P.

q′ = 0,06 cal cm-2 min-1 è trascurabile rispetto agli altri due termini. Poiché ∣F ∣ > ∣ F* ∣, risulta BA 〈 0. Ciò significa che l'atmosfera perde radiazione verso lo spazio in misura maggiore di quanta ne riceve dal basso.

Si può tracciare a questo punto un breve quadro riassuntivo.

Se si considerano soltanto scambi di energia raggiante, il sistema superficie terrestre-atmosfera è, nel suo insieme, in equilibrio (non può essere altrimenti, dato che il pianeta può scambiare energia con l'universo soltanto per mezzo di guadagni e perdite radiative).

Nell'interno del sistema si ha BT > BA: ciò significa che nel bilancio radiativo globale la superficie terrestre risulta in attivo rispetto all'atmosfera. La quantità di energia raggiante in eccesso sulla superficie (l'attivo) deve essere bilanciata, essendo B = 0, da una equivalente quantità di radiazione che deve essere perduta dalla sola atmosfera. Si ha come conseguenza che, in media, la superficie terrestre fornisce all'atmosfera una quantità di energia equivalente a quella che l'atmosfera perde in eccesso. Il bilancio termico della superficie terrestre deve naturalmente uguagliare quello atmosferico. Deve essere cioè

BT* = BT Q,

dove Q è il flusso di energia termica che la superficie terrestre cede all'atmosfera. Da valutazioni di BT e BA medi risulta Q = 0,137 cal cm-2 min-1.

6. Il termine ‛flusso di calore' Q nel bilancio termico della superficie terrestre

Nella litosfera il guadagno radiativo di superficie viene assorbito dal terreno sotto forma di calore, che viene in parte ceduto all'atmosfera e in parte al terreno sottostante (una grande porzione di questo calore viene in media restituita alla superficie).

Diverso è il comportamento dell'idrosfera che, giova rammentarlo, costituisce il 70% circa della superficie terrestre. L'energia raggiante in arrivo sulla superficie dell'idrosfera viene quasi interamente assorbita dall'acqua degli strati superficiali degli oceani (v. tab. V).

Tabella 5

Il processo equilibratore dei bilanci termici della superficie terrestre e dell'atmosfera, in altri termini Q, deve essere pertanto molto più intenso sopra gli oceani che sulla litosfera;  in media, esso deve essere ancora più intenso alle basse latitudini rispetto alle alte.

Il meccanismo di trasferimento di calore che soddisfa queste condizioni è il ciclo evaporazione-condensazione dell'acqua nell'interno del sistema. Parte del calore acquistato dall'idrosfera per assorbimento della radiazione su di essa incidente viene speso in evaporazione. La quantità di calore che bisogna fornire all'idrosfera affinché l'unità di massa d'acqua in essa contenuta passi dalla fase liquida alla fase vapore (calore latente di evaporazione L) è di circa 600 cal/g.

La formazione di nubi nell'atmosfera è dovuta a condensazione di vapor d'acqua in goccioline. Durante questo processo di condensazione il calore latente viene ceduto all'aria dove la nube si forma. Di qui il trasporto netto di energia termica dalla superficie terrestre all'atmosfera.

Mentre il ciclo idrologico restituisce all'idrosfera, attraverso le precipitazioni atmosferiche, l'acqua delle nubi, il calore ceduto all'atmosfera dal processo evaporazione-condensazione non viene restituito. Si calcola che circa l'82% di Q, cioè QE = 0,112 cal cm-2 min-1, sia dovuto a questo processo. La fig. 5 riassume in termini molto schematici i concetti sopra descritti. Il rimanente (QT = 0,024 cal cm-2 min-1) viene ceduto dalla superficie terrestre all'atmosfera per trasporto turbolento; lo si ritrova quindi nei venti in forma di energia meccanica.

Tabella 9

Nella tab. VI è mostrato l'andamento medio di BA, QE e QT in funzione della latitudine. Dai valori di QE e di L si può calcolare la quantità d'acqua che in media evapora dagli oceani in un anno: distribuita sull'intera superficie terrestre formerebbe uno strato di 1 m di spessore. Naturalmente questa quantità d'acqua eguaglia la somma delle precipitazioni medie annuali sulla superficie terrestre.

Giova aggiungere qualcosa a proposito del processo di evaporazione dell'idrosfera.

Come è noto, le circolazioni dell'atmosfera e degli oceani provvedono a ridistribuire sugli emisferi parte del calore che la superficie terrestre riceve in eccesso all'equatore rispetto ai poli. I due ‛mezzi di trasporto', l'atmosfera e l'idrosfera, svolgono questa funzione in maniera diversa. L'atmosfera preleva calore a una temperatura relativamente elevata (l'equatore) per cederne una parte a temperatura relativamente più bassa (i poli). La circolazione degli oceani è molto più complessa: essa è principalmente guidata da forze di superficie, che vengono create in parte dall'interazione dell'atmosfera in movimento con la superficie dell'idrosfera e, in maggior misura, da variazioni di densità dell'acqua degli strati superficiali degli oceani. L'evaporazione degli oceani svolge pertanto un ruolo importante anche in questo processo.

7. Variazione dei termini del bilancio e previsioni di cambiamenti climatici su scala planetaria.

Il quadro sopra tracciato, pur se estremamente succinto, fornisce un'immagine del sistema superficie terrestre-atmosfera configurato come una specie di mosaico di processi e meccanismi che si combinano armoniosamente gli uni con gli altri. Ci si può domandare come questo mosaico muterebbe al cambiare di una o più delle sue innumerevoli tessere. È questo uno degli obiettivi, per ora soltanto marginale, della climatologia fisica: prevedere i cambiamenti climatici causati da variazioni di uno o più termini dei bilanci termici. Alcune indagini hanno dato risultati soddisfacenti grazie all'impiego di modelli numerici dimostratisi atti a descrivere in modo realistico bilanci termici locali e loro mutamenti. Si sono potuti descrivere, ad esempio, processi di desertificazione e prevederne il decorso. Sono stati valutati cambiamenti climatici dovuti a variazioni dei valori di albedo di superfici (abbattimento di foreste, costruzioni di vasti bacini idrici). Sono stati interpretati, in termini di cause ed effetti, mutamenti verificatisi nel clima di alcune città come conseguenza della loro grande espansione avvenuta negli ultimi vent'anni.

Tuttavia la problematica in discussione non riguarda scale ‛locali', ma quella globale e quindi i futuri cambiamenti climatici del pianeta Terra. Non tutte le domande in proposito sono di natura astratta, in quanto alcune vertono su fatti realmente osservati e ampiamente discussi anche sulla stampa non specializzata. Di questi, due ricorrono frequentemente: l'aumento di concentrazione di CO2 nell'aria e le eruzioni vulcaniche.

L'aumento, su scala globale, della concentrazione di CO2, dovuto all'attività umana (processi di combustione), viene indicato come uno dei possibili fattori di un futuro riscaldamento della superficie terrestre. Il termine F* = FN↓ + FA↓ − FT↑ è negativo nel bilancio radiativo della superficie terrestre; in altre parole la radiazione emessa dalla superficie terrestre verso l'alto non viene del tutto assorbita dall'atmosfera. Attraverso la finestra 8-11 μm la superficie terrestre emette radiazione direttamente verso lo spazio. L'importanza di questa finestra nel processo è duplice: in primo luogo - lo si è visto - essa corrisponde a un ampio intervallo spettrale dell'atmosfera, e in secondo luogo comprende il massimo di intensità di emissione dello spettro di corpo nero della superficie terrestre. Dalla legge di Wien risulta λmax = 10 μm nello spettro di emissione di un corpo nero a temperatura TT.

Si sostiene che un'opacizzazione della finestra dovuta a un aumento dello spessore ottico di CO2 porterebbe come conseguenza un aumento di FA↓, di FT↑ e quindi di TT: la superficie terrestre andrebbe incontro, nel corso del tempo, a un sensibile riscaldamento.

Per quel che riguarda le eruzioni vulcaniche ricordiamo che esse assumono talvolta un carattere esplosivo: in tali casi ingenti quantità di materiale roccioso vengono immesse nell'atmosfera sotto forma di particelle. Nei casi di esplosioni particolarmente intense le polveri vengono immesse nella stratosfera, dove formano strati che si allargano a fungo fino a ricoprire tutta la Terra; passano anni prima che questo materiale si depositi al suolo.

È stato osservato che l'aumento di concentrazione di particelle nell'atmosfera, causato da esplosioni vulcaniche, riduce notevolmente la quantità di radiazione solare incidente sulla superficie terrestre (aumento di AS e quindi di A): di qui la previsione di una diminuzione di TT nel corso del tempo.

Queste previsioni non sono molto attendibili, in quanto derivano da accostamenti semiempirici al problema, che, per la loro natura, non possono tener conto del comportamento di tutte le tessere del mosaico. La scienza, d'altra parte, non può procedere diversamente, in quanto si trova di fronte a difficoltà che dipendono dalla enorme complessità del problema. È opportuno precisare che il termine ‛complessità', riferito ai bilanci termici del sistema, non è sinonimo tanto di molteplicità di processi quanto piuttosto di ‛straordinarietà' della natura dei processi stessi. Se ne può dare un'idea. Per esempio, come conseguenza di una variazione nel valore di un elemento che entra a far parte dei termini del bilancio termico, si instaurano nel sistema meccanismi atti a provocare una sorta di accoppiamento oppure di mutua compensazione tra due o più elementi del sistema. Queste interazioni, comunemente chiamate meccanismi di controreazione, possono agire sia amplificando il cambiamento subito dall'elemento (controreazione positiva), sia riducendolo (controreazione negativa). Il numero di gradi di libertà del sistema è grande ed è quindi grande il numero dei possibili meccanismi di siffatta natura che possono operare.

Si esamini, ad esempio, l'aumento di TT derivante da un aumento di FA↓ dovuto a un aumento della concentrazione di CO2 nell'aria. Si avrebbe come conseguenza un aumento di QE, maggior quantità di vapor d'acqua verrebbe cioè immessa nell'atmosfera; un conseguente aumento di u e di T causerebbe un ulteriore aumento di FA↓ e quindi di TT e così via. Un processo del genere darebbe luogo a un riscaldamento ‛a valanga' della superficie terrestre. Per contro, un aumento di concentrazione di vapor d'acqua nell'atmosfera provocherebbe una maggior copertura del cielo (aumento di formazione di nubi); aumenterebbe AN e quindi A, e una minor quantità di radiazione solare raggiungerebbe la superficie terrestre. In definitiva un aumento di FA↓ darebbe luogo a processi di controreazione atti a modificare sia le entrate che le uscite del bilancio e oggi la scienza non è in grado, per quanto detto sopra, di sommarne gli effetti. Lo stesso dicasi per le particelle immesse nell'atmosfera da esplosioni vulcaniche: le osservazioni riportate nella fig. 6 indicano che, in seguito all'esplosione del vulcano Katmai, in Alasca, c'è stata effettivamente una diminuzione della quantità di radiazione solare incidente sulla superficie terrestre, dovuta sia a un aumento di AS, e quindi di A, sia a un aumento di q′; ma da ciò non è lecito prevedere che il pianeta si avvii verso una nuova glaciazione. Le particelle non hanno soltanto la proprietà di diffondere e assorbire la radiazione solare: le polveri sospese nell'aria emettono energia raggiante nell'IR e quindi aumentano l'effetto serra dell'atmosfera. L'entità di questo aumento dipende dalle proprietà ottiche delle particelle e dalla temperatura dell'aria in cui esse sono sospese.

Il fatto è che la scienza non è oggi in grado di costruire modelli capaci di simulare il comportamento dell'intero sistema al variare dei valori dei parametri che entrano nel bilancio termico. Le ipotesi più ragionevoli che oggi si possono formulare su questo argomento si basano sulle previsioni concernenti l'eccezionale potenza tecnologica di cui l'uomo si avvarrà nel secolo prossimo: se le disponibilità di calcolo saranno effettivamente così straordinariamente grandi come annunciano gli esperti, allora la scienza potrà probabilmente costruire supermodelli numerici, tali da includere come variabili tutti i parametri fisici ambientali che, presumibilmente, hanno svolto un ruolo importante nei cambiamenti di alcuni termini del bilancio nel corso del tempo. Se le equazioni saranno corrette, dovranno, una volta integrate, riprodurre mutamenti climatici effettivamente verificatisi nel passato, incluse le grandi glaciazioni. Soluzioni del genere permetteranno agli studiosi di verificare le varie ipotesi sul clima futuro attraverso la comprensione di come i passati mutamenti climatici, dei quali la scienza ha ricostruito il corso, si sono verificati nel nostro pianeta.

BIBLIOGRAFIA

AA.VV., Theory of climate, in Advances in geographysics (a cura di B. Saltzman), vol. XXV, New York 1983.

Barret, E.C., Climtology from satellites, London 1974.

Budyko, M. I. (a cura di), Atlas teplovogo balansa zemnogo sara, Moskva 1963.

Budyko, M. I., Climate and life, New York 1974.

Budyko, M.I., Climatic changes, Washington 1977.

Budyko, M.I., Kondratyev, K. Ya., The heat balance of the Earth, in Research in geophysics (a cura di H. Odishaw), vol. II, Cambridge, Mass., 1964.

Coulson, K.L., Solar and terrestrial radiation, New York 1975.

Kondratyev, K. Ya., Radiation in the atmosphere, New York 1969.

Landsberg, H.E., Physical climatology, Dubois, Pa., 19582.

Miller, D.H., The heat and water budget of the Earth's surface, in Advances in geophysics (a cura di H.E. Landsberg e J. van Mieghem), vol. XI, New York 1965, pp. 175-302.

Robinson, N., Solar radiation, Amsterdam 1966.

TAG

Legge di gravitazione universale

Assorbimento della radiazione

Elisabetta i d'inghilterra

Fisica dello stato solido

Modello fisico-matematico