L'INTERNO DELLA TERRA

XXI Secolo (2010)

L’interno della Terra

Fabio Catino

Per comprendere lo stato della conoscenza della Terra nel suo interno e le relative prospettive di miglioramento, è opportuno prendere brevemente in considerazione gli effetti che la teoria della tettonica delle placche ha avuto sulle scienze della Terra. Affermatasi in modo eclatante negli anni Sessanta del 20° sec., questa teoria ha avuto la forza epistemologica di una rivoluzione scientifica. Non furono soltanto le caratteristiche di semplicità ed eleganza, esemplari per un’interpretazione basata su dati sperimentali, a conferire credibilità, risonanza e fascino alla tettonica delle placche, ma anche la percezione che ci si trovasse al cospetto di un quadro di riferimento fondamentale in cui collocare tutti i fenomeni e i processi terrestri, una sorta di teoria planetaria ‘del tutto’.

Con la scoperta dell’andamento simmetrico e in progressivo aumento di età geologica, rispetto alle dorsali oceaniche e in allontanamento dalle stesse, delle fasce di anomalie magnetiche registrate nei fondali oceanici, veniva definitivamente confermata la mobilità dei continenti e cominciava, per i sostenitori di teorie alternative, un lungo periodo di isolamento e marginalizzazione. L’idea di una superficie terrestre organizzata in placche in movimento relativo, opposta al senso comune dell’immobilità della Terra solida, comportò un rovesciamento paradigmatico dello stesso ordine di quello introdotto in ambito astronomico dal sistema copernicano del moto dei pianeti. Oltre a diventare patrimonio della conoscenza convenzionale, la tettonica delle placche assunse nei decenni successivi un ruolo assiomatico nelle diverse discipline delle scienze della Terra, in particolare riguardo agli studi su struttura e dinamica di litosfera e mantello. La storia della scienza è tuttavia contrassegnata da teorie paradigmatiche superate per accumulo di incongruenze sperimentali. Soggetta, come tutte le teorie scientifiche, al principio di falsificazione, la tettonica delle placche è sottoposta a critica severa a causa dell’elevato numero di osservazioni controverse rispetto alla sua versione standard. È probabile, quindi, che nel futuro prossimo si affermerà una nuova teoria della Terra.

Metodo, dati e modello

I metodi applicati per ricavare le caratteristiche interne (fisiche, chimiche e geologiche) del pianeta sono necessariamente indiretti, fatta eccezione per lo studio di rocce portate in superficie da alcuni processi geologici, provenienti da profondità comunque non superiori ad alcune centinaia di chilometri, e di rocce crostali raggiunte attraverso pozzi per lo sfruttamento delle risorse minerarie o realizzati a scopo di ricerca scientifica (il più profondo dei quali, situato nella penisola di Kola, nella Russia nord-occidentale, non ha superato i 13 km). Tali metodi presentano limiti impliciti, che si tratti dello studio di forme di energia di provenienza interna rilevate in superficie (onde sismiche, flusso termico, flusso di geoneutrini, campi gravimetrico e magnetico), oppure di esperienze di laboratorio finalizzate a riprodurre le risposte della materia alle condizioni termobariche del mantello e del nucleo terrestri, o ancora di speculazioni fondate sulla misurazione da satellite dei movimenti crostali e dei parametri che riguardano la forma e le dimensioni del pianeta. Essi singolarmente non si risolvono in un modello composizionale e strutturale univoco dell’interno terrestre e, talvolta, la compatibilità tra dati e modello è sostenuta da assunzioni non vincolate sperimentalmente. Superare questa condizione equivale a imporre vincoli fisici e chimici ai vari metodi indiretti, facendo ricorso a sintesi multidisciplinari.

Petrologia, fisica dei minerali, sismologia, geodesia, fluidodinamica, termodinamica, geotermia, geochimica, teorie delle relazioni di scala, del campionamento e dei sistemi complessi concorrono ad affrontare i grandi temi di ricerca che riguardano l’origine e l’evoluzione della Terra. Tali temi consistono nel definire la connessione dinamica tra cinematica delle placche litosferiche, convezione nel mantello ed evoluzione termica del pianeta; nel dirimere le incertezze sulle caratteristiche dei mantle plumes e sulla tipologia di convezione mantellica; nello stabilire i parametri fisici e chimici che causano le disomogeneità del mantello; nel determinare i trasferimenti di materia ed energia tra nucleo esterno e mantello inferiore; nel ricostruire l’origine e l’evoluzione del nucleo e le relazioni con i cambiamenti del campo magnetico. Tra i numerosi altri, ve ne sono alcuni più controversi, come l’ipotesi della Terra in espansione, attualmente minoritaria.

Attraverso una valutazione critica dei metodi di indagine, assumendo i dati sperimentali senza il condizionamento di un riferimento preferenziale, emergono le incongruenze del modello standard della tettonica a placche. Alcuni concetti, formalizzati per interpretare fenomeni geologici, sembrano configurati per corrispondere alla propensione euristica di tale modello, con il quale concordano più per valore semantico che per conferme scientifiche.

Il pianeta letto dalle onde sismiche

Il progresso della strumentazione per la misurazione dei segnali sismici e il potenziamento delle reti sismometriche fisse e mobili, associati alla crescita della potenza di calcolo elettronico, consentono l’elaborazione di una grande quantità di dati di diversa natura sull’interno della Terra. La disponibilità di sismometri digitali a larga banda e lo sviluppo di metodi e algoritmi per il filtraggio e per l’amplificazione del rapporto segnale/rumore permettono di isolare specifiche fasi d’onda ed effettuare studi di dettaglio su strutture a diversa scala spaziale, utilizzando anche parametri quali l’attenuazione, lo scattering e la densità spettrale dei segnali sismici. Illuminati dalle onde sismiche, litosfera, mantello e nucleo hanno lasciato trasparire topografie, anisotropie e disomogeneità che definiscono una struttura molto più articolata rispetto a quella delimitata dalle classiche superfici di discontinuità di primo ordine individuate attraverso convenzionali studi su riflessione e rifrazione delle onde di volume (onde P e S).

Topografie. Aver mutuato il significato comune del termine topografia per identificare superfici di discontinuità sismica che delimitano zone omogenee nel comportamento reologico e/o nello stato chimico-fisico della materia evidenzia la capacità risolutiva delle tecniche sismologiche di array. Scegliendo opportunamente geometria e localizzazione delle stazioni di rilevamento sismico, ed eventualmente la distribuzione spaziale di diverse sorgenti di energia sismica, in relazione al metodo di elaborazione dei segnali, è possibile risalire alle caratteristiche geometriche di orizzonti riflettenti (discontinuità fisico-chimiche) nel dettaglio di poche centinaia di chilometri (Rost, Thomas 2002). L’ampiezza della gamma dei metodi per amplificare i segnali, sostanzialmente fondati sulla somma di fasi coerenti del fronte d’onda (stacking) altrimenti rilevate non costruttivamente dalle singole stazioni componenti l’array, consente di configurare geometrie sorgente-ricevitore, sempre più frequentemente con il dispiegamento di reti mobili, per elaborare onde di portata sia locale e regionale sia telesismica (distanze epicentrali superiori a 20°) e ricavare risoluzioni dell’ordine delle decine di chilometri per strutture della crosta e del mantello superiore, e delle centinaia di chilometri per discontinuità più profonde, ossia mantello inferiore e limite mantello-nucleo (CMB, Core-Mantle Boundary). Di particolare rilievo sono, per es., i risultati delle ricerche realizzate in sismologia di array che riguardano le caratteristiche topografiche delle superfici delimitanti la regione più bassa del mantello, circa 250 km al di sopra del limite mantello-nucleo esterno (regione D″). Lo studio di questo strato, individuato per anomalie nei gradienti di velocità di propagazione delle onde sismiche già negli anni Ottanta del 20° sec., è considerato di grande importanza per gli eventuali scambi di materia e di energia tra nucleo e mantello. La struttura sismica della discontinuità D″ sembra confermare una topografia irregolare che prevede variazioni di profondità di circa 100 km in qualche grado di ampiezza (Kito, Rost, Thomas, Garnero 2007). Lo sviluppo della sismologia di array è principalmente associato a una distribuzione più capillare delle reti di rilevamento, sia nelle aree continentali, in particolare nell’emisfero australe, sia e soprattutto nelle aree oceaniche. Il posizionamento degli arrays sui fondali oceanici rappresenta la frontiera di questa branca della sismologia, dalla quale si attendono risultati per mappe sismologiche dell’interno della Terra a una scala di dettaglio più fine.

Anisotropie. Tra i settori di ricerca più fertili della sismologia, lo studio delle anisotropie che caratterizzano la diversa risposta alle onde sismiche delle parti interne della Terra ha fatto emergere un concetto non banale riguardo la loro struttura: la condizione di anisotropia non rappresenta soltanto una perturbazione rispetto a un modello di pianeta fondamentalmente isotropo. Oltre alla disposizione in strati successivi di materiali isotropi aventi differenti caratteristiche elastiche e alla presenza nelle rocce di allineamenti di fratture riempite da fluidi e/o di rotture, condizioni entrambe all’origine di anisotropia, può causare anisotropie anche l’isorientazione di minerali non isotropi che si realizza per processi di varia natura (sedimentazione, ricristallizzazione, deformazione e flusso). Le anisotropie sismiche più rilevanti consistono in variazioni di velocità delle onde in funzione sia della direzione di propagazione, relativamente a onde di compressione (P), di taglio (S) e di superficie (onde di Rayleigh e di Love), sia di fenomeni di polarizzazione, a carico delle sole onde di taglio. Tali ultime anisotropie sismiche si realizzano in quanto le onde S che attraversano materiali con proprietà elastiche non isotrope viaggiano con diversa velocità secondo la direzione di vibrazione. In base a questo fenomeno, denominato share wave splitting e analogo alla birifrangenza ottica, è possibile individuare la polarizzazione dell’onda più veloce e il ritardo di quella più lenta. Ne derivano interessanti applicazioni, tra cui sono di valore geodinamico quelle che riguardano le onde SKS che attraversano il mantello e il nucleo esterno, rispettivamente con modalità di oscillazione di taglio e di compressione. Il tracciato di queste onde ha la specificità geometrica di attraversare quasi verticalmente le ultime centinaia di chilometri di mantello prima di raggiungere la stazione di rilevamento. Tale caratteristica le rende utili, in particolare attraverso analisi di share wave splitting, per lo studio dell’astenosfera, la regione a ridotta viscosità caratterizzata dalla marcata riduzione della velocità delle onde di volume in zone definite da intervalli di profondità diversi secondo la collocazione al di sotto di placche oceaniche o continentali (rispettivamente circa 80÷250 km e 250÷400 km).

La ridotta viscosità fa riferimento a valori medi per l’intera astenosfera rispetto a quelli caratteristici della litosfera sovrastante. Tuttavia, esperienze di laboratorio indicano che la viscosità astenosferica ha andamento non omogeneo, potendo presentare picchi di riduzione sia rispetto al tempo nel quale si considerano i comportamenti reologici della materia, sia in relazione alla presenza di intercalazioni di materiale fuso, sia a causa di una prerogativa reologica dei minerali che costituiscono i principali costituenti delle rocce del mantello superiore. Tali minerali (olivina) sono, infatti, anisotropi e hanno la tendenza ad allinearsi secondo uno dei tre assi cristallografici (LPO, Lattice Preferred Orientation) nelle direzioni di deformazione e di flusso della materia. Inoltre, la viscosità dell’astenosfera varia secondo l’ambiente tettonico, con valori che tipicamente crescono dalle zone geologicamente oceaniche (per es., 5×1017 Pa×s nella placca del Pacifico) all’ambiente continentale cratonico (per es., 1021 Pa×s nelle aree sottoposte a sollevamento postglaciale) dove peraltro risultano meno marcati gli stessi lineamenti geofisici caratteristici della regione astenosferica. La proprietà LPO dell’olivina conferisce al livello in cui si realizza l’allineamento dei minerali, in questo caso l’astenosfera, anisotropie dal significato geodinamico. Nella direzione pseudorizzontale di allineamento dell’asse cristallografico si producono due notevoli effetti: un’ulteriore riduzione della viscosità rispetto alla direzione verticale e la propagazione dell’onda veloce causa di share wave splitting. Considerando l’LPO olivinico determinato da deformazione e flusso di materia, studi a scala globale di share wave splitting su onde SKS hanno confermato direzioni di allineamento coerenti con i movimenti superficiali delle placche tettoniche e concordanti con l’ipotesi di un disaccoppiamento (decoupling), a livello astenosferico, tra mantello medio e litosfera. Secondo questa interpretazione, vincolata a valori molto bassi della viscosità astenosferica, la litosfera subirebbe una deriva complessiva verso ovest: un movimento di ordine superiore rispetto a quelli tra le placche e dinamicamente indotto da un momento che agisce nella direzione occidentale a causa del ritardo con cui la massa terrestre, in quanto viscoelastica, risponde all’attrazione gravitazionale lunisolare (Scoppola, Boccaletti, Bevis et al. 2006). L’idea che la tettonica delle placche abbia nel trascinamento mareale un meccanismo guida non è nuova e, tuttavia, torna a essere considerata con attenzione anche perché i valori dell’energia dissipata per attrito mareale e di quella rilasciata per attività tettonica sono dello stesso ordine di grandezza, rispettivamente 1,6×1019 J/anno e 1,3×1019 J/anno (Denis, Schreider, Varga, Zavoti 2002).

Lo studio delle anisotropie sismiche fornisce notevoli informazioni anche sulla zona più remota della Terra, il nucleo interno. Questa parte, che si distingue dal nucleo esterno fluido per il fatto di possedere la proprietà dei corpi solidi di consentire la propagazione delle onde S, ha un ruolo fondamentale per il mantenimento della geodinamo. Il nucleo interno, avendo un raggio di circa 1220 km, costituisce circa l’1% in volume del pianeta e non sono numerose le onde sismiche che lo raggiungono per poi tornare in superficie. Risulta quindi più difficile risalire alle sue caratteristiche geofisiche dai dati sismici. In particolare, la parte più interna del nucleo, che si estende dal centro della Terra per circa 600 km, costituendo lo 0,01% del volume terrestre, è attraversata da onde sismiche che si propagano esclusivamente con geometria pressoché radiale. Pertanto, a queste profondità i dati più immediati riguardano la variazione di velocità con la direzione di propagazione. In effetti, il nucleo interno presenta marcate anisotropie associabili al comportamento non isotropo dei minerali costituenti che, secondo calcoli di dinamica molecolare confortati da dati sperimentali prodotti a pressione e temperatura altissime, sono conformi a strutture cristalline di ferro caratterizzate da anisotropie del 12% rispetto alla propagazione di onde sismiche (Belonoshko, Skorodumova, Rosengren, Johansson 2008).

Le anisotropie rilevate si sviluppano con velocità più elevata nella direzione dell’asse di rotazione terrestre, più accentuate nella regione esterna del nucleo interno in un emisfero considerato in senso longitudinale, e meno nette procedendo verso il limite con il nucleo esterno. Nella parte interna del nucleo interno, esse presentano una variazione della tipologia di allineamento. La ricerca delle cause prime di tali anisotropie comporta argomenti che hanno implicazioni rilevanti sulla storia termica del pianeta e sull’evoluzione del suo campo magnetico. In questo senso, i bilanci di energia termica nel nucleo rispetto alla dinamica di crescita nel tempo del nucleo interno hanno conseguenze determinanti. Il passaggio tra nucleo esterno fluido e nucleo interno solido potrebbe essere una frontiera di compattazione dove la densità delle particelle di fluido supera un limite caratteristico, oppure, nell’ipotesi più accreditata, il confine termobarico dello stato fuso. Le due opzioni comportano condizioni termodinamiche diverse e conseguentemente vincoli differenti per lo sviluppo del nucleo interno; tuttavia, in entrambi i casi, lo stato della materia dovrebbe consentire a queste profondità il manifestarsi di deformazione ed eventualmente convezione. Si possono in merito chiamare in causa fenomeni quali la presenza di una frazione di fuso oppure la diminuzione di rigidità dovuta a difetti reticolari, teoricamente abbondanti a queste temperature (Belonoshko, Skorodumova, Davis et al. 2007), in prossimità dei bordi granulari delle catene policristalline. Il nucleo interno è sottoposto all’azione di forze gravitazionali originate dalla massa del mantello, di stress di natura elettromagnetica e viscosa indotti dal nucleo esterno, e ancora di sforzi causati dal moto di rotazione e dalla dinamica mareale. La composizione di tali forze può essere all’origine di un flusso plastico irreversibile, dell’allineamento dei cristalli di ferro e, in ultima analisi, delle anisotropie sismiche nucleari.

Disomogeneità. Le immagini della struttura termica e della densità del mantello terrestre sono i risultati più celebrati dello studio sismologico dell’interno della Terra e, senza dubbio, i più riconosciuti anche in ambito non specialistico. Queste rappresentazioni, effetto di applicazioni tomografiche, permettono di visualizzare anomalie di velocità di propagazione delle onde sismiche, generalmente attraverso una scala cromatica dal blu al rosso che individua rispettivamente materiale freddo (ad alta densità e in affondamento) e caldo (a densità minore e in risalita). La tomografia sismica ha il merito di avere inequivocabilmente evidenziato le eterogeneità chimico-fisiche che appartengono alle geosfere della Terra solida. Tuttavia, questo metodo costituisce un tipico problema inverso e comporta limitazioni che devono essere opportunamente considerate, pena il rischio dell’inferenza ridondante che può colpire, con modalità ed effetti ovviamente differenti, sia il ricercatore disciplinare sia il fruitore comune dell’informazione scientifica. In quanto potente strumento per la formalizzazione di modelli che approssimano la struttura reale della Terra, esso richiede una lettura in cui non sia ambiguo il significato dei dati.

In un problema inverso si deve risalire a una funzione incognita essendo noto l’esito di un suo sviluppo in un campo definito, ossia, in termini matematici, risalire da una trasformata integrale alla funzione integranda. Nel caso della tomografia sismica per tempi di arrivo, la funzione incognita è costituita dall’inverso della velocità di propagazione dell’onda (lentezza), il cui integrale, calcolato sul raggio sismico che unisce sorgente e stazione di rilevamento, determina il dato misurato (tempo di arrivo)

1

δt = ∫ ----- ds

δv(x, y, z)

dove δv è la variazione di velocità. L’analisi tomografica di una porzione terrestre, realizzata in due o tre dimensioni, si basa sull’utilizzazione di molti raggi sismici, diversamente orientati rispetto al blocco in esame. L’insieme delle misure ricavate costituisce la trasformata di Radon del campo incognito. Posto in questi termini, il problema ha caratteristiche non lineari in quanto oltre ai tempi di arrivo anche i tracciati dei raggi sismici dipendono dalle velocità. La complessità che ne deriva può essere ridotta linearizzando l’integrale, ovvero ipotizzando i raggi sismici comunque rettilinei, e discretizzando il campo delle velocità, il che equivale a suddividere la porzione di Terra attraversata dai raggi in blocchi in cui la velocità di propagazione sia costante. Tale ipotesi risulta soddisfatta se le perturbazioni della velocità sono minime rispetto al valore medio. Proposto in modo lineare, il problema è risolto attraverso un sistema di equazioni i cui termini noti sono l’anomalia nei tempi di arrivo (differenza tra tempo osservato e tempo calcolato secondo un andamento di riferimento) e la lunghezza del percorso in ogni blocco, mentre l’incognita è rappresentata dalla velocità dell’onda sismica all’interno del blocco singolo. Si ottengono, pertanto, anomalie di velocità rispetto a un modello di riferimento tipicamente radiale; tra i modelli più applicati: PREM (Preliminary Reference Earth Model), ak135, iasp91. I risultati dipendono, in modo determinante, dalla geometria dei raggi sismici, conseguenza della reciproca localizzazione della sorgente sismica (terremoti) e della stazione di rilevamento, e dalla qualità delle tecniche matematiche applicate, in particolare di quelle utilizzate per considerare gli effetti delle anisotropie, quando presenti e significative.

Rispetto alla fase di produzione dei dati, l’interpretazione delle cause delle anomalie di velocità implica problematiche di ordine superiore. Talvolta le assunzioni su cui si fondano i modelli del mantello terrestre, pur funzionali a finalità euristiche, non sono consistenti dal punto di vista fisico e termodinamico. L’ambiguità nasce dall’utilizzare relazioni matematiche e teorie semplificate per trattare problemi quali la verosimiglianza o meno della stratificazione gravitativa e la sopravvivenza di zone isotopicamente eterogenee nella materia del mantello in convezione.

In un sistema costituito da un fluido omogeneo in convezione si realizza un trasferimento di energia termica alla scala propria del sistema: definito uno strato limite termico presso una sorgente di calore e un secondo in prossimità di un pozzo, alla ricerca dell’equilibrio si stabilisce un flusso di materia, calda (a densità minore) verso il confine freddo e fredda (a densità superiore) verso quello caldo. Rispetto a questo modello ideale, il mantello terrestre presenta condizioni complesse e la ricostruzione del suo comportamento geodinamico costituisce un’impresa scientifica di frontiera. Per una completa trattazione matematica, oltre alle condizioni termiche iniziali, definite dalle modalità di accrezione del pianeta e necessarie per stabilire in particolare le caratteristiche dello stato termico inferiore (al confine con il nucleo terrestre), andrebbero infatti considerati complessivamente i cambiamenti della composizione chimica e di fase (mineralogica e di stato) che si realizzano al suo interno, e le relazioni funzionali non lineari che legano alle variabili P, T i parametri fisici reologici e termodinamici della materia (viscosità, conducibilità termica, coefficiente di dilatazione termica, modulo di elasticità). Le equazioni di conservazione di massa e di energia e di equilibrio dei momenti che descrivono la convezione dovrebbero pertanto comprendere termini descritti da relazioni del tipo

X(P,T,ψ,μ)=X(V)+ε

In tale rappresentazione, utilizzata, per es., in meccanica dei solidi nella teoria dell’approssimazione quasi armonica, una proprietà reologica, elastica o termica X viene espressa attraverso due termini: nel primo, X(V), che costituisce un parametro di scala, risultano condensati nelle variazioni volumetriche gli effetti di pressione, temperatura, cambiamenti di fase e di composizione chimica (rispettivamente P, T, ψ, μ); nel secondo (ε) sono compresi gli effetti a volume costante.

Tuttavia, i metodi tradizionalmente applicati per sviluppare, a integrazione dei dati tomografici, modelli reologici di convezione, per facilità di calcolo applicano semplificazioni di ordine superiore. L’approssimazione più utilizzata è quella di Boussinesq, secondo cui sono trascurati gli effetti delle variazioni di volume. Ne derivano modelli nei quali prevalgono gli effetti delle variazioni di temperatura, anche riguardo alle proprietà elastiche, e che inducono a interpretare le anomalie nella velocità di propagazione delle onde sismiche come anomalie termiche. Nascono da queste premesse le rappresentazioni tomografiche in scala cromatica precedentemente descritte e i termini upwellings e megaplumes, invalsi nella letteratura specialistica per caratterizzare dal punto di vista dinamico vaste porzioni di mantello ‘calde e in risalita’. È sufficiente prendere in considerazione gli andamenti termobarici di alcuni parametri fisici, oppure possibili variazioni di composizione chimica, e i loro effetti sulla reologia del mantello per evidenziare la complessità teorica di una modellistica più attendibile. La conducibilità termica, per es., se considerata in modo non semplificato, può condizionare radicalmente, più di altri parametri, le visioni correnti di convezione mantellica. Nelle condizioni fisiche del mantello terrestre, questa proprietà della materia è costituita da due componenti: la conducibilità radiativa (Krad), consistente nella trasmissione fotonica e soggetta a una legge di potenza che ne definisce l’incremento secondo la temperatura al cubo; la conducibilità di reticolo (Klat), descritta dal comportamento dei fononi e regolata da una legge in cui gli effetti delle variazioni della temperatura in termini non lineari, e della pressione, ovvero di volume, sono di segno opposto, rispettivamente negativo e positivo. Una corretta valutazione della conducibilità radiativa condiziona il modello di trasferimento di calore verso le parti più esterne del pianeta, in quanto ad alte temperature e pressioni l’aumento del trasferimento non convettivo può provocare un effetto stabilizzante sullo strato limite termico inferiore tale da ridurre l’induzione alla convezione (Dubuffet, Yuen, Rainey 2002). Tale strato diventa instabile, con la propensione a scollarsi in digitazioni verso l’alto, se Ra=αgT)h3/(κν), numero adimensionale di Rayleigh locale, utilizzato in fluidodinamica e caratterizzato dallo spessore dello strato (h) supera il valore di circa 1000. Nella definizione di Ra intervengono, oltre all’accelerazione di gravità (g) e alla differenza di temperatura (ΔT), parametri a loro volta dipendenti non soltanto dalla temperatura ma anche dalla pressione, quali il coefficiente di dilatazione termica (α), la viscosità cinematica (ν) e la diffusività termica (κ). Secondo le considerazioni appena fatte, la relazione funzionale con quest’ultimo parametro, direttamente proporzionale alla conducibilità termica, comporta valori subcritici di Ra (inferiori a 1000), ovvero la soppressione del vigore della convezione del mantello.

Le anomalie negative nella velocità di propagazione delle onde sismiche, alle condizioni di P, T del mantello inferiore, possono inoltre essere interpretate come l’effetto di cambiamenti della composizione chimica o di fase mineralogica della materia. Le più accreditate ipotesi relative alla composizione chimica e mineralogica del mantello inferiore si basano su dati multidisciplinari: sperimentali riguardanti la composizione chimica del Sistema solare e dell’Universo; geodetici e astronomici sull’andamento della densità della massa all’interno del pianeta; sperimentali e teorici sullo stato fisico della materia (ricostruzione delle equazioni di stato ecc.). Tali studi concordano nel ritenere candidati ideali alcuni ossidi (ferropericlasio, Mg1xFexO, e perovskite, XYO3, dove X e Y stanno per cationi che nella struttura compatta di questo minerale assumono, rispettivamente, capacità di coordinazione 12 e 6, per es. Fe e Si). Ricerche sperimentali e teoriche (Trampert, Deschamps, Resovsky, Yuen 2004) hanno confermato relazioni tra proprietà fisiche e caratteristiche chimico-strutturali di questi minerali: arricchimenti in ferro e cambiamenti di fase nel ferropericlasio, quali la transizione verso una configurazione elettronica esterna del ferro a elettroni accoppiati negli orbitali (low-spin), comportano riduzioni della velocità delle onde sismiche (Crowhurst, Brown, Goncharov, Jacobsen 2008); la trasformazione della perovskite (Mg1xFexSiO3) in una diversa struttura definita postperovskite (pPv) implica risposte sismiche ancora più complesse con incrementi di velocità delle onde di taglio corrisposte da deboli decrementi di quelle di compressione. A causa del basso valore del coefficiente di espansione termica, alle pressioni altissime del mantello inferiore le variazioni di densità degli aggregati minerali possono essere principalmente controllate dalla composizione chimica e dalla fase mineralogica. Lo strato D″, di cui si è già fornita una definizione in termini geometrici, potrebbe pertanto costituire un livello molto denso (arricchito in ferro) sormontato da uno meno denso (D′) che lo separa dalla sovrastante parte del mantello. Tale stratificazione per densità potrebbe essersi stabilita durante la fase di accrezione del pianeta attraverso drenaggio verso il basso di fusi densi e fasi residuali refrattarie. In questa ricostruzione, sarebbe più appropriato denominare domi le regioni a bassa velocità, con accezione geologica, più che megaplumes, termine che richiama una spinta idrostatica di origine esclusivamente termica con associati bassi valori di densità e modulo di compressione della materia solida. La forza di simili argomentazioni critiche ha indotto lo statunitense Don L. Anderson, un pioniere dell’integrazione dei risultati degli studi sismologici con quelli di altre discipline (fisica dello stato solido, geochimica, petrologia), a formulare ipotesi alternative sulla dinamica del mantello, che considerano la parte inferiore gravimetricamente stabilizzata e quella superiore, prossima alla litosfera coinvolta nella tettonica delle placche, interessata da una convezione controllata principalmente dal raffreddamento dall’alto e dalla spinta idrostatica negativa del guscio freddo più esterno della Terra. Secondo questa concezione, la tettonica delle placche sarebbe un esempio di struttura dissipativa di Prigogine ovvero un sistema autorganizzato non lineare lontano dall’equilibrio. I risultati delle ricerche teoriche del chimico fisico russo naturalizzato belga Ilya Prigogine (1917-2003) hanno dimostrato che sistemi aperti lontani dall’equilibrio tendono ad autorganizzarsi. Le strutture che conseguentemente si formano sono relativamente stabili in ragione di quanto a lungo si mantengono in contatto con fonti esterne di energia (o di materia). Tali sistemi possono, tuttavia, rapidamente cambiare stato verso un nuovo non equilibrio, relativamente stazionario, perché sono sensibili a piccole fluttuazioni di temperatura o di stress.

Nel caso della tettonica delle placche, a causare la riorganizzazione strutturale e dinamica dei limiti di placca, varie volte verificatasi nel passato geologico, sarebbero fluttuazioni di stress all’interno della litosfera provocate dal sistema di interazioni tra le placche stesse. Le cause prime della tettonica alla scala litosferica non andrebbero pertanto ricercate in cambiamenti di flussi convettivi nel mantello attivati da variazioni nei gradienti di temperatura. Il modello di Anderson evidenzia un’inversione tra causa ed effetto, non più la tettonica delle placche come risultato della convezione termica del mantello ma convezione della parte superiore del mantello controllata dall’evoluzione dell’equilibrio tra le placche litosferiche. Questa ipotesi, rispetto a quella convenzionale, comporta evidenti semplificazioni nell’impianto teorico, consistenti nella riduzione delle assunzioni in numero e in qualità. Per es., non è necessario considerare le placche enti rigidi, fragili e omogenei rispetto ai movimenti che esse descrivono sulla superficie terrestre (rotazioni intorno ai poli di Eulero) e neanche invocare anomalie termiche profonde quali esclusive cause di vulcanismo. Il concetto di rigidità di placca è, infatti, mutuato in quello di coerenza cinematica, facendo riferimento alla omogenetà di movimento di una porzione litosferica in cui è il campo di stress globale, vincolato dai limiti di placca e dalle condizioni del mantello subplacca, a determinare la localizzazione delle condizioni meccaniche per la formazione di filoni, catene vulcaniche e nuovi margini di placca attraverso flussi magmatici provenienti dal mantello sottostante che già si trova prossimo al punto di fusione. In tale visione perdono importanza le controversie associate a concetti quali la posizione invariante del vulcanismo intraplacca (del tipo della catena Hawaii-Emper;or), a lungo caposaldo dei modelli convenzionali, e il comportamento meccanico unitario delle placche rispetto alla tipologia delle forze che ne determinano la cinematica. Le placche litosferiche sono in ultima analisi aggregati di rocce mantenuti insieme da forze gravitazionali e compressioni laterali (Anderson 2002).

Implementazione del modello attraverso vincoli interdisciplinari

Nel progresso della conoscenza dei fenomeni e delle dinamiche che governano l’interno del nostro pianeta, non c’è alternativa al metodo di vincolare, attraverso dati e ricerche interdisciplinari, i modelli che li descrivono. Questa impostazione consente di ottenere risultati più realistici da un punto di vista sia fisico sia geologico. Per es., l’introduzione di vincoli fisici di carattere termodinamico durante il processo d’inversione sismica consente di ridurre le incertezze circa il peso dei contributi delle variazioni termiche e composizionali sulle anomalie geofisiche di interesse tomografico nel mantello superiore prossimo alla litosfera. La frontiera di una descrizione termica del mantello superiore fisicamente plausibile si può restringere utilizzando misure sperimentali del flusso termico superficiale e circoscrivere teoricamente in base a struttura ed evoluzione termiche del mantello ricavate applicando le equazioni di conservazione dell’energia parametrizzate con i risultati della petrologia sperimentale (Shapiro, Ritzwoller 2004). Il campo dei potenziali modelli termici che ne consegue, attraverso opportune equazioni di stato in cui intervengono coefficienti e quantità definite sperimentalmente in laboratorio, si converte in un complesso di modelli sismici (velocità) in cui identificare l’insieme statistico ridotto che guida l’inversione verso un modello termico definitivo e accettabile (fig. 1).

Le misure di flusso termico superficiale del calore interno terrestre (in media 60 mW/m2), che coprono peraltro soltanto il 40% circa delle aree continentali, integrate dai dati relativi alle curve di equilibrio P,T dei minerali delle xenoliti (frammenti di roccia che provengono dal mantello superiore inclusi in vulcaniti) e ai profili di conducibilità elettrica, permettono di ricostruire un modello termico della litosfera continentale in grado di rilevare eterogeneità correlabili con altri parametri geologici e geofisici: ne è conferma la proporzionalità diretta tra età geologica e spessore termico litosferico (definito dalla profondità di intersezione della geoterma locale con la curva adiabatica del mantello a 1300 °C), oppure la mappa dell’isoterma 550 °C, che costituisce un indicatore degli spessori della crosta magnetizzata e dello strato meccanicamente rigido della litosfera con età superiore a 200 milioni di anni e con reologia del mantello caratterizzata dalla prevalenza dell’olivina (fig. 2). Queste ultime considerazioni assumono importanza di rilievo rispetto agli studi sull’evoluzione e sul tasso di crescita della litosfera (Artemieva 2006).

Tomografia da neutrini

Un significativo contributo alla definizione di un modello termico complessivo della Terra è atteso dai risultati di questa nuova metodologia sperimentale. Gli apparati realizzati nei laboratori di ricerca di fisica nucleare e subnucleare, per es. quelli a scintillatore liquido dei Laboratori nazionali del Gran Sasso (Borexino) in Italia e di Kamioka (KamLAND, KAMioka Liquid-scintillator Anti-Neutrino Detector) in Giappone, consentono di rilevare neutrini. Queste particelle elementari, di varia provenienza ed energia, sono caratterizzate da piccole sezioni d’urto di reazione e possono quindi agevolmente attraversare, in senso statistico, tutto il pianeta. Per favorirne la rilevazione, ovvero aumentare la probabilità di un evento a loro carico consistente in una reazione nucleare, i rilevatori sono costituiti da una massa notevole di materia, liquida o solida secondo le energie delle particelle da individuare, schermata in cavità sotterranee. I neutrini sono prodotti in quantità ed energie rilevabili attraverso processi nucleari di differente natura: nel Sole, nelle esplosioni di supernovae, per interazione dei raggi cosmici con l’atmosfera terrestre, nei reattori nucleari per produzione di energia, nell’interno terrestre. In quest’ultimo caso, il flusso neutrinico, costituito da antineutrini denominati geoneutrini, è causato dai decadimenti β del 40K e delle catene radioattive di 238U e 232Th. Poiché alle reazioni nucleari coinvolte in tali decadimenti si attribuisce la produzione della quantità sostanziale del calore radiogenico terrestre, lo studio delle caratteristiche del flusso di geoneutrini permetterà di approfondire la conoscenza sia della distribuzione sia della tipologia (rapporto tra calore radiogenico e calore primordiale di aggregazione) dell’energia termica nel pianeta, di ridurre il campo delle ipotesi sull’ordine di grandezza dei tempi di formazione e di differenziazione della Terra, di specificare, infine, le condizioni fisiche iniziali e al contorno per i modelli dei sistemi dinamici convettivi nel mantello e nel nucleo.

Le applicazioni basate su flussi di neutrini provenienti da altre sorgenti permetteranno inoltre di ottenere informazioni supplementari sulla struttura interna della Terra. Le caratteristiche della distribuzione della massa nel pianeta condizionano la propagazione dei neutrini in due modi: per assorbimento e per variazione dell’oscillazione neutrinica. Nel primo caso si ricavano informazioni tomografiche dalla diminuzione del flusso dei neutrini che attraversano la Terra per intero o sue porzioni, in particolare dei neutrini ad alta energia (>1 TeV) caratterizzati da una maggiore e favorevole sezione d’urto. Nel secondo caso, in cui il campo ottimale di energie è compreso tra 100 MeV e 35 GeV, si sfruttano gli esiti dell’effetto di materia (o effetto MSW, Mikheyev-Smirnov-Wolfenstein), per il quale l’oscillazione di neutrino, un fenomeno quantomeccanico, è modificata dalla densità elettronica della materia (Winter 2006).

Implicazioni dallo studio del campo magnetico

Alcune caratteristiche del campo magnetico terrestre sono sperimentalmente note attraverso misurazioni effettuate sia direttamente in aria libera sulla superficie della Terra sia su minerali che ne abbiano registrato un’impronta magnetica al momento della loro costituzione in roccia: quello terrestre è un debole campo sostanzialmente dipolare (induzione dell’ordine di 5×105 T) con momento magnetico quasi parallelo all’asse di rotazione, originato per la quasi totalità nel nucleo terrestre; la sua intensità diminuisce attualmente del 5% circa al secolo, è sottoposto a una deriva occidentale che coinvolge maggiormente la parte relativa a termini di ordine superiore rispetto al dipolo e nella scala geologica del tempo inverte frequentemente la sua polarità. Il complesso dei fenomeni localizzato nel nucleo esterno fluido terrestre che dà luogo e mantiene un simile campo è denominato geodinamo. Si ritiene sia realizzato da un flusso di leghe ferrose allo stato liquido, generato da forze idrostatiche e influenzato dalla rotazione del pianeta, che produce grandi correnti elettriche capaci di indurre il campo magnetico e compensarne il naturale decadimento. Lo studio della geodinamo, da cui provengono nozioni fondamentali su struttura, dinamica ed evoluzione del pianeta, è un caso esemplare di sintesi multisciplinare in cui intervengono simulazione e calcolo numerici, ricerca teorica e analisi sperimentale. Esso progredisce mediante lo sviluppo di modelli basati su un’impostazione magnetofluidodinamica che prevede soluzioni numeriche di equazioni differenziali non lineari. Tali soluzioni descrivono l’evoluzione 3D sia delle variabili termodinamiche e della velocità del fluido nel nucleo esterno sia del campo magnetico prodotto. Un modello si ritiene soddisfacente quando genera un campo magnetico superficiale simile a quello misurato in termini di struttura, intensità e dipendenza dal tempo. Dovendo corrispondere ai dati sperimentali nel loro complesso, i modelli di geodinamo sono vincolati alla coerenza anche con le risultanze di misurazioni sismiche e geodetiche (variazione della lunghezza del giorno, campo gravitazionale).

I modelli più avanzati comportano equazioni che descrivono la dinamica della materia fluida nel nucleo esterno e la generazione del campo magnetico: l’equazione della conservazione di massa, utilizzata superando i limiti dell’approssimazione di Boussinesq, ovvero in forma anelastica che considera la variazione della densità con la profondità; l’equazione di stato, che esprime la relazione tra variazioni di pressione e temperatura e perturbazioni di densità utilizzate per calcolare le spinte idrostatiche che governano la convezione; l’equazione di conservazione dei momenti, attraverso cui determinare le variazioni di velocità del fluido nucleare nel tempo rispetto alla spinta idrostatica, al gradiente di pressione e alle forze viscosa, di Coriolis (rotazionali) e di Lorentz (magnetiche); le equazioni della magnetofluidodinamica (equazioni di Maxwell e legge di Ohm), per considerare la variazione locale del campo magnetico nel tempo causata dal flusso del fluido, per induzione, e dalla conducibilità finita della materia, per diffusività; la seconda legge della termodinamica, per calcolare il tasso locale di variazione di entropia (o di temperatura) rispetto alla diffusione termica e alle dissipazioni viscosa e di Joule; eventualmente, equazioni per contemplare gli effetti delle variazioni di composizione chimica e del potenziale gravitazionale sulle spinte idrostatiche. Questo complesso insieme di equazioni differenziali non lineari, rispetto a condizioni al contorno definite dai flussi di calore ai limiti inferiore e superiore del nucleo esterno (ICB, Inner Core Boundary, e CMB, rispettivamente), è risolto in modo numerico attraverso metodi spettrali e con l’impiego di architetture di elaborazione costituite da computer massivamente paralleli. Secondo le simulazioni, la termoconvezione del fluido nucleare, alimentata da un flusso termico dell’ordine di quello previsto per il tasso di raffreddamento locale, può riprodurre il campo geomagnetico nelle sue caratteristiche essenziali (Glatzmaier, Ogden, Clune 2004). Nel nucleo esterno fluido, dove il campo si genera, le linee di forza sono attorcigliate e deformate dal flusso; oltre il nucleo prevale la componente dipolare (fig. 3 A). Il nucleo interno è in prevalenza considerato elettricamente conduttore, e in rotazione differenziata e più veloce rispetto a mantello e crosta; i dati sismici confermano quest’ipotesi di precessione verso est di circa 1° all’anno. Nei modelli di geodinamo, tale tasso di superrotazione dipende in particolare dalla viscosità attribuita al livello superficiale del nucleo interno, ancora poco vincolata a risultanze sperimentali di altro tipo. Altre incertezze provengono dalla definizione del ruolo inibente del momento gravitazionale indotto dal mantello. Le simulazioni prevedono inoltre inversioni del campo magnetico (fig. 3 B) non periodiche che si completano in poche migliaia di anni, in cui il nucleo interno di conducibilità elettrica finita ha un effetto stabilizzante. Considerando una superficie a simmetria pseudosferica nell’interno terrestre, per es. la CMB, l’inizio dell’inversione si visualizza con macchie a polarità magnetica invertita in entrambi gli emisferi. Se si assume il sistema dei flussi di materia nel nucleo esterno altamente caotico e non lineare, piccoli cambiamenti nella struttura locale di flusso ricorrono frequentemente generando anomalie magnetiche locali inverse rispetto al campo dominante. La permanenza e l’invigorimento di tali perturbazioni di flusso possono alimentare l’inversione fino al suo compimento globale. La registrazione paleomagnetica di inversioni durate soltanto all’incirca 10.000 anni (eventi) dimostra tuttavia che il processo di amplificazione delle inversioni locali può interrompersi a favore del completo ristabilirsi della precedente polarità (il decadimento di una polarità dal nucleo interno non si compie in intervalli di tempo inferiori a 2000 anni).

I modelli di geodinamo proposti, che si differenziano nei risultati per aver compiuto scelte diverse nei parametri fisici assunti in via preliminare, sperimentano un confine comune indotto dai limiti della potenza di calcolo. Tutte le simulazioni producono una convezione laminare della materia alla scala del nucleo esterno e non prevedono gli effetti di possibili turbolenze a scala inferiore. Questo vincolo nasce dalla necessità di attribuire grandi valori ai coefficienti di diffusione utilizzati nella modellistica. I coefficienti di diffusione (diffusività) indicano l’attitudine di un dato corpo a trasmettere energia; quale che sia la forma di energia a cui si riferiscono, diffusività termica, magnetica, composizionale e viscosità cinematica (impropriamente, diffusività viscosa), sono caratterizzati dalla stessa dimensione fisica (m2/s). Nel caso specifico, assumendo i parametri di scala del raggio e della velocità di rotazione del nucleo terrestre, per la risoluzione spaziale coinvolta non è possibile, nei limiti della potenza di calcolo accessibile, assegnare alla viscosità cinematica valori inferiori a termini che sono tre o quattro ordini di grandezza più grandi del valore previsto per il flusso turbolento (∼2 m2/s). Ne conseguono implicazioni nella scelta dei valori assunti per gli altri coefficienti di diffusione che comportano alternative comunque non pienamente soddisfacenti. In questa prospettiva, si attendono progressi dallo sviluppo di computer in parallelo più veloci e dal miglioramento dei metodi di calcolo.

Vincoli da mineralogia sperimentale e geochimica

Le applicazioni della petrologia sperimentale forniscono potenti vincoli agli studi geofisici dell’interno terrestre. Le innovazioni tecnologiche che hanno caratterizzato gli sviluppi recenti di questa disciplina consentono di condurre esperimenti di laboratorio in condizioni estreme di P e T, fino a riprodurre pressioni anche superiori di quelle del centro della Terra (>350 GPa). I dispositivi utilizzati, differenziati in base alle finalità sperimentali, permettono di effettuare esperimenti di tipo dinamico e statico. Nel primo caso, le proprietà meccaniche di un campione minerale, mantenuto in condizioni di P, T prestabilite, sono misurate all’atto di una sollecitazione (un’onda d’urto). Nel secondo caso, vengono analizzate reazioni fisico-chimiche e deformazioni strutturali che interessano il campione al variare di pressione e temperatura.

La cella a incudini di diamante (DAC, Diamond Anvil Cell) è in questo campo uno degli strumenti più avanzati. Attraverso dispositivi meccanici, pneumatici o idraulici essa consente di sottoporre a enormi pressioni (anche di 550 GPa) piccoli campioni (con superfici dell’ordine del mm2) e di portarli a temperature elevate (>1200 K) utilizzando laser di potenza. Per la caratteristica di essere trasparente alla gran parte delle radiazioni elettromagnetiche, il dispositivo DAC consente di applicare diverse tecniche di indagine spettroscopiche e diffrattometriche. L’orizzonte di tale metodologia è ulteriormente ampliato dai recenti impieghi della radiazione di sincrotrone nella banda dei raggi X e dell’interferometria a ultrasuoni di alta frequenza (GHz), di notevole interesse per lo studio delle trasformazioni di fase e delle reazioni chimiche che riguardano silicati, ossidi e metalli nelle condizioni del mantello e del nucleo terrestri.

Lo studio delle deformazioni strutturali dei reticoli cristallini condotto mediante la cella a incudini di diamante permette di integrare le ricerche geodinamiche sul mantello, fornendo in questo ambito termini di riferimento ai modelli di convezione numerici e di viscoplasticità dei materiali policristallini. Ne sono un esempio le simulazioni del contributo fornito dal minerale pPv, attraverso deformazione LPO, alle anisotropie tipiche della regione D″ (Merkel, McNamara, Kubo et al. 2007).

Le ricerche sull’interno della Terra hanno trovato un’ulteriore potente e fertile prospettiva di sviluppo nell’integrazione tra osservazioni geofisiche e geologiche e risultati dell’indagine geochimica. Lo studio della geochimica del mantello terrestre, effettuato in particolare attraverso la misurazione in laboratorio delle abbondanze e delle composizioni isotopiche degli elementi litofili in traccia e dei gas nobili presenti nei basalti oceanici, ha costituito uno strumento talmente efficace da consentire lo sviluppo e l’affermazione di modelli di questa parte della Terra sostanzialmente fondati su caratterizzazioni geochimiche. In tali modelli il concetto fondamentale è quello di reservoir, ossia di un serbatoio, geochimicamente omogeneo, di materia minerale da cui si originano i fusi basaltici che dal mantello raggiungono la superficie terrestre per depressurizzazione. Il reservoir di riferimento, da cui provengono i basalti eruttati in maggiori quantità nelle dorsali medio-oceaniche, i cosiddetti N-MORB (Normal-Middle Oceanic Ridge Basalts), è il DMM (Deplet;ed Morb Mantle), una regione del mantello superiore omogeneizzata e degassata su larga scala (migliaia di chilometri in orizzontale). Rispetto al DMM, per interpretare geodinamicamente la diversa connotazione geochimica dei basalti di altri ambienti tettonici, sono stati chiamati in causa differenti reservoirs: per es., EM (Enriched Mantle), un mantello arricchito contaminato da sedimenti condotti in subduzione dalle placche litosferiche, caratterizzato in ulteriori due categorie secondo la provenienza di tali sedimenti (rispettivamente EM1 e EM2, se pelagici o terrigeni); HIMU (High μ), un mantello ad alto rapporto 238U/204Pb, contaminato da crosta oceanica. Questa tipologia di modelli comporta aspetti non risolti rispetto al loro inquadramento geodinamico. È infatti problematico sistematizzare in modo onnicomprensivo zone geochimicamente isolate, di dimensioni e collocazione in profondità varie, negli intervalli di tempo e per la scala spaziale caratteristici dei moti di convezione ipotizzati per il mantello.

Un chiaro esempio di tale distonia è fornito dall’interpretazione classica dell’origine del vulcanismo dei basalti OIB (Oceanic Island Basalts). Tali rocce sono eruttate in ambienti tettonici tipicamente lontani dai margini di placca (per es., nelle isole Hawaii della placca pacifica) e sono interpretate come il prodotto di plumes provenienti da regioni del mantello molto profonde, in alcune ipotesi al limite del CMB. La geometria di questi complessi vulcanici, spesso disposti in allineamenti di centri effusivi, e la loro cinematica, indicata in vari casi da una progressione cronologica monotona dell’attività eruttiva associabile al movimento di placca, hanno suggerito la struttura dei relativi flussi di materia per l’alimentazione magmatica: a modo di canale di adduzione stretto e fisso nel tempo, con origine profonda confermata dalla tipologia geochimica non depleta delle rocce basaltiche (espressa dal contenuto in elementi incompatibili ad alto rag;gio ionico e dai rapporti isotopici di Sr, Nd, Pb e He). Il successo di tale modello, detto in modo evocativo hot spot, ne fa tuttora un termine di riferimento per teorie più avanzate (v. oltre Verso nuovi modelli). Tuttavia, di tali presunte radici nel mantello inferiore non si trova traccia inequivocabile nelle immagini da tomografia sismica, né ubiquitaria risultanza nel calcolo dei flussi di materia (buoyancy flux) da associare ai corrispondenti rigonfiamenti topografici. Soprattutto, per ciò che riguarda gli esiti delle analisi geochimiche, non è un percorso obbligato attribuire a reservoirs differenziati e isolati l’origine delle diverse caratteristiche chimiche e isotopiche delle rocce.

Un’interessante alternativa attiene alla fattispecie del trattamento statistico dei dati sperimentali. In particolare, riconsiderare i valori dei rapporti isotopici significativi per la classificazione dei basalti oceanici alla luce di un concetto basilare della statistica, quello di variabile casuale nel teorema del limite centrale, conduce a una sintesi geodinamica che riduce il numero delle assunzioni non confermabili. In questa interpretazione (SUMA, Statistical Upper Mantle Assemblage), il complesso processo che si compie nella formazione della roccia basaltica (generazione, migrazione e mescolamento, messa in posto del magma) è considerato alla stregua di un atto di campionamento dal mantello. Se dal punto di vista statistico il mantello superiore costituisce una distribuzione eterogenea di valori, le funzioni di distribuzione dei rapporti isotopici dei basalti oceanici da esso derivati attraverso il contributo di vari componenti tendono ad approssimare, secondo i dettami del teorema del limite centrale, una distribuzione normale. La deviazione standard di tale distribuzione rappresenta il livello in cui la distribuzione eterogenea originaria propria del mantello risulta mediata nei basalti. Tre fattori condizionano questo parametro: il grado di fusione parziale nella generazione del magma; l’ampiezza della distribuzione primaria di eterogeneità geochimica; la scala del processo di fusione. In generale, più sono grandi i volumi di magma ‘campionato’ (ossia generato), minori risultano le dispersioni statistiche nelle popolazioni delle composizioni. Tale aspetto ha implicazioni rilevanti nella fase d’interpretazione dei dati, in quanto per volumi di piccole dimensioni, relativamente a quelle del sistema sorgente, le code nelle distribuzioni isotopiche, considerate altrimenti indicatori di mantello anomalo (reservoirs arricchiti o comunque fertili), rappresentano semplicemente fluttuazioni statistiche (Meibom, Anderson 2003). Questo concetto si può applicare anche alla valutazione delle variazioni del rapporto isotopico dell’elio, il cui alto valore (3He/4He≳12 Ra, dove Ra è il valore atmosferico) è ordinariamente assunto come indicatore della provenienza da una sorgente primitiva (molto profonda e non degassata). Nel modello SUMA non è necessario ricorrere indiscriminatamente al concetto di reservoir per attribuire una distinzione genetica a basalti che appaiono geochimicamente caratterizzati in modo diverso. Esso è coerente con eterogeneità chimiche e litologiche di scala diversa, introdotte da processi tettonici di placca e di riciclaggio di materiali litosferici e non, che non sono rimosse efficacemente da una convezione probabilmente molto lenta e passiva in cui il mantello superiore è molto lontano dall’essere ben mescolato, caotico o turbolento. Tale quadro, in cui eterogeneità alla scala delle decine di chilometri (mantle wedge, slabs, camere magmatiche, zone di fusione sotto ridges e vulcani) sono sovrimposte ad altre di scala maggiore (dalle centinaia alle migliaia di chilometri nelle dimensioni di continenti, margini divergenti in formazione, margini convergenti tra placche oceaniche, ossia archi vulcanici insulari ecc.), è concordante e complementare con quello dinamico di Anderson richiamato precedentemente.

Verso nuovi modelli

Le osservazioni sulla conoscenza dell’interno della Terra che sono state qui sinteticamente richiamate prospettano una critica di carattere metodologico. Nella valutazione dei dati sperimentali, al di là del significato specifico delle grandezze misurabili, alcune interpretazioni hanno assunto valore maggiore in quanto funzionali alla conferma del modello di riferimento consolidato. Tuttavia, l’aumento delle qualità e quantità dei dati sulla dinamica dell’interno della Terra ha provocato un tale incremento di discordanze con la teoria classica della tettonica delle placche da favorirne quantomeno un radicale sviluppo. La condizione di incongruenza che ne deriva richiede e stimola la sintesi di nuovi modelli. Risponde a questa esigenza, per es., il concetto di pila termochimica, formulato nel dare significato alle due grandi zone del mantello inferiore ad anomalia negativa sismica di velocità (LLSVP, Large Low Shear Velocity Provinces), che consente di sviluppare un modello dinamico del mantello a convezione non isochimica. Le LLSVP, collocate in configurazione antipodale approssimativamente in corrispondenza dell’Oceano Pacifico e dell’Africa meridionale, costituirebbero zone chimicamente distinte (a densità superiore con contrasto minimo, ∼2-5%, rispetto alle altre contigue, oltre che a temperatura maggiore). Esse rappresenterebbero una sorta di buffer idrostatico (a causa degli opposti effetti di spinta termico e di composizione) per azione del quale le forze orizzontali associate risulterebbero minime rispetto al caso della convezione isochimica. Le LLSVP, caratterizzate da tempi geologici di permanenza molto lunghi, sarebbero inoltre dinamicamente alimentate dalle regioni più fredde del mantello profondo, ossia le porzioni del livello D″ in corrispondenza del flusso di materia in affondamento associabile ai processi di subduzione (fig. 4). Come confermano gli studi sperimentali di minerofisica, le transizioni di fase e i cambiamenti di stato riconosciuti sismicamente nello strato D″ sono compatibili con una sua composizione caratterizzata da pPv. Dal punto di vista geodinamico, questa impostazione comporta una struttura dell’interno della Terra governata da quella che si può definire tettonica delle placche a convezione ibrida (fig. 5 A): le LLSVP svolgono il ruolo di megaplumes primari, alla sommità dei quali ne sono indotti di secondari nel mantello superiore (al di sopra della superficie di discontinuità sismica alla profondità di 660 km) che alimentano hot spot e margini divergenti in formazione; il movimento delle placche litosferiche è controllato da correnti convettive locali non configurate in celle chiuse, anch’esse in relazione con la sommità dei due megaplumes primari; lo scambio di materia tra mantello superiore e inferiore può avvenire attraverso il processo definito post-subduction slabs avalanches, secondo cui materiale freddo litosferico da subduzione (slab) accumulatosi in prossimità della transizione a 660 km affonda episodicamente verso lo strato D″. Seppure in grado di interpretare alcune delle incongruenze precedentemente richiamate, quello appena descritto rimane un modello concettuale. Si attendono ulteriori approfondimenti e conferme delle caratteristiche delle LLSVP che, per es., potrebbero venire attraverso studi di dettaglio sulle nutazioni con conseguente migliore conoscenza della struttura del mantello inferiore e della topografia del CMB (Garnero, McNamara 2008).

Paradossalmente, gli intenti di semplificazione improntati alla definizione di modelli il meno possibile condizionati da assunzioni non falsificabili possono aprire il campo a teorie che comportano un alto livello di complessità. In questi termini è esemplare il caso della teoria della Terra in espansione, oggi minoritaria e quasi completamente dimenticata nel corso degli ultimi ottant’anni. Tuttavia, la tettonica della Terra in espansione (fig. 5 B), in cui la dinamica dell’interno terrestre è conseguente a un processo di aumento di volume del pianeta nel tempo geologico (con tasso di espansione variabile), contempla organicamente una serie di aspetti controversi nella tettonica delle placche: la presenza di radici nel mantello superiore sotto gli scudi cratonici precambriani e la discontinuità della LVZ (Low Velocity Zone), ossia l’astenosfera con i suoi spessori variabili; le cause e la modalità di penetrazione e di risalita dei plumes nel mantello; l’esistenza delle discontinuità sismiche relative a cambiamenti di carattere fisico e chimico della materia; la presenza di anomalie di densità e di temperatura nello strato D″; e altri ancora. Inoltre la teoria della Terra in espansione, che per quanto riguarda gli effetti della stabilizzazione gravitativa della materia nel mantello presenta affinità con il modello di Anderson, non risulta inequivocabilmente in contraddizione con le più recenti misurazioni geodetiche: aumento della durata della lunghezza del giorno (LOD, Length Of Day), spostamento dei poli di rotazione (TPW, True Polar Wander) e telerilevamento VLBI (Very Long Baseline Interferometry) e SLR (Satellite Laser Ranging) delle dimensioni della Terra.

Richiamato l’ambito del confronto con la tettonica delle placche, si deve sottolineare che la teoria della Terra in espansione trova il terreno più fertile di speculazione scientifica nella problematica forse di maggiore complessità concettuale. Le ricerca delle cause dell’eventuale espansione planetaria comporta infatti il ricorso a temi di intenso dibattito nella cosmologia e nella fisica della materia moderne. Le ipotesi a ri;guardo possono essere comprese in due categorie, definite rispettivamente e secondo tradizione cosmogonica e cosmologica. Nella prima rientrano processi di progressiva transizione da fasi più dense a meno dense, a bilancio complessivo di massa costante: tale impostazione prevede un nucleo più interno superdenso in diminuzione di volume durante l’alimentazione delle parti più esterne planetarie in crescita e incorpora problematiche quali la variazione nel tempo della posizione delle discontinuità fisico-chimiche nel globo e il ruolo potenziale nelle transizioni di fase dell’idrogeno, la cui presenza in lega con il ferro è stata teoricamente e sperimentalmente confermata alle pressioni tipiche del nucleo (Isaev, Skorodumova, Ahuja et al. 2007). Nella seconda ipotesi, quella cosmologica, i processi coinvolti chiamano in causa fenomeni associati alla materia oscura non barionica (WIMPS, Weakly Interacting Massive Particles). In questo caso, contrariamente all’ipotesi cosmogonica, l’espansione planetaria sarebbe incessante attraverso continua generazione di materia da regioni interne profonde della Terra, non necessariamente costituite da ferro (Why expanding Earth?, 2003). Il quadro prevede per la Terra, e generalizzando per i corpi celesti, una sorta di ruolo catalizzatore di materia ordinaria che, in una impostazione classica, equivale a uno spazio dinamico (un campo gravitazionale a comportamento idrodinamico secondo Riemann) e in chiave cosmologica attuale potrebbe essere in relazione con il concetto di energia del vuoto (quintessenza). Allo stato attuale delle conoscenze, tale dinamica è puramente congetturale anche se, oltre a corrispondere ai dati geodinamici e geofisici disponibili, offre una prospettiva per risolvere l’anomalia della velocità delle code delle galassie a spirale, in violazione del teorema del viriale rispetto alla massa della materia visibile.

In attesa di ulteriori sviluppi sperimentali, di calcolo e teorici a conferma o meno dei modelli dell’interno della Terra presentati, occorre sottolineare il clima di fervore con cui sono attesi progressi sostanziali verso un nuovo paradigma che potrebbe essere anche rivoluzionario rispetto al precedente. Sia gli aspetti metodologici sia l’ampiezza e l’ordine dei temi scientifici che lo investono fanno di questo campo di ricerca un luogo primario di confronto epistemologico.

Bibliografia

D.L. Anderson, Occam’s razor. Simplicity, complexity, and global geodynamics, «Proceedings of the American philosophical society», 2002, 146, 1, pp. 56-76.

C. Denis, A.A. Schreider, P. Varga, J. Zavoti, Despinning of the Earth rotation in the geological past and geomagnetic paleointensities, «Journal of geodynamics», 2002, 34, 5, pp. 667-85.

F. Dubuffet, D.A. Yuen, E.S.G. Rainey, Controlling thermal chaos in the mantle by positive feedback from radiative thermal conductivity, «Nonlinear processes in geophysics», 2002, 9, 3/4, pp. 311-23.

S. Rost, Ch. Thomas, Array seismology. Methods and applications, «Reviews of geophysics», 2002, 40, 3, pp. 2-27.

A. Meibom, D.L. Anderson, The statistical upper mantle assemblage, «Earth and planetary science letters», 2003, 217, pp. 123-39.

Why expanding Earth?, a cura di G. Scalera, K.-H. Jacob, Roma-Berlin 2003.

S. Cwojdziński, Mantle plumes and dynamics of the Earth interior, towards a new model, «Geological review», 2004, 52, 8/2, pp. 817-26.

G.A. Glatzmaier, D.E. Ogden, Th.L. Clune, Modeling the Earth’s dynamo, in The state of the planet, ed. R.S.J. Sparks, C.J. Hawkesworth, Washington D.C. 2004, pp. 13-24.

N.M. Shapiro, M.H. Ritzwoller, Thermodynamic constraints on seismic inversions, «Geophysical journal international», 2004, 157, 3, pp. 1175-88.

J. Trampert, F. Deschamps, J. Resovsky, D. Yuen, Probabilistic tomography maps chemical heterogeneities throughout the lower mantle, «Science», 2004, 306, 5697, pp. 853-56.

I.M. Artemieva, Global 1°×1° thermal model TC1 for the continental lithosphere. Implications for lithosphere secular evolution, «Tectonophysics», 2006, 416, 1-4, pp. 245-77.

B. Scoppola, D. Boccaletti, M. Bevis et al., The westward drift of the lithosphere. A rotational drag?, «The geological society of America bulletin», 2006, 118, 1-2, pp. 199-209.

W. Winter, Neutrino tomography. Learning about the Earth’s interior using the propagation of neutrinos, «Earth, Moon, and planets», 2006, 99, 1-4, pp. 285-307.

A.B. Belonoshko, N.V. Skorodumova, S. Davis et al., Origin of the low rigidity of the Earth’s inner core, «Science», 2007, 316, 5831, pp. 1603-05.

E.I. Isaev, N.V. Skorodumova, R. Ahuja et al., Dynamical stability of Fe-H in the Earth’s mantle and core regions, «PNAS. Proceedings of the National academy of sciences of the USA», 2007, 104, 22, pp. 9168-71.

T. Kito, S. Rost, Ch. Thomas, E.J. Garnero, New insights into the P- and S-wave velocity structure of the D″ discontinuity beneath the Cocos plate, «Geophysical journal international», 2007, 169, 2, pp. 631-45.

S. Merkel, A.K. McNamara, A. Kubo et al., Deformation of (Mg,Fe)SiO3 post-perovskite and D″ anisotropy, «Science», 2007, 316, 5832, 2, pp. 1729-32.

A.B. Belonoshko, N.V. Skorodumova, A. Rosengren, B. Johansson, Elastic anisotropy of Earth’s inner core, «Science», 2008, 319, 5864, pp. 797-800.

J.C. Crowhurst, J.M. Brown, A.F. Goncharov, S.D. Jacobsen, Elasticity of (Mg,Fe)O through the spin transition of iron in the lower mantle, «Science», 2008, 319, 5862, p. 451-53.

E.J. Garnero, A.K. McNamara, Structure and dynamics of Earth’s lower mantle, «Science», 2008, 320, 5876, pp. 626-28.