MENTE

Enciclopedia Italiana - V Appendice (1993)

MENTE

Antonio Rainone
Massimo Stanzione

Premessa.- Collocata com'è al punto d'incontro tra speculazione gnoseologica, metafisica, etica e teologica, nel corso del pensiero occidentale la m. e le funzioni a essa attribuite sono state considerate come l'elemento differenziante dell'uomo rispetto agli animali. Se il pensiero antico e medievale davano per scontata l'esistenza di un'''anima'' come principio della vita psichica interiore e spesso in rapporto con una realtà divina, è comunque soltanto in epoca moderna che la m. − intesa soprattutto come attività intellettiva, coscienza e volontà − comincia a differenziarsi dall'anima e a rappresentare un problema per la riflessione filosofica, ponendosi a questa il compito di determinare la natura del rapporto della m. con una sostanza, come il corpo, rispetto a essa così eterogenea.

La soluzione dualistica, secondo cui esistono due sostanze tra loro eterogenee e interagenti, che per secoli era stata considerata pressoché ovvia, mostra i primi segni di cedimento proprio nell'opera di Cartesio, cioè il filosofo al quale si fa tradizionalmente risalire la specifica problematica del rapporto tra la m. e il corpo. Il dualismo cartesiano, separando in modo radicale la sostanza estesa e non pensante (res extensa) da quella pensante e non estesa (res cogitans), aveva infatti risolto in modo controverso il problema del rapporto tra le due sostanze, in particolare quello della cosiddetta ''causazione mentale'' dei movimenti corporei. L'occasionalismo di Malebranche e l'armonia prestabilita di Leibniz furono i principali tentativi di risolvere il problema cartesiano del rapporto tra le due sostanze eterogenee all'interno di una prospettiva dualistica; ma già Spinoza si scostava da questa prospettiva quando considerava il dualismo m.-corpo null'altro che una distinzione tra due attributi coincidenti in un'unica realtà, la ''sostanza'' o ''natura'' o ''Dio''.

Benché una soluzione radicalmente materialistica fosse già stata proposta da Th. Hobbes, fu soprattutto nel Settecento che si sarebbero incrinate le concezioni dualistiche del rapporto tra fisico e psichico: La Mettrie, Holbach e Diderot − il cui materialismo non è tuttavia riducibile a una tesi univoca − avevano in vario modo sostenuto la determinazione degli stati psichici da parte di quelli fisiologici; e successivamente Cabanis, forse l'estremo assertore di una psicologia fisiologica, nei Rapports du physique et du moral de l'homme (1802) avrebbe parlato del cervello come organo della "secrezione del pensiero".

Se si fa eccezione per le varie forme di monismo idealistico e spiritualistico, nell'Ottocento il rapporto tra fisico e psichico viene risolto generalmente in termini materialistici dal positivismo e dall'evoluzionismo; ma soprattutto esso diventa parte dell'indagine scientifica: è in questo secolo che nascono, per es., la psicologia sperimentale e la psicofisiologia. Nell'ambito della ricerca psicologica, particolare rilievo assume il parallelismo psicofisico di G. Th. Fechner e W. Wundt, un'ipotesi che, postulando una sorta di armonia prestabilita priva delle implicazioni teologico-metafisiche di Leibniz, ammette l'esistenza di una correlazione senza interazione tra processi fisiologici e processi psichici, l'interazione causale intervenendo soltanto tra eventi omogenei (da fisico a fisico e da psichico a psichico). A questo dualismo moderato fa riscontro una posizione più francamente materialistica (ma non necessariamente monistica), sostenuta per es. dall'evoluzionista Th. H. Huxley e dal matematico e psicologo W.K. Clifford, il cosiddetto epifenomenismo, per cui la coscienza e le attività mentali in genere sarebbero solo epifenomeni dei processi fisiologici e cerebrali, cioè loro prodotti secondari privi d'influenza causale su essi.

Nel secolo 19° sarebbero sorti anche i primi studi sul cervello e sulle attività cerebrali (F.J. Gall, P.-P. Broca), che otterranno nel 20°, con gli sviluppi della neurofisiologia e della neuropsicologia, i risultati più rilevanti. Sebbene ciò abbia posto in una nuova luce la problematica originariamente filosofica del rapporto tra la m. e il corpo, la riflessione filosofica novecentesca, spesso consapevole dei risultati delle indagini scientifiche, ha contribuito in misura estremamente significativa a tale problematica, dando luogo a un dibattito che per la sua vastità ha assunto le dimensioni di un autonomo ambito di riflessione, correntemente denominato ''filosofia della mente''. Tenendo conto della biforcazione a cui, a cavallo tra Ottocento e Novecento, è andato soggetto il problema del rapporto tra fisico e mentale, la presente voce si compone di una prima parte in cui se ne delineano le principali soluzioni filosofiche, e di una seconda in cui vengono tratteggiati i principali modelli della m. elaborati nelle neuroscienze.

Il problema mente-corpo e la filosofia della mente. − Nel Novecento, è soprattutto in area anglosassone che si è costituita una vera e propria ''filosofia della mente'', intesa come riflessione relativa tanto al rapporto tra stati mentali e stati corporei quanto al funzionamento dell'attività cognitiva e conativa, con particolare riguardo ai presupposti ontologici e metodologici della psicologia.

A proposito del termine mente, va qui ricordato che il corrispondente termine inglese mind comprende accezioni che nella terminologia filosofica italiana, e anche tedesca, sono espresse con termini come ''anima'', ''intelletto'', ''spirito'', spesso usati con significato sovrapposto. È pertanto opportuno precisare che quando si parla di m. s'intendono, in particolare, quelle caratteristiche umane (tradizionalmente indicate come ''facoltà'') denominate pensiero, sentimento e volontà.

Con lo sviluppo del neopositivismo e, più in generale, della filosofia analitica e della riflessione epistemologica a questa direttamente o indirettamente connessa, l'insieme delle problematiche inerenti al rapporto tra m. e corpo e all'operare dell'attività mentale sarebbe stato investito in modo completamente nuovo rispetto al passato. Per quanto variegate, le principali soluzioni filosofiche del problema m.-corpo (con l'eccezione di quella di K.R. Popper e J.C. Eccles) s'inscrivono in un orientamento generalmente monistico, con varie gradazioni che vanno da forme ''forti'' a forme ''deboli'' di materialismo.

Risalgono innanzitutto a E. Mach (19002) e B. Russell (1921) i primi rilevanti tentativi di definire la natura degli stati mentali in una prospettiva monistica. Il cosiddetto ''monismo neutrale'' da essi sostenuto è una dottrina fenomenistica che, riprendendo temi propri dell'empirismo radicale di D. Hume, mira a eliminare il dualismo tra fisico e psichico e a unificare l'ontologia mentale e quella corporea: le sensazioni di Mach e di Russell sono infatti entità neutrali dalle cui aggregazioni si costruirebbero sia i fatti fisici sia quelli psichici. Una concezione analoga sarebbe stata sostenuta anche entro il neopositivismo, almeno inizialmente, da R. Carnap (1928). Sulla base del principio di verificabilità − secondo cui un'asserzione è da ritenersi dotata di significato conoscitivo solo se empiricamente verificabile, almeno in linea di principio −, i neopositivisti avevano trasformato i tradizionali problemi gnoseologici ed epistemologici in problemi da risolvere mediante l'analisi del linguaggio. Sotto l'influenza di Mach e Russell e attraverso le analisi dei linguaggi delle varie scienze (compreso quello della psicologia), Carnap delineò una dottrina fenomenistica in base alla quale portare a compimento il programma di riduzione dell'intero discorso significante sulla realtà ad asserzioni vertenti su Erlebnisse, dati dell'esperienza vissuta. All'interno del movimento neopositivistico, il fallimento del programma fenomenistico doveva comunque far luogo al cosiddetto ''fisicalismo'', che, inaugurato da O. Neurath e dallo stesso Carnap con l'obiettivo di costruire un linguaggio unificato per le scienze, avrebbe arrecato importanti revisioni al riduzionismo empirico teorizzato nel Circolo di Vienna: secondo la nuova prospettiva le asserzioni vertenti sugli oggetti concreti del continuo spazio-temporale e non quelle sulle sensazioni sarebbero state l'obiettivo della riduzione empirica.

Relativamente alla problematica della m., l'approccio fisicalistico veniva ritenuto maggiormente in grado di salvaguardare dalle difficoltà del solipsismo (sollevate dall'originaria posizione fenomenistica) il programma di riduzione delle nozioni mentali: il requisito della verificabilità empirica intersoggettiva posseduto dal linguaggio della fisica, ma non da quello mentalistico (il linguaggio delle credenze, dei desideri, dei sentimenti, dei dolori, ecc.), veniva infatti esteso anche a quest'ultimo a condizione che ne fossero date traduzioni in termini di comportamento osservabile, tali da rendere significanti, cioè empiricamente e intersoggettivamente verificabili, le asserzioni sui fenomeni mentali. A Carnap si devono i primi tentativi (1932) di ricondurre tutti i termini e le asserzioni sugli stati mentali ad asserzioni relative al comportamento osservabile. Questo comportamentismo era una dottrina sul significato (empirico) dei termini mentali, distinta quindi dal comportamentismo metodologico di J.B. Watson o B.F. Skinner, e di solito chiamato ''comportamentismo logico'' o ''filosofico'': suo obiettivo non era quello di delineare un metodo psicologico per spiegare i fenomeni mentali sulla base del comportamento manifesto, ma di tradurre i termini mentalistici e le asserzioni su eventi e stati mentali in asserzioni semanticamente equivalenti sul comportamento. Il prerequisito per traduzioni di questo tipo era naturalmente costituito da un'adeguata definizione di sinonimia, stante la supposta identità di significato tra asserzioni su stati mentali e asserzioni sul comportamento osservabile (ma uno degli scogli contro cui avrebbe urtato il neopositivismo fu proprio la possibilità di fornire una tale definizione).

Tesi relativamente affini furono sostenute da G. Ryle, che doveva sferrare un vigoroso attacco a quelle che considerava le dottrine dello ''spettro nella macchina'', cioè le dottrine che, cartesianamente, assumono l'esistenza di uno spirito distinto dal corpo e che avrebbe poteri causali su esso (mediante volizioni, desideri, ecc.). La concezione di Ryle, espressione della filosofia oxoniense del linguaggio ordinario, comportava la necessità e la possibilità di tradurre nei termini di disposizioni al comportamento i termini e le asserzioni che fanno riferimento a stati ed eventi mentali, mostrando come questi ultimi non siano che indebite ipostasi del linguaggio.

In direzione analoga, negli anni Quaranta, si era mosso anche L. Wittgenstein, il cui orientamento, tuttavia, tanto Wittgenstein stesso quanto i suoi allievi hanno rifiutato di definire comportamentistico. Mediante l'accento sul linguaggio e sui suoi aspetti normativi, Wittgenstein intendeva compiere una ricognizione degli innumerevoli contesti entro cui si applicano i vari termini, privando di legittimità, su questa base, ogni forma di mentalismo: da questo punto di vista, infatti, i termini mentali sarebbero nient'altro che modi sintetici per descrivere ed esprimere, a fini comunicativi, fatti relativi a certi comportamenti; lungi dal rinviare a stati interni noti per introspezione e la cui conoscenza costituirebbe il requisito fondamentale per il loro uso, secondo Wittgenstein e il suo maggiore interprete, N. Malcolm, i termini mentali verrebbero appresi in contesti pubblici e il loro uso comporterebbe una competenza linguistica acquisita dalla partecipazione a una ''forma di vita'', a un contesto socio-culturale: la corretta applicazione di tali termini dipenderebbe quindi dalla capacità di associare un certo vocabolario a determinati comportamenti e situazioni, capacità appresa tramite l'educazione e l'addestramento linguistico. Può essere qui ricordato che il problema del rapporto tra presunti stati mentali (volizioni, intenzioni, motivazioni) e comportamento, di cui tanto Wittgenstein quanto Ryle, in conseguenza della loro prospettiva anti-sostanzialistica, avevano negato la natura causale, avrebbe acquisito rilevanza tale da costituirsi, sin dagli anni Cinquanta, come autonomo campo di ricerca entro la filosofia della m., dando vita a quell'insieme d'indagini che vanno sono il nome di action theory (e wittgensteiniani sono stati i filosofi che, come G.E.M. Anscombe, R.S. Peters, St.N. Hampshire, A.I. Melden, G.H. von Wright, soprattutto sulla base dei Blue and brown books di Wittgenstein, dovevano inaugurare tale tipo d'indagini).

Alle varie forme di comportamentismo logico è stato spesso obiettato di non riuscire a rendere conto in modo adeguato di tutti i fenomeni mentali: per fare degli esempi, non sembrano esservi asserzioni relative a un preciso e univoco comportamento il cui significato equivalga in modo non ambiguo all'avere sete, all'essere indignato o al credere che in una certa regione geografica stia nevicando. Data la molteplicità delle traduzioni possibili di una medesima asserzione su stati mentali, o, anche, l'impossibilità, in alcuni casi, di traduzioni del genere, la tesi generale dei comportamentisti logici, e cioè che ogni asserzione su eventi mentali equivalga in significato a un'asserzione sul comportamento, è apparsa alquanto discutibile. D'altra parte, restava problematico, in dottrine di questo tipo, anche il famoso problema dell'''intenzionalità'' degli stati mentali, originariamente messo in evidenza da F. Brentano, il quale con questo termine intendeva sottolineare una caratteristica essenziale dei fenomeni psichici che li differenzierebbe radicalmente da quelli fisici, ossia il loro essere ''diretti'', il loro essere ''a proposito'' di qualcosa, il loro avere un contenuto.

Benché i filosofi analitici, nel complesso, abbiano tentato una riduzione dell'intenzionalità al linguaggio, in particolare ad asserzioni del tipo ''crede che...'', ''desidera che...'', ''spera che...'', ecc., la chiarificazione logica di tali forme linguistiche (correntemente note come propositional attitudes, "atteggiamenti proposizionali", fortunata espressione coniata da Russell) doveva dimostrarsi altamente problematica; il sistematico venir meno in esse della legge di Leibniz della sostitutività dell'identità − vale a dire il loro sottrarsi alle analisi standard di tipo estensionale − ne avrebbe infatti rivelato la sostanziale eterogeneità rispetto alle asserzioni estensionali del linguaggio delle scienze naturali (minando tra l'altro il programma di unificazione delle scienze del neopositivismo) e posto in risalto il loro rinviare a un ''contenuto'' rappresentativo-intenzionale tipicamente psichico e soggettivo. Le difficoltà relative agli atteggiamenti proposizionali si riassumono, in generale, nell'impossibilità di fuoriuscire dal vocabolario intenzionale, mentalistico, e, quindi, nell'impossibilità di ridurre le locuzioni intenzionali a locuzioni non-intenzionali che ne conservino il significato e siano empiricamente controllabili. In questa caratteristica, sottolineata per es. da R.M. Chisholm (1956, 1957), è stata spesso vista l'inevitabilità del mentalismo non soltanto nel linguaggio comune, ma anche in quello psicologico scientifico. W.V.O. Quine (1960) ha comunque autorevolmente lamentato "la vacuità di una scienza dell'intenzione", fondata su sospette entità mentali sui generis prive di legittimità empirica e valore esplicativo, auspicando, in un'ideale descrizione della "struttura vera e ultima della realtà", un'ontologia esclusivamente fisica nei cui termini dovrebbero trovare spiegazione anche i fenomeni psicologici.

Le tesi fisicalistiche di Quine (sul cui pensiero ha influito anche il naturalismo di J. Dewey) riassumono egregiamente, del resto, gli sviluppi più originali in seno alla filosofia della m., che, a partire dagli anni Cinquanta, avrebbero cercato di tener conto delle caratteristiche del linguaggio comune e di quello psicologico, mirando a delineare dottrine che, superando le difficoltà del comportamentismo filosofico, consentissero tuttavia di render conto dei fenomeni mentali all'interno di una concezione monistico-materialistica in grado di evitare la postulazione di un insieme di entità ontologicamente distinte da quelle delle scienze naturali (frequente, in tale concezione, il richiamo al ''rasoio di Occam'' per evitare quella che è sembrata un'inutile moltiplicazione di entità).

L'orientamento generale che ha informato l'approccio materialistico, sorto anch'esso all'interno del neopositivismo, si fa generalmente risalire a H. Feigl, il quale, sin dagli anni Trenta, riprendendo alcune tesi del realismo di M. Schlick, doveva avanzare la cosiddetta ''teoria dell'identità'' tra stati mentali e stati neurofisiologici. Secondo tale dottrina, nota anche come ''materialismo dello stato centrale'', non c'è che un tipo di realtà, la realtà materiale studiata dalla fisica, a cui dovrebbe poter essere ridotta anche quella biologica. Radicalizzando i principi del fisicalismo, inteso non più come ricerca di un linguaggio intersoggettivo in grado di esprimere anche i fenomeni psicologici, ma come riduzione ontologica ed epistemologica di ogni evento all'ambito di quelli studiati dalla fisica, il teorico dell'identità sostiene che la m. è un fatto biologico e chimico, e come tale in accordo con le leggi delle scienze naturali (con il che viene eliminata la difficoltà cartesiana della presunta interazione tra fenomeni eterogenei). Nel suo lavoro più famoso (1958), Feigl ricorreva alla distinzione di G. Frege tra Sinn e Bedeutung per chiarire la sua dottrina: la differenza tra i termini mentali e quelli neurofisiologici consisterebbe nel loro diverso modo di denotare un unico referente; essi non sarebbero che due diversi modi di descrivere uno stesso evento fisico, così come, nel famoso esempio di Frege, le espressioni ''stella del mattino'' e ''stella della sera'' denotano entrambe il pianeta Venere.

L'identità della m. con fatti fisici, in particolare con i processi cerebrali, è stata a volte considerata analoga a quella tra l'acqua e una certa combinazione d'idrogeno e ossigeno, e in genere alle asserzioni d'identità teorica del linguaggio scientifico, e come queste ultime è stata considerata un'identità contingente. Un punto, questo, di particolare rilevanza in quanto permette di sottrarre la teoria dell'identità alle difficoltà del comportamentismo filosofico: laddove questo cercava una traduzione dei termini mentali in locuzioni comportamentali, esponendosi all'obiezione della molteplicità delle traduzioni possibili, il teorico dell'identità ritiene invece che tra termini mentali e termini fisici vi sia non un'identità di significato, ma un'identità contingente la cui verità, non diversamente dall'identità dell'acqua con una certa microstruttura molecolare, spetterebbe alla ricerca scientifica stabilire. Un altro vantaggio di questa dottrina rispetto al comportamentismo filosofico era rappresentato dal fatto che essa, nell'asserire la sostanziale identità tra eventi mentali ed eventi del sistema nervoso centrale, non rischiava di lasciare fuori del proprio ambito gli stati mentali non interpretabili in termini di comportamento, quali le percezioni, la coscienza e quelli rientranti nel dominio dell'intenzionalità, come le rappresentazioni, le immagini mentali e le credenze, che sarebbe difficile non considerare autentici processi interiori. Del resto, era stata proprio questa una delle ragioni con cui gli australiani U.T. Place, J.J.C. Smart e D.M. Armstrong, tra la fine degli anni Cinquanta e i primi anni Sessanta, avrebbero giustificato il loro abbandono della prospettiva wittgensteiniana e di quella comportamentistica disposizionale di Ryle a favore della teoria dell'identità.

L'identity theory non è andata esente da radicalizzazioni né da obiezioni: se da una parte v'è chi (come R. Rorty e P.K. Feyerabend negli anni Sessanta) ha teorizzato l'eliminazione del vocabolario mentalistico a favore di quello neurofisiologico (donde il cosiddetto ''materialismo eliminativo''), attribuendo così a un programma di ricerca da valutare sul piano delle scoperte scientifiche la certezza del risultato già acquisito; dall'altra v'è chi (come per es. K.R. Popper) ha fatto leva sul carattere fortemente ''promissorio'' di tale dottrina (ossia sul suo rinviare con eccessiva fiducia alla ricerca neurofisiologica futura invece di cercare di suffragare con dati scientifici concreti le sue tesi) per notarne la debolezza e l'implausibilità. L'obiezione più rilevante è comunque un'obiezione interna agli stessi presupposti della teoria, e riguarda la possibilità di conseguire leggi scientifiche di correlazione tra eventi mentali ed eventi neurocerebrali. Tali leggi dovrebbero correlare, naturalmente, proprietà mentali di tipo generale (i cosiddetti type), come la sensazione, il dolore, la credenza, il desiderio, ecc., con proprietà fisiche altrettanto generali; ma è stato obiettato che tali correlazioni nomologiche psicofisiche, anche se auspicabili, sarebbero di fatto molto improbabili, data la complessità della vita psichica individuale. Al materialismo dei tipi (type identity theory) è stato così contrapposto il più debole materialismo delle occorrenze (token identity theory), che si limita ad asserire che ogni particolare stato mentale (token) è di fatto identico a un particolare stato neurocerebrale, escludendo la possibilità di correlazioni nomologiche. Il più influente sostenitore di questa posizione è lo statunitense D. Davidson.

Davidson, partito dalla problematica dell'azione (1963) ponendo in dubbio l'anticausalismo di Ryle e Wittgenstein, è giunto ad aderire alla teoria dell'identità (la cui plausibilità sarebbe dimostrata dall'efficacia causale − e quindi fisica − posseduta dagli stati mentali nel determinare i movimenti volontari) pur accettando la tesi di Brentano sull'intenzionalità come contrassegno dei fenomeni mentali. Estendendo ai fenomeni mentali l'olismo linguistico e scientifico di Quine, Davidson (1970, 1973, 1974) ha posto l'accento sul fatto che l'ascrizione di un atteggiamento proposizionale a un individuo, per es. di una credenza, comporta la simultanea attribuzione di innumerevoli altri atteggiamenti (ulteriori credenze, intenzioni, desideri, speranze, ecc.) in base a considerazioni di coerenza e razionalità, il che renderebbe improbabile l'esistenza di leggi psicofisiche che connettano eventi mentali in quanto generi, proprietà (come la credenza, il desiderio, ecc.) con corrispondenti generi di eventi neurocerebrali; in altri termini, ogni singola occorrenza di uno stato mentale, sia in individui diversi sia nello stesso individuo, sarebbe connessa a un insieme più o meno vasto e variabile di altri stati mentali, e quindi potrebbe essere realizzata in una molteplicità di stati neurofisiologici. Su tali basi, Davidson ha sottolineato l'inevitabilità del linguaggio degli atteggiamenti proposizionali nelle descrizioni e spiegazioni psicologiche, pervenendo di conseguenza alla rivalutazione della psicologia del senso comune (folk psychology) e di quella dichiaratamente mentalistica. La teoria della m. di Davidson (che egli ha chiamato ''monismo anomalo'' per sottolinearne il carattere ontologicamente monistico che tuttavia esclude ogni forma di riduzionismo per la psicologia) costituisce uno dei tentativi più originali per salvaguardare l'autonomia delle scienze umane all'interno di una concezione sostanzialmente fisicalistica e materialistica. La ricerca psicologica contemporanea, che in seguito alla crisi del behaviorismo si è sempre più orientata in senso mentalistico (si pensi per es. al cognitivismo), ha ricevuto in qualche modo una sorta di giustificazione filosofica da dottrine di questo tipo.

Ancor più, del resto, sembra incoraggiato l'orientamento mentalistico e non riduzionistico in psicologia da una teoria relativamente affine al token materialism di D. Davidson, il cosiddetto ''funzionalismo'', le cui tesi fondamentali sono state sviluppate da H. Putnam e J. A. Fodor tra gli anni Sessanta e Settanta. Analogamente al monismo anomalo di Davidson, il funzionalismo ha sostenuto la realizzabilità multipla degli eventi mentali, cioè che uno stesso evento mentale possa realizzarsi in stati neurocerebrali diversi, spingendosi tuttavia ad asserire che nulla impedisce di pensare che potrebbe realizzarsi anche in stati che presentino una composizione fisica e chimica completamente diversa da quelli neurofisiologici. L'analogia preferita dai funzionalisti è quella tra la m. e il software di un elaboratore digitale: gli stati mentali sarebbero come un software che può essere realizzato in hardware differenti. Da queste considerazioni derivano la implausibilità di ogni tentativo di ridurre la vita mentale alla neurofisiologia (dato che potrebbero esservi creature fatte di silicio o di qualche altra sostanza a cui pure si potrebbero attribuire desideri, credenze, sentimenti, ecc.) e la caratterizzazione degli stati mentali nei termini delle funzioni e delle operazioni che essi svolgono nel sistema psichico, indipendentemente dal modo in cui sono fisicamente realizzati. In questa prospettiva si legittima, sul piano metodologico, una psicologia esplicitamente mentalistica (la psicologia delle credenze e dei desideri) che riconosce agli stati mentali autonomia ed efficacia causale. Il materialismo sopravvive unicamente come tesi ontologica generale che, evitando di ricadere nell'interazionismo cartesiano, considera gli stati mentali come realizzazioni di ''qualche'' stato fisico (e per Fodor, come per Davidson, che desideri e credenze siano in ultima analisi eventi materiali sarebbe dimostrato dalla loro efficacia causale, dal momento che "tutto ciò che ha dei poteri causali è ipso facto materiale").

Date le forti analogie tra la m. e il computer notate dai funzionalisti, la loro prospettiva ha finito per avvicinarsi alle ricerche compiute nel campo dell'intelligenza artificiale (v. in questa Appendice). All'incrocio tra funzionalismo, psicologia cognitiva e intelligenza artificiale si situano per es. le indagini di D.C. Dennett (i cui lavori, insieme con quelli di Fodor, sono molto rappresentativi di quella vasta area di studi a cui è ormai diventato abituale riferirsi con l'espressione ''scienza cognitiva''). Punto di partenza di Dennett (1978) è la nozione brentaniana d'intenzionalità: persone, organismi e anche meccanismi fisici (per es. un computer provvisto di un software per giocare a scacchi) possono essere tutti considerati ''sistemi intenzionali'' (cioè sistemi a cui si attribuiscono credenze, desideri, intenzioni, razionalità) qualora si cerchi di spiegarne o prevederne il comportamento. Questo ''atteggiamento intenzionale'' (intentional stance) non ha tuttavia per Dennett pretese ''realistiche'', nel senso che, per quanto pragmaticamente conveniente ed efficace sul piano euristico ed esplicativo, esso viene accettato solo in via temporanea, sino a che non si sia individuato (soprattutto con l'apporto delle ricerche d'intelligenza artificiale) un meccanismo di controllo in grado di spiegare l'operare dei sistemi intenzionali; sul fatto che tale meccanismo sia di tipo fisico, e quindi che "una qualche versione di fisicalismo meccanicistico" sia vera, Dennett non sembra avere dubbi. Ancor più marcato, d'altra parte, il rinvio alle ricerche d'intelligenza artificiale in Fodor, il quale è giunto a teorizzare un innato "linguaggio del pensiero" (1975) che, in modo non dissimile da quanto avviene negli elaboratori digitali, opererebbe secondo processi e regole di tipo computazionale, cioè producendo operazioni e inferenze consistenti in una manipolazione di simboli tramite procedure e regole sintattiche.

Questi esiti del funzionalismo hanno in qualche modo stimolato ulteriormente le interpretazioni filosofiche dell'intelligenza artificiale, anche se va precisato che la tendenza a identificare le funzioni della m. con quelle dei calcolatori era ben presente già nei fondatori di questa disciplina, H. Simon, A. Newell, J. McCarthy e M. Minsky, e che ricerche che provassero la legittimità di tale identificazione erano già state auspicate e inaugurate dal matematico A. Turing (1936, 1950). Oggi è diventato abbastanza corrente distinguere tra una concezione ''debole'' e una ''forte'' dell'intelligenza artificiale relativamente alla filosofia della m.: secondo la prima, le operazioni compiute da un elaboratore digitale mediante opportuni software costituiscono soltanto un'''emulazione'', non una spiegazione, dell'effettivo funzionamento della m. umana; la concezione forte, invece, rappresenta in qualche modo una sorta di riformulazione della tesi di La Mettrie sull'homme machine, arrivando a sostenere che un elaboratore digitale provvisto di programmi adeguati è una vera e propria m., e che l'intelligenza umana non consiste in altro che nella manipolazione di simboli.

Le affermazioni più entusiastiche di alcuni sostenitori dell'identificazione tra m. e computer sono state fortemente criticate da filosofi come H.L. Dreyfus (1972) e J. Searle (1980). Le obiezioni di quest'ultimo a tale identificazione, in particolare, hanno recentemente sollevato un acceso dibattito in merito. Secondo Searle (al quale si deve la distinzione tra concezione forte e concezione debole dell'intelligenza artificiale) nessun computer, per quanto in grado di emularne le funzioni, potrebbe mai essere identificato con la m.; in particolare, i programmi per computer funzionano in modo esclusivamente sintattico, mentre la m., a causa della sua intrinseca intenzionalità, possiede anche una semantica: è nell'intenzionalità, piuttosto che in una serie di operazioni sintattiche, che consisterebbero l'avere delle credenze, la capacità di riferirsi a qualcosa o di capire una lingua. Searle ha inoltre sottolineato come i sostenitori dell'interpretazione forte dell'intelligenza artificiale, pur abbracciando una prospettiva monistica (se la m. è un computer, allora le sue funzioni sono di tipo fisico), finiscono ironicamente per aderire a una concezione dualistica quando considerano la m. come qualcosa di puramente formale e sintattico, ossia di eterogeneo rispetto ai fenomeni biologici. Per contro, la m. (e l'intenzionalità che la caratterizza) è secondo Searle un fenomeno tipicamente ed esclusivamente biologico (senza che ciò comporti una forma di riduzionismo), e il fatto che sia realizzata nel cervello non è affatto irrilevante, come affermano tanto alcuni sostenitori dell'intelligenza artificiale quanto i funzionalisti.

Se in Searle la prospettiva biologica rappresenta il punto d'arrivo dello studio della m., essa costituisce invece soltanto il punto di partenza delle riflessioni di Popper (1977), il quale, sulla base delle dottrine evoluzionistiche, è pervenuto a un'originale forma di dualismo (a cui ha dato il nome di ''interazionismo'').

La teoria della m. di Popper, condivisa dal neurofisiologo J.C. Eccles, si fonda su una tripartizione ontologica che ammette l'esistenza di un mondo 1, quello degli organismi viventi e degli oggetti fisici, di un mondo 2, quello degli stati mentali, e di un mondo 3, quello della cultura e delle produzioni intellettuali umane. L'autocoscienza e le esperienze mentali soggettive sarebbero, per Popper ed Eccles, proprietà emergenti dalla retroazione dei prodotti del mondo 3 (in particolare il linguaggio e le relazioni sociali) sul mondo 1 (in particolare sul cervello e sulle attività cerebrali); tale retroazione, tramite l'apprendimento, permetterebbe all'individuo d'imparare a essere una persona autocosciente e agente in base allo schema mezzo-fine, dando così origine al mondo 2 dei fenomeni mentali. Benché edificata su basi evoluzionistiche (l'emergenza del linguaggio avrebbe creato per Popper la ''pressione selettiva'' per il formarsi della corteccia cerebrale e della coscienza umana di sé), questa dottrina è stata considerata un'ipotesi speculativa dai suoi stessi sostenitori ed è stata criticata soprattutto per le sue forti assunzioni ontologiche (oltre alla postulazione di un mondo 3 autonomo, è apparsa discutibile anche la necessità di appellarsi a qualcosa come la m. in aggiunta al cervello).

È così abbastanza comprensibile che la teoria dell'identità, in una delle sue varie forme, possa essere stata considerata l'approccio più plausibile ai fenomeni mentali; essa è stata recentemente riformulata e difesa, sulla base delle acquisizioni delle neuroscienze, dai ''neurofilosofi'' P.M. Churchland (1984) e P. Smith Churchland (1986), i quali sostengono un tipo di riduzionismo ''forte'' non dissimile dalle tesi radicali di Feigl, riproponendo così una forma di materialismo eliminativo. Inoltre, essa è di fatto il programma di ricerca della neuropsicologia e della neurofisiologia, come testimoniano, per es., i lavori di uno psicologo come D.O. Hebb e di neuroscienziati come K.H. Pribram, J.P. Changeux e G.M. Edelman.

Bibl.: F. Brentano, Psychologie vom empirischen Standpunkt, Lipsia 1874 (19112; trad. it., Trento 1989); E. Mach, Die Analyse der Empfindungen und das Verhältnis des Physischen zum Psychischen, Jena 19002 (trad. it., Milano 19752); M. Schlick, Allgemeine Erkenntnislehre, Berlino 1918, 19252; B. Russell, The analysis of mind, New York 1921 (trad. it., Firenze 1955); R. Carnap, Der logische Aufbau der Welt, Berlino 1928 (trad. it., Milano 1966); Id., Die physikalische Sprache als Universalsprache der Wissenschaft, in Erkenntnis, 2 (1932), pp. 432-65 (trad. it. in R. Carnap, La filosofia della scienza, a cura di A. Crescini, Brescia 1964, pp. 45-102); Id., Psychologie in physikalischer Sprache, ibid., 3 (1932), pp. 107-42; H. Feigl, Logical analysis of the psychophysical problem: a contribution of the new positivism, in Philosophy of Science, 1 (1934), pp. 420-45; A. Turing, On computable numbers with an application to the Entscheidungsproblem, in Proceedings of the London Mathematical Society, 42 (1936), pp. 230-65; G. Ryle, The concept of mind, Londra 1949 (trad. it., Torino 1955); H. Feigl, The mind-body problem in the development of logical empiricism, in Revue internationale de philosophie, 4 (1950), pp. 612-26; A. Turing, Computer machinery and intelligence, in Mind, 59 (1950), pp. 433-60 (trad. it. in La filosofia degli automi, a cura di V. Somenzi e R. Cordeschi, Torino 1986, pp. 157-83); W.V.O. Quine, On mental entities, in Proceedings of American Academy of Arts and Sciences, 80 (1953), pp. 198-203 (rist. in W.V.O. Quine, The ways of paradox and other essays, New York 1966; trad. it., Milano 1975, pp. 279-85); L. Wittgenstein, Philosophische Untersuchungen, Oxford 1953 (trad. it., Torino 1967); R.M. Chisholm, Sentences about believing, in Proceedings of Aristotelian Society, 56 (1956), pp. 125-48; U.T. Place, Is consciousness a brain process?, in The British Journal of Psycology, 47 (1956), pp. 42-51; W. Sellars, Empiricism and the philosophy of mind, in Minnesota Studies in the Philosophy of Science, 1 (1956), pp. 253-329; R.M. Chisholm, Perceiving: a philosophical study, New York 1957; G.E.M. Anscombe, Intention, Oxford 1957; H. Feigl, The ''mental'' and the ''physical'', in Minnesota Studies in the Philosophy of Science, 2 (1958), pp. 370-497 (2ª ediz. con un Postscript after ten years, Minneapolis 1967); R.S. Peters, The concept of motivation, Londra 1958; L. Wittgenstein, The blue and brown books, Oxford 1958 (trad. it., Torino 1983); W. Sellars, R.M. Chisholm, Intentionality and the mental, in Minnesota Studies in the Philosophy of Science, 2 (1958), pp. 507-39; St. N. Hampshire, Thought and action, Londra 1959; H. Putnam, Mind and machines, in Dimensions of mind, a cura di S. Hook, New York 1960, pp. 148-80 (rist. in H. Putnam, Mind, language, and reality, Cambridge [Mass.] 1975; trad. it., Milano 1987, pp. 392-415); W.V.O. Quine, Word and object, Cambridge (Mass.) 1960 (trad. it., Milano 1970); A.I. Melden, Free action, Londra 1961; D. Davidson, Actions, reasons, and causes, in The Journal of Philosophy, 60 (1963) (rist. in D. Davidson, Essays on actions and events, Oxford 1980, pp. 3-19; trad. it., Bologna 1992, pp. 41-61); P.K. Feyerabend, Materialism and the mind-body problem, in Review of Metaphysics, 17 (1963), pp. 49-67; J.J.C. Smart, Philosophy and scientific realism, Londra 1963; Ch. Taylor, The explanation of beahaviour, ivi 1964; R. Rorty, Mind-body problem, identity, privacy, and categories, in Review of Metaphysics, 19 (1965), pp. 24-54; H. Putnam, Psychological predicates, in Art, mind, and religion, a cura di W.H. Capitan e D.D. Merrill, Pittsburgh 1967, pp. 37-48 (rist. come The nature of mental states, in H. Putnam, Mind, language, and reality, cit.; trad. it., cit., pp. 461-72); D.M. Armstrong, A materialist theory of mind, Londra 1968; J.A. Fodor, Psychological explanation, New York 1968; D.C. Dennett, Content and consciousness, Londra 1969 (trad. it., Bologna 1992); The mind/brain identity theory, a cura di C.V. Borst, New York 1970; D. Davidson, Mental events, in Experience and theory, a cura di L. Forster e J. Swanson, Londra 1970, pp. 79-101 (rist. in D. Davidson, Essays on actions and events, cit., pp. 207-27; trad. it., cit., pp. 285-309); N. Malcolm, Problems of mind. Descartes to Wittgenstein, New York 1971 (trad. it., Milano 1973); Materialism and the mind-body problem, a cura di D.M. Rosenthal, Englewood-Cliffs (N.J.) 1971; G.H. von Wright, Explanation and understanding, Londra 1971 (trad. it., Bologna 1977); H.L. Dreyfus, What computers can't do: a critique of artificial reason, New York 1972 (trad. it., Roma 1988); D. Davidson, The material mind, in The proceedings of the fourth international congress for logic, methodology, and philosophy of science, a cura di P. Suppes, L. Henkin, G.C. Moisil, A. Joia, Amsterdam 1973 (rist. in D. Davidson, Essays on actions and events, cit., pp. 245-59; trad. it., cit., pp. 329-45); H. Putnam, Philosophy and our mental life, conferenza presentata al Foerster Symposium su Computer and the mind, 1973 (rist. in H. Putnam, Mind, language, and reality, cit.; trad. it., cit., pp. 318-30); D. Davidson, Psychology as philosophy, in Philosophy of psychology, a cura di S.C. Brown, Londra 1974 (rist. in D. Davidson, Essays on actions and events, cit., pp. 229-39; trad. it., cit., pp. 311-23); Th. Nagel, What is it like to be a bat?, in The Philosophical Review, 83 (1974), pp. 435-50 (rist. in Mortal questions, Cambridge [Mass.] 1979; trad. it., Milano 1986, pp. 163-75); J.A. Fodor, The language of thought, New York 1975; M. Boden, Artificial intelligence and natural man, ivi 1977; K.R. Popper, J.C. Eccles, The self and its brain, ivi 1977 (trad. it., Roma 1981); Mind-body problem: philosophical and psychosomatological approaches, a cura di M. Bianca e P. Muzi, Roma 1978; D.C. Dennett, Brainstorms. Philosophical essays on mind and psychology, Cambridge (Mass.) 1978 (trad. it., Milano 1991); D.M. Armstrong, The nature of mind and other essays, Brisbane 1980; J.A. Fodor, Mente, in Enciclopedia (Einaudi), ix, Torino 1980, pp. 3-47; Philosophical perspectives in artificial intelligence, a cura di M.D. Ringle, Atlantic Highlands (N.J.) 1980; J. Searle, Minds, brains, and programs, in The Behavioral and Brain Science, 3 (1980), pp. 417-24 (trad. it., Milano 1984); Mind design: philosophy, psychology, artificial intelligence, a cura di J. Haugeland, Cambridge (Mass.) 1981 (trad. it., Bologna 1989); J.A. Fodor, Representations. Philosophical essays on the foundation of cognitive science, ivi 1981; C. McGinn, The character of mind, Oxford 1982; J.A. Fodor, The modularity of mind, Cambridge (Mass.) 1983 (trad. it., Bologna 1988); G. Gava, Il problema mente cervello: genesi e sviluppo della teoria dell'identità, Padova 1983; P.M. Churchland, Matter and consciousness. A contemporary introduction to the philosophy of mind, Cambridge (Mass.) 1984; L. Gallino, Mente, comportamento e intelligenza artificiale, Milano 1984; Consciousness and causality. A debate on the nature of mind, a cura di N. Malcolm e D.M. Armstrong, Oxford 1984; J. Searle, Intentionality and its place in nature, in Dialectica, 38 (1984), pp. 87-99; Id., Minds, brains, and science, Londra 1984 (trad. it., Milano 1987); H. Gardner, The mind's new science, New York 1985 (trad. it., Milano 1988); S. Moravia, L'enigma della mente. Il ''mind-body problem'' nel pensiero contemporaneo, Roma-Bari 1986; P. Smith Churchland, Neurophilosophy. Towards a unified science of the mind-brain, Cambridge (Mass.) 1986; La filosofia degli automi, a cura di V. Somenzi e R. Cordeschi, Torino 1986; D.C. Dennett, The intentional stance, Cambridge (Mass.) 1987; J.A. Fodor, Psychosemantics: the problem of meaning in the philosophy of mind, ivi 1987 (trad. it., Bologna 1990); W. Bechtel, Philosophy of mind: an overview for cognitive science, Hillsdale (N.J.) 1988 (trad. it., Bologna 1992); Cervello e mente: un dibattito interdisciplinare, a cura di S. Chiari, Milano 1988; P.M. Churchland, A neurocomputational perspective. The nature of mind and the structure of science, Cambridge (Mass.) 1989 (trad. it. parziale, Bologna 1992); Mente umana, mente artificiale, a cura di R. Viale, Milano 1989; D.C. Dennett, Consciousness explained, Boston-Toronto-Londra 1991 (trad. it., Milano 1993); G. Gava, Scienza e filosofia della coscienza, Milano 1991; V. Somenzi, La materia pensante, ivi 1991; L'automa spirituale. Menti, cervelli, computer, a cura di G. Giorello e P. Strata, Roma-Bari 1991.

Neuroscienze e modelli della mente. - Lo stato delle odierne conoscenze sul rapporto m.-cervello sembra autorizzare la speranza, ormai largamente condivisa, di "arrivare a una piena comprensione dei meccanismi biologici che stanno alla base delle funzioni mentali superiori" (Kandel e Schwartz 1985, p. 12) mediante un'indagine puramente naturalistica. Tuttavia, fin dall'antichità, i tentativi di studiare scientificamente le funzioni mentali, dall'esperienza percettiva alle prestazioni cognitive superiori (come la memoria, l'immaginazione, il giudizio e la coscienza autoriflessiva), si sono sempre ispirati a due modi diversi d'intendere la m.: l'uno sostanzialmente passivo, l'altro decisamente attivo. Questa contrapposizione, ben visibile nella tradizione filosofico-speculativa classica e moderna, torna a riflettersi nei principali modelli proposti, nel corso degli ultimi cento e più anni, dagli studiosi del cervello. In questo difficile settore della scienza sperimentale, infatti, ogni autentico progresso conoscitivo è avvenuto soprattutto grazie alla disponibilità di nuovi e più sofisticati metodi d'indagine. Ma di per sé queste metodiche (v. nervoso, sistema: Neurofisiologia generale, in questa Appendice), quanto mai utili a smentire o confermare ipotesi vecchie e nuove sul conto di specifici meccanismi cerebrali, non sono in grado di fornirci una spiegazione univoca ed esauriente dell'intera attività mentale. Sicché ancor oggi molti eminenti neuroscienziati, artefici di scoperte fondamentali e innovative, nel pronunciarsi sul rapporto m.-cervello finiscono spesso per assumere posizioni contrastanti che sembrano nascere dalle loro personali convinzioni (teoriche e filosofiche), più che da considerazioni strettamente scientifiche.

Eppure, gli studi sul cervello avevano già registrato notevoli successi quando, nel 1962, nacquero le odierne neuroscienze per iniziativa del biofisico F. O. Schmitt che, con l'aiuto di altri studiosi di varie discipline sperimentali (neuroanatomia, neurofisiologia, biochimica e neurofarmacologia, nonché scienze del comportamento), fondò appunto il Neurosciences Research Program (NRP) al preciso scopo di promuovere le ricerche interdisciplinari su tutti gli aspetti dell'attività mentale. Da allora, grazie a concetti e modelli esplicativi sempre più promettenti, non solo è stata raggiunta una migliore comprensione di alcuni meccanismi dell'attività cerebrale (percettivi, motori, linguistici, cognitivi, ecc.), di tradizionale importanza per la fisiologia e la clinica neurologica, ma sono state introdotte alcune ipotesi generali circa i principi biologici che presiedono allo sviluppo specie-specifico (filogenetico), embrionale e neonatale (epigenetico), nonché individuale e maturativo (ontogenetico) dei sistemi nervosi animali e umani. La crescita dei risultati conseguiti per questa via (sulla quale, soprattutto a partire dal 1978, hanno cercato di convergere anche le cosiddette scienze cognitive; v. psicologia cognitiva, in questa Appendice), è stata così impressionante da indurre il presidente degli Stati Uniti G. Bush a proclamare, con un decreto del 25 luglio 1989, gli ultimi dieci anni del secolo "decennio di studi sul cervello".

Intorno alla storia dei tentativi di spiegare la mente attraverso lo studio del cervello. − L'attuale coesistenza di modelli parziali, distinti o contrapposti, sembra discendere non tanto dalle intrinseche difficoltà che ancora incontrano le ricerche di laboratorio, quanto piuttosto da molti altri fattori, teoricamente rilevanti, che hanno influito sulle concezioni generali circa la struttura e le funzioni del cervello. Per semplicità espositiva, potremmo suddividerli in due gruppi principali: quello dei concetti esterni (o preliminari) alle ricerche sul cervello e quello dei concetti nati all'interno stesso di tali ricerche.

Nel primo gruppo rientrano i cosiddetti paradigmi dominanti che informano tutta la scienza di base, dalla fisica alle altre discipline naturalistiche a essa più direttamente ispirate. Nei paradigmi figurano cioè i principi fondamentali e le idee più generali che guidano la ricerca in tutti gli altri campi. In tal senso l'elemento discriminante è certamente il modo di concepire la materia e le macchine in rapporto ai fenomeni del mondo vivente.

Dalla nascita della nuova fisica galileiana, cartesiana e newtoniana, fino ai tempi del giovane Darwin, tutti (salvo forse R.G. Boscovich e J.O. de La Mettrie) videro le macchine in termini logicamente inapplicabili al vivente, e pertanto anche alla mente. Le macchine sono dispositivi fisici, che operano secondo processi fisici; ma per la scienza meccanicistica processo fisico significava soltanto la trasmissione del movimento, o dell'energia, per contatto o collisione tra particelle solide e impenetrabili. La convinzione che la materia, da sola, non potesse mettersi mai in movimento rimase dunque, per secoli, praticamente indiscussa, negando al pensiero fisiologico, psicologico ed epistemologico qualsiasi capacità di spiegare l'autonomia e l'individualità del vivente. Fu proprio la mancanza di un diverso concetto fisico di materia, basato su principi nuovi di autoproduzione, autorganizzazione e autoregolazione, a rendere insuperabile, nella scienza non meno che in filosofia, il tradizionale contrasto tra le concezioni passivistiche della m. e quelle attivistiche. Il che è all'origine, tra l'altro, dell'illusione dei primi studiosi moderni del cervello di spiegarne il funzionamento mediante modelli meccanico-idraulici.

In medicina, infatti, fino alla metà del Settecento, prevalse largamente l'idea malpighiana che la sostanza grigia del cervello fosse costituita da un insieme di machinulae glandolari, capaci di filtrare il sangue per produrre un "succo nerveo", d'imprecisata natura, il quale a sua volta avrebbe trasportato le impressioni dei sensi e i comandi della volontà attraverso i canali nervosi. È ovvio che, prima della chimica di A.-L. Lavoisier e delle scoperte di L. Galvani e di A. Volta sull'elettricità (animale e non), che avrebbero aperto la via ai pionieristici lavori elettrofisiologici di E. Du Bois-Reymond e del fondatore della psicofisiologia, H. von Helmholtz, questa concezione idraulico-''riflessologica'' del cervello e del sistema nervoso, per quanto riconoscibile come inadeguata, non aveva alternative.

I limiti della concezione meccanicistica e passiva della materia e delle macchine divennero col tempo sempre più chiari quando, in fisica, la teoria newtoniana venne affiancata da quella maxwelliana dei campi elettro-magnetici, il principio della convertibilità delle forme d'energia rese teoricamente concepibili macchine dotate di autopropulsione, e infine quando il dispositivo per regolare automaticamente la loro pressione interna s'impose a prototipo di ogni sistema di regolazione retroattiva, compresi quelli di natura fisiologica. Ma da sola la caduta del meccanicismo non bastava certo a risolvere una seconda difficoltà concettuale che ostacolava pregiudizialmente la comprensione scientifica del cervello: la mancanza di un efficace raccordo tra le conoscenze biomediche e quelle bioevolutive.

All'inizio del 19° secolo la biologia stava ormai assumendo, grazie a J.-B. de Lamarck, un suo statuto autonomo, svincolandosi dalla fisica e dalla storia naturale. Ne conseguirono grandi progressi sia nello studio dei fenomeni funzionali, sia in quello dei processi evolutivi. Gli studi cellulari, nonostante i gravissimi ritardi della ricerca genetica, avevano già messo in evidenza l'intima costituzione di tutti gli organismi, riscontrando in essi sorprendenti analogie. Su questa base, l'anatomia comparata, la morfologia e l'embriologia giunsero a dimostrare come la materia vivente, pur obbedendo a criteri di alta specificità, adottasse per converso soluzioni estremamente generali, tutte strettamente correlate alle necessità propriamente biologiche della regolazione e dello sviluppo. La teoria darwiniana fu poi in grado di spiegare l'origine di queste affinità e differenze senza ricorrere all'intervento di una m. creatrice né, per converso, trascurare l'evidente correlazione esistente tra la morfologia degli organismi (comportamento incluso), da una parte, e la loro fisiologia, dall'altra, incluse le strategie (finalisticamente interpretabili) da essi adottate per soddisfare le loro esigenze vitali. In effetti, la concezione darwiniana della selezione naturale di variazioni genetiche spontanee e casuali comportava la possibilità di affrontare con metodo comparativo non solo lo studio dell'evoluzione delle varie forme organiche, bensì anche quello dell'origine comune e del successivo sviluppo filogenetico dei sistemi nervosi animali.

Eppure, paradossalmente, le nuove conoscenze biologiche e mediche non favorirono né la recezione del darwinismo, né il progresso degli studi sul cervello. La fisiologia di C. Bernard, individuando i meccanismi regolatori preesistenti in ogni individuo, sembrava piuttosto sancire l'autonomia relativa degli organismi rispetto all'ambiente, anziché la loro dipendenza da fattori selettivi esterni. La microbiologia di L. Pasteur accreditava non solo la legge biogenetica fondamentale ''la vita proviene solo dalla vita'', ma anche l'idea antievoluzionistica che il simile proviene sempre dal simile. Solo l'embriologia di K. E. von Baer, R. Remak, R. Virchow, A. Kölliker, A. Kovalewski e O. Hertwig sembrava accordarsi meglio con la concezione darwiniana del tempo e della trasformazione, perché "l'omologia di sviluppo di tutte le strutture organiche, animali e vegetali, non escludeva a priori l'ipotesi di relazioni genealogiche" (Canguilhem 1988, p. 104). Queste incertezze non devono stupire, se è vero che, ai primi del Novecento, quando con la ''teoria del neurone'' s'inaugurò la fase moderna della neurofisiologia, in biologia teorica il contrasto tra le spiegazioni di tipo lamarckiano (dette istruttiviste perché assegnano all'ambiente un ruolo di direzione e di stimolo dello sviluppo) e quelle selezioniste di tipo darwiniano non era ancora risolto. Una scelta definitiva tra i due opposti principi dell'istruzione e della selezione è invece indispensabile per saldare concettualmente tra loro i tre distinti livelli di spiegazione biologica del cervello di cui le neuroscienze s'interessano. Essi sono: il livello genetico e bio-evolutivo, che ricomprende anche i meccanismi individuali di crescita e maturazione del sistema nervoso; quello neurofisiologico, basato sullo studio anatomico, biochimico e biofisico della fisiologia cerebrale e dei suoi specifici meccanismi; quello psicobiologico (v. psicobiologia, in questa Appendice) e neurocomportamentale, che si propone di arrivare a una comprensione integrata del cervello come centro di tutti gli aspetti, affettivi e cognitivi, implicati nel comportamento normale e patologico, innato o acquisito.

Passiamo ora all'esame del secondo gruppo di principi e concetti generali, la cui contrapposizione nasce direttamente dalla ricerca sul cervello. Alcuni di essi sono ancor oggi oggetto di discussione tra i neuroscienziati.

È il caso, tanto per cominciare, dei due principali approcci allo studio delle funzioni mentali: il localizzazionismo e l'antilocalizzazionismo, il cui confronto dura da tempo e ancora non si può considerare definitivamente concluso (è invalso l'uso di considerarli associati a due atteggiamenti metodologici, anch'essi contrapposti: il riduzionismo e l'olismo; si tratta di un uso improprio, tuttavia, perché − come vedremo − si possono adottare metodologie riduzionistiche anche senza aderire a una concezione localizzazionistica).

La disputa sulle localizzazioni cerebrali, suscitata, tra il 1810 e il 1819, dalla pubblicazione del trattato del frenologo austriaco F. J. Gall, che contemplava ventisette diverse sedi per altrettante facoltà della m., si riaprì verso la metà dell'Ottocento, in forme scientificamente ben più attendibili, grazie a J.-B. Bouillaud e P. Broca, i due medici francesi che per primi, rispettivamente nel 1825 e nel 1865, individuarono alcuni centri linguistici nell'emisfero sinistro. Prove ulteriori addussero i tedeschi G. T. Fritsch ed E. Hitzig, che nel 1870 scoprirono mediante stimolazione elettrica i centri motori nella corteccia del cane. Localizzazionisti furono anche il neurologo inglese sir D. Ferrier e il tedesco H. Munk, che si avvicinò all'identificazione sulla corteccia di aree visive, acustiche e somato-sensoriali. Antilocalizzazionisti, invece, furono due eminenti connazionali di Broca: J. P. N. Flourens e A. Trousseau. Flourens, dopo aver effettuato l'ablazione di alcune aree cerebrali su animali da esperimento, formulò quella che sarebbe poi stata chiamata la teoria dei campi cerebrali associati, secondo la quale, nello svolgere qualsiasi funzione, la corteccia cerebrale agirebbe sempre in maniera unitaria. Trousseau contestò invece sul piano clinico la ridotta casistica presentata da Broca. Anche un altro antilocalizzazionista, lo strasburghese F. L. Goltz, che in un famoso convegno londinese del 1881 polemizzò con Ferrier, si basò soprattutto sulle evidenze cliniche riguardanti i processi di recupero dei cerebrolesi. Un caso a parte fu quello del neurologo inglese J. H. Jackson, che per primo fece notare come i sistemi motori siano organizzati in un continuum di tipo gerarchico, che va da quelli automatici (i riflessi), siti a livello spinale, fino ai più complessi (connessi all'esecuzione dei movimenti appresi più fini), controllati da centri di livello maggiore. Inoltre, nei suoi studi sull'epilessia focale, egli si oppose alla teoria di Flourens. Ciò nonostante, quasi riecheggiando Kant che, in una salomonica lettera a Soemmelring, aveva vietato le indagini naturalistiche sulle funzioni superiori dell'anima (Intelletto e Ragione), pur ammettendole nel caso dei sistemi sensoriali, Jackson contestò la legittimità di qualsiasi ''fisiologia della m.'' che ipotizzasse la presenza nel cervello di centri specifici deputati a compiti non puramente sensoriali, bensì di ordine mentale superiore. La disputa sulle localizzazioni sarebbe quindi giunta a parziale e provvisoria soluzione grazie al modello associazionista-connessionista, originariamente proposto dal neuropsichiatra tedesco K. Wernicke (1874) e subito accolto dalla maggioranza degli studiosi, compreso S. Ramón y Cajal, antesignano della teoria discontinuista del neurone. Tale modello prevedeva che solo le funzioni mentali di base (percettive e motrici) fossero localizzate in aree precise, tutte variamente connesse tra loro. Le funzioni superiori sarebbero quindi nate dall'interazione costante delle aree deputate alle funzioni semplici, mediata da opportune vie nervose. Il modello prevedeva, inoltre, che una stessa funzione mentale potesse essere elaborata sia in serie, sia in parallelo, e in diverse regioni cerebrali: un principio generale d'estrema fertilità e importanza, al quale s'ispirano ancor oggi alcuni modelli dell'attività mentale.

Ma se dal livello delle aree funzionali scendiamo a quello dei tessuti cerebrali e della loro costituzione, troviamo ancora un secondo contrasto paradigmatico: quello tra continuismo e discontinuismo, che ha ormai però un interesse puramente storico, poiché, a differenza del precedente, si è chiuso con la definitiva vittoria del punto di vista discontinuista.

Gli anatomisti, gli istologi e i fisiologi continuisti concepivano, infatti, la corteccia cerebrale come una rete cellulare continua, laddove i loro colleghi discontinuisti se l'immaginavano composta di singole cellule distinte, benché dotate di elementi di giunzione. A precisare la questione sarebbero intervenute due tecniche di colorazione: quella anilinica, scoperta già nel 1856 da W. H. Perkin, che permise l'individuazione dei cromosomi nel nucleo cellulare, e quella cromoargentea, scoperta e poi perfezionata da C. Golgi nel 1875, che mise in evidenza la struttura di singole cellule nervose, colorandone, per ragioni a tutt'oggi poco chiare, solo una percentuale minima. Tuttavia, da sole, né la scoperta di Golgi, né la successiva formulazione della ''teoria del neurone'' da parte di Ramón y Cajal (1902) e dell'anatomista W. von Waldeyer (che per primo le diede questo nome nel 1891), avrebbero mai potuto risolvere definitivamente la disputa. Perché ciò accadesse sarebbe stato necessario un salto concettuale nella ricerca neurologica di base. Ciò avvenne a partire dal 1906, allorché Ch. S. Sherrington, che seguiva la teoria del neurone, riprese e approfondì, nei suoi preparati ''spinali'', lo studio, già avviato da Bernard, della trasmissione dell'impulso nervoso attraverso le giunzioni o placche neuromuscolari. Fu lui, con M. Foster, a chiamare tali giunzioni ''sinapsi'' e ad attribuire loro, per inferenza logica, alcune funzioni fondamentali, come la convergenza spaziale e la sommazione temporale, l'affaticabilità, la facilitazione e l'inibizione. Soltanto da allora la teoria del neurone e quella delle sinapsi sarebbero divenute le pietre miliari di tutte le ricerche sul cervello che, in questo campo, sono ormai giunte addirittura a livello molecolare.

Un terzo livello di contrasto, anch'esso ormai storicamente archiviato, riguarda la natura, chimica o elettrica, dell'impulso nervoso e le modalità della sua trasmissione attraverso le sinapsi.

All'inizio del 20° secolo il cervello veniva spesso concepito come un complicatissimo centralino telefonico: un'immensa circuiteria in cui le terminazioni dei nervi afferenti proiettavano gli stimoli sensoriali raccolti dagli organi di senso e da cui, per converso, si dipartivano le fibre motorie efferenti destinate a trasmettere le risposte elaborate dal cervello. Infatti, una volta scoperta l'attività elettrica spontanea del cervello, con tutte le sue più significative variazioni, fisiologiche e patologiche, individuate dalle prime rilevazioni elettroencefalografiche (che furrono effettuate da H. Berger nel 1929), molti, compresi alcuni dei migliori allievi di Sherrington (S. Cooper, R. S. Creed, D. Denny-Brown, E.G.T. Liddell) capeggiati da sir J. C. Eccles, furono portati a credere che la trasmissione degli impulsi attraverso le sinapsi avvenisse per via elettrica. Ma già C. Bernard e poi, verso la fine del 19° secolo, P. Ehrlich e J. N. Langley, avevano suggerito che alcune sostanze chimiche potessero interagire con molecole recettrici specifiche situate sulla superficie delle cellule. Nel 1914 sir H. Dale attribuì all'acetilcolina la capacità di simulare l'azione dei nervi parasimpatici. Dopo il classico esperimento del tedesco O. Loewi, che nel 1921 dimostrò l'azione di rallentamento esercitata dall'acetilcolina sui battiti del cuore isolato di rana, il parasimpatico venne chiamato sistema ''colinergico'' e Dale divenne il principale fautore dell'ipotesi della trasmissione chimica dell'impulso nervoso. Finalmente, nel 1951, la disputa tra le due opposte fazioni si chiuse grazie agli esperimenti di registrazione intracellulare che spinsero Eccles a riconoscere la validità dell'ipotesi chimica anche nel caso del sistema nervoso centrale. Cessava così qualsiasi contrasto di principio tra la ''via chimica'' e quella ''elettrica'', che ad alcuni era apparsa una valida alternativa all'approccio molecolare, ossia analitico e riduzionistico, caldeggiato dalla prima.

In sintesi, si può dire che all'idea filosofica di una m. che apprende tutto dall'esperienza, estraendo meccanicamente dall'informazione sensoriale certi caratteri che poi rifletterà, in modi imprecisati, al proprio interno, sotto forma di immagini, rappresentazioni o idee, si possono far corrispondere tanto la concezione biologica lamarckiana, secondo la quale è l'ambiente a istruire l'organismo, quanto la psicologia associazionistica ottocentesca (v. apprendimento, in questa Appendice) e la teoria neurofisiologica dei campi cerebrali associati. Viceversa, all'idea, anch'essa di origine filosofica, che ipotizza un originario potere creativo della m., la quale costruirebbe liberamente la propria esperienza, organizzandola in base a principi che, in qualche modo, dipenderebbero dalla sua intima costituzione, si possono far corrispondere (sebbene, vedremo, a titolo assai diverso) la biologia darwiniana, la psicologia cognitivista (v. psicologia cognitiva, in questa Appendice), e così pure tutte le teorie neurofisiologiche che hanno sostenuto l'esistenza di aree cerebrali funzionalmente specifiche, il cui sviluppo sarebbe sotto il controllo di meccanismi ereditari altrettanto specifici, frutto della selezione naturale, nonché, infine, il cosiddetto darwinismo neuronale.

La neurofisiologia contemporanea tra olismo e riduzionismo. − Nel periodo che arriva sino agli anni Cinquanta del 20° secolo molti dei problemi sopra indicati sono stati risolti, dimostrando l'inadeguatezza sia delle analogie troppo semplicistiche, sia delle concezioni eccessivamente filo- o anti-localizzazioniste. Ciò è avvenuto grazie alla progressiva convergenza degli studi sul sistema nervoso periferico e di quelli relativi al sistema nervoso centrale, favorita anche dall'adozione di un approccio comparativo ed evolutivo. Al termine di questo processo il modello del centralino telefonico sarebbe stato sostituito da altri basati sui moderni calcolatori.

Ancor prima che nascesse la biologia molecolare, fatti biofisici molto precisi vennero stabiliti applicando a materiali opportunamente selezionati (preparazioni speciali come l'animale spinale o l'assone gigante del polpo Octopus vulgaris studiato dall'inglese J. Z. Young a partire dal 1928, ecc.) le nuove tecnologie dell'elettronica, della microscopia elettronica, della diffrazione a raggi x, della microchimica e altre ancora. Queste tecniche permisero di ottenere una rappresentazione biofisica e biochimica del funzionamento delle sezioni periferiche del sistema nervoso addirittura più precisa di quelle disponibili per altri tessuti. Venne inoltre determinata la natura elettrica dei segnali che attraversano le fibre nervose secondo la legge del tutto-o-nulla, originariamente formulata da Ch. S. Lucas, E. D. Adrian e K. Sherrington; venne scoperto il principio della loro produzione, ossia il meccanismo della pompa sodio-potassio, formalmente espresso dalle equazioni che A. L. Hodgkin e A. F. Huxley svilupparono nel 1942; vennero precisate le caratteristiche fisiche delle fibre che li trasportano, stabilendo che ogni fibra trasporta un tipo diverso d'informazione, modulato in frequenza. La varietà delle fibre è enorme e il comportamento del sistema è determinato dai loro schemi di connessione.

Anche nello studio del sistema nervoso centrale si realizzarono cospicui progressi mediante analoghe tecniche riduzionistiche applicate ai livelli di crescente complessità in cui esso è organizzato: quello delle singole sinapsi; dei singoli neuroni; degli aggregati di neuroni; dei vari sistemi neuronali addetti al controllo di specifiche funzioni vitali e cognitive (per aggiornamenti v. nervoso, sistema: Neurofisiologia generale, in questa Appendice).

Negli anni Cinquanta e Sessanta, mediante nuove tecniche biochimiche e microelettroniche (registrazioni intracellulari dei potenziali elettrici neuronali, iontoforesi, microscopia elettronica, ecc.), Eccles, P. Fatt, B. Katz, E. Furshpan e D. Potter dimostrarono indipendentemente che, sebbene la maggior parte delle sinapsi faccia uso di neurotrasmettitori, alcune, in ragione della loro diversa morfologia, operano mediante meccanismi puramente elettrici. Esistono infatti sinapsi nelle quali le cellule pre e post-sinaptiche sono interconnesse da ponti protoplasmatici, nonché sinapsi che non hanno connessioni e nelle quali i neuroni sono separati da una fessura. Queste due classi morfologiche corrispondono alle due classi funzionali delle sinapsi elettriche e chimiche. Le ricerche sui cosiddetti neurotrasmettitori hanno altresì permesso d'individuare numerose sostanze in grado di svolgere una funzione eccitatoria o inibitoria dell'attività sinaptica (v. psicobiologia e nervoso, sistema: Neurofisiologia generale, in questa Appendice). È così risultato che ogni neurone usa la stessa combinazione di messaggeri chimici a livello di tutte le proprie sinapsi, benché la maggior parte dei neuroni adulti possieda un apparato biochimico caratteristico, che sintetizza un solo neurotrasmettitore.

Quanto ai singoli neuroni, proprio per via delle complesse regolazioni intra ed extracellulari coinvolte nella trasmissione sinaptica, non li si può assolutamente assimilare a semplici relè, capaci esclusivamente di ritrasmettere o meno gli impulsi elettrici al di là di una certa soglia di attivazione; al contrario, essi costituiscono, in un certo senso, delle vere e proprie microunità di elaborazione. Negli aggregati neuronali, inoltre, i singoli elementi sono massicciamente collegati tra loro non secondo lo schema di una rete elettrica, bensì come vere e proprie popolazioni cellulari organizzate in colonne, la cui struttura, già intravista dagli studi pionieristici di D. von Economo e di un allievo di Ramón de Cajal, R. Lorente de Nò, sarebbe stata meglio studiata, a partire dai lavori di W. B. Mountcastle degli ultimi anni Cinquanta su tutta la corteccia, compresa quella associativa. Qui i neuroni specializzati risultano a loro volta disposti secondo un'architettura colonnare, dove in ogni macrocolonna (profonda circa 3 mm e del diametro di circa 400÷1000 μ) figurano più microcolonne, composte da un piccolo numero di neuroni (90÷120) disposti a strati, del diametro di circa 30 μ. Le colonne elaborano gli stimoli in parallelo e stabiliscono tra loro dei contatti mediante vere e proprie vie di protezione nervosa che attraversano orizzontalmente varie aree della corteccia. Una simile organizzazione colonnare è stata scoperta nella corteccia tattile (Mountcastle), nell'elaborazione dell'informazione visiva nella retina (H. Barlow, T. Tomita, J.E. Dowling e altri; v. visione, in questa Appendice), nella rispondenza all'orientamento delle cellule dell'area visiva striata (D. H. Hubel e T. N. Wiesel).

Il principio dell'organizzazione colonnare viene così ad aggiungersi a due principi funzionali già individuati nel caso delle percezioni tattili, uditive e visive: il campo recettivo e l'inibizione afferente o laterale. I campi recettivi (studiati nel nervo ottico dell'anguilla da Adrian e da R. Matthews nel 1928, in quello della rana da H. K. Hartline nel 1938-40, e nelle cellule gangliari della retina del gatto da S. W. Kuffler nel 1953) sono quelle regioni della superficie sensoriale che, se stimolate, attivano un singolo neurone corticale. L'inibizione laterale, invece, studiata nel gatto prima da R. Granit nel 1934 e poi ancora da Kuffler, è determinata dalla contemporanea stimolazione di regioni inibitorie adiacenti a quelle eccitatorie che normalmente si verifica in ogni campo recettivo sensoriale. Essa fa sì che la risposta selettiva di ciascun neurone corticale specializzato esprima una sorta di ''calibrazione'' dei fenomeni eccitatori e inibitori che si verificano nel suo campo percettivo.

Queste fondamentali scoperte permisero di descrivere nel dettaglio proprio quei sistemi d'integrazione corticale e sottocorticale che in precedenza erano stati il cavallo di battaglia degli ''olisti''.

Il primo a introdurre la teoria olistica dell'azione di massa o equipotenzialità della corteccia fu lo psicologo statunitense K. S. Lashley al fine di spiegare la persistenza di un complesso comportamento appreso dai suoi ratti da esperimento, sottoposti all'ablazione di vaste aree corticali. Il principio dell'equipotenzialità affermava che nella corteccia animale i neuroni svolgessero un'azione cooperativa, molto plastica e ridondante, in maniera sostanzialmente indifferenziata. Questa tesi venne in seguito modificata e applicata al cervello umano da parte del maestro della scuola sovietica di neuropsicologia, A. R. Lurija. Questi, in base allo studio di una vasta casistica di lesioni neurologiche prodotte da traumi bellici, giunse a ipotizzare l'esistenza di tre unità funzionali: la prima per la regolazione del tono; la seconda per la ricezione, l'analisi e l'immagazzinamento dell'informazione; la terza per la programmazione, la regolazione e la verifica delle attività motorie e intellettuali. Queste tre unità, tuttavia, sarebbero variamente distribuite nel cervello e, in quanto tali, non sarebbero localizzabili in aree limitate (o rigidamente circoscritte).

Ma i già citati studi sull'organizzazione colonnare della corteccia, assieme a quelli sulle specializzazioni emisferiche, animali e umane, inaugurati con tecniche chirurgiche ed elettrofisiologiche da C. N. Woolsey, W. Penfield e R. W. Sperry negli anni Cinquanta, dimostrarono quanto una contrapposizione troppo grossolana tra localizzazionismo e antilocalizzazionismo fosse in realtà fuorviante. Da essi risultò, infatti, l'esistenza di "funzioni altamente localizzate, che potremmo persino chiamare veri e propri giochi di prestigio che solo alcuni aggregati di cellule sono capaci di eseguire, come pure di funzioni che richiedono la coattivazione di numerose aree corticali separate tra loro" (Granit, in Worden e altri, 1975, p. 328).

Gli ormai famosi homunculi senso-motori del ratto e dell'uomo, tracciati rispettivamente da Woolsey e Penfield, evidenziarono, con le loro grottesche distorsioni prospettiche corrispondenti alla diversa estensione delle aree cerebrali studiate, sia il carattere topologico dell'organizzazione corticale, sia il significato evolutivo degli sviluppi avvenuti nella neocorteccia. Per un verso, infatti, "la quantità di corteccia riservata a una data regione della superficie corporea risultava direttamente proporzionale all'uso e alla sensibilità di questa regione" (Thompson 1967, p. 410). Per l'altro, alla progressione filogenetica delle varie specie venivano a corrispondere tanto un aumento della distorsione dei rispettivi homunculi, quanto il parallelo decremento della percentuale di corteccia occupata dalle aree senso-motorie rispetto a quella riservata alle cosiddette aree ''associative''.

Quando Broca sentenziò: "noi parliamo con l'emisfero sinistro", i neuroanatomisti già sapevano che i due emisferi sono, in realtà, interconnessi, sia tramite il corpo calloso, che è il più grande fascio di fibre nervose presente nel cervello, sia attraverso le vie commessurali. Per far luce sul ruolo funzionale sino allora sconosciuto delle commessure interemisferiche, a partire dal 1955 R. Myers e R. W. Sperry decisero di interromperle, sezionando il corpo calloso e il chiasma ottico in alcuni animali da esperimento, che addestrarono poi a eseguire certe procedure con un solo emisfero.

Questi esperimenti di split-brain dimostrarono che gli animali non erano in grado di trasferire i compiti appresi da un emisfero all'altro. Altri esperimenti, che Sperry effettuò poi con M. Gazzaniga su pazienti epilettici commessurotomizzati per ragioni terapeutiche, confermarono questi dati. Risultò infatti che, in questi soggetti, i due emisferi non solo possono funzionare indipendentemente, ma hanno propensioni, precocemente fissate nel corso dello sviluppo, significativamente diverse: per compiti di tipo verbale-analitico il sinistro, di tipo spaziale-emotivo-olistico il destro. Inoltre, sebbene non possano scambiarsi le informazioni apprese per vie indipendenti, essi possono invece ostacolarsi a vicenda, come se nei pazienti commessurotomizzati esistessero due menti distinte. Coscienza, autocoscienza e processi mentali di ordine superiore sembrerebbero dunque nient'affatto unitari e indivisibili. Ma l'idea di attribuire ai ''due cervelli'' così identificati funzioni e capacità troppo rigidamente distinte è a sua volta fuorviante. Anche dopo la commessurotomia in qualche modo i due emisferi riescono infatti a scambiarsi informazioni e a mutuare, almeno in parte, i loro rispettivi compiti.

Più o meno negli stessi anni, in psicobiologia (v. in questa Appendice), alla teoria della bipartizione ''orizzontale'' delle funzioni mentali se ne aggiunse un'altra, genealogico-stratigrafica, ossia ''verticale'', in cui tali funzioni risultavano tripartite: la cosiddetta teoria dei ''tre cervelli'' proposta da P. D. MacLean sulla traccia dei lavori pionieristici di J. W. Papez (1937) circa il ruolo svolto dal ''sistema limbico'' nel controllo dell'emozione. Mettendo in relazione gerarchica tre strutture cerebrali umane di livello filogenetico diverso (quelle prosencefaliche della base del cervello, quelle intermedie del sistema limbico, e quelle della neo-corteccia), MacLean le ribattezzò rispettivamente: cervello del rettile, del paleo-mammifero e del neo-mammifero. Ciascuno dei tre controllerebbe alcuni schemi comportamentali e non altri: il cervello del serpente quelli di tipo automatico e istintivo, quello del paleo-mammifero i comportamenti legati al sesso e alle emozioni, quello del neo-mammifero, infine, le scelte di tipo razionale. Ma il buon funzionamento gerarchico di un sistema così tripartito risulterebbe impedito dal fatto che le strutture cerebrali corrispondenti non comunicano bene tra di loro, il che spiegherebbe i conflitti interiori che affliggono da sempre gli esseri umani, anche quelli "mentalmente sani" (MacLean 1984). Questo modello, giudicato da alcuni ancora approssimativo se non pericoloso per la forte suggestione da esso esercitata sui profani (A. Harrington, in AA.VV. 1989), resta comunque una valida esemplificazione delle possibilità d'integrare l'approccio bio-evolutivo all'interno delle neuroscienze.

Il cervello come calcolatore: cibernetica e intelligenza artificiale. − Al termine del rivoluzionario quinquennio 1948-53 le neuroscienze si trovarono di fronte a due modelli concettuali molto innovativi, quello cibernetico e quello della biologia molecolare, e subito li adottarono. Ma nonostante le grandi e talvolta legittime speranze suscitate da questa scelta, va subito detto che essa non fu risolutiva, sicché oggi, come vedremo, viene seriamente e da più parti contestata.

La cibernetica di A. Rosenblueth, N. Wiener e S. Bigelow estendeva il concetto di macchina a qualsiasi sistema, naturale o artificiale, suscettibile di autoregolazione adattativa. Così − sull'onda della teoria dell'informazione di C. E. Shannon (1943), della teoria delle reti nervose ideali proposta da J. McCullogh e R. Pitts nel 1943, del saggio di K. J. W. Craik sul cervello come elaboratore di modelli, nonché sulla teoria degli automi, che J. von Neumann sviluppò richiamandosi all'idea astratta di macchina universale già proposta da A. M. Turing nel 1936 − ben presto si moltiplicarono, al Massachusetts Institute of Technology e altrove, gli sforzi di pensare il sistema nervoso in analogia al nuovo calcolatore digitale. Anche il meccanismo della trasmissione ereditaria, non appena scoperto, venne subito interpretato dagli stessi biologi molecolari come una sorta di programma codificato nel DNA, in grado di specificare tutte le caratteristiche del fenotipo sviluppato, comprese quelle del cervello. La m. apparve dunque come il software di un calcolatore biologico il cui hardware dipendeva a sua volta da un altro programma, quello genetico.

Verso la fine degli anni Cinquanta, con la nascita dell'intelligenza artificiale (v. intelligenza artificiale in questa Appendice), l'analogia m.-calcolatore prese ancor più piede, candidandosi a presupposto concettuale delle costituende scienze cognitive (v. psicologia cognitiva, in questa Appendice). Ma l'intelligenza artificiale e le scienze cognitive intendevano l'analogia cervello-calcolatore in modo ben diverso da quanto era avvenuto nella prima cibernetica.

Nel perceptrone di F. Rosenblatt, un tipico modello cibernetico di rete neuronale ideale (v. reti neurali, in questa Appendice), l'analogia era applicata in senso letterale, ossia riferita alla configurazione materiale delle reti neuroniche e dei sistemi dotati di autorganizzazione. Questo significava assumere per valida l'immagine del neurone come semplice interruttore funzionante secondo la legge del tutto-o-nulla. Un'idea cui tutte le scoperte appena accennate stavano togliendo qualsiasi plausibilità biologica. Così, dopo la critica alla teoria del perceptrone portata da M. Minsky e S. Papert (1969), i teorici dell'intelligenza artificiale cognitiva decisero di limitare l'analogia cervello-calcolatore al piano esclusivamente funzionale, trascurando ogni riferimento al sostrato biologico nella costruzione di teorie sull'intelligenza.

Anche in questa accezione, comunque, l'analogia con il calcolatore lasciava aperti due gravi ordini di problemi: il primo legato al carattere essenzialmente simbolico-algoritmico della computazione, il secondo all'architettura delle macchine.

Tutti i contrastanti sforzi di modellizzazione delle attività intelligenti compiuti dalle scienze cognitive si basavano sull'assunto che la conoscenza, naturale o artificiale, fosse essenzialmente manipolazione di ''rappresentazioni simboliche''. I sistemi conoscitivi naturali o artificiali sarebbero cioè, secondo la classica definizione di A. Newell e H. A. Simon (1976), "sistemi fisici di simboli" in grado di elaborare l'informazione su oggetti e proprietà del mondo sotto forma di altri sistemi fisici di simboli, detti per l'appunto rappresentazioni della conoscenza. Ma il cervello non riceve passivamente le informazioni dall'esterno sotto forma di input simbolici precodificati, bensì genera informazione, codificandola in vari modi (cfr. a questo proposito le critiche dei filosofi Searle e Dreyfus indicate nella sezione precedente di questa voce). Inoltre, i calcolatori che operano secondo lo schema della cosiddetta macchina di von Neumann (v. reti neurali, in questa Appendice) hanno un'unità centrale di calcolo (detta CPU), attraverso la quale i dati devono passare per essere elaborati in modo seriale, e inoltre hanno delle unità di memoria a indirizzi ben distinte dalla CPU. Nel cervello, invece, c'è un altissimo grado di parallelismo, manca qualsiasi unità centrale paragonabile alla CPU e molte funzioni, comprese quelle mnestiche, sono altamente distribuite.

La relazione mente-cervello-calcolatore. − L'incapacità di superare le limitazioni dell'orientamento funzionalistico delle scienze cognitive si riflette anche nelle speculazioni interazionistiche o emergentistiche di alcuni importanti neuroscienziati.

Il caso più noto è quello di Eccles che, dopo aver invocato il principio d'indeterminazione di W. Heisenberg per spiegare il libero arbitrio sotto forma d'intervento operativamente inosservabile della m. sul cervello, ha sviluppato, assieme all'epistemologo K. Popper, una concezione trialistica dell'interazione m.-cervello, che distingue tra Mondo 1 (fisico), Mondo 2 (psichico) e Mondo 3 (culturale). I tre mondi interagirebbero soprattutto (ma non sempre) attraverso i centri dell'emisfero dominante, dando vita a un Io unico "risultato di una creazione soprannaturale di ciò che in senso religioso si chiama anima" (Eccles 1989, p. 101). Dualistici in senso classico sono anche gli scritti filosofici del grande maestro di Eccles (cfr. Sherrington 1940), ove il cervello appare un "grande telaio magico" che trasforma una successione d'impulsi modulati in frequenza nella multiforme varietà dell'esperienza vissuta. Lo stesso Penfield interpreta i suoi classici esperimenti di split-brain attribuendo la consapevolezza del significato della successione neuronale che determina il contenuto del flusso di coscienza solo alla m., mentre in Sperry (1983) la coscienza di cui viene postulata la capacità d'intervenire nei fenomeni cerebrali è immaginata a sua volta come una proprietà emergente dinamica dell'eccitazione cerebrale.

Il problema di fondo sollevato da tutte queste interpretazioni è sempre lo stesso. Se, infatti, si concepisce la m. come un programma che il cervello è in grado di eseguire, non solo è sempre possibile attribuire al programma origine e natura diverse da quelle del suo sostrato materiale, ma diventa davvero difficile spiegare come e perché le strutture cerebrali siano pre-programmate in funzione di certi compiti essenziali, come per es. la categorizzazione percettiva. E questo, naturalmente, è un problema particolarmente serio per i neuroscienziati che aspirano a mantenersi nell'alveo della tradizione monistica e che, pertanto, oggi tendono a limitare, o addirittura a respingere, il modello del cervello come calcolatore. Un possibile punto di partenza per superare questo ostacolo possono fornirlo le odierne teorie selezioniste sull'origine e sul funzionamento della macchina cerebrale.

I modelli del cervello come sistema selettivo. − Sono teorie che si richiamano al principio generale della biologia evoluzionistica secondo cui lo straordinario sviluppo filogenetico del cervello sarebbe dovuto al suo grande valore selettivo, amplificato dalla sua adattabilità: in altri termini, al fatto di essere un tipo speciale di calcolatore biologico capace di automodificarsi. Quest'idea, che fu già di E. H. Haeckel e altri, tra cui Young, è stata precisata da G. M. Edelman, premio Nobel nel 1972 per le sue ricerche sul sistema immunitario, che l'ha chiamata "teoria della selezione dei gruppi di neuroni" (Edelman e Mountcastle 1978). Il cervello sarebbe cioè un sistema selettivo il quale elabora l'informazione senso-motoria mediante le interazioni, coordinate nel tempo, di collezioni o repertori di unità funzionali equivalenti, ciascuna consistente di un piccolo gruppo di neuroni.

La teoria della selezione dei gruppi neuronali contrasta con la concezione innatistica di J. A. Fodor (1983) sulla modularità della mente. Quest'ultima distingue tra sistemi di input (strettamente associati a strutture neuronali specifiche e innate, non assemblati e autonomi nell'esecuzione dei loro compiti tipici, nonché privi d'intelligenza e di coscienza) e sistemi centrali, gli unici in grado di svolgere l'integrazione di tutte le attività coscienti. Sfortunatamente, però, secondo Fodor, la scienza cognitiva e le neuroscienze avrebbero ben poche speranze di arrivare a comprendere il funzionamento di questi sistemi centrali. Un'affermazione naturalmente non condivisa da tutti quelli che, come Edelman, rifiutano l'analogia cervello-macchina di Turing, e anche dai connessionisti.

Connessionismo e teoria della selezione dei gruppi neuronali. − Il paradigma connessionistico, che P. Smolensky, il fondatore, assieme a D. E. Rumelhardt e L. L. MacLelland, del PDP (Parallel Distributed Processing) Research Group, ha chiamato "sottosimbolico" (Rumelhardt e MacLelland 1986), sta acquistando crescente importanza tra i possibili modelli della m., per la sua dichiarata intenzione di rispettare al massimo i vincoli biologici.

I modelli e gli artefatti connessionistici, come l'ormai famosa Connection machine di D. Hillis, sono costituiti da reti che funzionano in parallelo. In questa simulazione, opportunatamente semplificata, i nodi corrisponderebbero ai corpi neuronali e le connessioni ai dendriti e agli assoni, un po' come nel perceptrone di Rosenblatt. In questo senso il connessionismo si può considerare una ripresa delle proposte originali della prima cibernetica. Nelle macchine connessionistiche l'intelligenza del sistema non sta infatti in un programma, bensì nello schema d'interconnessione tra i nodi, ritenuto capace di modificarsi spontaneamente con l'esperienza, grazie a due meccanismi, detti back propagation e forward propagation (v. reti neurali, in questa Appendice). Ciò ricorda da vicino le reti o assemblee cellulari già ipotizzate da D. O. Hebb (1949), i cui nodi sono caratterizzati in entrata da combinazioni di messaggi, convergenti e divergenti, e i cui circuiti vengono interrotti ogni tanto da altri circuiti di cellule nervose locali (interneuroni), disposte ad anello (feedback e feedforward loops).

I requisiti, che la teoria della selezione dei gruppi neuronali e il connessionismo si propongono indipendentemente di soddisfare, risultano abbastanza simili a quelli indicati dal neuroscienziato J. Sźentághotai (1975) per qualsiasi modello biologicamente plausibile del cervello. Essi sono: il sistema nervoso va visto come un sistema distribuito attraverso varie parti del cervello (cfr. Edelman e Mountcastle 1978); dev'essere costituito da sottosistemi gerarchicamente disposti di reti neuronali autorganizzantesi; dovrebbe avere capacità massive di rientro, ossia di autoinfluenzarsi attraverso connessioni da e verso altre aree corticali o sottocorticali del cervello; infine, dovrebbe dimostrare capacità di autorganizzazione, come suggerito dai lavori sperimentali sulla ricombinazione dei tessuti nervosi e sulla loro coltura.

Tuttavia, allo stato attuale, i modelli connessionistici risultano troppo astratti anche rispetto a queste specifiche. Le generalizzazioni che essi riescono a effettuare sono per lo più di carattere percettivo, e richiedono ancora categorie d'informazione parzialmente predeterminate (stringhe di simboli alfabetici o numerici). Inoltre, sia i modelli connessionistici, sia altri modelli recentemente proposti dai fisici, come le reti di J.J. Hopfield (1982) e i vetri di spin di G. Parisi (1992), per spiegare le capacità di memoria e autorganizzazione dei sistemi biologici, non sembrano biologicamente rilevanti rispetto all'ultimo requisito sopra citato. Questo, infatti, chiama in causa i meccanismi della neuronale, e l'unico modello che si prefigga di spiegarli in un quadro più vasto è quello esemplificato dagli automi edelmaniani della serie Darwin (l'ultimo è il Darwin IV).

Questi automi, impostati secondo i principi popolazionali e selezionistici del darwinismo neuronale, possono svolgere i compiti più vari in base a valori innati (equivalenti a schemi d'origine filogenetica), che, nella fattispecie, vengono assegnati dai loro costruttori. Essi risultano così automi non specifici la cui organizzazione è infatti solo predelimitata ma non prefissata da regole innate generali; essa di fatto scaturirà dall'interazione effettiva dei sistemi stessi con l'ambiente, condotta secondo i principi fondamentali del darwinismo neuronale. Sarà la ricerca futura a decidere della validità di questa suggestiva ipotesi, che sul piano filosofico lo stesso Edelman interpreta in una chiave dichiaratamente assai poco kantiana (cfr. Edelman 1989). Ma il requisito suddetto contempla anche il problema di spiegare unitariamente lo sviluppo ontogenetico ed epigenetico del cervello.

Selezione ed epigenesi: la topobiologia. − Proprio per estendere la sua concezione allo sviluppo embrionale del cervello e all'epigenesi Edelman ha lavorato a lungo sulla formazione del sistema nervoso centrale, seguendo una linea di ricerca affine a quella di J.-P. Changeux (1983) e di altri. Assieme ad A. Danchin, Changeux ha suggerito l'ipotesi che la maturazione del sistema nervoso attraverso l'esperienza d'interazione con l'ambiente abbia luogo per eliminazione selettiva di connessioni preesistenti, spontaneamente insorte durante lo sviluppo ontogenetico, dove il margine di variabilità (ossia delle selezioni possibili) sarebbe fissato filogeneticamente. Per Edelman, invece, il vero problema è che i genetisti tendono a spiegare il differenziamento embrionale, compreso quello che riguarda il cervello, in termini di semplice espressione delle diverse parti del nostro corredo genico. Ma in realtà non c'è abbastanza DNA perché un'informazione unidimensionale finita (la stringa del DNA) possa manifestarsi nel corso del tempo in un organismo tridimensionale di tale ampiezza e specificità. Dunque, la cellula dovrà ottenere la maggior parte dell'informazione sul suo sviluppo dalla sua posizione relativa e dalla sua stessa attività. Un'idea di per sé non nuova, poiché nel corso degli ultimi settant'anni la maggior parte delle teorie sullo sviluppo embrionale hanno parlato d'informazione posizionale (Wolpert 1991) riformulando varie metafore su ''campi'', ''gradienti'' e onde spaziali di concentrazioni chimiche. In questo campo si collocano anche le ricerche di R. LeviMontalcini sul fattore di crescita nervoso (NGF), condotte in collaborazione con V. Hamburger e pubblicate per la prima volta nel 1951.

Purtroppo ancor oggi il meccanismo d'azione del NGF è ignoto; tuttavia i neurobiologi ritengono che esso sia soltanto uno dei numerosi fattori di accrescimento che potrebbero venir scoperti in futuro. Va detto però che, sui meccanismi che permettono alle fibre nervose di ricollegarsi esattamente ai vecchi siti bersaglio, esistono a tutt'oggi solo delle ipotesi. Nessuno è ancora riuscito a dare loro una base molecolare, come invece si prefigge di fare Edelman. Egli ipotizza che piccoli collettivi di cellule esercitino un'azione di gruppo sui loro immediati vicini, dando luogo ai processi di differenziazione.

Questi si dividerebbero in due tipi principali: quelli che riguardano le popolazioni cellulari (divisione, migrazione e morte delle cellule), e quelli di citodifferenziazione. Secondo Edelman (1988), in qualche modo non ancora precisato, le interazioni tra le superfici cellulari e quelle a esse vicine finirebbero per attivare alcuni geni di regolazione posti all'interno delle cellule, i quali, a loro volta, attiverebbero e disattiverebbero i geni responsabili della citodifferenziazione. La mano invisibile capace di far scaturire un organismo intero, integrato e funzionante, da una simile anarchia di controlli locali sarebbe la selezione naturale. Ammesso che, nell'evoluzione, tutti i processi di sviluppo che hanno dato luogo a organismi disfunzionanti siano andati perduti, allora i processi locali rimasti non possono che presentare l'apparenza di una coordinazione generale per il solo fatto di funzionare.

Quest'idea, strettamente legata a quella generale di sistema selettivo, è molto darwiniana. Grazie alla sua generalità, dovuta alla distinzione tra ''principio'' e ''meccanismo'' selettivo, essa sembra poter mettere Edelman al sicuro dalle obiezioni dei suoi critici più autorevoli (come F. Crick), che gli hanno rimproverato l'inesistenza, nel cervello umano, di qualunque dispositivo genetico di riproduzione differenziale, premessa indispensabile per il verificarsi di un'autentica selezione di variazioni biologicamente rilevanti.

Bibl.: Ch. S. Sherrington, Man on his nature, Cambridge 1940 (trad. it., Uomo e natura, Torino 1960); D.O. Hebb, The organization of behavior, New York 1949 (trad. it., Milano 1975); The neurosciences: A study program, a cura di G. C. Quarton, T. Melnechuck, F. O. Schmitt, New York 1967; R. F. Thompson, Foundations of physiological psychology, ivi 1967 (trad. it., Fondamenti di psicologia fisiologica, Bologna 1976); La fisica della mente, a cura di V. Somenzi, Torino 1969; A. Rosenblueth, Mind and brain, Cambridge (Mass.) 1970; R. M. Young, Mind, brain and adaptation in the ninetenth century (Cerebral localization and its biological context from Gall to Ferrier), Oxford 1970; A. R. Lurija, The working brain. An introduction to neuropsychology, Londra 1973 (trad. it., Come lavora il cervello, Bologna 1977); The neurosciences: paths of discovery, a cura di F. G. Worden, J. P. Swazey, G. Adelman, Cambridge (Mass.) 1975; W. Penfield, The mistery of the mind, Princeton 1975; J. Sźentághodai, From the last skirmishes around the neuron theory to the functional anatomy of neuron networks, in The neurosciences, cit., 1975, pp. 103-20; A. Newell, H. A. Simon, Computer science as empirical inquiry: Symbols and search, in Communications of the ACM, 19 (1976), pp. 113-26 (trad. it., La scienza del computer come indagine empirica, in Intelligenza artificiale, a cura di B.G. Bara, Milano 1978, pp. 13-49); K. R. Popper, J. C. Eccles, The Self and its brain, Berlino-New York 1977 (trad. it., L'Io e il suo cervello, Roma 1981); I due cervelli, a cura di F. Denes e C. Umiltà, Bologna 1978; G.M. Edelman, V.B. Mountcastle, The mindful brain, Cambridge (Mass.) 1978; C. Blakemore, I meccanismi della mente, trad. it., Roma 1981; J. J. Hopfield, Neural networks and physical system with emergent collective computational abilities, in Proceedings of the National Academy of Sciences, 79 (1982), pp. 2554-58; rist. in Neurocomputing. Foundations of research, a cura di J. A. Anderson e E. Rosenfeld, Cambridge (Mass.) 1988; H. Kuhlenbeck, The human brain and its universe, 3 voll., Basilea 1982; L. Mecacci, A. Zani, Teorie del cervello dall'Ottocento a oggi, Torino 1982; A. Oliverio, Biologia e comportamento, Bologna 19822; J.-P. Changeux, L'homme neuronal, Parigi 1983 (trad. it., L'uomo neuronale, Milano 1986); J. A. Fodor, The modularity of mind, Cambridge (Mass.) 1983 (trad. it., La mente modulare, Bologna 1988); R. W. Sperry, Science and moral priority (Margin mind, brain and human values), New York 1983; Cerebral dominance. The biological foundations, a cura di M. Geschwind e A. M. Galaburda, Cambridge (Mass.) 1984; P. D. MacLean, Evoluzione del cervello e comportamento umano, trad. it., Torino 1984; E. R. Kandel, J. H. Schwartz, Principles of neural sciences, New York 1985 (trad. it., Principi di neuroscienze, Milano 1988); La filosofia degli automi, a cura di R. Cordeschi e V. Somenzi, Torino 1986 (ediz. riv. e ampliata di V. Somenzi, La filosofia degli automi, ivi 1965); D. E. Rumelhardt, J.L. MacLelland, PDP Research Group, Parallel distributed processing: Explorations in the microstructure of cognition, 2 voll., Cambridge (Mass.) 1986; Mindwaves, a cura di C. Blakemore e S. Greenfield, ivi 1987; G. M. Edelman, Neural darwinism: the theory of neuronal group selection, New York 1987; E. Lavades, C. Umiltà, Neuropsicologia, Bologna 1987; J. Z. Young, Philosophy and the brain, Oxford 1987 (trad. it., I filosofi e il cervello, Torino 1988); G. Canguilhem, Idéologie et rationalité dans l'histoire des sciences de la vie, Parigi 1988 (trad. it., Ideologia e razionalità nella storia delle scienze della vita, Firenze 1992); G. M. Edelman, Topobiology. An introduction to molecular embriology, New York 1988 (trad. it., Topobiologia, Torino 1993); P. Smolensky, On the proper treatment of connectionism, in Behavioral and brain sciences, 11, 1988 (trad. it., Il connessionismo: tra simboli e neuroni, Genova 1992); AA.VV., La fabbrica del pensiero. Dall'arte della memoria alle neuroscienze, Milano 1989 (Catalogo dell'omonima mostra allestita a Firenze nel marzo 1989 a cura di P. Corsi); J. C. Eccles, Mente, in Enciclopedia del Novecento, viii, Supplemento, Roma 1989, pp. 91-102; G. M. Edelman, The remembered present. A biological theory of consciousness, New York 1989 (trad. it., Il presente ricordato, Milano 1991); A. Harrington, Oltre la frenologia: teorie della localizzazione in età contemporanea, in AA.VV., La fabbrica del pensiero, cit., pp. 206-15; R. Levi-Montalcini, NGF: apertura di una nuova frontiera della neurobiologia, Roma-Napoli 1989; D. Parisi, Intervista sulle reti neurali (cervelli e macchine intelligenti), Bologna 1989; G. Gava, Scienza e filosofia della coscienza, Milano 1991; T. Poggio, L'occhio e il cervello. Che cosa significa ''vedere'', Roma-Napoli 1991; J. Searle, Le insoddisfazioni del materialismo, in Sistemi intelligenti, iii (1991), 2, pp. 171-94; Id., La coscienza, l'inversione della spiegazione e le scienze cognitive, ibid., pp. 195-220; V. Somenzi, La materia pensante, Milano 1991; L. Wolpert, The triumph of the embryo, Oxford 1991; AA.VV., Mind and brain, numero speciale di Scientific American, 267, settembre 1992 (trad. it., Mente e cervello, numero speciale de Le Scienze, 291, novembre 1992); G. Parisi, La nuova fisica statistica e la biologia, in Sistemi intelligenti, iv (1992), 2, pp. 247-62; V. Somenzi, Contributo allo studio dei rapporti tra mente e cervello offerti dalle neuroscienze degli ultimi due secoli, in AA.VV., Il problema mente-corpo, Padova 1992.

TAG

Massachusetts institute of technology

Principio d'indeterminazione

Atteggiamenti proposizionali

Fattore di crescita nervoso

Sistema nervoso periferico