Acacia japonis

 
Emilio Filippini, Lino Filippini che studia

 

 

Intervista di Franco Borghero a Marcello Cini

Una strada lunga e difficile

F.B. Sembra che la fisica oggi sia in difficoltà, perché il metodo sperimentale, che è la sua caratteristica peculiare, richiede costi troppo alti anche per le nazioni più ricche. Infatti le direzioni verso le quali sono rivolte le ricerche (l'immensamente grande e l'infinitamente piccolo) richiedono apparecchiature così complesse da risultare difficilmente realizzabili (vedi la bocciatura da parte del Congresso degli Stati Uniti degli appalti per la realizzazione del supercollisore a magneti superconduttori). Sembra quindi che, per riprendere lo slancio del passato, si dovranno attendere ulteriori sviluppi, che potranno venire dalla globalizzazione e dall'avanzamento della tecnologia. Oppure, proprio in questo momento d'impasse, la fisica riesce a trovare nuove linee di ricerca (faccio riferimento alla teoria delle supercorde1 che potranno produrre delle rivoluzioni simili a quelle dell'inizio del Secolo XX?

M.C. Mi sembra che ci sia un equivoco di fondo, in questa domanda. La fisica non è soltanto la fisica delle particelle e dei collisori alle altissime energie, anche se il suo collegamento con l'astrofisica e la cosmologia ha ridato a questo settore un interesse che si era andato perdendo al di fuori della ristretta cerchia degli specialisti. Dagli anni Settanta in poi è andata infatti sempre più affermandosi la consapevolezza del fatto che l'ingenuo riduzionismo che faceva dire ad Einstein che "il fine supremo del fisico è di arrivare a quelle leggi elementari universali dalle quali il cosmo può essere costruito mediante la pura deduzione", è privo di fondamento scientifico. Le teorie delle forze unificate (GUT2), le teorie delle supercorde e simili sono molto di moda, ma riguardano condizioni fisiche di tempo e di spazio talmente estreme che non si vede come possano essere sperimentalmente riprodotte. La fisica è stata la scienza fondamentale del Novecento perché la rivoluzione iniziata da Planck nel primo anno del secolo - la meccanica quantistica - ci ha permesso di capire le proprietà della materia inerte, atomi e molecole, della quale è fatto il mondo nel quale viviamo. Ma ci si è ormai resi conto che il mondo dei quark non ha niente da dire su questo nostro mondo. La realtà è strutturata in livelli distinti e i linguaggi che descrivono le proprietà dei livelli superiori non sono interamente riducibili a quelli dei livelli inferiori. Essi sono fra loro compatibili, ma le proposizioni del linguaggio che "spiega" le proprietà degli oggetti di un dato livello non possono essere completamente sostituite da proposizioni del linguaggio che "spiega" le proprietà degli elementi del livello inferiore, dei quali gli oggetti in questione sono costituiti. I settori della fisica oggi più intriganti, perché legati alla conoscenza di fenomeni nuovi ed osservabili del mondo in cui viviamo, sono da un lato quelli che cercano di mettere in evidenza proprietà quantistiche inattese da parte di sistemi macroscopici (o mesoscopici), che in condizioni eccezionali possono comportarsi in modo non classico (la prospettiva pratica più interessante in questo campo è lo sviluppo di computer quantistici3), e dall'altro quelli che si occupano di sistemi complessi e di modelli che in qualche modo tentano di riprodurne le caratteristiche (dalla turbolenza ai sistemi disordinati: vetri di spin4). Questi ultimi settori della fisica, in senso lato riconducibili alla meccanica statistica lontano dall'equilibrio, sono particolarmente importanti per le loro strette connessioni con le discipline biologiche, alle quali forniscono modelli sufficientemente semplici da esibire comportamenti prevedibili e non ambigui, e sufficientemente articolati da rappresentare alcuni aspetti importanti della complessità dei fenomeni vitali. Le reti booleane NK5 di Stuart Kaufman, che riproducono alcune delle proprietà di autorganizzazione di molti sistemi biologici, ne sono un esempio particolarmente significativo.

F.B. Dal un punto di vista di un fisico, la proprietà olistica è intrinseca nella realtà, oppure è più facile costruire un modello olistico della realtà a causa dei diversi linguaggi che la scienza usa? E il fatto che la meccanica quantistica stia elaborando degli algoritmi che possono trovare applicazione in campo biologico costituisce o no un primo passo per superare l'incomunicabilità tra questi due livelli?

M.C. La fisica ha subìto una svolta fondamentale alla fine del XIX Secolo. Nel dibattito che vide la contrapposizione fra i fautori (Ostwald, Helm, Mach) dello sviluppo della termodinamica, cioè di una scienza fenomenologica dei fenomeni macroscopici, dotata di grande flessibilità interpretativa e forte potere di unificazione dei molteplici aspetti della realtà naturale, da un lato, e i sostenitori della universalità di una concezione meccanica e atomistica della materia (Boltzmann, Maxwell, Clausius) dall'altro, prevalse alla fine, con Planck, la concezione riduzionista di questi ultimi. Pur abbandonando l'idea della priorità della meccanica newtoniana, Planck accettava infatti la visione della realtà degli atomisti, basata sulla discontinuità degli elementi ultimi della materia a livello microscopico, attraverso l'introduzione, oltre alla discontinuità degli atomi, anche del carattere discreto dei quanti, le entità elementari del campo elettromagnetico. Da allora il riduzionismo della fisica - cioè l'assunzione che compito della scienza è di spiegare interamente le proprietà di un sistema formato da una molteplicità di componenti nei termini delle proprietà di queste ultime - viene assunto come modello di scientificità per molte altre discipline. Si tratta però di una ipotesi epistemologica a priori, che si rivela parziale e talvolta grossolanamente errata non appena si supera la soglia della complessità. Intendiamoci bene: non è che la scomposizione di un sistema complesso nelle sue componenti sia di per sé uno sbaglio. Anzi, il primo passo per capirne il funzionamento è senz'altro quello di fare un inventario accurato dei suoi vari pezzi. L'errore, grave è di pretendere di potersi fermare qui, anzi, di pretendere che dalle proprietà semplici di questi pezzi sia facile e immediato ricostruire le proprietà del tutto. Questo errore, che nasce dal complesso d'inferiorità che gli scienziati delle discipline della vita e della mente hanno nutrito per almeno due secoli nei confronti della fisica, porta infatti a una semplificazione drastica della realtà, porta cioè all'amputazione, tanto più radicale quanto più si scende nella gerarchia dei suoi livelli di organizzazione, di tutte quelle proprietà "emergenti" che dipendono dalla "coerenza" che s'instaura tra le varie componenti di un sistema quando danno origine a una totalità autorganizzata in grado di sopravvivere. Il salto qualitativo che separa il livello della materia inerte da quello delle più semplici forme di materia vivente non deriva infatti, ovviamente, da un soffio magico di origine sovrannaturale, ma dalla possibilità che, al disopra di una soglia, determinata dal numero, dalla natura e dalle reciproche interazioni delle componenti, possa sostenersi all'interno del sistema una circolazione d'informazione, costituita da una rete di catene circolari di retroazione, che fa da "collante" dinamico, il quale tiene insieme il sistema. Non si può dunque pretendere di dedurne univocamente le proprietà "emergenti", attraverso una relazione lineare di causalità, a partire dalle proprietà "microscopiche" delle unità elementari, ma occorre anche selezionare quelle relazioni tra loro che risultano compatibili con i vincoli rappresentati dalle prime. Detto in altri termini, la descrizione del livello più elementare non determina univocamente la descrizione del livello più complesso, perché il passaggio dall'ammasso di dati che caratterizzano le possibili configurazioni delle singole unità alle poche grandezze collettive dotate di significato non è automatico, ma richiede che queste ultime vengano oculatamente scelte a priori. Sarebbe insomma necessario, per rispettare la complessità del mondo vivente, un andirivieni continuo dall'uno all'altro dei linguaggi dei vari livelli - ognuno dei quali vincola dal basso quello del livello superiore e illumina dall'alto quello del livello inferiore - salvaguardandone la relativa autonomia. Questo, tuttavia, non viene fatto dagli addetti ai lavori, perché l'ideologia riduzionista alla quale sono professionalmente legati tende ad appiattire tutti i livelli sul più basso, e ad attribuire ad essi uno statuto di scientificità via via crescente man mano che si scende nella scala della complessità. È chiaro dunque perché gli esperti di una data disciplina tendano a cercare la giustificazione della validità e della solidità delle loro rivendicazioni di conoscenza nei livelli più "fondamentali", senza accorgersi che, quanto più il livello considerato sta in alto, tanto più arbitraria e mistificante diventa questa procedura. Quanto alla seconda domanda, non so di quali applicazioni della meccanica quantistica si parli. In genere nei sistemi biologici l'aspetto quantistico degli elementi costituenti non è importante. Non bisogna confondere l'aleatorietà ontologica dei fenomeni quantistici con l'aleatorietà, fondamentale ma descrivibile in termini di teorie probabilistiche classiche, che interviene sempre nei fenomeni della vita e nei processi evolutivi.

F.B. Dopo gli anni Venti il concetto di oggettività elaborato dalla fisica classica è entrato in crisi: si è dovuto cominciare a rivedere il rapporto tra scienziato e realtà. A causa dell'impossibilità di separare l'osservatore dall'osservato è tornato a riemergere il problema del soggetto. Questo impone allo scienziato un'interrogazione sull'uomo e sul metodo della sua ricerca. Intravedo qui una similitudine tra il mondo della fisica e quello della psicanalisi, cioè tra un primo ente (che chiamerò unità fisica) costituito dall'osservatore, dall'osservato e dalla relazione che si instaura tra i due, e un secondo ente (che chiamerò unità analitica) costituito dall'analizzante, dall'analista e dalla reciproca relazione. L'analogia tra osservatore e analizzante sta nel fatto che il punto d'arrivo del percorso di ricerca è sempre una "forma che si crea nella mente", mentre quello tra osservato ed analista sta nel fatto che entrambi svolgono una funzione di "specchio". Uno scienziato, dopo che abbia fatto un'esperienza analitica, cambia, ed in che modo, la propria posizione come osservatore?

M.C. Non riesco a capire la differenza tra analizzante ed analista. Mi aspettavo che la tua similitudine fosse tra osservato e analizzato da un lato e fra osservante e analizzante (o analista, che secondo me si equivalgono) dall'altro. Ma l'analogia fra osservato e analista proprio non capisco quale sia. Ti prego perciò di riformulare la domanda in modo che possa capirla.

F.B. Mi scuso per essere stato poco chiaro nel formulare la domanda. La similitudine che intendo evidenziare è proprio quella tra osservatore e analizzante da un lato e osservato e analista dall'altro: nel senso che la parte attiva della ricerca è svolta dall'osservatore e dall'analizzante, perché entrambi sono nella posizione di ricercatore: l'uno cerca nell'oggetto, l'altro cerca nella parte nascosta di se stesso; ciò che trovano, se trovano qualcosa, è sempre un'immagine mentale (o meglio una nuova immagine mentale). Dall'altro lato l'oggetto e l'analista sono i "luoghi" in cui l'osservatore o l'analizzante proiettano il loro pensiero; essi svolgono una funzione passiva, nel senso che non fanno altro che rimandare al ricercatore-analizzante l'immagine del suo pensiero. Più l'analista tace, più permette all'analisi di avanzare. Certo ogni tanto l'analista interviene, ma anche l'oggetto lo fa, impedendo all'osservatore di farsi manipolare oltre certi limiti.

M.C. L'equivoco è nato dal fatto che io chiamo "analizzato" la persona che intraprende una terapia analitica, mentre tu la chiami "analizzante". Potrebbe essere interessante analizzare perché io vedo come oggetto passivo quello che tu vedi come soggetto attivo, ma questo riguarda il mio inconscio e lo lasciamo da parte. Chiarito questo, devo insistere che in linea di principio io rifiuto le analogie fra il mondo della fisica e il mondo della psicanalisi. Questo è coerente con la mia impostazione batesoniana, che vede nettamente separato il "mondo delle galassie e delle palle da biliardo" (pleroma) dal mondo della vita e della mente, o delle menti (creatura). Per venticinque anni le mie ricerche sui fondamenti della meccanica quantistica hanno avuto per oggetto la battaglia contro la cazzata dell'osservatore che influenza lo stato dell'oggetto osservato, come se fosse un Gellner che piega i cucchiaini con lo sguardo. Come Bohr aveva capito benissimo, l'osservatore, come uomo o come mente, non fa altro che leggere un indice di uno strumento classico, e dunque non influenza un bel nulla, ed è questa la ragione per cui tutti gli osservatori che guardano questo indice concordano nel leggere lo stesso numero. Il problema fisico è dunque quello di capire com'è che un oggetto macroscopico (contatore), fatto di un numero grandissimo di oggetti microscopici (atomi), si comporta come un oggetto classico (miscela statistica) invece che come un oggetto quantistico (sovrapposizione di stati6). Questo problema è stato risolto, anche con il contributo mio e del mio gruppo, e quindi parlare della mente dell'osservatore che cambia lo stato dell'oggetto osservato è semplicemente fantascienza o woodoo. L'equivoco è nato, per i padri fondatori della meccanica quantistica, dal fatto che il mondo quantistico è intrinsecamente aleatorio, e dunque dal fatto che nell'interazione fra strumento (classico) di misura e oggetto (quantistico) microscopico, l'indice può fermarsi su uno qualsiasi dei molti possibili valori della grandezza misurata, con probabilità perfettamente calcolabile mediante la funzione d'onda dell'oggetto stesso. Ma, come si vede, l'osservatore non c'entra nulla. È una questione privata fra strumento e oggetto, entrambi sistemi fisici, ed entrambi privi di qualunque cosa possa somigliare a una mente o ad un'anima (checché ne possa dire quel buffone di Fritjof Capra). Questo per quanto riguarda la fisica. È ovvio dunque che uno scienziato che abbia fatto un'esperienza analitica, legge, in quanto osservatore, i numeri dei suoi strumenti esattamente come uno che non l'abbia fatta. Altra cosa è invece domandarsi se i modelli mentali che il primo si fa della realtà possano essere diversi da quelli che si fa il secondo. Per quanto mi riguarda l'aver fatto l'analisi mi ha permesso di scorgere l'aspetto soggettivo (nel senso individuale, ma soprattutto nel senso collettivo di Zeitgeist di un dato contesto storico) della nascita delle teorie scientifiche, mentre in generale uno scienziato "normale" è più ingenuo e pensa che le teorie siano soltanto un rispecchiamento oggettivo della realtà circostante.

F.B. I possibili oggetti (argomenti, teorie) della ricerca sono innumerevoli, se non infiniti, (mi farebbe piacere sapere se tu pensi che lo siano). È dunque possibile che un oggetto della ricerca sia individuato da un solo ricercatore, oppure che la probabilità che un altro ricercatore individui lo stesso oggetto sia molto bassa. Se ipotizziamo che quest'oggetto ponga un problema etico, è inevitabile che lo scienziato debba scegliere e motivare la sua scelta. Pensi che uno scienziato che abbia fatto un percorso analitico si porrà un certo tipo di problemi, fino ad arrivare a sospendere la sua ricerca qualora intuisse che l'oggetto che lo guida come scienziato si ponga in contrasto con i princìpi etici che lo guidano come uomo? O, nel caso pensasse che la ricerca debba proseguire a tutti i costi (e sembra proprio questa la strada imboccata della scienza, come se alla base ci fosse una sorta d'ingenuità o un "non volerne sapere" di coloro che la praticano), quali motivazioni potrebbe darsi?

M.C. Il caso di uno scienziato singolo che si trova di fronte a un problema completamente nuovo, il quale pone problemi etici non ancora affrontati, è oggi molto raro, per non dire impossibile. Lo scienziato fa comunque sempre parte di una comunità, piccola o grande che sia, anche perché, se non lo fosse, non sarebbe considerato uno scienziato. Deve aver pubblicato lavori su riviste accettate, essere invitato a congressi ecc. I problemi bioetici recenti (clonazione, cellule staminali, nuove terapie che devono essere sperimentate, creazione di organismi transgenici, o addirittura sviluppo di armi batteriologiche e così via) mostrano che il singolo si trova piuttosto a dover decidere se ritirarsi individualmente da un settore di ricerca che comunque va avanti -, il cui sviluppo potrebbe porgli dei problemi di coscienza, oppure continuare perché quello è il suo mestiere. In tal caso mi sembra evidente che uno scienziato che abbia fatto un percorso analitico farà la sua scelta in modo diverso da uno che non l'ha fatto. La sua scelta dipenderà ovviamente dalla sua storia personale. Il vero problema è un problema collettivo, non individuale, e dunque diventa un problema politico. La domanda è: se gli sviluppi in un certo settore dovessero condurre a conseguenze potenzialmente pericolose o nefaste dirette o indirette per qualcuno, chi deve intervenire? Dovrebbe essere la comunità scientifica stessa a decidere una moratoria, o spetta all'autorità politica imporre un divieto? La prima soluzione è utopistica, perché ci sarà sempre qualcuno che infrangerebbe la moratoria per i soldi, o per la gloria, o perché pensa che tutto quello che si può fare si deve fare. La seconda rischia di diventare una misura repressiva potenzialmente pericolosa. Secondo me c'è una sola cosa da fare: tagliare il legame tra ricerca e mercato, per sottrarre la ricerca di frontiera alla logica del profitto, abolendo la brevettabilità dei suoi risultati e mantenendola soltanto per i procedimenti industriali necessari a ottenere i prodotti che da quei risultati derivano. Per esempio non dovrebbe essere possibile brevettare un nuovo gene in quanto tale, ma solo le tecniche per produrlo. È una strada lunga e difficile, che le multinazionali ostacoleranno in tutti i modi, ma sarebbe già molto cominciare a fare dei passi in quella direzione. Se venisse a mancare l'incentivo del profitto, la scienza sarebbe più libera e più sensibile all'influenza di altri fattori.

Note

Le domande a Marcello Cini sono state poste da Franco Borghero, che è anche il curatore delle note.

Marcello Cini è nato a Firenze nel 1923. È stato ordinario di Fisica teorica, poi di Teorie quantistiche e oggi è professore emerito dell'Università La Sapienza di Roma. Nella sua attività di ricerca si è occupato di fisica delle particelle elementari e successivamente dei fondamenti della meccanica quantistica. Il suo interesse per la storia della scienza e per l'epistemologia lo hanno portato a partecipare con saggi e libri al dibattito su questi temi negli ultimi trent'anni. È' stato vicepresidente della Società Italiana di Fisica, vicedirettore della rivista internazionale di fisica Il Nuovo Cimento, direttore del Centro di Ricerca in Metodologie della Scienza de La Sapienza, membro della presidenza del consiglio scientifico di Legambiente e collaboratore del quotidiano Il manifesto. Ha pubblicato un centinaio di articoli su riviste internazionali di fisica e di storia della scienza, testi di fisica per l'università e la scuola secondaria e inoltre: L'ape e l'architetto (con G. Ciccotti, G. Jona-Lasinio, M. De Maria, Feltrinelli, Milano 1976); Il gioco delle regole (con F.B. Mazzonis, Feltrinelli, Milano 1982); Trentatre variazioni su un tema (Editori Riuniti, Roma1990); Un paradiso perduto (Feltrinelli, Milano 1994); Quantum Theory without reduction (con J.M.Lévy-Leblond, Adam Hilger 1991); Dialoghi di un cattivo maestro (Bollati Boringhieri, Torino 2001, in stampa).

1. "Supercorde": prende questo nome la teoria che consente di trattare le quattro forze fondamentali (elettromagnetica, nucleare debole, nucleare forte e gravitazionale) come aspetti diversi di uno stesso principio fondamentale. Per far questo s'ipotizza che le particelle elementari siano costituite da corde microscopiche e differenziate dalle diverse oscillazioni armoniche delle stesse. Queste dimensioni, per quanto siano dell'ordine di grandezza della distanza di Planck (Lp 10-33 cm, cioè circa 10-20 volte più piccola del diametro del protone), sono definite in uno spazio a dieci dimensioni.

2. "GUT" (in italiano "GTU"): Grande Teoria Unificata. È un insieme di tentativi (ancora parziali) di comprendere la forza elettromagnetica, la forza nucleare debole (già unificate con successo) e la forza nucleare forte in un'unica teoria. La GTU non unifica, in ogni caso, la quarta forza fondamentale: la gravità (cfM.C. S. Hawking, Dal big bang ai buchi neri, Rizzoli, p. 93 sgg.).

3. Il computer quantistico non basa i propri calcoli su operazioni deterministiche, ma fornisce un ventaglio di soluzioni probabilistiche determinate dai possibili stati quantistici assunti dalle particelle elementari. Attualmente si sono tentate delle realizzazioni di piccole componenti di un computer quantico, ma la difficoltà ad ottenere un sistema quantico puro è molto elevata ed in più non si possono usare le regole architettoniche finora usate nei sistemi elettronici. Il computer quantico è studiato per sfruttare le leggi della meccanica quantistica e fare in modo che queste conducano alla soluzione del problema. Fra le soluzioni fornite, il computer quantistico, tenderà a privilegiare le soluzioni più consone, per terminare in definitiva la propria elaborazione sull'unica possibile. Questo metodo d'elaborazione non è di tipo costruttivo, ma di tipo eliminativo; cioè dall'insieme di tutte le soluzioni si eliminano quelle che ad ogni passo di computazione si dimostrano inadatte. Questo processo di eliminazione non è svolto in maniera sequenziale, come avverrebbe in un sistema basato sull'architettura di Von Neumann, ma si basa sulle leggi quantistiche della materia, dove tutti gli stati-soluzione del problema sono in qualche misura presenti ed alcuni stati sono più probabili di altri (perciò sono anche i più probabili candidati ad essere la soluzione finale del problema). Attualmente si sono tentate delle realizzazioni di piccole componenti quantistiche di un computer quantico, ma la difficoltà ad ottenere un sistema quantico puro è molto elevata anche in considerazione del fatto che non si possono usare le regole architettoniche finora usate nei sistemi elettronici.

4. In fisica la parola "vetro" indica strutture amorfe e prive di quella ripetitività e simmetria che caratterizza i cristalli. Il vetro di spin è materiale virtuale composto da magneti elementari, che puntano solamente in due direzioni: alto e basso, assimilabili al "vero" o "falso" delle variabili logiche. Tra i magneti agiscono forze il cui ruolo è simile a quello delle clausole, che tendono ad allinearli oppure a farli puntare in direzioni opposte. I vetri di spin sono molto popolari tra i fisici perché suscettibili di una trattazione matematica che dà indicazioni utili per lo studio dei sistemi complessi. Variando la temperatura o cambiando le forze tra magneti la struttura fisica del vetro di spin può cambiare in modo discontinuo e macroscopico, passando per quella che i fisici chiamano "transizione di fase". Qualsiasi materiale è soggetto a transizioni di fase se sottoposto a cambiamenti di temperatura, pressione o composizione chimica. L'ebollizione e il congelamento dell'acqua sono esempi ben noti di transizioni di fase.

5. Le reti booleane sono modelli matematici che sono utilizzati per spiegare la possibilità di autorganizzazione della materia, ovvero della genesi di un ordine da un disordine primitivo, della comparsa spontanea di una regola dal caos, di una sintropia che si oppone all'entropia.

6. I diversi geni, nei loro due stati attivo-inattivo, vengono assimilati a delle variabili binarie, e ciò che determina lo stato complessivo del sistema in un certo istante è l'insieme di tutti i singoli stati in quel dato istante. L'insieme totale dei possibili stati del sistema è molto grande (se si tratta di n variabili, si hanno 2n stati), ma è comunque un numero finito. Da uno stato del sistema si passa deterministicamente (e sincronicamente) allo stato successivo mediante una legge (logica) che individua lo stato in cui si va a trovare ogni singola variabile in funzione di quelli in cui si trovano all'istante precedente le sue variabili d'ingresso (ovvero i suoi input). Vale a dire che lo stato futuro di un gene è determinato dallo stato di quei geni a cui esso è causalmente collegato. Con il passare del tempo, la complessità potenziale del sistema si ridurrà ai soli stati costituenti: i cosiddetti attrattori, i quali possono essere pochi anche nel caso di un sistema composto da un grande numero di variabili.

 

Sommario degli articoli