Plagio Ergo Sum (su chi ti copia e ci pubblica un libro)

Milano, febbraio 2016 – Come ben sanno i lettori affezionati di questo blog [http://bit.ly/1UV0zc6] anni fa mi è successa una disavventura. A gennaio 2007 discuto la tesi di dottorato in filosofia antica a Milano. Pochi mesi dopo vengo invitata ad un convegno di Scienza Antica per parlare della biologia di Aristotele. Scrivo una quarantina di pagine sulla trasmissione dei caratteri ereditari nel De generatione animalium IV.3 affrontando problemi quali lo statuto delle forme in Aristotele, la formazione dell’embrione e la struttura parte-tutto sottesa alla biologia. Il testo discusso in quell’occasione è stato pubblicato nel 2011 nella miscellanea di un convegno tenutosi l’anno dopo. Presento, proprio nella primavera-estate del 2007, un progetto di ricerca per un assegno sulla psicologia e la metafisica a paradigma mereologico in Aristotele. Sull’interpretazione mereologica di Metafisica Zeta, cui lavorai lungo il primo anno di dottorato per poi focalizzarmi sulla percezione, ho ampiamente scritto su questo blog (oltre ad aver discusso la posizione di Frede-Patzig durante il colloquio di passaggio d’anno di dottorato nel 2005).

Solo nel settembre del 2009 il docente che “seguiva” le mie ricerche mi informa che un suo laureando aveva trascritto i contenuti dei miei studi nella sua tesi magistrale (tutti questi contenuti li trovate pubblicati su questo blog a partire dal 2004). Le tesi di questa persona, triennale e magistrale, riprendono entrambe i contenuti che trovate su questo blog pubblicati tra il 2004 e il 2006. Gli stessi contenuti sono stati inviati a mezzo @ al docente che ha seguito entrambi (e che ora “non ricorda” di aver ricevuto le mie @, che ovviamente ho conservato nella posta inviata). 

Il docente non volle prendere posizione nonostante i quintali di carta che gli consegnai negli anni a mano e via e-mail (dal 2002, anno della mia laurea, al 2010), disse poi che era stato “un atto di debolezza”, disse tante altre assurdità (l’ultima mi è arrivata per interposta persona, ossia che “non ricorda tutte le mie ricerche passate”).

E non era finita. Molte pagine del mio blog erano state scopiazzate e altre pagine ancora sono finite in un libro uscito a dicembre 2015. Il volume è questo: Enrico Rini, Il nostro metodo consueto. Parte e tutto in Aristotele: dal continuo alle forme degli animali, Vita&Pensiero, 2015. Non vengo mai citata dall’autore pur essendo evidente un (ab)uso a mani basse del mio lavoro: sequenze di righe identiche per non parlare delle conclusioni sul piano interpretativo. Identiche.

Per tutelarmi, a febbraio di quest’anno partono due diffide legali. L’editore ovviamente si appella alla manleva; oltre ai file salvati su hard disk esterno e inviati al docente. il mio blog è on line da dieci anni e più. Ovviamente non mi interessa andare in causa, visto che non ci faccio nulla con questi studi; inoltre il docente che “seguiva” entrambi nelle ricerche mi disse nel 2009 che le mie pagine erano state copiate. So dal 2009 del furto e del plagio delle mie pagine, dunque penalmente se vado in causa il tutto rischierebbe di cadere nel nulla per “vizio di forma”: come mai non ho denunciato subito? Certo, come mai. Mi sono fidata del docente che credevo avesse a cuore le mie ricerche, e che mi aveva garantito che le mie pagine non sarebbero più ricomparse nei lavori altrui. 

Faccio alcuni esempi di pezzi identici. Ci sono altre sezioni riassunte. Oltre ai file salvati via e-mail e su supporti usb le cui date sono già state verificate dai legali cui mi sono rivolta (molte antecedenti a marzo 2007).

1) Una relazione che tenni ad un convegno a Firenze nel marzo 2006, inviata a mezzo e-mail a vari docenti e messa in rete su dropbox [http://bit.ly/1YnjUBD] contiene alcuni passi finiti nella sua tesi del luglio 2007. Me la mostrò il docente nel settembre 2009.

2) “Filosofia Prima e Filosofie Seconde in Aristotele”, oggetto di uno schizzo teorico inviato per e-mail al docente nel marzo 2006 e presente su questo sito (oltre che nelle mie pubblicazioni del 2011) è uguale a pagina 133-135 del Metodo Consueto. Trascrivo. “Il capitolo terzo di Metaph. Z fa da cerniera tra l’ontologia delle Categorie e l’ousiologia metafisica dei capitoli successivi; si tratta come sai di un dato che le interpretazioni più tecnicizzanti (quali quella di Frede-Patzig,Wedin e soprattutto Burnyeat) non fanno altro che enfatizzare e porre come chiave di volta delle proprie ricostruzioni: mi pare sia corretto sostenere con loro che il capitolo terzo del libro assolve a una funzione programmatica per ogni indagine ulteriore. L’intero sviluppo dell’ousiologia di Z, infatti, prende le mosse dalla messa in parentesi metodologica – operata in Z,2 – del problema “popolazionale” (quali sono le sostanze?) a favore del problema criteriologico (quale è il criterio in base al quale un ente è detto sostanza). […]  L’argomento di Metafisica Z,3 può essere letto tuttavia anche in modo controfattuale, ovvero come una dimostrazione per assurdo non tanto dell’erroneità del criterio dell’esser-soggetto, quanto della fallacia che consiste nel confondere il piano logico dell’ontologia su cui esso spazia con il piano propriamente metafisico che fa da sfondo al discorso ordinario. Per il nostro argomento è significativo un solo aspetto della fallacia che l’argomento mostra: l’implicazione mereologica dell’assolutizzazione di questo criterio, per cui si è spinti a ritenere che la scatola nera costituita dal soggetto ultimo non possa essere internamente articolata: se quella che si è indicata come la relatività di scala del discorso logico fosse assunta come un dato metafisico ultimativo ci dovremmo arrendere non tanto ad una ontologia indeterminata, quanto piuttosto ad una ontologia dell’indeterminato,che non ha evidentemente alcun senso. […] L’impegno ontologico di Aristotele sembra per larga parte, anche se non certamente in ogni luogo, svincolato dalla ammissione definitiva delle sostanze sovrasensibili: è sufficiente poter pensare che ve ne siano, o forse è sufficiente che esse siano possibili. In nessuno dei suoi rami la scienza aristotelica prende a prestito da una scienza superiore, e tantomeno dalla metafisica, i propri principi e la garanzia della sussistenza dei propri oggetti: l’aspetto fondazionale deve essere al contrario inteso come dato dall’ordinamento e coordinamento regolato dei compartimenti scientifici speciali a livello metateorico […] 

3) La Classica Extensional Mereology: pagine 17-23 di Il Nostro Metodo Consueto sono uguali a questo link datato 2007 [http://bit.ly/1T5acni];

Metodo Consueto: I concetti di parte e tutto hanno una varietà di utilizzi amplissima, che una ricerca filosofica dovrebbe impegnarsi a districare attraverso la disamina sistematica dei significati di “parte” e “tutto” e l’individuazione, tra di essi, di un significato focale concettualmente presupposto dagli altri. Questo sarà l’approccio aristotelico. Ciò che invece contraddistingue la mereologia come studio formale è la prescissione metodica dalla multivocità dei concetti di parte e tutto: i diversi tipi di parte sono in una prima mossa parificati e ridotti al loro minimo comune denominatore dato dall’essere costituenti. Posta dunque come “parte”, semplicemente, ogni componente di un intero, la relazione di composizione/esser parte di (espressa da una costante predicativa binaria ‘P’) viene determinata attraverso la formulazione di teorie definite da un opportuno insieme di assiomi per ‘P’. Solo in un momento successivo, e a un differente livello, l’adozione di determinati assiomi piuttosto che altri indirizza la teoria formulata in un senso piuttosto che in un altro, e dunque porta ad ammettere come costituenti in senso proprio certi tipi di parti piuttosto che altri. Tuttavia, la determinazione della priorità di uno sviluppo della teoria di base rispetto a un altro è, appunto, determinato post factum: esso è oggetto di una ricerca non formale ma sostantiva (e d’altra parte anche meta-logica), il cui effetto è primariamente quello di stabilire l’efficacia descrittiva dei modelli per le diverse teorie rispetto ai diversi campi fenomenici che sono oggetto di ricerca di merito. Una mereologia così intesa (CEM) fu introdotta nei lavori di Stanislaw Lesniewski e Alfred N. Whitehead (ca. 1914-16) e successivamente sviluppata, primariamente, da Alfred Tarski, Henry Leonard, Nelson Goodman e David Lewis”.

Il mio blog: I concetti di parte e tutto hanno una varietà di utilizzi amplissima, che una ricerca filosofica dovrebbe impegnarsi a districare attraverso la disamina sistematica dei significati di “parte” e “tutto” e l’individuazione, tra di essi, di un significato focale concettualmente presupposto dagli altri. Questo sarà l’approccio aristotelico. Ciò che invece contraddistingue la mereologia come studio formale è la prescissione metodica dalla multivocità dei concetti di parte e tutto: i diversi tipi di parte sono in una prima mossa parificati e ridotti al loro minimo comune denominatore dato dall’essere costituenti. Posta dunque come “parte”, semplicemente, ogni componente di un intero, la relazione di composizione/esser parte di (espressa da una costante predicativa binaria ‘P’) viene determinata attraverso la formulazione di teorie definite da un opportuno insieme di assiomi per ‘P’. Solo in un momento successivo, e a un differente livello, l’adozione di determinati assiomi piuttosto che altri indirizza la teoria formulata in un senso piuttosto che in un altro, e dunque porta ad ammettere come costituenti in senso proprio certi tipi di parti piuttosto che altri. Tuttavia, la determinazione della priorità di uno sviluppo della teoria di base rispetto a un altro è, appunto, determinato post factum: esso è oggetto di una ricerca non formale ma sostantiva (e d’altra parte anche meta-logica), il cui effetto è primariamente quello di stabilire l’efficacia descrittiva dei modelli per le diverse teorie rispetto ai diversi campi fenomenici che sono oggetto di ricerca di merito. Una mereologia così intesa (CEM) fu introdotta nei lavori di Stanislaw Lesniewski e Alfred N. Whitehead (ca. 1914-16) e successivamente sviluppata, primariamente, da Alfred Tarski, Henry Leonard, Nelson Goodman e David Lewis”.

4) L’analisi e interpretazione di Metafisica Iota: pagine 69-79  del Metodo Consueto sono uguali a questo link del mio blog datato 2009 [http://bit.ly/1Tb6nM6].

Metodo Consueto pag 69: “Nella Metafisica – segnatamente nel decimo libro – Aristotele riprende da un’angolazione differente l’analitica del mutamento articolata in Phys. V e VI. Anche in questo caso, come in generale per la concettualità ereditata dalla Fisica (a partire ovviamente dalle nozioni di causa, natura, forma e materia), l’approccio di Aristotele consiste nel ridefinire l’apparato teorico introdotto in funzione dell’analisi delle sostanze sensibili e del loro mutamento, in modo da metterne in luce lo scheletro fondamentale. Quest’operazione consente in primo luogo un’analisi delle medesime sostanze sensibili, considerate però ora non in quanto sensibili, ma semplicemente in quanto sostanze – e ciò avviene a prescindere dunque dall’esistenza o meno di sostanze immobili. Metafisica Iota rappresenta, anche da questa prospettiva metodologica, un luogo di osservazione privilegiato; qui troviamo infatti il cuore dell’ontologia formale di Aristotele, e troviamo in particolare un’analisi di quelle nozioni – come unità, identità e differenza – le cui condizioni di applicazione non introducono restrizione alcuna sull’estensione: quelle nozioni universalissime che la terminologia scolastica chiamerà trascendentali.”

La corrispondente pagina pubblicata sul blog che state leggendo:Nella Metafisica – segnatamente nel decimo libro – Aristotele riprende da un’angolazione differente l’analitica del mutamento articolata in Phys. V e VI. Anche in questo caso, come in generale per la concettualità ereditata dalla Fisica (a partire ovviamente dalle nozioni di causa, natura, forma e materia), l’approccio di Aristotele consiste nel ridefinire l’apparato teorico introdotto in funzione dell’analisi delle sostanze sensibili e del loro mutamento, in modo da metterne in luce lo scheletro fondamentale. Quest’operazione consente in primo luogo un’analisi delle medesime sostanze sensibili, considerate però ora non in quanto sensibili, ma semplicemente in quanto sostanze – e ciò avviene a prescindere dunque dall’esistenza o meno di sostanze immobili. Metafisica Iota rappresenta, anche da questa prospettiva metodologica, un luogo di osservazione privilegiato; qui troviamo infatti il cuore dell’ontologia formale di Aristotele, e troviamo in particolare un’analisi di quelle nozioni – come unità, identità e differenza – le cui condizioni di applicazione non introducono restrizione alcuna sull’estensione: quelle nozioni universalissime che la terminologia scolastica chiamerà trascendentali”.

4) Sul blog trovate le seguenti sezioni finite nella sua tesi magistrale del 2007 e riassunte in Il Nostro Metodo Consueto pagine 103-129:

Divagazioni Metafisiche (1): il soggetto categoriale in Aristotele [http://bit.ly/1VU9zzc]

Divagazioni Metafisiche (2): dal soggetto categoriale alla definizione d’essenza [http://bit.ly/1OkheEv]

Divagazioni Metafisiche (3): criteri di definibilità [http://bit.ly/1ZI9a17]

Divagazioni Metafisiche (4): le parti e il tutto [http://bit.ly/23JEMV1]

Divagazioni Metafisiche (5): criteri di esclusione [http://bit.ly/1VU9Fad]

Divagazioni Metafisiche (6): la forma come principio [http://bit.ly/1T9vgLp]

In sintesi questo è quanto è accaduto. Si parla di oltre sei anni di collaborazione fianco a fianco di un docente che ora dice di “non ricordare” gli argomenti delle mie ricerche (per evitare di assumersi le responsabilità di non aver denunciato un plagio). Ma questo non fa alcuna differenza, ormai. 

Annunci

Theodor F. E. Kaluza a Flatlandia

Königsberg, primo decennio del 1900.

[…] “Papà, mi leggi una storia?”

Seduto nel piccolo e polveroso studio di casa sua, il professore rimuginava. Era completamente immerso nei suoi pensieri. Come “Privatdozent” di matematica all’università di Königsberg gli toccava vivere alla giornata, dipendendo letteralmente dal numero dei posti che venivano occupati giornalmente durante le sue lezioni. Fare lezione era un po’ come fare l’artista di strada: entrambi dovevano riempire di monete i loro cappelli, entrambi erano in balìa del loro pubblico o, forse, del destino. Come poteva mantenere se stesso e la sua famiglia, come poteva ottenere un lavoro stabile se non pubblicava quasi più nulla?

Fare ricerca non significa fare lo scribacchino, si ripeteva. Fare ricerca non significa compilare pagine sulle riviste (pseudo)scientifiche, si ripeteva. Fare ricerca significa cullare, alimentare, sviluppare le idee. Costruire mondi e geometrie, applicare modelli, scoprire nuove dimensioni. Le dimensioni, appunto.

Papà, per favore, sto aspettando. Mi racconti una storia?”

Trascorrere il tempo con la sua famiglia era molto più soddisfacente che rincorrere un effimero successo accademico. Ma non si vive d’aria. Aveva comunque bisogno di uno stipendio.

Papààà, allora arrivi?”

Gli piaceva giocare con i figli, soprattutto amava raccontare loro storie ed incoraggiare i loro interessi culturali. Pensava che l’abitudine al racconto nel coricarsi per sua figlia fosse molto importante: quella sera le lesse Flatlandia. Con sua figlia Dorothea esplorava un regno piatto pieno di strane creature che non sapevano nulla di un mondo più grande. Vivevano la loro vita nell’ignoranza di quello che c’era oltre il loro sottile orizzonte. Pensò alle strane creature, che chiamò cimici, costrette a vivere in un mondo limitato, in due dimensioni. Intanto, mentre Dorothea sorrideva e nel dormiveglia sentiva sempre più lontane le parole di suo padre, lui ripensava alle ricerche di Helmholtz, Gauss Sylvester. […]

Ho un po’ romanzato – poco – questo scorcio biografico. Vi sarete chiesti chi è questo affettuoso prof. di matematica che legge Flatlandia alla figlia cercando di esorcizzare le preoccupazioni quotidiane. La sua storia è magistralmente raccontata da Paul Halpern, nel suo The Great Beyond – Higher Dimensions, Parallel Universes, and the Extraordinary Search for a Theory of Everything, John Wiley & Sons, 2004 (qui trovate il link alla pagina di amazon, se vi interessa). 

Chi non si occupa di fisica difficilmente conosce figure come Theodor Franz Eduard Kaluza (1885-1954). È lui il protagonista di questa storia. Noto agli addetti ai lavori per la teoria di Kaluza-Klein concernente le equazioni di campo in uno spazio pentadimensionale, meno note sono le sue passioni letterarie coltivate fin da quando svolgeva la (difficile) attività di Privatdozent all’università di Königsberg. Qui sotto trovate a titolo esemplificativo un’infografica di Luca Lista che potete trovare sul sito dell’Infn.

Brillante matematico ma anche padre affettuoso, Kaluza si dilettava a leggere ai suoi figli un famoso racconto dEdwin Abbott Abbott, Flatlandia, una storia fantastica sulle avventure di un abitante di un ipotetico universo bidimensionale che entra in contatto con un universo tridimensionale. Kaluza ne possedeva una copia, nella piccola biblioteca di casa, convinto che questo libro fosse propedeutico ad un corretto approccio alla matematica soprattutto perché capace di sollecitare e sviluppare l’immaginazione e la curiosità.

Soprattutto oggi, in un’epoca in cui sembrano vincere gli specialismi e le opposizioni tra saperi, mi sembra importante ricordare quanto siano importanti l’arte, la letteratura, i saperi in genere per alimentare la fantasia e la capacità di astrazione necessarie soprattutto a chi si occupa di matematica e fisica. Di recente mi sono imbattuta in un’altra bella raccolta, curata da Claudio Bartocci per Einaudi, intitolata Racconti Matematici. Contiene, tra gli altri, un racconto di Stanislav LemL’hotel Sraordinario, dedicato al paradosso dell’hotel di Hilbert che contiene infinite stanze.

Torniamo a Kaluza. Nel 1919 Kaluza fu l’autore di un manoscritto che sottopose ad Albert Einstein, un lavoro intitolato Sul problema dell’unità in fisica, nel quale proponeva l’esistenza di una quinta dimensione (oltre alle tre spaziali e alla quarta temporale) per riuscire ad unificare la gravitazione di Einstein con l’elettromagnetismo di Maxwell. Anche l’elettromagnetismo poteva essere descritto mediante una deformazione geometrica, ovviamente solo a condizione di trovarsi in un mondo a 5 dimensioni.

In questa prospettiva, il campo elettrico diventa una deformazione della quinta dimensione e due cariche di segno opposto possono avvicinarsi solo perché, come sappiamo, il percorso che compiono non è altro che una geodetica dello spazio, ovvero la curva di minima distanza che unisce due punti. Kaluza riuscì a visualizzare immediatamente, su base geometrica, questa quinta dimensione, e lo fece pensandola come se fosse un cerchio associato a ogni punto dello spaziotempo; in sostanza si tratta dell’analogo pentadimensionale di un cilindro. Einstein rimase piacevolmente colpito dal testo di Kaluza, anche se dovettero passare due anni prima che ne appoggiasse la pubblicazione. Il lavoro di Kaluza avrebbe avuto fortuna solo qualche anno dopo, dal 1927 in poi, quando un altro fisico, lo svedese Oskar Klein, ebbe un’intuizione:  la quinta dimensione non si vede perché è troppo piccola.

Nella teoria di Kaluza-Klein le due forze fondamentali fino ad allora conosciute, la gravità e l’elettromagnetismo, divenivano quindi entrambe manifestazione della geometria dello spaziotempo. Le deformazioni e oscillazioni spazio 3D danno luogo ai fenomeni gravitazionali, quelle della quinta dimensione creano la luce, le forze magnetiche ed elettriche

Il Leibniz di Montgomery Furth

ResearchBlogging.org

Montgomery Furth è stato professore emerito di filosofia in California (UCLA). Scomparso prematuramente nel 1991 all’età di 58 anni, è uno storico della filosofia – o, meglio, un filosofo – che ho amato molto nel periodo immediatamente successivo alla mia discussione di dottorato su Aristotele.Poco celebrato in Italia (ancora oggi l’orientamento prevalente tra gli studiosi di filosofia antica è quello “storico” o “continentale”), Furth  è stato, tra le altre cose, un acuto interprete dell’ontologia eleatica, di Aristotele, Leibniz e Frege.

Il Leibniz di Montgomery Furth è un metafisico dedito a sviscerare la natura delle strutture materiali, ridotte a mera rappresentazione di una realtà che materiale non è, la monade, attività che lo porterebbe a fare significative concessioni a quello che noi moderni chiamiamo fenomenismo, ossia la tesi secondo cui gli oggetti fisici non esistono in quanto cose in sé, ma solamente come fenomeni percettivi o stimoli sensoriali (il rosso, la durezza, etc..) collocati nello spazio e nel tempo. Più in dettaglio, il fenomenismo tende a ridurre il discorso sugli oggetti materiali a un discorso concernente un insieme di dati sensoriali o strumentali (e va tenuto distinto dalla fenomenologia, sempre).

Vediamo se riesco a fare chiarezza. Vorrei spiegare (§1) che cos’è la monade per mostrarvi la potenza dell’interpretazione strutturale dell’ontologia leibniziana proposta da Furth e, successivamente, (§2) chiarire attraverso i concetti di spazio e tempo perché non concordo con Furth nel designare Leibniz come un fenomenista (idealista sì, ma non fenomenista).

Ritratto di Gottfried Wilhelm von Leibniz – Biblioteca di Hannover. Credits: wikipedia.

§1- La monade e l’ontologia delle strutture – Il termine monade viene usato per la prima volta dai pitagorici e poi ripreso da Niccolò Cusano e Giordano Bruno, significa elemento unitario ed è inteso da Leibniz come elemento ultimo e costitutivo della realtà, un centro immateriale di forza che si identifica con la sostanza individuale. La monade viene introdotta per la prima volta nel 1696 con lo stesso significato di sostanza individuale: si tratta di un atomo spirituale, una sostanza semplice e senza parti, priva di estensione, indivisibile o senza finestre.

E debbono esserci sostanze semplici perché ve ne siano di composte; il composto non essendo altro che un ammasso o aggregatum di semplici. […] Ora, laddove non ci sono parti non c’è estensione, né figura né divisibilità possibili. Queste monadi sono i veri atomi della natura e, in una parola, gli elementi delle cose”, (G. W. Leibniz, I principi della filosofia o monadologia, prop. n. 1-3).

È un concetto elaborato in opposizione al meccanicismo cartesiano che, però, si differenzia dal minimo introdotto da Bruno, ossia da quell’unità fisica indivisibile che entra come costituente in ogni cosa. Per chi conosce Cartesio è semplice immaginare una metafisica in cui non esista il dualismo tra res cogitans e res extensa e in cui esista solo la res cogitans. Tutta la realtà ci apparirà dunque come costituita esclusivamente di tanti soggetti unitari che si fondano da sé, di tanti io penso cartesianamente intesi. Tuttavia, avendo eliminato l’estensione, questa molteplicità di soggetti unitari non sarà collocata in nessun luogo: si pensi a un insieme di punti privi di dimensione fisica. Queste sostanze pensanti, invece di essere poste in relazione con una sostanza corporea per costituire un individuo (secondo la metafora cartesiana del “fantasma dentro la macchina”), si rappresentano idealmente la loro stessa corporeità (e la loro stessa collocazione in un mondo esterno) come fosse un loro attributo.

René Descartes in un ritratto di Frans Hals (1649).

Le monadi sono dunque sostanze logiche, più o meno autoconsapevoli, prive di parti materiali e di estensione; in quanto prive di estensione esse sono anche indivisibili. Le monadi sono in numero infinito, sono state create da Dio e sono in linea di principio eterne. Solo Dio può crearle o, eventualmente, annullarle. Inoltre, in virtù del principio dell’identità degli indiscernibili, ogni monade è diversa dall’altra. Sono inoltre soggetti attivi (l’attività delle monadi è stata concepita da Leibniz come una specie di energia) e sono caratterizzate dalla percezione (nei confronti delle altre monadi) e dall’appetizione (volontà). Esiste una gerarchia tra le monadi che possiamo schematizzare come segue:

1) livello della materia (abitato da monadi passive): è il regno del meccanicismo in cui vigono solo leggi meccaniche e la libertà è assente;

2) livello delle monadi come atomi spirituali. Sono centri di forza senza finestre caratterizzate da un’attività solo interna e da nessun contatto con l’esterno;

3) livello delle monadi con una finestra aperta a Dio;

4) livello di Dio (o grande monade) è la regione dei possibili. come è noto, Dio crea il migliore il migliore dei mondi possibili garantendoci la libertà.

La materia è intesa come fenomeno di realtà immateriali, come rappresentazione di realtà che ci appaiono (fenomeno va inteso etimologicamente, da phainomai, mostrarsi, apparire). La materia prima è la potenza passiva (resistenza o inerzia) che è nella monade. Nelle monadi superiori la potenza passiva o materia prima è l’insieme delle percezioni confuse che costituiscono ciò cche vi è di propriamente finito o di imperfetto nelle monadi create. La materia seconda è invece un aggregato di monadi che nei corpi degli esseri viventi è tenuto insieme e diretto da una monade superiore che è l’anima o monade dominante (visto che il corpo e l’anima seguono leggi indipendenti nasce il problema del loro rapporto esattamente come per Cartesio).

Leibniz Monadology 2.jpg

pagina manoscritta tratta da Le principes de la philosophie, par monsieur Leibniz.

Lo studio dei livelli di realtà e divisibilità fornisce a Furth la possibilità di accostare il metodo strutturale (a sfondo mereologico) usato nello studio di Aristotele alla monadologia di Leibniz. E questo è un aspetto molto convincente della sua analisi. Leibniz concorda con Aristotele sul fatto che vi siano diversi livelli della realtà più o meno complessi – in Aristotele abbiamo i quattro elementi, le misture, le omeomerie, le anomeomerie, poi i corpi con diversi piani strutturali sia verticali che trasversali (nella biologia aristotelica l’ordine delle parti è trasversale, l’ordine di complessità e costituzione della “materia” è verticale).

Contrariamente a quanto aveva sostenuto Cartesio, per Leibniz un animale o una pianta non sono radicalmente diversi. Non però nel senso aristotelico, che li vede entrambi composti di materia e forma in una continuità di piani ilemorfici emergenti che fa sempre capo ad una parte “centrale” che ne definisce l’essenza (il cuore negli animali). La materia per Leibniz non è una realtà indipendente e non esiste in quanto tale, ma solo come manifestazione ultima ed infima di una realtà spirituale monadica. Mentre le realtà inorganiche hanno un solo livello di sostanzialità essendo un semplice aggregato di monadi materiali, se divido un gatto sono di fronte a qualcosa di più di un semplice aggregato, esattamente come riconosceva Aristotele. 

Ho infatti a che fare con un vivente dotato di qualcosa che organizza e struttura le monadi materiali in maniera tale da farne un corpo, un qualcosa di più che una semplice somma mereologica di monadi materiali meramente giustapposte, come invece è un tavolo o un sasso. Il gatto sarà dunque una “somma” di un altro tipo, una somma di particelle materiali organizzate dall’anima o monade dominante (la forma di Aristotele). L’interpretazione di Furth pavimenta la strada a chi intende la monadologia di Leibniz come manifestazione spirituale, pur semplificata e ridotta ai suoi livelli minimi, della biologia di Aristotele.

§2- Lo spazio, il tempo, il fenomeno – Lo spazio e il tempo per Leibniz sono l’ordine di coesistenza e successione delle monadi: concettualmente, prima ci sono le cose e poi vengono il tempo e lo spazio (che, infatti, “nascono” come relazione tra le monadi). Non solo non esistono spazio e tempo assoluti come in Newton, ma questa relazione non va pensata in senso spaziale. Le monadi materiali in reciproca relazione danno vita a allo spazio (allo stesso modo il tempo è il succedersi degli stati delle monadi).

Ma questo spazio e tempo non hanno nulla a che fare con le coordinate geometriche, fisiche ed esterne entro cui potremmo collocare le monadi. Spazio e tempo sono le dimensioni interne alle monadi, stanno nella loro “mente” come conseguenza diretta dell’attività rappresentativa di ciascuna monade – poiché ciascuna monade rappresenta (pensa) le altre monadi come collocate l’una accanto all’altra in uno spazio, oppure come succedentesi, in un ordine, nel tempo. Più in dettaglio, spazio e tempo sono le modalità logiche o concettuali attraverso cui le monadi “pensano” o rappresentano le altre monadi (e, dunque, il mondo).

È questa la concezione concettualistica dello spazio e del tempo che sarà rifiutata da Kant nella Critica della Ragion Pura. Ed è in questa cesura, non molto approfondita da Furth, che si colloca la non adesione di Leibniz al fenomenismo. Abbiamo detto che lo spazio e il tempo sono dentro le monadi, sono interni alla realtà spirituale. La posizione di Leibniz su questo punto è ontologica e riguarda lo spazio e il tempo, non il modo in cui conosciamo le cose che si danno nello spazio e nel tempo. L’interesse primario di Leibniz non è gnoseologico – è ovvio che noi abbiamo solo rappresentazioni delle monadi appunto per le considerazioni sulla loro natura fatte al punto (§1) – ma ontologico. Le cose non si danno in uno spazio-tempo esterno ed oggettivo. Più che un fenomenista Leibniz è un precursore dell’idealismo.

Certo, in nessun caso abbiamo accesso alle cose come sono, ma dobbiamo accontentarci delle cose come ci appaiono: se Berkeley e Hume videro nei fenomeni la realtà stessa, senza alcun residuo, Leibniz è certamente molto più vicino a Kant sul piano gnoseologico: possiamo conoscere soltanto i fenomeni (benché la cosa in sé esista eccome).  Ma Leibniz non è Kant; qui non è Kant perché spazio e tempo non sono esattamente quelle forme pure e a priori di cui Kant parlerà nella Critica. Dato che le varianti di fenomenismo a me note, Mill, Comte e Carnap inclusi, presuppongono tutte una visione “ortodossa” o “fisica” dello spazio-tempo (mantengo il trattino perché lo spaziotempo quadrimensionale è quella cosa di cui parlano Einstein e Minkowski, e qui non è necessario introdurlo), mi sembra più cauto propendere per un’idealismo radicale.  Il fenomenismo, in tutte le sue varianti, afferma l’esistenza di un dualismo di base: da una parte la realtà, dall’altra le nostre percezioni/immagini della realtà. Ma proprio questa visione cartesiana e newtoniana del mondo è ciò che Leibniz nega con forza. Ergo, l’idealismo sembra calzare meglio. 

Anche se le monadi non sono collocate in uno spazio-tempo assoluto o fisico Leibniz deve comunque riconoscere che la realtà è plurale; ciò significa che ci devono essere delle differenze tra le monadi. Ciascuna monade è caratterizzata dal complesso delle differenze qualitative (attributi) che la rendono tale, cioè ben individuata, rispetto alle altre monadi (ecco all’opera il principium individuationis). Ogni monade, in base alle differenze logiche che la caratterizzano, costituisce come abbiamo accennato un punto di vista sul mondo, il che è lo stesso che dire che ogni monade è il mondo nella sua totalità ma considerato da un determinato punto di vista. Ciascuna monade è la totalità intesa dal punto di vista di una sua parte.

§3- La grandezza di Montgomery Furth – La grandezza di Furth non sta solo nelle intuizioni, nelle correlazioni tra piani e autori, ma soprattutto nel metodo usato per accostarsi agli autori del passato. All’inizio vi accennavo all’orientamento “storico” o “continentale” negli studi di storia della filosofia, spesso utilizzato come coltello affilato contro gli “analitici”, contro coloro che sono indicati come cattivi filosofi proprio perché (volutamente?) ignorano la storia della filosofia e/o il dettato stesso dei testi. Questa querelle è ancora viva: benché il libro di Franca d’Agostini, Analitici e Continentali, Raffaello Cortina, sia del 1997, la riabilitazione di un filosofo come Furth non è ancora avvenuta in Italia (molti antichisti lo ignorano nonostante i suoi contributi sulla psicologia, biologia e metafisica di Aristotele siano tra i più profondi che io abbia mai letto).

È assolutamente ovvio che per studiare seriamente Leibniz devo conoscere la lingua in cui scrive. La traduzione corretta del testo è un momento imprescindibile (mai fidarsi delle traduzioni in commercio senza averne una autorevole a fianco!). È però altrettanto vero che non ha senso accostarsi ad un filosofo del passato senza avere una teoria o un’idea in tasca. Non tanto delle domande – quelle sorgono studiando la storia della filosofia – ma un’idea personale che ti martella il cervello notte e giorno. Questa idea o teoria non può che essere nata mettendo il naso nel mondo, leggendo Kant, Bergson, Husserl, Quine. Leggendo i contemporanei, soprattutto. È impossibile fare filosofia senza avere una profonda conoscenza della storia della filosofia. Molto spesso la querelle tra analitici e continentali è un modo per rivendicare la necessità della storia (che condivido, mentre rigetto l’atteggiamento storicistico, crociano e meramente storiografico che certa “filosofia” persegue). È impossibile fare filosofia senza mettere il naso nel mondo contemporaneo ereditandone la grammatica concettuale di base per misurare le distanze e i punti di convergenza con la tradizione.

Tracciare queste distanze/convergenze, ideare mappe concettuali e costruire mondi e non morire nell’abisso delle differenze significa fare filosofia. Certo, è sempre possibile non condividere alcuni esiti di queste costruzioni teoriche (il fenomenismo del Leibniz di Furth, nel nostro esempio); ciò non toglie che leggere Furth significa assistere a questo processo costruttivistico senza cadere in anacronismi o nella retroazione acritica di concetti e linguaggi. Questo fa Furth quando legge gli Eleati, Anassagora, Aristotele, Leibniz e Frege.

Paper:

Furth, M. (1967). Monadology, in “The Philosophical Review”, 76 (2), 169-200 DOI: 10.2307/2183641

I viaggi nel tempo secondo David K. Lewis

Il 28 giugno del 2009 Stephen W. Hawking organizzò una festa all’Università di Cambridge con tartine, champagne e palloncini colorati. Aveva spedito molti inviti, ma non si era presentato nessuno. Come mai? Che invitati antipatici! Non stupitevi: Hawking aveva spedito gli inviti solo a ricevimento concluso. Si trattava di una festa di benvenuto per i futuri viaggiatori del tempo, un ironico esperimento per rafforzare la sua congettura del 1992 secondo la quale viaggiare nel passato è, de facto, impossibile. Parafrasando Enrico Fermi, se i viaggi nel tempo sono possibili, dove sono tutti quanti?

Quello dei viaggi nel tempo è un tema molto delicato: se ad occuparsene è un filosofo non è raro doversi difendere dall’accusa di essere un cattivo metafisico. Se, invece, se ne occupa un fisico, la situazione è ancora più critica. Non solo sul piano accademico non verrebbe preso molto sul serio, ma rovinarsi la carriera non sarebbe affatto strano (e non è un caso che ad occuparsene siano docenti affermati o geni che hanno in tasca un Nobel). E, a ben vedere, non è un aspetto trascurabile; se vi capita in mano un articolo di Einstein, Feynman, Gödel, Davies o Lewis di certo non perdete il vostro tempo.

Stephen William Hawking. Credits: http://www.telegraph.co.uk

Non so se sia davvero possibile viaggiare nel tempo (nel passato, forse no): la mia risposta dipende dal potere descrittivo – più che predittivo – di alcune soluzioni delle equazioni di Einstein (come forse sapete, esistono delle soluzioni matematicamente eleganti e corrette ma che non rispecchiano il nostro universo, vedi l’universo rotante di Gödel). Non dipende certo da presupposti o impegni ontologici di varia natura; la filosofia, semmai, segue la fisica. Esiste un libro, l’unico di taglio divulgativo in lingua italiana, che affronta questo argomento su un duplice piano, fisico e filosofico insieme. Si tratta del volume di Giuliano Torrengo, I viaggi nel tempo. Una guida filosofica, Laterza, Roma-Bari 2011. Ne ho parlato un po’ qui

Una lunga recensione del testo è disponibile su APhEX, Portale Italiano di Filosofia Analitica. Posto che la plausibilità dei viaggi nel tempo va misurata sulla relatività di Einstein, mi sembra interessante analizzare un’opzione filosofica compatibile con essa, che ha avuto abbastanza successo soprattutto in ambito anglo-americano (qui, nell’università italiana, l’approccio analitico in filosofia fatica ancora un po’ ad ottenere le attenzioni che meriterebbe). Si tratta del pensiero di David K. Lewis autore, peraltro, di un suggestivo paper: The Paradoxes of Time Travel. Lewis inizia così:

time travel, I maintain, is possible. The paradoxes of time travel are oddities, not impossibilities. They prove only this much, which few would have doubted: that a possible world where time travel took place would be a most strange world, different in fundamental ways from the world we think is ours”, (Lewis,1976: 145).

Le idee di David K. Lewis sui viaggi nel tempo si basano su alcuni concetti. (i) Una visione del tempo compatibile con la B-teoria di McTaggart; (ii) il realismo modale, e (iii) una metafisica quadrimensionalista che poggia su un’ontologia endurantista. Forse potranno sembrarvi un po’ fumosi, ma se avete la pazienza di leggere spero ne uscirete con qualche incertezza in meno.

§1- Viaggi nel tempo wellesiani e gödeliani – Prima di tutto dobbiamo definire il concetto di viaggio nel tempo.

What is time travel? Inevitably, it involves a discrepancy between time and time. Any traveler departs and then arrives at his destination; the time elapsed from departure to arrival (positive, or perhaps zero) is the duration of the journey. But if he is a time traveler, the separation in time between departure and arrival does not equal the duration of his journey. He departs; he travels for an hour, let us say; then he arrives. The time he reaches is not the time one hour after his departure. It is later, if he has traveled toward the future; earlier, if he has traveled toward the past. If he has traveled far toward the past, it is earlier even than his departure. How can it be that the same two events, his departure and his arrival, are separated by two unequal amounts of time?”, (Lewis, 1976: 145).

David K. Lewis è stato il primo a sottolineare la necessità di una comparazione fra il tempo personale (il modo col quale ognuno di noi sperimenta e stabilisce la successione degli eventi esterni; per intenderci: il tempo che misuriamo con l’orologio che portiamo al polso) e il tempo pubblico (il modo col quale quegli stessi eventi esterni sono ordinati da una comunità; in pratica: è il tempo misurato, per esempio, dagli orologi di una stazione, o quello diffuso dall’orario televisivo).

I viaggi nel tempo possono essere primariamente intesi come una serie di eventi che ci portino a un momento del tempo pubblico che dista dalla nostra partenza più minuti di quanti ne misurerà il nostro orologio da polso quando lo avremo raggiunto, o che si trova nel passato del tempo pubblico rispetto all’ora della partenza. In altre parole, è evidente che tempo personale e tempo pubblico coincidono per tutti noi nella vita quotidiana, ma non coincidono affatto per un supposto viaggiatore nel tempo. Il crononauta, infatti, per viaggiare nel futuro deve attraversare un qualche intervallo temporale la cui durata, come misurata nel suo tempo personale, è minore di quella misurata nel tempo pubblico, mentre per viaggiare nel passato, a prescindere dalla durata del suo viaggio, deve ovviamente raggiungere un tempo che è passato per il tempo pubblico.

Il tempo personale non è il tempo interiore analizzato da molti filosofi (da Plotino, Agostino fino a Bergson e Husserl), ma consiste in una serie di eventi che non seguono l’ordine del tempo pubblico. Un viaggio nel tempo non sarebbe altro che questo, e una macchina del tempo è qualunque cosa capace di spezzare la continuità tra il tempo personale e quello pubblico, permettendo in questo modo al viaggiatore di visitare una zona dello spazio in un momento del passato pubblico dove si era già (rispetto al suo tempo personale) trovato, e quindi essere nelle prossimità di un suo sé più giovane, delle cui esperienze ha memoria. Un viaggio nel passato sarebbe quindi un percorso nello spaziotempo in cui l’evento che costituisce l’arrivo è – rispetto al tempo pubblico – precedente rispetto all’evento che costituisce la partenza.

Così come in uno spazio curvo possiamo raggiungere luoghi che si trovano alla nostra destra andando sempre a sinistra, similmente – se lo spaziotempo è curvo – possiamo raggiungere eventi che si trovano nel nostro passato avanzando verso il nostro futuro. Ora, di primo acchito verrebbe da ritenere che un viaggio nel passato o nel futuro abbiano senso se passato e futuro in una qualche maniera esistono (è per questo motivo che parlare di viaggi nel tempo significa impegnarsi nei confronti di un’opzione filosofica piuttosto che un’altra). Ora che abbiamo una definizione di viaggio nel tempo dobbiamo procedere con una distinzione, per evitare confusioni. Si tratta dell’idea di J. Earman secondo cui vi sarebbe una distinzione “originaria” tra viaggi nel tempo wellesiani viaggi nel tempo gödeliani.

In what I will call Wellsian type the time travel takes place in a garden variety spacetime – say, Newtonian spacetime of classical physics or Minkowski spacetime of special relativistic physics. So the funny business in this kind of time travel does not enter in terms of spatiotemporal structure but in two other places: the structure of the world lines of the time travellers and the causal relations among the events on these world lines”, (Earman, 1995:161).

Un viaggio di questo tipo, che permette al crononauta di raggiungere un momento passato del suo tempo personale, solleva numerosi problemi in termini di causalità, in quanto sembra implicare l’anteriorità degli effetti sulle loro stesse cause (backward causation). Questioni fisiche rilevanti sono connesse alla creatio ex nihilo, alla conservazione della massa-energia, al modo in cui qualcosa si può dematerializzare in un punto dell’universo per poi ricomparire in un altro. In questo caso gli esempi sono numerosissimi, tutti forniti dalla letteratura e dalla fantascienza e le discussioni, più che altro filosofiche, toccano punti molto lontani dalla fisica strictu sensu.

Per ora basti dire questo. Nella relatività generale non vige sempre l’invarianza dell’ordine e della direzione temporale delle relazioni causali rispetto al sistema di riferimento usato. In altre parole, è possibile che in taluni spazitempo curvi vengano a formarsi le cosiddette linee temporali chiuse (o quasi chiuse) ossia traiettorie che consentirebbero a un ipotetico viaggiatore di tornare nel passato pur continuando ad avanzare nel proprio futuro. Ma non è questo il caso del nostro universo, che non è rotante.

È invece quello che accade nel caso di una sfera, laddove ci è possibile partire da un qualsiasi punto della sua superficie e raggiungere luoghi che si trovano alla nostra destra ma andando sempre a sinistra. Questo tipo di viaggi nelle CTC non sono propriamente viaggi nel tempo ma nello spaziotempo, appunto perché sfruttano le peculiarità delle strutture spaziotemporali in cui avvengono. Vi ho messo queste due immagini per darvi un’idea di come sia possibile viaggiare nel tempo sfruttando una CTC. Per approfondire (sul piano divulgativo) rinvio al libro Buchi neri, wormholes e macchine del tempo di Jim Al-Khalili

§2- L’irrealtà del tempo: le serie di McTaggart – Gli aspetti del tempo che ci sembrano essere parte integrante della realtà appartengono al nostro modo di rappresentarla o sono intrinseci, costitutivi alla realtà stessa? John Ellis McTaggart risponde a questa domanda dicendo semplicemente che il tempo non esiste. Nel 1908 pubblicò sulla rivista Mind un articolo dal titolo programmatico, The Unreality of Time (“Mind”, 17, 1908, pp. 457-473. Nello stesso anno venne pubblicato anche lo storico saggio di Minkowsky in cui spazio e tempo sono concepiti non più come entità separate, ma unite nello spaziotempo). McTaggart sostiene che il tempo non è reale. Scrive un articolo in cui dimostra che per parlare del concetto di tempo è necessario distinguere tra la A-serie, l’insieme degli eventi che corrono dal passato, al presente, al futuro, e la B-serie, la relazione che esprime l’esperienza dei rapporti di precedenza e successione tra gli eventi (“prima di” e “dopo di”). Così McTaggart distingue le due serie:

positions in time, as time appears to us, prima facie, are distinguished in two ways. Each position is Earlier than some, and Later than some, of the other positions. And each position is either Past, Present, or Future. The distinctions of the former class are permanent, while those of the latter are not. If M is ever earlier than N, it is always earlier. But an event, which is now present, was future and will be past. (…) For the sake of brevity I shall speak of the series of positions running from the far past through the near past to the present, and then from the present to the near future and the far future, as the A series. The series of positions which runs from earlier to later I shall call the B series”, (McTaggart, 1908: 458).

L’impatto è stato così dirompente che, ancora oggi, tutta la discussione filosofica sul tempo si inserisce in questo quadro teorico. Ciò posto, l’aspetto più interessante è il “posizionamento” dei fisici nelle due serie. La teoria che rispecchia meglio la concezione comune del tempo, una forma di presentismo, è in accordo con la serie A, mentre la serie B, non riconoscendo l’esistenza di un momento presente ontologicamente privilegiato rispetto agli altri, è tipicamente associata alla teoria della relatività di Einstein (la relazione tra ciò che è qui e ciò che è là è identica alla distinzione tra presente, passato e futuro).

Il fatto che Einstein faccia parte dei teorici-B ha segnato pesantemente il dibattito successivo. Da un lato il lavoro del padre della relatività e dei suoi colleghi ha aiutato la filosofia ad uscire da alcune ambiguità linguistiche. Spesso infatti nel linguaggio comune ci esprimiamo come se fraintendessimo sistematicamente i rapporti tra tempo e cambiamento: percepiamo il tempo attraverso il cambiamento, ma il tempo non è il cambiamento. Semmai possiamo asserire che il tempo non è senza cambiamento. Attraverso i suoi formalismi, la fisica distingue tra il corso del tempo, ossia il rinnovamento irreversibile dell’istante presente, e la freccia del tempo, che è l’evoluzione irreversibile dei fenomeni nel tempo. Da Newton in poi la rappresentazione del corso del tempo coincide con la causalità (e con il determinismo rigoroso di Leibniz).

McTaggart presenta un celebre argomento, noto in seguito come paradosso di McTaggart, con il quale tentava di dimostrare l’irrealtà del tempo. Il tentativo non era nuovo: la tesi dell’illusorietà del tempo (o comunque del minore grado di realtà del tempo rispetto all’eternità atemporale) non trovava ospitalità solo all’interno del neoidealismo inglese, la corrente a cui apparteneva lo stesso McTaggart, ma era stata variamente sostenuta da filosofi del passato (dai neoplatonici a Spinoza). Inediti erano, però, il modo in cui il filosofo impostava la questione e il rigore logico con cui argomentava quella tesi antica.

McTaggart mette per primo in luce la cruciale distinzione tra proposizioni di tipo tensionale, del tipo “sono le tre e mezza” e proposizioni di tipo atensionale, come “venerdì viene prima di sabato”. Mentre le prime hanno valore di verità dipendente dal contesto (alle 3 e mezza una particolare occorrenza della proposizione è vera, mentre alle 4 è falsa), il valore di verità delle seconde non varia, visto che un’occorrenza di “venerdì è prima di sabato” è vera in qualunque giorno della settimana. Distinzioni come queste hanno introdotto sicuramente maggiore chiarezza nel dibattito sul tempo, soprattutto per ciò che riguarda le conseguenze che il nostro linguaggio ha sulla concezione metafisica del tempo. McTaggart apre il suo ragionamento osservando che con il termine «tempo»noi indichiamo due ordini temporali diversi: la serie passato/presente/futuro e la serie prima-di/contemporaneo-a/dopo-di, rispettivamente la «serie A» e la «serie B».

Qual è il senso di questa distinzione? A prima vista parrebbe una separazione puramente nominale, giacché intuitivamente giudichiamo le due serie equivalenti. In realtà, la distinzione è tutt’altro che di superficie, e coglie una differenza sostanziale tra i due ordini. Gli elementi della serie A attribuiscono ad ogni evento un singolo momento temporale: ad esempio, la stesura di questo articolo è (per me, adesso) un atto presente. Gli elementi della serie B, invece, esprimono le relazioni temporali che, volta a volta, si determinano tra due eventi. Da questa differenza ne discende un’altra, che è quella su cui si sofferma McTaggart. Le relazioni della serie B sono permanenti. Un evento x che precede o segue un evento y, resterà perennemente in questa relazione. La proposizione che afferma: «L’attentato alle Torri gemelle dell’11 settembre 2001 è successivo alla prima elezione a presidente di George W. Bush» è sempre vera, indipendentemente dal momento in cui viene pronunciata. Al contrario, un’affermazione che esprime una posizione nella serie A cambia nel tempo il suo valore di verità. La proposizione: «L’attentato alle Torri gemelle dell’11 settembre 2001 è un fatto passato» è vera oggi, ma non lo era ad esempio il 10 settembre 2001, allorché l’attentato era ancora un evento futuro. Così, mentre le relazioni della serie B non mutano, i momenti della serie A mutano continuamente: un evento diventa sempre meno futuro, quindi presente e infine sempre più passato.

La formulazione del paradosso ruota attorno ai concetti di serie A e serie B, che l’autore definisce nella prima parte dell’articolo. Sostanzialmente, la serie B non è altro che l’ordinamento cronologico degli eventi determinato dalla posizione relativa di ognuno rispetto agli altri (in termini matematici, si parlerebbe di relazione d’ordine totale su un insieme). La serie A consiste invece nella relazione che ogni evento ha con un punto mobile che chiamiamo ‘presente’: in sostanza, la struttura di base rimane la stessa, con la sola aggiunta dell’istante in movimento. Come è facile comprendere, tutte le proprietà temporali che un evento possiede in quanto parte di una serie B sono fisse, perché si esauriscono nel venire ‘prima’ o ‘dopo’ qualche altro evento; soltanto la sua posizione nella serie A cambia incessantemente, passando dal futuro al presente al passato. Con queste premesse, la tesi di McTaggart si può riassumere in tre passaggi:

(1) il tempo implica il cambiamento;

(2) la spiegazione del cambiamento richiede l’esistenza della serie A e non è possibile dare una descrizione coerente della serie A;

(3) pertanto, il tempo è irreale.

Detto altrimenti, il tempo è reale solo se anche le determinazioni tensionali sono reali: dimostrare l’irrealtà di queste significa inferire l’irrealtà del tempo. A questo punto, McTaggart si chiede se entrambe le serie siano ugualmente necessarie per la realtà del tempo. Per rispondere a questa domanda, egli parte dall’assunto classico secondo cui il tempo presuppone il cambiamento: non può esistere il primo senza il secondo. Ora, tra le due serie, l’unica che ammetta una forma di mutamento, come si è visto, è la A. Le relazioni B, infatti, sono permanenti. Non solo, ma McTaggart mostra come, in realtà, la serie B dipenda dalla serie A. Essa sarebbe il risultato di una sovrapposizione tra la serie A e quella che McTaggart chiama «serie C», una terza serie che, a differenza delle prime due, non può dirsi temporale. Essa, infatti, possiede un ordine ma non una direzione (la freccia del tempo): un evento posto all’interno della serie C, si colloca tra (e non prima o dopo) altri eventi. Ad esempio, di un evento y della serie C si può solo dire che si trovi tra gli eventi x e z, ma non prima o dopo di essi. È un po’ come se si trattasse di una fila di oggetti che possono essere enumerati indifferentemente in un senso o in quello opposto, poiché il loro ordine non ha una direzione prestabilita. Ora, secondo McTaggart, è solo poiché la serie A dei momenti scivola sulla serie C degli eventi, che si produce una serie B: una serie, quest’ultima, che eredita dalla A la direzione temporale, e dalla C la permanenza delle relazioni interne.

La seconda parte dell’argomento è volta a dimostrare che, se assumiamo le determinazioni tensionali come reali, siamo costretti a sostenere che il tempo non è reale. McTaggart è così giunto alla conclusione che il tempo implichi la serie A. Per dimostrarne l’irrealtà, basterà provare che questa serie è intrinsecamente contraddittoria e non può esistere. Inizia così il secondo momento della sua riflessione, in cui è contenuto il noto paradosso. Il filosofo osserva che i termini della serie A si presentano come caratteristiche di eventi tra loro incompatibili: un evento passato non può essere presente o futuro; un evento presente non può essere passato o futuro; un evento futuro non può essere passato o presente. “Eppure”, scrive McTaggart, “ciascun evento le possiede tutte. Se M è passato, è stato presente e futuro. Se è futuro, sarà presente e passato. Se è presente, è stato futuro e sarà passato. Tutti e tre i termini incompatibili sono predicabili di ciascun evento, cosa ovviamente incoerente con il loro essere incompatibili”.

L’obiezione a questa considerazione sembra banale. È vero che gli eventi posseggono tutte e tre le determinazioni A, ma ciò avviene in tempi diversi. Al contrario, l’incompatibilità è limitata al solo possesso di quelle determinazioni nello stesso tempo: un evento, infatti, non può essere contemporaneamente passato, presente e futuro. McTaggart ha, però, un’originale risposta per questa obiezione, ed è qui il cuore del suo argomento. Egli rileva che per esibire il modo non contraddittorio in cui gli eventi assumono le tre determinazioni temporali, si è costretti a ricorrere nuovamente al tempo nella forma di un’altra serie A. Noi diciamo, infatti, che se un evento è presente, è stato futuro e sarà passato; se un evento è passato, è stato presente e futuro; se un evento è futuro, sarà presente e passato. Poiché «è stato, è e sarà» equivalgono a «passato, presente e futuro», McTaggart scrive: “ne consegue che la serie A deve essere presupposta per rendere ragione della serie A. E questo è chiaramente un circolo vizioso“, (p. 134). Il paradosso può assumere anche la forma di un regresso infinito, poiché anche la serie A del secondo livello, per dimostrarsi non contraddittoria, deve fare ricorso ad una serie A di terzo livello e così via all’infinito. Se dunque la serie A si rivela contraddittoria, e se è vero che il tempo implica la serie A, allora anche il tempo è contraddittorio; e poiché per l’idealista McTaggart nessuna cosa contraddittoria può essere reale, il tempo è irreale.

§2- Realismo modale, quadrimensionalimo, endurantismo – Esiste un principio ontologico secondo cui c’è tutto e soltanto quel che c’è. O, meglio, quel che è è, mentre quel che non è non è. Per capire di cosa stiamo parlando dobbiamo fare un passo indietro. Ci sono due modi per sviluppare un’ontologia filosofica. Consideriamo la classica domanda ontologica «Cosa c’è?». La famosa risposta offerta da Quine a tale domanda è: «Tutto» che per lui vuole dire: tutto ciò che c’è.

A curious thing about the ontological problem is its simplicity. It can be put in three AngloSaxon monosyllables: „What is there?‟ It can be answered, moreover, in a word— „Everything‟—and everyone will accept this answer as true. However, this is merely to say that there is what there is. There remains room for disagreement over cases; and so the issue has stayed alive down the centuries”, (Quine, 1948:21).

Questa è una risposta corretta ma, tuttavia, non adeguata. L’obiettivo degli ontologi è caratterizzare questo “tutto” e dunque stilare una lista delle categorie ontologiche che non escluda nulla di ciò che c’è. Il primo senso in cui si può produrre un’ontologia è quindi quello di produrre un sistema categoriale. Per essere un buon sistema categoriale, un’ontologia deve essere esaustiva e quindi ripartire tutto ciò che c’è (o che potrebbe esserci) ed esclusiva, ovvero costituita da categorie che, per ogni livello ontologico, sono fra loro mutuamente esclusive (si assume che due entità non possano appartenere a due categorie ontologiche differenti dello stesso livello). Un secondo modo per produrre un’ontologia è quello di cercare di stabilire quali entità abbiano una parte rilevante nell’inventario del mondo. Ad esempio, ci si chiede se enti come numeri, universali, eventi, atti di coscienza, o oggetti funzionali possano essere ammessi come “abitanti” del mondo. In questa prospettiva non si intende produrre un sistema categoriale completo, quanto piuttosto alcune parti di questo che sono ritenute fondamentali o interessanti, oppure semplicemente ci si limita ad analizzare un certo tipo di entità – ad esempio, i fatti – argomentando a favore o contro la loro accettabilità ontologica. Per determinare quali entità sono ontologicamente accettabili, Quine propone di utilizzare ciò che chiama “criteri d’identità”. Un esempio di criterio di identità si riferisce agli insiemi come entità matematiche: “a e b sono lo stesso insieme se e solo se a e b contengono gli stessi elementi”. Secondo Quine, sono entità accettabili ad essere considerate parte dell’inventario del mondo solo quelle a cui si può associare un criterio d’identità chiaro ed evidente. Quando si parla di ontologia formale ci si riferisce, in termini generali, ad una teoria che offre una formulazione matematicamente precisa delle proprietà e relazioni di entità appartenenti ad un qualche dominio, solitamente basata su un qualche sistema logico. La teoria offre degli assiomi relativi a quali entità ci sono nel dominio e alle relazioni che intercorrono tra esse. Un’ontologia formale può essere sviluppata e usata per tre scopi (che possono comunque coesistere): rappresentare delle informazioni, descrivere un certo dominio, sviluppare una teoria sistematica per un certo tipo di entità.

Rispetto a Quine e, soprattutto, al principio ontologico enunciato in apertura di questo paragrafo, l’ontologia di Lewis è nota per il richiamo a uno “sfondo concettuale” differente, il cosiddetto Principio di Pienezza della Possibilità, che implica il primo ma lo rafforza (a dismisura, direi). Per Lewis, infatti c’è tutto e soltanto quel che potrebbe esserci (quel che potrebbe essere è, mentre quel che non potrebbe essere non è). Va tenuto presente che il Principio di Pienezza è compatibile con posizioni molto lontane da quella di Lewis, ad esempio l’attualismo megariano di cui parla Aristotele nel libro nono della Metafisica e secondo cui, appunto, tutto ciò che è possibile è: “ci sono alcuni pensatori, come ad esempio i Megarici, i quali sostengono che c’è la potenza solamente quando c’è l’atto, e che quando non c’è l’atto non c’è neppure la potenza”.

La posizione di Lewis, invece, è ben distante dall’attualismo megariano. L’universo in cui viviamo, i cui confini coincidono con quelli del suo reticolo spaziotemporale, è il mondo attuale. Oltre al mondo attuale esistono moltissimi altri mondi concreti tanto quanto il nostro, alcuni dei quali differiscono dal nostro per minuti dettagli, mentre altri sono così eterogenei che neppure riusciamo a immaginarceli. Questa posizione va sotto il nome di realismo modale: è evidentemente in netto contrasto con l’attualismo megariano (secondo cui appunto ‘attuale’ non è un termine indicale, ma si riferisce all’unico universo possibile ed esistente) e, in filosofia contemporanea, è quasi indissolubilmente associata al nome di Lewis. Non entro nel dettaglio delle tre caratteristiche dei mondi di Lewis in quanto dovrei introdurvi alla mereologia. Rinvio ai testi dell’autore per chi volesse approfondire.

Quel che potrebbe essere è, mentre quel che non potrebbe essere non è. Bene, ora possiamo introdurre i due modelli che si contendono la miglior spiegazione della persistenza nel tempo, il tridimensionalismo e il quadridimensionalismo. Il tridimensionalismo è spesso difeso come la posizione più vicina al senso comune, il modello che ricalca quasi fedelmente la nostra concezione ingenua di come gli oggetti ordinari continuino a esistere a tempi diversi. Tavoli, gatti, sedie, alberi possiedono tre dimensioni spaziali e perdurano nel tempo in quanto sono “interamente presenti” ad ogni istante della loro esistenza. Questo significa che hanno parti spaziali presenti in luoghi diversi (dove è presente la testa del mio gatto Robespierre non è presente la sua zampa), ma non sono segmentati in parti lungo la dimensione temporale, e quindi sono interamente presenti in tempi diversi.

Perdurare è dunque essere identici attraverso il tempo in senso stretto: non c’è una parte di Robespierre che possiamo chiamare “Robespierre-questo-pomeriggio” quando scodinzolava mentre scrivevo questo articolo un’altra “Robespierre-stasera” intento a mangiare i suoi croccantini. Esiste solo Robespierre che persiste nel tempo interamente presente in ogni momento della sua esistenza. In genere il tridimensionalismo riconosce un’altra modalità di persistenza, che attribuisce non agli oggetti e le persone, ma agli eventi. Gli eventi, infatti, a differenza degli oggetti tridimensionali, hanno parti temporali e persistono nel tempo in virtù del susseguirsi delle loro parti temporali. Una partita di scacchi, ad esempio, persiste per tutta la sua durata e senza mai essere interamente presente in nessun momento della sua esistenza.

Sia il tridimensionalismo che il quadridimensionalismo sono due “ingredienti” di due visioni metafisiche della realtà temporale più ampie, che comprendono aspetti non immediatamente legati al problema della persistenza. Un approccio quadridimensionalista alla persistenza è infatti in genere difeso sullo sfondo di un’ontologia eternalista del tempo. L’eternalismo è quella posizione secondo cui il presente non ha nessun tipo di privilegio ontologico rispetto al passato e al futuro: le entità passate e future esistono allo stesso titolo e nello stesso modo di quelle presenti. Questa visione, come abbiamo accennato, è compatibile con la B-teoria del tempo.

Quadridimensionalismo, eternalismo e B-teoria del tempo costituiscono una visione della realtà temporale che si contrappone alla triade formata da tridimensionalismo, presentismo e A-teoria. Il presentismo, in contrasto con l’eternalismo, sostiene che solo le entità presenti esistano, e quindi che il presente abbia un genuino privilegio metafisico (cosa che Einstein stesso rifiutava di credere). In conclusione, il quadridimensionalismo è spesso visto come una teoria della persistenza ispirata dalle concezioni scientifiche (in particolare la teoria della relatività nella formulazione di Minkowski) e dalla logica formale novecentesca. Per il quadridimensionalismo tanto gli oggetti quanto gli eventi hanno parti non solo relativamente allo spazio, ma anche relativamente al tempo. Endurano nel tempo proprio grazie alla successione delle loro parti temporali. Ed è proprio questa compatibilità con la metrica di Minkowski e le equazioni di Einstein che ne definisce plausibilità esplicativa e coerenza interna.

Paper:

Lewis D. K., (1976) The Paradoxes of Time Travel, in “American Philosophical Quarterly”, 13:145-52.

Bibliografia essenziale:

Earman J., (1995), Bangs, Crunches, Whimpers, and Shrieks: Singularities and Acausalities in Relativistic Spacetimes, Oxford University Press, New York.

Earman J., Wüthrich C. (2004), “Time Machines”, in E. N. Zalta (a cura di), Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/entries/time-machine/.

Esfeld M., (2006), The impact of science on metaphysics and its limits in “Abstracta” 2: 86–101, http://www.abstracta.pro.br/editions.asp.

Lewis D. K., (1968), Counterpart Theory and Quantified Modal Logic, in “Journal of Philosophy”, 65: 113–126.

– Id (1970), Anselm and Actuality, in “Noûs”, 4: 175–188.

-Id (1971), Counterparts of Persons and Their Bodies, in “Journal of Philosophy”, 68: 203–211.

– Id (1979), Counterfactual Dependence and Time’s Arrow, in “Noûs”, 13: 455–476

– Id (1984), Putnam’s Paradox, in “Australasian Journal of Philosophy”, 62: 221–236.

– Id (1991), Parts of Classes, Oxford: Blackwell Publishers.

McTaggart J. E., (1908), The Unreality of Time, in “Mind”, 17: 457-473.

Quine W. V. O., (1948), On What There Is, in “Review of Metaphysics”, 2: 21-38.

La tesi di Duhem-Quine e la materia oscura

ResearchBlogging.org

Esiste. Sappiamo che esiste solo indirettamente, nel senso che ne osserviamo gli effetti gravitazionali. Non è stata scoperta in senso stretto, non c’è stato un eureka! urlato in qualche sperduto laboratorio sotterraneo. Né c’è stata un’elegante ipotesi teoretica, poi passata al vaglio con potenti macchine nei laboratori di mezzo mondo. La storia della materia oscura è la storia di previsioni non rispettate, di osservazioni che smentiscono i calcoli, di ipotesi in prima battuta controintuitive. Ma è anzitutto la storia di una domanda che sembrerà banale: dove risiede la massa dell’Universo? Rispondere correttamente significa assistere alla genesi del concetto di materia oscura. 

Mettiamo da parte questa domanda e riflettiamo sui concetti. Proprio il concetto di materia oscura sarebbe infatti un viatico privilegiato per condurre una riflessione filosofica su alcuni principi della meccanica classica: questo sembra uno degli obiettivi primari di un recente articolo di M. A. Reynolds, da poco caricato su arXiv.org, intitolato The Duhem-Quine thesis and the dark matter problem.

“The problem of dark matter, and especially the physics of spiral galaxy velocity rotation curves, is a straightforward application of Newton’s laws of motion and gravitation, and is just enough removed from everyday experience to be analyzed from a fresh perspective. It is proposed to teach students about important issues in the philosophy of physics, including Bacon’s induction, Popper’s falsifiability, and the Duhem-Quine thesis, all in light of the dark matter pproblem. These issues can be discussed in an advanced classical mechanics course, or, with limited ssimplification, at the end of a first course in introductory mechanics. The goal is for students to understand at a deeper level how the physics community has arrived at the current state of knowledge”.

Nell’immagine è visibile l’effetto lensing come osservato dal telescopio spaziale Hubble in Abell 1689. Credits: NASA.

Dopo un brevissimo resoconto delle teorie chiamate in causa nell’abstract qui sopra, e il successivo richiamo agli studi sugli ammassi di galassie di F. Zwicky e S. Smith, Reynolds presenta lo studio analitico di un esempio concreto – quello che in gergo si chiama case study – concernente le curve di rotazione. Applicando il criterio di falsificabilità di Duhem, Reynolds mostra che esiste uno spazio logico non indifferente per ripescare una teoria un po’ “vintage”, la Modified Newtonian Dynamics (MOND), ossia Dinamica Newtoniana Modificata (secondo alcuni sarebbe una valida alternativa all’ipotesi della materia oscura, pur non essendo ancora stata sviluppata una variante relativistica). Vediamo cos’è MOND per poi passare alla tesi di Duhem-Quine.

§1- MOND e la materia oscura – MOND ammette che la legge di gravitazione universale è valida solo per accelerazioni piuttosto grandi. Quando il valore tende a essere molto piccolo, la formula di Newton subirebbe un cambiamento. Tradotto in matematichese, questo significa che per MOND “F = ma” varrebbe solo per grandi accelerazioni. Se a scendesse al di sotto di un valore molto basso si dovrebbe usare la  versione più generale: “F = m μ(a/ao) a“.

Dove ao è l’accelerazione critica e varrebbe circa 10-10 m/sec2, mentre a è il modulo dell’accelerazione. μ (a/ao) vale esattamente 1 se a > ao e si ritorna alla formulazione newtoniana. μ (a/ao) vale invece a/ao se a < ao. Ne deriva che in questo caso la forza si smorza velocemente. In questo modo si riuscirebbe a spiegare la velocità di rotazione pressoché costante ai bordi delle galassie che sembra non seguire l’andamento previsto dalla legge di Keplero che impone una sua decrescita continua con la distanza dal centro della galassia (v con r -1/2). 

MOND sembra poter fare a meno della materia oscura, almeno per quanto riguarda una singola galassia. Più semplicemente, la teoria studia la dispersione della velocità di rotazione a diverse distanze dal centro e da questa si ricava l’accelerazione che permette di determinare la massa dell’intera galassia (questo ovviamente non è l’unico metodo per determinarla e vale anche il procedimento inverso).

Ora che sappiamo cos’è MOND possiamo cercare di capire se il tentativo di Reynolds è riuscito o meno: “the study finishes with an attempt to reconcile the observations and theoretical predictions in the light of the ideas of verification and falsification discussed“.

Sir Isaac NewtonRitratto di Sir Godfrey Kneller, 1702, olio su tela

Isaac Newton Ritratto di Sir Godfrey Kneller (1702, olio su tela). Credits: National Portrait Gallery.

§2- La sottodeterminazione di Duhem-Quine – Vi dico subito che apprezzo molto il tentativo teoretico di Reynolds e credo abbia molto più valore in campo filosofico che strettamente fisico in cui ci si deve volgere al tribunale dell’esperimento (peraltro non disintegra in alcun modo le ipotesi sull’esistenza della materia oscura). La tesi Duhem-Quine analizza il rapporto tra dati e ipotesi (o tra ipotesi e dati) sostenendo che un’ipotesi è difendibile ad libitum,visto che da dati finiti sono ricavabili infinite ipotesi. Benché vi sia una base comune che spinge i due filosofi a questa conclusione – ogni teoria (e quindi le ipotesi su cui essa si basa) è supportata da ipotesi ausiliarie ma imprenscindibili – esistono significative differenze tra le loro tesi.  

Ricordo le più evidenti. Secondo Duhem, in fisica un’ipotesi isolata non può essere falsificata da un’osservazione; può essere sottoposta a controllo sperimentale solo da un altro punto vista, quando è intesa come un tutto, ossia insieme alle ipotesi ausiliarie che determinano quel pacchetto teorico che sarà corroborato o falsificato. Se, previsto O, si osserverà che non-O, non saremo per questo in grado di desumere quale delle ipotesi del pacchetto è stata falsificata. Questa situazione mette in crisi il concetto baconiano di experimentum crucis: elencate tutte le ipotesi che si possono fare per rendere conto del gruppo di fenomeni, poi con la contraddizione sperimentale eliminatele tutte eccetto una. Quest’ultima cesserà di essere un’ipotesi per diventare una certezza (naturalmente non è un procedimento praticabile, poiché il fisico non è mai sicuro di aver effettuato tutte le ipotesi immaginabili.).

Pierre Maurice Marie Duhem.

Ora, la tesi di Duhem vale solo per una parte dell’edificio scientifico (segnatamente per la fisica) mentre quella di Quine si estende all’intero sistema della conoscenza umana, sistema che può essere mantenuto, malgrado qualsiasi falsificazione empirica, mediante correzione interna. Comprese le differenze, le due tesi possono essere unite nella tesi di Duhem-Quine secondo la quale la non-falsificabilità delle ipotesi isolate si applica

(i) alle teorie di alto livello della fisica, della matematica, della logica e di altre scienze, e

(ii) a un insieme teorico controllabile e limitato, non potendosi estendere all’interezza dell’esperienza umana.

In questa sua seconda parte, quindi, la tesi Duhem-Quine si avvale della teoria duhemiana del bon sens contrapponendosi ad una delle istanze dello stesso Quine, secondo cui tutte le asserzioni si potrebbero far valere qualunque cosa accada se facessimo delle rettifiche sufficientemente drastiche in qualche altra parte del sistema.

Un esempio di quanto detto sopra si trova nel tentativo storico di prevedere l’orbita di Urano tramite la teoria gravitazionale di Newton. Sappiamo che l’orbita di Urano non collimava con le teorie newtoniane ormai consolidate. Poiché la teoria gravitazionale del fisico inglese portava risultati pratici e tangibili, nonostante non sembrasse funzionare in questo specifico caso, si decise di non abbandonarla. Si optò, infatti, per la modifica (passatemi l’anacronismo) di una delle sue ipotesi ausiliarie: da “i pianeti sono sette”, a “i pianeti sono almeno otto”. Il fatto di ipotizzare un ottavo pianeta abbastanza grande da poter influenzare, tramite l’attrazione gravitazionale, il corso dell’orbita di Urano, permise la scoperta di Nettuno, ottavo pianeta del sistema solare. Era il 23 settembre 1846.

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986. Credits:NASA/JPL-Caltech.

La teoria newtoniana è stata preservata grazie all’alterazione delle ipotesi ausiliarie che determinano il suo raggio d’azione, utilizzando quindi il principio propugnato da Duhem e Quine: è evidente che al cambiamento delle ipotesi ausiliarie corrisponda l’applicabilità di una data teoria nella storia. Modificando il framework di ipotesi su cui si regge la teoria, essa diventa sostenibile all’infinito, dato che possiamo intervenire un numero infinito di volte per modificarlo. Se si dovesse quindi elaborare per induzione un’ipotesi circa un qualche esperimento ed osservazione scientifica, ci si potrebbe avvalere della totale libertà d’interpretazione, consci del fatto che, da un qualsiasi dato (anche grazie alla modifica delle solite ipotesi ausiliarie) sono ricavabili infinite ipotesi, eternamente sostenibili. Parafrasando Quine, si potrebbe sostenere che il tutto è mosso dagli dei omerici, e nessuno potrebbe dimostrare il contrario.

§3- Una lettura debole di Duhem-Quine – Detto ciò, se è vero che la tesi di Duhem-Quine pone il problema della sostenibilità di una teoria a scapito della sua stessa dimostrabilità, allora si può comprendere in che senso l’analisi di Reynolds ha una valenza filosofica più che fisica. Se Reynolds ha ragione, possiamo ben dire che esiste uno spazio logico per sostenere MOND anche a fronte di indizi a favore della materia oscura. Ma se davvero prendiamo alla lettera la tesi sottostante, ossia che è sempre impossibile dimostrare la verità o la falsità di una tesi, come possiamo ad evitare il collasso della scienza nel baratro della metafisica?

Credo sia sensato proporre, in modo più deciso di quanto mi sembra traspaia dalle pagine di Reynolds, una lettura debole della sottodeterminazione di Duhem-Quine.

La tesi della sottodeterminazione delle teorie rispetto all’esperienza presta il fianco alle medesime critiche che rivolge alle altre teorie. I due autori mi risponderebbero che, come ogni teoria di stampo olistico e relativizzante, essa conferma la sua potenza proprio nella demolizione di se stessa. Va bene, non è un buon terreno per proporre confutazioni. Possiamo scomodare Ockham, ragionare anche in termini di probabilità e, per dirla con Abelardo, di verosimiglianza. Come fare, però, con i domini non osservabili come la materia oscura? Ecco, forse abbiamo imboccato la retta via. Delimitando il campo di indagine e facendo leva su considerazioni di merito – in primis sul metodo scientifico – sarebbe bene adottare criteri di scala e misurazione condivisi, costruire un metodo e valorizzare la predicibilità di un evento, argomento di fondamentale importanza per una teoria scientifica (del quale non si avvale la metafisica).

Infatti, proprio grazie alla prevedibilità si può ipotizzare una teoria partendo da un effetto per poi individuarne la causa, proprio come è accaduto con la scoperta di Nettuno, o come accade per l’individuazione dei buchi neri che, distorcendo lo spaziotempo e quindi deviando il percorso della luce, sono enti reperibili e conoscibili come effetto di una causa. Proprio perché abbiamo detto che da dati finiti si possono formulare infinite ipotesi, abbiamo svolto un interessante esercizio filosofico. E adesso? Fisicamente, la materia oscura esiste o hanno ragione si sostenitori di MOND? Duhem-Quine ora non possono più aiutarci.

Paper:

Reynolds M. A. (2015). The Duhem-Quine thesis and the dark matter problem, Arxiv.org, (submitted to the American Journal of Physics), DOI: http://arxiv.org/abs/1507.06282

Il lato oscuro del bosone di Higgs

Su Phys.org è comparsa una breve ma incisiva intervista a Daniela Bortoletto una ricercatrice dell’Università di Oxford che fa parte del team di ATLAS al CERN.

Dopo la conferma del bosone di Higgs, come sapete da circa due mesi LHC ha ripreso a funzionare ad energie da record: 13 TeV. Sappiamo che decade in due fermioni, e avevo fatto un primo punto della situazione intervistando il Prof. Guido Tonelli.

Ora è interessante sentire cosa ha da dire la Prof.ssa Daniela Bortoletto, in quanto le sfide che ci aspettano sono a dir poco emozionanti. Per prima cosa gli scienziati sperano di colmare i buchi del Modello Standard, visto che non è una teoria del tutto. Per lo meno, non lo è ancora.

LHC.svg

La catena degli acceleratori del CERN, organizzati in stadi successivi di accelerazione terminanti con l’iniezione in LHC.

Come è noto, pur avendo riunificato la forza elettromagnetica e quella nucleare debole (forza elettrodebole), il Modello Standard non è completo:

(i) non include la forza di gravità, che è l’interazione di più debole intensità;

(ii) non spiega lo spettro delle masse delle particelle;

(iii) contiene diversi parametri arbitrari;

(iv) non rende conto dell’asimmetria tra materia e antimateria nell’universo, fallisce nell’identificare le particelle fondamentali di materia oscura e nello spiegare l’energia oscura;

(v) non riunisce in un’unica teoria l’interazione nucleare forte e la forza elettrodebole, che la teoria della grande unificazione spiega con l’ipotesi che queste due forze a temperature elevate si equivalgono.

Ovviamente è la materia oscura l’argomento più “caldo”. “Grazie alle elevate energie di LHC speriamo proprio di ricreare in laboratorio la materia oscura”, dichiara la Bortoletto. “Se la materia oscura è la più leggera delle particelle previste da SUSY che potremmo scoprire, ci sono molte altre particelle SUSY che potremmo scoprire, poiché la supersimmetria prevede che ogni particella del Modello Standard abbia una sua controparte supersimmetrica”.

Galassie mancate piene di materia oscura

Una suggestiva immagine dell’ammasso della Chioma (Cortesia NASA/JPL-Caltech/GSFC/SDSS).

La supersimmetria (o SUSY, da SUper SYmmetry) è stata formulata per rendere conto dei fenomeni della fisica delle particelle che rimangono inspiegati nell’ambito del Modello Standard. La peculiarità di questa ipotesi è semplice: a ogni particella bosonica, dotata cioè di spin intero, si associa una particella fermionica (o superpartner) dotata di spin semi-interi (in modo correlativo, ogni fermione ha un superpartner bosonico).Dobbiamo ammettere che sembra una tesi abbastanza esotica.  Perché abbiamo bisogno della supersimmetria?

Ecco tre buoni motivi: (i) consente di unificare le tre forze fondamentali della natura, una volta raggiunte le energie più elevate; (ii) prevede l’esistenza di particelle che potrebbero costituire la materia oscura; (iii) permette di risolvere il problema della differenza di intensità tra forza nucleare debole e forza gravitazionale – di 32 ordini di grandezza a favore della forza debole (ciò significa che è 100.000 miliardi di miliardi di miliardi più intensa). Tuttavia, benché il modello standard sia solidamente confermato dagli esperimenti, sul tappeto rimangono ancora molti problemi, in primis l’antimateria.

Che cosa ha causato l’asimmetria o, meglio, la rottura della simmetria che ha permesso alla materia barionica di dominare sull’antimateria? “Non lo sappiamo ancora, ma abbiamo scoperto il bosone di Higgs, una particella che non ha spin, che potrebbe decadere in particelle di materia oscura e che potrebbe aiutarci a capire perché non è stata l’antimateria a prendere il sopravvento”, spiega la Bortoletto. “Lo spin spiega il comportamento delle particelle. Gli elettroni hanno spin ½, mentre i fotoni che sono responsabili delle interazioni elettromagnetiche, hanno spin 1. Le particelle a spin ½ obbediscono al principio di esclusione di Pauli che vieta a due elettroni di occupare lo stesso stato quantico. L’Higgs è la prima particella spin 0, la prima particella scalare osservata, una particella che, tecnicamente, non è materia né forza”.

Proprio per questa sua natura ha certamente un ruolo importante nella spiegazione dell’inflazione cosmica, dell’energia del vuoto e, come è noto, nella spiegazione della massa delle altre particelle. “Ed è proprio a causa del bosone che l’elettrone ha massa e che gli atomi hanno potuto formarsi. Ma perché le particelle elementari hanno masse così diverse? Ora, grazie ai nuovi dati di LHC e ATLAS possiamo studiare meglio il decadimento del bosone e le interazioni tra bosoni e quarks”. Insomma, anche se il prossimo potenziamento di LHC sarà nel 2025, è ormai certo che in questi anni le novità non si faranno attendere.

Qui trovate la pagina della Prof.ssa Daniela Bortoletto – Department of Physics, Oxford.

Fonte: http://phys.org/news/2015-07-exploring-higgs-boson-dark-side.html

Flash Forward. Il futuro è già determinato?

E se potessimo dare una sbirciata al nostro futuro?

Non vi è dubbio che nel mondo occidentale la maggior parte delle persone sia assolutamente convinta di essere dotata di libero arbitrio  […] La tragedia greca muove proprio dall’assunto opposto: sostiene che i nostri futuri siano predestinati, che il nostro destino sia inevitabile. […] Qual è la visione del mondo corretta? Quella dei greci, che credevano che i nostri destini fossero ineluttabili, o quella di chi oggi insiste nell’affermare che siamo padroni dei nostri futuri? Trovo certamente più attraente l’idea moderna, ma la semplice attrazione non è un motivo abbastanza ragionevole affinché un essere razionale creda che sia vero. Esiste davvero una qualunque valida ragione per accettare che la nostra fiducia nel libero arbitrio sia più valida della credenza greca nella predeterminazione?“, (Robert J. Sawyer, Flash forward. Avanti nel tempo, Fanucci, 2009, pp.17-18). 

Tutti abbiamo visto Star Trek e Ritorno al Futuro. Meno noto è il romanzo di Robert J. Sawyer da cui è stata tratta la serie televisiva americana Flash Forward prodotta dalla ABC nel 2009-2010. Ve ne parlo perché Sawyer conclude così la prefazione di Flash Forward:

“come scrittore di fantascienza, ho iniziato a chiedermi cosa potessero dirci la fisica e la meccanica quantistica riguardo a questa antichissima questione”.

Dobbiamo capire qual è la visione corretta e cosa ci dice la scienza in proposito. Vi piace il mondo di Eschilo e dei tragici greci in cui spesso gli umani sono dipinti come marionette in balìa dell’invidia degli dei e delle trame del Destino, oppure la natura è intrinsecamente indeterministica e probabilistica e dunque esiste uno spazio per qualcosa che possiamo chiamare “fortuna”, “caso”, “coincidenza”? Oppure vi piace Spinoza che, cercando di conciliare libertà e necessità, sosteneva che la libertà non è altro che la capacità di accettare la legge universale ineluttabile che domina l’universo. La libertà non sta nell’arbitrio, ma nell’assenza di costrizioni che consente ad esempio a una pianta di svilupparsi secondo le sue leggi:

tale è questa libertà umana, che tutti si vantano di possedere, che in effetti consiste soltanto in questo: che gli uomini sono coscienti delle loro passioni e appetiti e invece non conoscono le cause che li determinano“, (Spinoza, Ethica, testo latino a fronte, Bompiani, 2007: V, 3).

Certamente solo la fisica può dirci chi ha ragione e chi ha torto, nel senso che esistono delle rappresentazioni della realtà e delle teorie o metafisiche della realtà maggiormente coerenti e consistenti con i principi sperimentalmente verificati.

E se stessimo costruendo una teoria filosofica su questo tema dovremmo innanzitutto definire i termini che usiamo. Ma prima di spingerci nel territorio delle teorie dobbiamo capire di cosa stiamo parlando e, soprattutto, assumerci qualche impegno ontologico. Intendo dire questo: il futuro esiste? Esiste adesso mentre sto scrivendo al computer queste parole? Se ammetto la possibilità teorica – non fisica perché ad oggi non esiste una macchina in grado di catapultarmi nel mio futuro – della sbirciata al mio futuro, allora devo presumere che il futuro esista esattamente come esiste il presente (ed è esistito ed esiste il passato. Non so dove ma c’è).

Bene, abbiamo detto due cose: (1) la fisica è il banco di prova per le nostre teorie, anche le più campate per aria come la sbirciata al futuro. (2) Prima di elaborare una qualsivoglia teoria filosofica di merito, dobbiamo chiarire di cosa stiamo parlando. Abbiamo detto che il futuro esiste, ora dobbiamo capire (o definire) il viaggio nel futuro per usare univocamente i termini del nostro discorso. In questo modo vi fate un’idea di come lavora un filosofo della scienza (o, meglio, di uno dei modi in cui può lavorare).

Una definizione di viaggio nel tempo si trova nel libro di Giuliano Torrengo, I viaggi nel tempoUna guida filosofica, Laterza, Roma-Bari 2011 che, riprendendo il pensiero di David Lewis, afferma: “[scil. il viaggio nel tempo è] una serie di eventi che ci portino a un momento del tempo pubblico che dista dalla nostra partenza più minuti di quanti ne misurerà il nostro orologio da polso quando lo avremo raggiunto, o che si trova nel passato [del tempo pubblico] rispetto all’ora della partenza“, (Torrengo, cit.: p. 21).

Ok. Il futuro esiste e sappiamo cosa vuol dire viaggiare avanti e indietro nel tempo. Ma la fisica cosa ci dice? Ci arriviamo grazie al romanzo di Sawyer che è ambientato a Ginevra, 21 aprile 2009, ore 17.00. Un gruppo di fisici del CERN, guidato da Lloyd Simcoe, dà il via a un grande esperimento: utilizzare il Large Hadron Collider per ricreare i livelli di energia immediatamente precedenti al Big Bang e trovare finalmente il fantomatico bosone di Higgs. Peccato che l’esperimento abbia preso una piega inaspettata: nell’esatto istante in cui l’acceleratore di particelle viene attivato, tutti gli esseri umani sulla Terra perdono coscienza per un minuto e quarantatré secondi. Durante questo fenomeno di blackout collettivo, poi definito dai mass media Cronolampo, le persone sono proiettate avanti nel tempo di 21 anni, fino al 23 ottobre 2030, e si ritrovano ad essere spettatori passivi della propria vita futura.

Di per sé la trama non è molto originale, ma non poteva essere diversamente, visto che le domande che pone sono le classiche domande che ci poniamo dagli albori della scienza e della filosofia: davvero tutto quanto è già deciso? Viviamo dunque in un universo il cui futuro è già scritto? Se la risposta è affermativa – cosa che la possibilità stessa di viaggiare nel futuro sembra implicare – possiamo comunque ritagliare uno spazio per il libero arbitrio? O siamo semplici automi che vanno incontro più o meno consapevolmente ad una fine già scritta?

Il libro, come peraltro la serie televisiva, ha il pregio della leggerezza. A parte un breve intermezzo (di otto pagine) in cui siamo spettatori di una discussione fisico-matematica tra Simcoe, Della Robbia e Procopides, la narrazione scorre velocemente e non è appesantita da lunghe digressioni scientifiche. Insomma, Sawyer non è Greg Egan, per intenderci. Secondo la fantascienza e alcuni filosofi sembra possibile uno scenario in cui il futuro esiste già nel momento in cui aziono la macchina del tempo e tutto è determinato in quanto se decido di visitare me stessa il 3 novembre del 2029 ciò implica che lo spazio e il tempo (e me stessa) esistono già da qualche parte nell’universo. Qui i teorici si scatenano: dall’Universo-Blocco al Multiverso vi capiterà d ascoltare le tesi più suggestive, e non è strano visto che è lo stesso Einstein a dire che passato, presente e futuro esistono tutti allo stesso modo e che una partizione del tempo è solo un artificio psicologico tipicamente umano.

Mi soffermo ora su quello che è certo. Abbiamo visto che Sawyer chiama in causa la meccanica quantistica. Sembrerà strano ma alcune certezze arrivano proprio da qui. Il principio di indeterminazione di Heisenberg ha demolito lo stesso presupposto teorico della causalità humeana. Infatti, se prima si poteva immaginare l’universo come un sistema consequenziale, causativo, univoco e quindi prevedibile, dopo la scoperta del principio di indeterminazione non è più epistemologicamente possibile darlo per scontato, ma è necessario tenere conto che fenomeni basilari della realtà sono descrivibili solo in termini probabilistici (usando, ad esempio, la meccanica delle matrici). Non mi dilungo perché su Heisenberg ho scritto varie cose.

Il punto importante è dato dal fatto che, se vogliamo studiare il Big Bang e ipotizzare la fine del nostro universo, è proprio ai fenomeni quantistici che dobbiamo volgerci. Questo significa che l’universo è, almeno in origine, indeterministico. Totalmente indeterministico. Uno spazio per il determinismo si può ritagliare solo nel corso della sua evoluzione, visto che ad ordini di grandezza e velocità differenti corrispondono leggi differenti.

La fisica sembra suggerire questo, visto che quando si parla dei primi minuti e degli ultimi minuti di vita dell’universo si chiamano in causa solo ipotesi e congetture, si rompono i legami di causa-effetto e le nozioni di spazio e tempo sembrano sfumare (Big Rip, Big Crunch, etc.: potete leggere Paul Davies, Gli ultimi tre minuti. Congetture sul destino dell’universo, BUR, 2000). Nella dimensione che abitiamo, lontano dalla velocità limite della luce e da oggetti esotici dalle enormi masse, possiamo accontentarci delle leggi di Newton e della causalità per come la conosciamo dalle opere di Hume. Questo implica che ci portiamo appresso una buona dose di determinismo.

Bene, ora che sappiamo cosa ci dice la fisica, del libero arbitrio che ce ne facciamo? Ci risponde Schopenhauer:  “l’uomo come tutti gli oggetti dell’esperienza, è un fenomeno nel tempo e nello spazio, e siccome la legge di causalità vale per tutti a priori e pertanto senza eccezioni, anche lui vi deve essere sottomesso”, (Arthur Schopenhauer, La libertà del volere umano, Laterza, 1997, p. 89). Ecco spiegata l’illusione del libero arbitrio:

sono le sei di sera, il lavoro è terminato. Ora posso fareuna passeggiata, o posso andare al circolo, posso anche salire sul campanile e vedere il tramonto del sole [..] Tutto ciò dipende soltanto da me, ne ho la piena libertà, ma adesso non ne faccio nulla, ritorno invece altrettanto liberamente a casa di mia moglie”, (ivi, p. 86). E’ come se l’acqua dicesse “io posso muovere alte ondate (certo, nel mare in tempesta), posso scendere di corsa (certo nel letto del torrente) […] Ma di tutto ciò non faccio nulla e rimango volontariamente calma, limpida nel lago tranquillo”, (ibidem).

Non possiamo volere qualunque cosa, ma possiamo desiderare qualcosa solo in accordo con il pacchetto di cause da cui le nostre azioni dipendono. 

A seguire il link al romanzo di fantascienza di Sawyer:

Robert J. Sawyer, Flash forward. Avanti nel tempo, Fanucci, 2009