Plagio Ergo Sum (su chi ti copia e ci pubblica un libro)

Milano, febbraio 2016 – Come ben sanno i lettori affezionati di questo blog [http://bit.ly/1UV0zc6] anni fa mi è successa una disavventura. A gennaio 2007 discuto la tesi di dottorato in filosofia antica a Milano. Pochi mesi dopo vengo invitata ad un convegno di Scienza Antica per parlare della biologia di Aristotele. Scrivo una quarantina di pagine sulla trasmissione dei caratteri ereditari nel De generatione animalium IV.3 affrontando problemi quali lo statuto delle forme in Aristotele, la formazione dell’embrione e la struttura parte-tutto sottesa alla biologia. Il testo discusso in quell’occasione è stato pubblicato nel 2011 nella miscellanea di un convegno tenutosi l’anno dopo. Presento, proprio nella primavera-estate del 2007, un progetto di ricerca per un assegno sulla psicologia e la metafisica a paradigma mereologico in Aristotele. Sull’interpretazione mereologica di Metafisica Zeta, cui lavorai lungo il primo anno di dottorato per poi focalizzarmi sulla percezione, ho ampiamente scritto su questo blog (oltre ad aver discusso la posizione di Frede-Patzig durante il colloquio di passaggio d’anno di dottorato nel 2005).

Solo nel settembre del 2009 il docente che “seguiva” le mie ricerche mi informa che un suo laureando aveva trascritto i contenuti dei miei studi nella sua tesi magistrale (tutti questi contenuti li trovate pubblicati su questo blog a partire dal 2004). Le tesi di questa persona, triennale e magistrale, riprendono entrambe i contenuti che trovate su questo blog pubblicati tra il 2004 e il 2006. Gli stessi contenuti sono stati inviati a mezzo @ al docente che ha seguito entrambi (e che ora “non ricorda” di aver ricevuto le mie @, che ovviamente ho conservato nella posta inviata). 

Il docente non volle prendere posizione nonostante i quintali di carta che gli consegnai negli anni a mano e via e-mail (dal 2002, anno della mia laurea, al 2010), disse poi che era stato “un atto di debolezza”, disse tante altre assurdità (l’ultima mi è arrivata per interposta persona, ossia che “non ricorda tutte le mie ricerche passate”).

E non era finita. Molte pagine del mio blog erano state scopiazzate e altre pagine ancora sono finite in un libro uscito a dicembre 2015. Il volume è questo: Enrico Rini, Il nostro metodo consueto. Parte e tutto in Aristotele: dal continuo alle forme degli animali, Vita&Pensiero, 2015. Non vengo mai citata dall’autore pur essendo evidente un (ab)uso a mani basse del mio lavoro: sequenze di righe identiche per non parlare delle conclusioni sul piano interpretativo. Identiche.

Per tutelarmi, a febbraio di quest’anno partono due diffide legali. L’editore ovviamente si appella alla manleva; oltre ai file salvati su hard disk esterno e inviati al docente. il mio blog è on line da dieci anni e più. Ovviamente non mi interessa andare in causa, visto che non ci faccio nulla con questi studi; inoltre il docente che “seguiva” entrambi nelle ricerche mi disse nel 2009 che le mie pagine erano state copiate. So dal 2009 del furto e del plagio delle mie pagine, dunque penalmente se vado in causa il tutto rischierebbe di cadere nel nulla per “vizio di forma”: come mai non ho denunciato subito? Certo, come mai. Mi sono fidata del docente che credevo avesse a cuore le mie ricerche, e che mi aveva garantito che le mie pagine non sarebbero più ricomparse nei lavori altrui. 

Faccio alcuni esempi di pezzi identici. Ci sono altre sezioni riassunte. Oltre ai file salvati via e-mail e su supporti usb le cui date sono già state verificate dai legali cui mi sono rivolta (molte antecedenti a marzo 2007).

1) Una relazione che tenni ad un convegno a Firenze nel marzo 2006, inviata a mezzo e-mail a vari docenti e messa in rete su dropbox [http://bit.ly/1YnjUBD] contiene alcuni passi finiti nella sua tesi del luglio 2007. Me la mostrò il docente nel settembre 2009.

2) “Filosofia Prima e Filosofie Seconde in Aristotele”, oggetto di uno schizzo teorico inviato per e-mail al docente nel marzo 2006 e presente su questo sito (oltre che nelle mie pubblicazioni del 2011) è uguale a pagina 133-135 del Metodo Consueto. Trascrivo. “Il capitolo terzo di Metaph. Z fa da cerniera tra l’ontologia delle Categorie e l’ousiologia metafisica dei capitoli successivi; si tratta come sai di un dato che le interpretazioni più tecnicizzanti (quali quella di Frede-Patzig,Wedin e soprattutto Burnyeat) non fanno altro che enfatizzare e porre come chiave di volta delle proprie ricostruzioni: mi pare sia corretto sostenere con loro che il capitolo terzo del libro assolve a una funzione programmatica per ogni indagine ulteriore. L’intero sviluppo dell’ousiologia di Z, infatti, prende le mosse dalla messa in parentesi metodologica – operata in Z,2 – del problema “popolazionale” (quali sono le sostanze?) a favore del problema criteriologico (quale è il criterio in base al quale un ente è detto sostanza). […]  L’argomento di Metafisica Z,3 può essere letto tuttavia anche in modo controfattuale, ovvero come una dimostrazione per assurdo non tanto dell’erroneità del criterio dell’esser-soggetto, quanto della fallacia che consiste nel confondere il piano logico dell’ontologia su cui esso spazia con il piano propriamente metafisico che fa da sfondo al discorso ordinario. Per il nostro argomento è significativo un solo aspetto della fallacia che l’argomento mostra: l’implicazione mereologica dell’assolutizzazione di questo criterio, per cui si è spinti a ritenere che la scatola nera costituita dal soggetto ultimo non possa essere internamente articolata: se quella che si è indicata come la relatività di scala del discorso logico fosse assunta come un dato metafisico ultimativo ci dovremmo arrendere non tanto ad una ontologia indeterminata, quanto piuttosto ad una ontologia dell’indeterminato,che non ha evidentemente alcun senso. […] L’impegno ontologico di Aristotele sembra per larga parte, anche se non certamente in ogni luogo, svincolato dalla ammissione definitiva delle sostanze sovrasensibili: è sufficiente poter pensare che ve ne siano, o forse è sufficiente che esse siano possibili. In nessuno dei suoi rami la scienza aristotelica prende a prestito da una scienza superiore, e tantomeno dalla metafisica, i propri principi e la garanzia della sussistenza dei propri oggetti: l’aspetto fondazionale deve essere al contrario inteso come dato dall’ordinamento e coordinamento regolato dei compartimenti scientifici speciali a livello metateorico […] 

3) La Classica Extensional Mereology: pagine 17-23 di Il Nostro Metodo Consueto sono uguali a questo link datato 2007 [http://bit.ly/1T5acni];

Metodo Consueto: I concetti di parte e tutto hanno una varietà di utilizzi amplissima, che una ricerca filosofica dovrebbe impegnarsi a districare attraverso la disamina sistematica dei significati di “parte” e “tutto” e l’individuazione, tra di essi, di un significato focale concettualmente presupposto dagli altri. Questo sarà l’approccio aristotelico. Ciò che invece contraddistingue la mereologia come studio formale è la prescissione metodica dalla multivocità dei concetti di parte e tutto: i diversi tipi di parte sono in una prima mossa parificati e ridotti al loro minimo comune denominatore dato dall’essere costituenti. Posta dunque come “parte”, semplicemente, ogni componente di un intero, la relazione di composizione/esser parte di (espressa da una costante predicativa binaria ‘P’) viene determinata attraverso la formulazione di teorie definite da un opportuno insieme di assiomi per ‘P’. Solo in un momento successivo, e a un differente livello, l’adozione di determinati assiomi piuttosto che altri indirizza la teoria formulata in un senso piuttosto che in un altro, e dunque porta ad ammettere come costituenti in senso proprio certi tipi di parti piuttosto che altri. Tuttavia, la determinazione della priorità di uno sviluppo della teoria di base rispetto a un altro è, appunto, determinato post factum: esso è oggetto di una ricerca non formale ma sostantiva (e d’altra parte anche meta-logica), il cui effetto è primariamente quello di stabilire l’efficacia descrittiva dei modelli per le diverse teorie rispetto ai diversi campi fenomenici che sono oggetto di ricerca di merito. Una mereologia così intesa (CEM) fu introdotta nei lavori di Stanislaw Lesniewski e Alfred N. Whitehead (ca. 1914-16) e successivamente sviluppata, primariamente, da Alfred Tarski, Henry Leonard, Nelson Goodman e David Lewis”.

Il mio blog: I concetti di parte e tutto hanno una varietà di utilizzi amplissima, che una ricerca filosofica dovrebbe impegnarsi a districare attraverso la disamina sistematica dei significati di “parte” e “tutto” e l’individuazione, tra di essi, di un significato focale concettualmente presupposto dagli altri. Questo sarà l’approccio aristotelico. Ciò che invece contraddistingue la mereologia come studio formale è la prescissione metodica dalla multivocità dei concetti di parte e tutto: i diversi tipi di parte sono in una prima mossa parificati e ridotti al loro minimo comune denominatore dato dall’essere costituenti. Posta dunque come “parte”, semplicemente, ogni componente di un intero, la relazione di composizione/esser parte di (espressa da una costante predicativa binaria ‘P’) viene determinata attraverso la formulazione di teorie definite da un opportuno insieme di assiomi per ‘P’. Solo in un momento successivo, e a un differente livello, l’adozione di determinati assiomi piuttosto che altri indirizza la teoria formulata in un senso piuttosto che in un altro, e dunque porta ad ammettere come costituenti in senso proprio certi tipi di parti piuttosto che altri. Tuttavia, la determinazione della priorità di uno sviluppo della teoria di base rispetto a un altro è, appunto, determinato post factum: esso è oggetto di una ricerca non formale ma sostantiva (e d’altra parte anche meta-logica), il cui effetto è primariamente quello di stabilire l’efficacia descrittiva dei modelli per le diverse teorie rispetto ai diversi campi fenomenici che sono oggetto di ricerca di merito. Una mereologia così intesa (CEM) fu introdotta nei lavori di Stanislaw Lesniewski e Alfred N. Whitehead (ca. 1914-16) e successivamente sviluppata, primariamente, da Alfred Tarski, Henry Leonard, Nelson Goodman e David Lewis”.

4) L’analisi e interpretazione di Metafisica Iota: pagine 69-79  del Metodo Consueto sono uguali a questo link del mio blog datato 2009 [http://bit.ly/1Tb6nM6].

Metodo Consueto pag 69: “Nella Metafisica – segnatamente nel decimo libro – Aristotele riprende da un’angolazione differente l’analitica del mutamento articolata in Phys. V e VI. Anche in questo caso, come in generale per la concettualità ereditata dalla Fisica (a partire ovviamente dalle nozioni di causa, natura, forma e materia), l’approccio di Aristotele consiste nel ridefinire l’apparato teorico introdotto in funzione dell’analisi delle sostanze sensibili e del loro mutamento, in modo da metterne in luce lo scheletro fondamentale. Quest’operazione consente in primo luogo un’analisi delle medesime sostanze sensibili, considerate però ora non in quanto sensibili, ma semplicemente in quanto sostanze – e ciò avviene a prescindere dunque dall’esistenza o meno di sostanze immobili. Metafisica Iota rappresenta, anche da questa prospettiva metodologica, un luogo di osservazione privilegiato; qui troviamo infatti il cuore dell’ontologia formale di Aristotele, e troviamo in particolare un’analisi di quelle nozioni – come unità, identità e differenza – le cui condizioni di applicazione non introducono restrizione alcuna sull’estensione: quelle nozioni universalissime che la terminologia scolastica chiamerà trascendentali.”

La corrispondente pagina pubblicata sul blog che state leggendo:Nella Metafisica – segnatamente nel decimo libro – Aristotele riprende da un’angolazione differente l’analitica del mutamento articolata in Phys. V e VI. Anche in questo caso, come in generale per la concettualità ereditata dalla Fisica (a partire ovviamente dalle nozioni di causa, natura, forma e materia), l’approccio di Aristotele consiste nel ridefinire l’apparato teorico introdotto in funzione dell’analisi delle sostanze sensibili e del loro mutamento, in modo da metterne in luce lo scheletro fondamentale. Quest’operazione consente in primo luogo un’analisi delle medesime sostanze sensibili, considerate però ora non in quanto sensibili, ma semplicemente in quanto sostanze – e ciò avviene a prescindere dunque dall’esistenza o meno di sostanze immobili. Metafisica Iota rappresenta, anche da questa prospettiva metodologica, un luogo di osservazione privilegiato; qui troviamo infatti il cuore dell’ontologia formale di Aristotele, e troviamo in particolare un’analisi di quelle nozioni – come unità, identità e differenza – le cui condizioni di applicazione non introducono restrizione alcuna sull’estensione: quelle nozioni universalissime che la terminologia scolastica chiamerà trascendentali”.

4) Sul blog trovate le seguenti sezioni finite nella sua tesi magistrale del 2007 e riassunte in Il Nostro Metodo Consueto pagine 103-129:

Divagazioni Metafisiche (1): il soggetto categoriale in Aristotele [http://bit.ly/1VU9zzc]

Divagazioni Metafisiche (2): dal soggetto categoriale alla definizione d’essenza [http://bit.ly/1OkheEv]

Divagazioni Metafisiche (3): criteri di definibilità [http://bit.ly/1ZI9a17]

Divagazioni Metafisiche (4): le parti e il tutto [http://bit.ly/23JEMV1]

Divagazioni Metafisiche (5): criteri di esclusione [http://bit.ly/1VU9Fad]

Divagazioni Metafisiche (6): la forma come principio [http://bit.ly/1T9vgLp]

In sintesi questo è quanto è accaduto. Si parla di oltre sei anni di collaborazione fianco a fianco di un docente che ora dice di “non ricordare” gli argomenti delle mie ricerche (per evitare di assumersi le responsabilità di non aver denunciato un plagio). Ma questo non fa alcuna differenza, ormai. 

Annunci

Theodor F. E. Kaluza a Flatlandia

Königsberg, primo decennio del 1900.

[…] “Papà, mi leggi una storia?”

Seduto nel piccolo e polveroso studio di casa sua, il professore rimuginava. Era completamente immerso nei suoi pensieri. Come “Privatdozent” di matematica all’università di Königsberg gli toccava vivere alla giornata, dipendendo letteralmente dal numero dei posti che venivano occupati giornalmente durante le sue lezioni. Fare lezione era un po’ come fare l’artista di strada: entrambi dovevano riempire di monete i loro cappelli, entrambi erano in balìa del loro pubblico o, forse, del destino. Come poteva mantenere se stesso e la sua famiglia, come poteva ottenere un lavoro stabile se non pubblicava quasi più nulla?

Fare ricerca non significa fare lo scribacchino, si ripeteva. Fare ricerca non significa compilare pagine sulle riviste (pseudo)scientifiche, si ripeteva. Fare ricerca significa cullare, alimentare, sviluppare le idee. Costruire mondi e geometrie, applicare modelli, scoprire nuove dimensioni. Le dimensioni, appunto.

Papà, per favore, sto aspettando. Mi racconti una storia?”

Trascorrere il tempo con la sua famiglia era molto più soddisfacente che rincorrere un effimero successo accademico. Ma non si vive d’aria. Aveva comunque bisogno di uno stipendio.

Papààà, allora arrivi?”

Gli piaceva giocare con i figli, soprattutto amava raccontare loro storie ed incoraggiare i loro interessi culturali. Pensava che l’abitudine al racconto nel coricarsi per sua figlia fosse molto importante: quella sera le lesse Flatlandia. Con sua figlia Dorothea esplorava un regno piatto pieno di strane creature che non sapevano nulla di un mondo più grande. Vivevano la loro vita nell’ignoranza di quello che c’era oltre il loro sottile orizzonte. Pensò alle strane creature, che chiamò cimici, costrette a vivere in un mondo limitato, in due dimensioni. Intanto, mentre Dorothea sorrideva e nel dormiveglia sentiva sempre più lontane le parole di suo padre, lui ripensava alle ricerche di Helmholtz, Gauss Sylvester. […]

Ho un po’ romanzato – poco – questo scorcio biografico. Vi sarete chiesti chi è questo affettuoso prof. di matematica che legge Flatlandia alla figlia cercando di esorcizzare le preoccupazioni quotidiane. La sua storia è magistralmente raccontata da Paul Halpern, nel suo The Great Beyond – Higher Dimensions, Parallel Universes, and the Extraordinary Search for a Theory of Everything, John Wiley & Sons, 2004 (qui trovate il link alla pagina di amazon, se vi interessa). 

Chi non si occupa di fisica difficilmente conosce figure come Theodor Franz Eduard Kaluza (1885-1954). È lui il protagonista di questa storia. Noto agli addetti ai lavori per la teoria di Kaluza-Klein concernente le equazioni di campo in uno spazio pentadimensionale, meno note sono le sue passioni letterarie coltivate fin da quando svolgeva la (difficile) attività di Privatdozent all’università di Königsberg. Qui sotto trovate a titolo esemplificativo un’infografica di Luca Lista che potete trovare sul sito dell’Infn.

Brillante matematico ma anche padre affettuoso, Kaluza si dilettava a leggere ai suoi figli un famoso racconto dEdwin Abbott Abbott, Flatlandia, una storia fantastica sulle avventure di un abitante di un ipotetico universo bidimensionale che entra in contatto con un universo tridimensionale. Kaluza ne possedeva una copia, nella piccola biblioteca di casa, convinto che questo libro fosse propedeutico ad un corretto approccio alla matematica soprattutto perché capace di sollecitare e sviluppare l’immaginazione e la curiosità.

Soprattutto oggi, in un’epoca in cui sembrano vincere gli specialismi e le opposizioni tra saperi, mi sembra importante ricordare quanto siano importanti l’arte, la letteratura, i saperi in genere per alimentare la fantasia e la capacità di astrazione necessarie soprattutto a chi si occupa di matematica e fisica. Di recente mi sono imbattuta in un’altra bella raccolta, curata da Claudio Bartocci per Einaudi, intitolata Racconti Matematici. Contiene, tra gli altri, un racconto di Stanislav LemL’hotel Sraordinario, dedicato al paradosso dell’hotel di Hilbert che contiene infinite stanze.

Torniamo a Kaluza. Nel 1919 Kaluza fu l’autore di un manoscritto che sottopose ad Albert Einstein, un lavoro intitolato Sul problema dell’unità in fisica, nel quale proponeva l’esistenza di una quinta dimensione (oltre alle tre spaziali e alla quarta temporale) per riuscire ad unificare la gravitazione di Einstein con l’elettromagnetismo di Maxwell. Anche l’elettromagnetismo poteva essere descritto mediante una deformazione geometrica, ovviamente solo a condizione di trovarsi in un mondo a 5 dimensioni.

In questa prospettiva, il campo elettrico diventa una deformazione della quinta dimensione e due cariche di segno opposto possono avvicinarsi solo perché, come sappiamo, il percorso che compiono non è altro che una geodetica dello spazio, ovvero la curva di minima distanza che unisce due punti. Kaluza riuscì a visualizzare immediatamente, su base geometrica, questa quinta dimensione, e lo fece pensandola come se fosse un cerchio associato a ogni punto dello spaziotempo; in sostanza si tratta dell’analogo pentadimensionale di un cilindro. Einstein rimase piacevolmente colpito dal testo di Kaluza, anche se dovettero passare due anni prima che ne appoggiasse la pubblicazione. Il lavoro di Kaluza avrebbe avuto fortuna solo qualche anno dopo, dal 1927 in poi, quando un altro fisico, lo svedese Oskar Klein, ebbe un’intuizione:  la quinta dimensione non si vede perché è troppo piccola.

Nella teoria di Kaluza-Klein le due forze fondamentali fino ad allora conosciute, la gravità e l’elettromagnetismo, divenivano quindi entrambe manifestazione della geometria dello spaziotempo. Le deformazioni e oscillazioni spazio 3D danno luogo ai fenomeni gravitazionali, quelle della quinta dimensione creano la luce, le forze magnetiche ed elettriche

Il Leibniz di Montgomery Furth

ResearchBlogging.org

Montgomery Furth è stato professore emerito di filosofia in California (UCLA). Scomparso prematuramente nel 1991 all’età di 58 anni, è uno storico della filosofia – o, meglio, un filosofo – che ho amato molto nel periodo immediatamente successivo alla mia discussione di dottorato su Aristotele.Poco celebrato in Italia (ancora oggi l’orientamento prevalente tra gli studiosi di filosofia antica è quello “storico” o “continentale”), Furth  è stato, tra le altre cose, un acuto interprete dell’ontologia eleatica, di Aristotele, Leibniz e Frege.

Il Leibniz di Montgomery Furth è un metafisico dedito a sviscerare la natura delle strutture materiali, ridotte a mera rappresentazione di una realtà che materiale non è, la monade, attività che lo porterebbe a fare significative concessioni a quello che noi moderni chiamiamo fenomenismo, ossia la tesi secondo cui gli oggetti fisici non esistono in quanto cose in sé, ma solamente come fenomeni percettivi o stimoli sensoriali (il rosso, la durezza, etc..) collocati nello spazio e nel tempo. Più in dettaglio, il fenomenismo tende a ridurre il discorso sugli oggetti materiali a un discorso concernente un insieme di dati sensoriali o strumentali (e va tenuto distinto dalla fenomenologia, sempre).

Vediamo se riesco a fare chiarezza. Vorrei spiegare (§1) che cos’è la monade per mostrarvi la potenza dell’interpretazione strutturale dell’ontologia leibniziana proposta da Furth e, successivamente, (§2) chiarire attraverso i concetti di spazio e tempo perché non concordo con Furth nel designare Leibniz come un fenomenista (idealista sì, ma non fenomenista).

Ritratto di Gottfried Wilhelm von Leibniz – Biblioteca di Hannover. Credits: wikipedia.

§1- La monade e l’ontologia delle strutture – Il termine monade viene usato per la prima volta dai pitagorici e poi ripreso da Niccolò Cusano e Giordano Bruno, significa elemento unitario ed è inteso da Leibniz come elemento ultimo e costitutivo della realtà, un centro immateriale di forza che si identifica con la sostanza individuale. La monade viene introdotta per la prima volta nel 1696 con lo stesso significato di sostanza individuale: si tratta di un atomo spirituale, una sostanza semplice e senza parti, priva di estensione, indivisibile o senza finestre.

E debbono esserci sostanze semplici perché ve ne siano di composte; il composto non essendo altro che un ammasso o aggregatum di semplici. […] Ora, laddove non ci sono parti non c’è estensione, né figura né divisibilità possibili. Queste monadi sono i veri atomi della natura e, in una parola, gli elementi delle cose”, (G. W. Leibniz, I principi della filosofia o monadologia, prop. n. 1-3).

È un concetto elaborato in opposizione al meccanicismo cartesiano che, però, si differenzia dal minimo introdotto da Bruno, ossia da quell’unità fisica indivisibile che entra come costituente in ogni cosa. Per chi conosce Cartesio è semplice immaginare una metafisica in cui non esista il dualismo tra res cogitans e res extensa e in cui esista solo la res cogitans. Tutta la realtà ci apparirà dunque come costituita esclusivamente di tanti soggetti unitari che si fondano da sé, di tanti io penso cartesianamente intesi. Tuttavia, avendo eliminato l’estensione, questa molteplicità di soggetti unitari non sarà collocata in nessun luogo: si pensi a un insieme di punti privi di dimensione fisica. Queste sostanze pensanti, invece di essere poste in relazione con una sostanza corporea per costituire un individuo (secondo la metafora cartesiana del “fantasma dentro la macchina”), si rappresentano idealmente la loro stessa corporeità (e la loro stessa collocazione in un mondo esterno) come fosse un loro attributo.

René Descartes in un ritratto di Frans Hals (1649).

Le monadi sono dunque sostanze logiche, più o meno autoconsapevoli, prive di parti materiali e di estensione; in quanto prive di estensione esse sono anche indivisibili. Le monadi sono in numero infinito, sono state create da Dio e sono in linea di principio eterne. Solo Dio può crearle o, eventualmente, annullarle. Inoltre, in virtù del principio dell’identità degli indiscernibili, ogni monade è diversa dall’altra. Sono inoltre soggetti attivi (l’attività delle monadi è stata concepita da Leibniz come una specie di energia) e sono caratterizzate dalla percezione (nei confronti delle altre monadi) e dall’appetizione (volontà). Esiste una gerarchia tra le monadi che possiamo schematizzare come segue:

1) livello della materia (abitato da monadi passive): è il regno del meccanicismo in cui vigono solo leggi meccaniche e la libertà è assente;

2) livello delle monadi come atomi spirituali. Sono centri di forza senza finestre caratterizzate da un’attività solo interna e da nessun contatto con l’esterno;

3) livello delle monadi con una finestra aperta a Dio;

4) livello di Dio (o grande monade) è la regione dei possibili. come è noto, Dio crea il migliore il migliore dei mondi possibili garantendoci la libertà.

La materia è intesa come fenomeno di realtà immateriali, come rappresentazione di realtà che ci appaiono (fenomeno va inteso etimologicamente, da phainomai, mostrarsi, apparire). La materia prima è la potenza passiva (resistenza o inerzia) che è nella monade. Nelle monadi superiori la potenza passiva o materia prima è l’insieme delle percezioni confuse che costituiscono ciò cche vi è di propriamente finito o di imperfetto nelle monadi create. La materia seconda è invece un aggregato di monadi che nei corpi degli esseri viventi è tenuto insieme e diretto da una monade superiore che è l’anima o monade dominante (visto che il corpo e l’anima seguono leggi indipendenti nasce il problema del loro rapporto esattamente come per Cartesio).

Leibniz Monadology 2.jpg

pagina manoscritta tratta da Le principes de la philosophie, par monsieur Leibniz.

Lo studio dei livelli di realtà e divisibilità fornisce a Furth la possibilità di accostare il metodo strutturale (a sfondo mereologico) usato nello studio di Aristotele alla monadologia di Leibniz. E questo è un aspetto molto convincente della sua analisi. Leibniz concorda con Aristotele sul fatto che vi siano diversi livelli della realtà più o meno complessi – in Aristotele abbiamo i quattro elementi, le misture, le omeomerie, le anomeomerie, poi i corpi con diversi piani strutturali sia verticali che trasversali (nella biologia aristotelica l’ordine delle parti è trasversale, l’ordine di complessità e costituzione della “materia” è verticale).

Contrariamente a quanto aveva sostenuto Cartesio, per Leibniz un animale o una pianta non sono radicalmente diversi. Non però nel senso aristotelico, che li vede entrambi composti di materia e forma in una continuità di piani ilemorfici emergenti che fa sempre capo ad una parte “centrale” che ne definisce l’essenza (il cuore negli animali). La materia per Leibniz non è una realtà indipendente e non esiste in quanto tale, ma solo come manifestazione ultima ed infima di una realtà spirituale monadica. Mentre le realtà inorganiche hanno un solo livello di sostanzialità essendo un semplice aggregato di monadi materiali, se divido un gatto sono di fronte a qualcosa di più di un semplice aggregato, esattamente come riconosceva Aristotele. 

Ho infatti a che fare con un vivente dotato di qualcosa che organizza e struttura le monadi materiali in maniera tale da farne un corpo, un qualcosa di più che una semplice somma mereologica di monadi materiali meramente giustapposte, come invece è un tavolo o un sasso. Il gatto sarà dunque una “somma” di un altro tipo, una somma di particelle materiali organizzate dall’anima o monade dominante (la forma di Aristotele). L’interpretazione di Furth pavimenta la strada a chi intende la monadologia di Leibniz come manifestazione spirituale, pur semplificata e ridotta ai suoi livelli minimi, della biologia di Aristotele.

§2- Lo spazio, il tempo, il fenomeno – Lo spazio e il tempo per Leibniz sono l’ordine di coesistenza e successione delle monadi: concettualmente, prima ci sono le cose e poi vengono il tempo e lo spazio (che, infatti, “nascono” come relazione tra le monadi). Non solo non esistono spazio e tempo assoluti come in Newton, ma questa relazione non va pensata in senso spaziale. Le monadi materiali in reciproca relazione danno vita a allo spazio (allo stesso modo il tempo è il succedersi degli stati delle monadi).

Ma questo spazio e tempo non hanno nulla a che fare con le coordinate geometriche, fisiche ed esterne entro cui potremmo collocare le monadi. Spazio e tempo sono le dimensioni interne alle monadi, stanno nella loro “mente” come conseguenza diretta dell’attività rappresentativa di ciascuna monade – poiché ciascuna monade rappresenta (pensa) le altre monadi come collocate l’una accanto all’altra in uno spazio, oppure come succedentesi, in un ordine, nel tempo. Più in dettaglio, spazio e tempo sono le modalità logiche o concettuali attraverso cui le monadi “pensano” o rappresentano le altre monadi (e, dunque, il mondo).

È questa la concezione concettualistica dello spazio e del tempo che sarà rifiutata da Kant nella Critica della Ragion Pura. Ed è in questa cesura, non molto approfondita da Furth, che si colloca la non adesione di Leibniz al fenomenismo. Abbiamo detto che lo spazio e il tempo sono dentro le monadi, sono interni alla realtà spirituale. La posizione di Leibniz su questo punto è ontologica e riguarda lo spazio e il tempo, non il modo in cui conosciamo le cose che si danno nello spazio e nel tempo. L’interesse primario di Leibniz non è gnoseologico – è ovvio che noi abbiamo solo rappresentazioni delle monadi appunto per le considerazioni sulla loro natura fatte al punto (§1) – ma ontologico. Le cose non si danno in uno spazio-tempo esterno ed oggettivo. Più che un fenomenista Leibniz è un precursore dell’idealismo.

Certo, in nessun caso abbiamo accesso alle cose come sono, ma dobbiamo accontentarci delle cose come ci appaiono: se Berkeley e Hume videro nei fenomeni la realtà stessa, senza alcun residuo, Leibniz è certamente molto più vicino a Kant sul piano gnoseologico: possiamo conoscere soltanto i fenomeni (benché la cosa in sé esista eccome).  Ma Leibniz non è Kant; qui non è Kant perché spazio e tempo non sono esattamente quelle forme pure e a priori di cui Kant parlerà nella Critica. Dato che le varianti di fenomenismo a me note, Mill, Comte e Carnap inclusi, presuppongono tutte una visione “ortodossa” o “fisica” dello spazio-tempo (mantengo il trattino perché lo spaziotempo quadrimensionale è quella cosa di cui parlano Einstein e Minkowski, e qui non è necessario introdurlo), mi sembra più cauto propendere per un’idealismo radicale.  Il fenomenismo, in tutte le sue varianti, afferma l’esistenza di un dualismo di base: da una parte la realtà, dall’altra le nostre percezioni/immagini della realtà. Ma proprio questa visione cartesiana e newtoniana del mondo è ciò che Leibniz nega con forza. Ergo, l’idealismo sembra calzare meglio. 

Anche se le monadi non sono collocate in uno spazio-tempo assoluto o fisico Leibniz deve comunque riconoscere che la realtà è plurale; ciò significa che ci devono essere delle differenze tra le monadi. Ciascuna monade è caratterizzata dal complesso delle differenze qualitative (attributi) che la rendono tale, cioè ben individuata, rispetto alle altre monadi (ecco all’opera il principium individuationis). Ogni monade, in base alle differenze logiche che la caratterizzano, costituisce come abbiamo accennato un punto di vista sul mondo, il che è lo stesso che dire che ogni monade è il mondo nella sua totalità ma considerato da un determinato punto di vista. Ciascuna monade è la totalità intesa dal punto di vista di una sua parte.

§3- La grandezza di Montgomery Furth – La grandezza di Furth non sta solo nelle intuizioni, nelle correlazioni tra piani e autori, ma soprattutto nel metodo usato per accostarsi agli autori del passato. All’inizio vi accennavo all’orientamento “storico” o “continentale” negli studi di storia della filosofia, spesso utilizzato come coltello affilato contro gli “analitici”, contro coloro che sono indicati come cattivi filosofi proprio perché (volutamente?) ignorano la storia della filosofia e/o il dettato stesso dei testi. Questa querelle è ancora viva: benché il libro di Franca d’Agostini, Analitici e Continentali, Raffaello Cortina, sia del 1997, la riabilitazione di un filosofo come Furth non è ancora avvenuta in Italia (molti antichisti lo ignorano nonostante i suoi contributi sulla psicologia, biologia e metafisica di Aristotele siano tra i più profondi che io abbia mai letto).

È assolutamente ovvio che per studiare seriamente Leibniz devo conoscere la lingua in cui scrive. La traduzione corretta del testo è un momento imprescindibile (mai fidarsi delle traduzioni in commercio senza averne una autorevole a fianco!). È però altrettanto vero che non ha senso accostarsi ad un filosofo del passato senza avere una teoria o un’idea in tasca. Non tanto delle domande – quelle sorgono studiando la storia della filosofia – ma un’idea personale che ti martella il cervello notte e giorno. Questa idea o teoria non può che essere nata mettendo il naso nel mondo, leggendo Kant, Bergson, Husserl, Quine. Leggendo i contemporanei, soprattutto. È impossibile fare filosofia senza avere una profonda conoscenza della storia della filosofia. Molto spesso la querelle tra analitici e continentali è un modo per rivendicare la necessità della storia (che condivido, mentre rigetto l’atteggiamento storicistico, crociano e meramente storiografico che certa “filosofia” persegue). È impossibile fare filosofia senza mettere il naso nel mondo contemporaneo ereditandone la grammatica concettuale di base per misurare le distanze e i punti di convergenza con la tradizione.

Tracciare queste distanze/convergenze, ideare mappe concettuali e costruire mondi e non morire nell’abisso delle differenze significa fare filosofia. Certo, è sempre possibile non condividere alcuni esiti di queste costruzioni teoriche (il fenomenismo del Leibniz di Furth, nel nostro esempio); ciò non toglie che leggere Furth significa assistere a questo processo costruttivistico senza cadere in anacronismi o nella retroazione acritica di concetti e linguaggi. Questo fa Furth quando legge gli Eleati, Anassagora, Aristotele, Leibniz e Frege.

Paper:

Furth, M. (1967). Monadology, in “The Philosophical Review”, 76 (2), 169-200 DOI: 10.2307/2183641

La tesi di Duhem-Quine e la materia oscura

ResearchBlogging.org

Esiste. Sappiamo che esiste solo indirettamente, nel senso che ne osserviamo gli effetti gravitazionali. Non è stata scoperta in senso stretto, non c’è stato un eureka! urlato in qualche sperduto laboratorio sotterraneo. Né c’è stata un’elegante ipotesi teoretica, poi passata al vaglio con potenti macchine nei laboratori di mezzo mondo. La storia della materia oscura è la storia di previsioni non rispettate, di osservazioni che smentiscono i calcoli, di ipotesi in prima battuta controintuitive. Ma è anzitutto la storia di una domanda che sembrerà banale: dove risiede la massa dell’Universo? Rispondere correttamente significa assistere alla genesi del concetto di materia oscura. 

Mettiamo da parte questa domanda e riflettiamo sui concetti. Proprio il concetto di materia oscura sarebbe infatti un viatico privilegiato per condurre una riflessione filosofica su alcuni principi della meccanica classica: questo sembra uno degli obiettivi primari di un recente articolo di M. A. Reynolds, da poco caricato su arXiv.org, intitolato The Duhem-Quine thesis and the dark matter problem.

“The problem of dark matter, and especially the physics of spiral galaxy velocity rotation curves, is a straightforward application of Newton’s laws of motion and gravitation, and is just enough removed from everyday experience to be analyzed from a fresh perspective. It is proposed to teach students about important issues in the philosophy of physics, including Bacon’s induction, Popper’s falsifiability, and the Duhem-Quine thesis, all in light of the dark matter pproblem. These issues can be discussed in an advanced classical mechanics course, or, with limited ssimplification, at the end of a first course in introductory mechanics. The goal is for students to understand at a deeper level how the physics community has arrived at the current state of knowledge”.

Nell’immagine è visibile l’effetto lensing come osservato dal telescopio spaziale Hubble in Abell 1689. Credits: NASA.

Dopo un brevissimo resoconto delle teorie chiamate in causa nell’abstract qui sopra, e il successivo richiamo agli studi sugli ammassi di galassie di F. Zwicky e S. Smith, Reynolds presenta lo studio analitico di un esempio concreto – quello che in gergo si chiama case study – concernente le curve di rotazione. Applicando il criterio di falsificabilità di Duhem, Reynolds mostra che esiste uno spazio logico non indifferente per ripescare una teoria un po’ “vintage”, la Modified Newtonian Dynamics (MOND), ossia Dinamica Newtoniana Modificata (secondo alcuni sarebbe una valida alternativa all’ipotesi della materia oscura, pur non essendo ancora stata sviluppata una variante relativistica). Vediamo cos’è MOND per poi passare alla tesi di Duhem-Quine.

§1- MOND e la materia oscura – MOND ammette che la legge di gravitazione universale è valida solo per accelerazioni piuttosto grandi. Quando il valore tende a essere molto piccolo, la formula di Newton subirebbe un cambiamento. Tradotto in matematichese, questo significa che per MOND “F = ma” varrebbe solo per grandi accelerazioni. Se a scendesse al di sotto di un valore molto basso si dovrebbe usare la  versione più generale: “F = m μ(a/ao) a“.

Dove ao è l’accelerazione critica e varrebbe circa 10-10 m/sec2, mentre a è il modulo dell’accelerazione. μ (a/ao) vale esattamente 1 se a > ao e si ritorna alla formulazione newtoniana. μ (a/ao) vale invece a/ao se a < ao. Ne deriva che in questo caso la forza si smorza velocemente. In questo modo si riuscirebbe a spiegare la velocità di rotazione pressoché costante ai bordi delle galassie che sembra non seguire l’andamento previsto dalla legge di Keplero che impone una sua decrescita continua con la distanza dal centro della galassia (v con r -1/2). 

MOND sembra poter fare a meno della materia oscura, almeno per quanto riguarda una singola galassia. Più semplicemente, la teoria studia la dispersione della velocità di rotazione a diverse distanze dal centro e da questa si ricava l’accelerazione che permette di determinare la massa dell’intera galassia (questo ovviamente non è l’unico metodo per determinarla e vale anche il procedimento inverso).

Ora che sappiamo cos’è MOND possiamo cercare di capire se il tentativo di Reynolds è riuscito o meno: “the study finishes with an attempt to reconcile the observations and theoretical predictions in the light of the ideas of verification and falsification discussed“.

Sir Isaac NewtonRitratto di Sir Godfrey Kneller, 1702, olio su tela

Isaac Newton Ritratto di Sir Godfrey Kneller (1702, olio su tela). Credits: National Portrait Gallery.

§2- La sottodeterminazione di Duhem-Quine – Vi dico subito che apprezzo molto il tentativo teoretico di Reynolds e credo abbia molto più valore in campo filosofico che strettamente fisico in cui ci si deve volgere al tribunale dell’esperimento (peraltro non disintegra in alcun modo le ipotesi sull’esistenza della materia oscura). La tesi Duhem-Quine analizza il rapporto tra dati e ipotesi (o tra ipotesi e dati) sostenendo che un’ipotesi è difendibile ad libitum,visto che da dati finiti sono ricavabili infinite ipotesi. Benché vi sia una base comune che spinge i due filosofi a questa conclusione – ogni teoria (e quindi le ipotesi su cui essa si basa) è supportata da ipotesi ausiliarie ma imprenscindibili – esistono significative differenze tra le loro tesi.  

Ricordo le più evidenti. Secondo Duhem, in fisica un’ipotesi isolata non può essere falsificata da un’osservazione; può essere sottoposta a controllo sperimentale solo da un altro punto vista, quando è intesa come un tutto, ossia insieme alle ipotesi ausiliarie che determinano quel pacchetto teorico che sarà corroborato o falsificato. Se, previsto O, si osserverà che non-O, non saremo per questo in grado di desumere quale delle ipotesi del pacchetto è stata falsificata. Questa situazione mette in crisi il concetto baconiano di experimentum crucis: elencate tutte le ipotesi che si possono fare per rendere conto del gruppo di fenomeni, poi con la contraddizione sperimentale eliminatele tutte eccetto una. Quest’ultima cesserà di essere un’ipotesi per diventare una certezza (naturalmente non è un procedimento praticabile, poiché il fisico non è mai sicuro di aver effettuato tutte le ipotesi immaginabili.).

Pierre Maurice Marie Duhem.

Ora, la tesi di Duhem vale solo per una parte dell’edificio scientifico (segnatamente per la fisica) mentre quella di Quine si estende all’intero sistema della conoscenza umana, sistema che può essere mantenuto, malgrado qualsiasi falsificazione empirica, mediante correzione interna. Comprese le differenze, le due tesi possono essere unite nella tesi di Duhem-Quine secondo la quale la non-falsificabilità delle ipotesi isolate si applica

(i) alle teorie di alto livello della fisica, della matematica, della logica e di altre scienze, e

(ii) a un insieme teorico controllabile e limitato, non potendosi estendere all’interezza dell’esperienza umana.

In questa sua seconda parte, quindi, la tesi Duhem-Quine si avvale della teoria duhemiana del bon sens contrapponendosi ad una delle istanze dello stesso Quine, secondo cui tutte le asserzioni si potrebbero far valere qualunque cosa accada se facessimo delle rettifiche sufficientemente drastiche in qualche altra parte del sistema.

Un esempio di quanto detto sopra si trova nel tentativo storico di prevedere l’orbita di Urano tramite la teoria gravitazionale di Newton. Sappiamo che l’orbita di Urano non collimava con le teorie newtoniane ormai consolidate. Poiché la teoria gravitazionale del fisico inglese portava risultati pratici e tangibili, nonostante non sembrasse funzionare in questo specifico caso, si decise di non abbandonarla. Si optò, infatti, per la modifica (passatemi l’anacronismo) di una delle sue ipotesi ausiliarie: da “i pianeti sono sette”, a “i pianeti sono almeno otto”. Il fatto di ipotizzare un ottavo pianeta abbastanza grande da poter influenzare, tramite l’attrazione gravitazionale, il corso dell’orbita di Urano, permise la scoperta di Nettuno, ottavo pianeta del sistema solare. Era il 23 settembre 1846.

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986. Credits:NASA/JPL-Caltech.

La teoria newtoniana è stata preservata grazie all’alterazione delle ipotesi ausiliarie che determinano il suo raggio d’azione, utilizzando quindi il principio propugnato da Duhem e Quine: è evidente che al cambiamento delle ipotesi ausiliarie corrisponda l’applicabilità di una data teoria nella storia. Modificando il framework di ipotesi su cui si regge la teoria, essa diventa sostenibile all’infinito, dato che possiamo intervenire un numero infinito di volte per modificarlo. Se si dovesse quindi elaborare per induzione un’ipotesi circa un qualche esperimento ed osservazione scientifica, ci si potrebbe avvalere della totale libertà d’interpretazione, consci del fatto che, da un qualsiasi dato (anche grazie alla modifica delle solite ipotesi ausiliarie) sono ricavabili infinite ipotesi, eternamente sostenibili. Parafrasando Quine, si potrebbe sostenere che il tutto è mosso dagli dei omerici, e nessuno potrebbe dimostrare il contrario.

§3- Una lettura debole di Duhem-Quine – Detto ciò, se è vero che la tesi di Duhem-Quine pone il problema della sostenibilità di una teoria a scapito della sua stessa dimostrabilità, allora si può comprendere in che senso l’analisi di Reynolds ha una valenza filosofica più che fisica. Se Reynolds ha ragione, possiamo ben dire che esiste uno spazio logico per sostenere MOND anche a fronte di indizi a favore della materia oscura. Ma se davvero prendiamo alla lettera la tesi sottostante, ossia che è sempre impossibile dimostrare la verità o la falsità di una tesi, come possiamo ad evitare il collasso della scienza nel baratro della metafisica?

Credo sia sensato proporre, in modo più deciso di quanto mi sembra traspaia dalle pagine di Reynolds, una lettura debole della sottodeterminazione di Duhem-Quine.

La tesi della sottodeterminazione delle teorie rispetto all’esperienza presta il fianco alle medesime critiche che rivolge alle altre teorie. I due autori mi risponderebbero che, come ogni teoria di stampo olistico e relativizzante, essa conferma la sua potenza proprio nella demolizione di se stessa. Va bene, non è un buon terreno per proporre confutazioni. Possiamo scomodare Ockham, ragionare anche in termini di probabilità e, per dirla con Abelardo, di verosimiglianza. Come fare, però, con i domini non osservabili come la materia oscura? Ecco, forse abbiamo imboccato la retta via. Delimitando il campo di indagine e facendo leva su considerazioni di merito – in primis sul metodo scientifico – sarebbe bene adottare criteri di scala e misurazione condivisi, costruire un metodo e valorizzare la predicibilità di un evento, argomento di fondamentale importanza per una teoria scientifica (del quale non si avvale la metafisica).

Infatti, proprio grazie alla prevedibilità si può ipotizzare una teoria partendo da un effetto per poi individuarne la causa, proprio come è accaduto con la scoperta di Nettuno, o come accade per l’individuazione dei buchi neri che, distorcendo lo spaziotempo e quindi deviando il percorso della luce, sono enti reperibili e conoscibili come effetto di una causa. Proprio perché abbiamo detto che da dati finiti si possono formulare infinite ipotesi, abbiamo svolto un interessante esercizio filosofico. E adesso? Fisicamente, la materia oscura esiste o hanno ragione si sostenitori di MOND? Duhem-Quine ora non possono più aiutarci.

Paper:

Reynolds M. A. (2015). The Duhem-Quine thesis and the dark matter problem, Arxiv.org, (submitted to the American Journal of Physics), DOI: http://arxiv.org/abs/1507.06282

Il lato oscuro del bosone di Higgs

Su Phys.org è comparsa una breve ma incisiva intervista a Daniela Bortoletto una ricercatrice dell’Università di Oxford che fa parte del team di ATLAS al CERN.

Dopo la conferma del bosone di Higgs, come sapete da circa due mesi LHC ha ripreso a funzionare ad energie da record: 13 TeV. Sappiamo che decade in due fermioni, e avevo fatto un primo punto della situazione intervistando il Prof. Guido Tonelli.

Ora è interessante sentire cosa ha da dire la Prof.ssa Daniela Bortoletto, in quanto le sfide che ci aspettano sono a dir poco emozionanti. Per prima cosa gli scienziati sperano di colmare i buchi del Modello Standard, visto che non è una teoria del tutto. Per lo meno, non lo è ancora.

LHC.svg

La catena degli acceleratori del CERN, organizzati in stadi successivi di accelerazione terminanti con l’iniezione in LHC.

Come è noto, pur avendo riunificato la forza elettromagnetica e quella nucleare debole (forza elettrodebole), il Modello Standard non è completo:

(i) non include la forza di gravità, che è l’interazione di più debole intensità;

(ii) non spiega lo spettro delle masse delle particelle;

(iii) contiene diversi parametri arbitrari;

(iv) non rende conto dell’asimmetria tra materia e antimateria nell’universo, fallisce nell’identificare le particelle fondamentali di materia oscura e nello spiegare l’energia oscura;

(v) non riunisce in un’unica teoria l’interazione nucleare forte e la forza elettrodebole, che la teoria della grande unificazione spiega con l’ipotesi che queste due forze a temperature elevate si equivalgono.

Ovviamente è la materia oscura l’argomento più “caldo”. “Grazie alle elevate energie di LHC speriamo proprio di ricreare in laboratorio la materia oscura”, dichiara la Bortoletto. “Se la materia oscura è la più leggera delle particelle previste da SUSY che potremmo scoprire, ci sono molte altre particelle SUSY che potremmo scoprire, poiché la supersimmetria prevede che ogni particella del Modello Standard abbia una sua controparte supersimmetrica”.

Galassie mancate piene di materia oscura

Una suggestiva immagine dell’ammasso della Chioma (Cortesia NASA/JPL-Caltech/GSFC/SDSS).

La supersimmetria (o SUSY, da SUper SYmmetry) è stata formulata per rendere conto dei fenomeni della fisica delle particelle che rimangono inspiegati nell’ambito del Modello Standard. La peculiarità di questa ipotesi è semplice: a ogni particella bosonica, dotata cioè di spin intero, si associa una particella fermionica (o superpartner) dotata di spin semi-interi (in modo correlativo, ogni fermione ha un superpartner bosonico).Dobbiamo ammettere che sembra una tesi abbastanza esotica.  Perché abbiamo bisogno della supersimmetria?

Ecco tre buoni motivi: (i) consente di unificare le tre forze fondamentali della natura, una volta raggiunte le energie più elevate; (ii) prevede l’esistenza di particelle che potrebbero costituire la materia oscura; (iii) permette di risolvere il problema della differenza di intensità tra forza nucleare debole e forza gravitazionale – di 32 ordini di grandezza a favore della forza debole (ciò significa che è 100.000 miliardi di miliardi di miliardi più intensa). Tuttavia, benché il modello standard sia solidamente confermato dagli esperimenti, sul tappeto rimangono ancora molti problemi, in primis l’antimateria.

Che cosa ha causato l’asimmetria o, meglio, la rottura della simmetria che ha permesso alla materia barionica di dominare sull’antimateria? “Non lo sappiamo ancora, ma abbiamo scoperto il bosone di Higgs, una particella che non ha spin, che potrebbe decadere in particelle di materia oscura e che potrebbe aiutarci a capire perché non è stata l’antimateria a prendere il sopravvento”, spiega la Bortoletto. “Lo spin spiega il comportamento delle particelle. Gli elettroni hanno spin ½, mentre i fotoni che sono responsabili delle interazioni elettromagnetiche, hanno spin 1. Le particelle a spin ½ obbediscono al principio di esclusione di Pauli che vieta a due elettroni di occupare lo stesso stato quantico. L’Higgs è la prima particella spin 0, la prima particella scalare osservata, una particella che, tecnicamente, non è materia né forza”.

Proprio per questa sua natura ha certamente un ruolo importante nella spiegazione dell’inflazione cosmica, dell’energia del vuoto e, come è noto, nella spiegazione della massa delle altre particelle. “Ed è proprio a causa del bosone che l’elettrone ha massa e che gli atomi hanno potuto formarsi. Ma perché le particelle elementari hanno masse così diverse? Ora, grazie ai nuovi dati di LHC e ATLAS possiamo studiare meglio il decadimento del bosone e le interazioni tra bosoni e quarks”. Insomma, anche se il prossimo potenziamento di LHC sarà nel 2025, è ormai certo che in questi anni le novità non si faranno attendere.

Qui trovate la pagina della Prof.ssa Daniela Bortoletto – Department of Physics, Oxford.

Fonte: http://phys.org/news/2015-07-exploring-higgs-boson-dark-side.html

LHCb osserva i pentaquark

Nel comunicato stampa del 14 luglio di LHC Italia si legge che LHCb, uno dei quattro grandi esperimenti del Large Hadron Collider del CERN, ha riportato la scoperta di una classe di particelle esotiche note come pentaquark. La collaborazione ha pubblicato sul sito open access arXiv.org lo studio che descrive questi risultati, sottomesso per la pubblicazione alla rivista Physical Review Letters.

“Il pentaquark non è una qualsiasi nuova particella,” precisa a Phys.org il rappresentante del team di LHCb Guy Wilkinson. “Esso rappresenta un modo per aggregare i quarks, ossia i costituenti fondamentali dei protoni e neutroni ordinari, in uno schema che non è mai stata osservata prima d’ora in oltre 50 anni di ricerche sperimentali. Studiare le sue proprietà ci può permettere di comprendere come la materia ordinaria, i protoni ed i neutroni con cui siamo formati, è costituita”.

I ricercatori di LHCb hanno cercato stati di pentaquark esaminando il decadimento di un barione, conosciuto come Λb (Lambda b), in altre tre particelle: una J/ψ (J-psi), un protone e un kaone carico. Lo studio della distribuzione dell’energia della J/ψ e del protone ha rivelato che stati di aggregazione di materia intermedi, i pentaquark appunto, si formano a volte nel corso del decadimento di questi barioni.

“Approfittando della grande mole di dati forniti da LHC, e potendo contare sull’eccellente precisione del nostro rivelatore, abbiamo esaminato tutte le possibilità per questi segnali, e abbiamo concluso che si può spiegare solo con stati di pentaquark”, spiega il fisico della collaborazione internazionale LHCb Tomasz Skwarnicki, della Syracuse University negli Stati Uniti, che ha coordinato lo studio. “Più precisamente gli stati devono essere formati da due quark up, un quark down, un quark charm e un anti-quark charm”, conclude Skwarnicki.

CERN’s LHCb experiment reports observation of exotic pentaquark particles

L’immagine mostra una delle possibili configurazioni per i pentaquark. Come mostra l’immagine in apertura, essi potrebbero essere strutturati come un’unica particella composta da quattro quark e un antiquark, oppure da un mesone e un barione (tre quark) legati debolmente. Credit: Daniel Dominguez.

“L’esistenza di particelle esotiche, quelle che non riusciamo a inquadrare nei modelli che descrivono mesoni e barioni, è ormai un fatto sperimentalmente accertato: ad esempio, stati con quattro quark sono già stati scoperti in diversi esperimenti, incluso LHCb”, approfondisce Pierluigi Campana, a capo della collaborazione internazionale LHCb dal 2011 al 2014. “Però adesso abbiamo una forte indicazione di qualcosa di equivalente per i cinque quark. E questo grazie alla capacità di LHCb di riconoscere la natura delle particelle, in mezzo a quella tempesta di tracce che ci è generosamente offerta dalle collisioni a LHC”, conclude Campana.

Ma questo risultato non è conclusivo, perché i pentaquark sono una classe di particelle che ci può aprire le porte a una comprensione molto più approfondita della materia. Infatti, se noi conosciamo bene la forza elettromagnetica che tiene legati assieme gli atomi, cioè i nucleoni e gli elettroni, non altrettanto possiamo dire della forza forte, che tiene legati sia i protoni e i neutroni all’interno del nucleo, sia i quark che li compongono tra di loro.

A four-by-four table of particles. Columns are three generations of matter (fermions) and one of forces (bosons). In the first three columns, two rows contain quarks and two leptons. The top two rows' columns contain up (u) and down (d) quarks, charm (c) and strange (s) quarks, top (t) and bottom (b) quarks, and photon (γ) and gluon (g), respectively. The bottom two rows' columns contain electron neutrino (ν sub e) and electron (e), muon neutrino (ν sub μ) and muon (μ), and tau neutrino (ν sub τ) and tau (τ), and Z sup 0 and W sup ± weak force. Mass, charge, and spin are listed for each particle.

La suddivisione delle particelle nel Modello Standard. I sei tipi (o sapori) di quark sono colorati in violetto. Le colonne rappresentano le tre generazioni dei fermioni. Credit: wikipediaorg

La storia dei pentaquark comincia negli anni Sessanta del Novecento, precisamente nel 1964, quando Murray Gell-Mann ha proposto che una categoria di particelle, note come barioni, e che comprende protoni e neutroni, fossero composti di tre oggetti chiamati quark, e che un’altra categoria, i mesoni, fossero invece formati di coppie quark-antiquark (Gell-Mann fu insignito per questo lavoro del Premio Nobel per la fisica nel 1969). Ma la tavola periodica delle particelle elementari elaborata da Gell-Mann permette anche l’esistenza di altri stati di aggregati di quark, come il pentaquark appunto, composto da quattro quark e un antiquark. Fino ad ora, tuttavia, nonostante una ricerca serrata durata mezzo secolo e condotta da parte di molti esperimenti in tutto il mondo, non era mai stata portata nessuna prova conclusiva dell’esistenza del pentaquark.

Vediamo meglio cos’è un quark. Quando Gell-Mann e Yuval Ne’emen, in modo del tutto indipendente l’uno dall’altro, riunirono in gruppi le particelle sulla base delle loro proprietà, ottennero la eightfold way, la ottuplice via, indicata con SU(3) nel linguaggio formale. Dopo aver diviso in gruppi anche i barioni, nel 1964 Gell-Mann, che era alla ricerca del modo più semplice per rendere conto di tutti i barioni con un numero di particelle sub-barioniche fondamentali, propose il concetto di quark un approfondimento si trova sulla rivista asimmetrie a questo link.

I quark sono fermioni, i quali sono raggruppati in tre generazioni, ognuna composta da due leptoni e due quark (più le loro antiparticelle dette antiquark). In totale si originano in questo modo sei tipi o sapori di quark: la prima generazione è composta dai quark up edown; la seconda include il quark charme il quark strange; della terza fanno parte il quark top e il quark bottom.

Gell-Mann scelse il nome quark perché era giunto alla conclusione che per fare un barione bastava una combinazione di base di tre quark, e le diverse combinazioni dei quark erano sufficienti per costituire tutti i barioni fino ad allora noti, il che gli aveva richiamato alla mente un verso del Finnegan’s Wake di James Joyce: three quarks for Muster Mark.  

Paper: 

“Observation of J/ψp resonances consistent with pentaquark states in Λ0b→J/ψK−p decays.” arxiv.org/abs/1507.03414

Fonti:

http://phys.org/news/2015-07-cern-lhcb-exotic-pentaquark-particles.html

http://lhcitalia.infn.it/index.php/news/447-lhcb-osserva-i-pentaquark-particelle-esotiche-a-cinque-quark

Competizione e diversificazione: un case study

La diversificazione delle specie si verifica in risposta a una serie di fattori complessi, sia biotici che abiotici, la cui comprensione è una delle maggiori sfide per la biologia evolutiva. Lo stesso si può dire per le estinzioni (di massa e non). Un nuovo studio comparso sulla rivista National Academy of Sciences ha dimostrato che, nel caso dei canidi del Nord America, la competizione tra specie diverse ha avuto un ruolo molto più importante di quanto si credesse nelle estinzioni.

In dettaglio, la competizione tra più cladi di canidi carnivori avrebbe determinato la scomparsa di ben due specie distinte (Hesperocyoninae e Borophaginae). I ricercatori hanno analizzato circa 1.500 occorrenze fossili di 120 specie di canide da circa 40 milioni di anni fa ad oggi; partendo dall’ipotesi che la concorrenza di altre specie sia stata un fattore guida per i tassi di estinzione, hanno raccolto dati su cinque famiglie carnivore aggiuntive, tra cui gatti, cani e orsi.

Il quadro analitico risultante, correlando i tassi di estinzione alla grandezza media dei corpi di ciascuna specie, ha mostrato l’esistenza di un nesso tra abitudini alimentari carnivore, proprie di animali dai corpi sempre più grandi, e dinamiche di diversificazione/adattamento/estinzione. Niente di stupefacente. Il dato significativo riguarda la storia individuale delle singole specie di canidi.

Nel caso dei canidi nordamericani, infatti, questi vincoli adattativi avrebbero causato l’estinzione delle specie dai corpi meno massicci. L’attuale biodiversità sarebbe il risultato di una competizione infra-specifica. L’analisi bayesiana sembra infatti confermare che l’estinzione delle due sottofamiglie di canidi sia avvenuta anche a causa della competizione con altre specie.

Se è vero che già sapevamo come i cambiamenti climatici e gli eventi ambientali fossero un driver fondamentale nei processi di speciazione e di estinzione, è altrettanto vero che lo studio suggerisce fortemente che la lotta per la sopravvivenza giochi un ruolo importante nei destini di specie diverse in nicchie ecologiche simili.

Paper: “The role of clade competition in the diversification of North American canids.” PNAS 2015; published ahead of print June 29, 2015, DOI: 10.1073/pnas.1502803112

Fonte: phys.org.