Plagio Ergo Sum (su chi ti copia e ci pubblica un libro)

Milano, febbraio 2016 – Come ben sanno i lettori affezionati di questo blog [http://bit.ly/1UV0zc6] anni fa mi è successa una disavventura. A gennaio 2007 discuto la tesi di dottorato in filosofia antica a Milano. Pochi mesi dopo vengo invitata ad un convegno di Scienza Antica per parlare della biologia di Aristotele. Scrivo una quarantina di pagine sulla trasmissione dei caratteri ereditari nel De generatione animalium IV.3 affrontando problemi quali lo statuto delle forme in Aristotele, la formazione dell’embrione e la struttura parte-tutto sottesa alla biologia. Il testo discusso in quell’occasione è stato pubblicato nel 2011 nella miscellanea di un convegno tenutosi l’anno dopo. Presento, proprio nella primavera-estate del 2007, un progetto di ricerca per un assegno sulla psicologia e la metafisica a paradigma mereologico in Aristotele. Sull’interpretazione mereologica di Metafisica Zeta, cui lavorai lungo il primo anno di dottorato per poi focalizzarmi sulla percezione, ho ampiamente scritto su questo blog (oltre ad aver discusso la posizione di Frede-Patzig durante il colloquio di passaggio d’anno di dottorato nel 2005).

Solo nel settembre del 2009 il docente che “seguiva” le mie ricerche mi informa che un suo laureando aveva trascritto i contenuti dei miei studi nella sua tesi magistrale (tutti questi contenuti li trovate pubblicati su questo blog a partire dal 2004). Le tesi di questa persona, triennale e magistrale, riprendono entrambe i contenuti che trovate su questo blog pubblicati tra il 2004 e il 2006. Gli stessi contenuti sono stati inviati a mezzo @ al docente che ha seguito entrambi (e che ora “non ricorda” di aver ricevuto le mie @, che ovviamente ho conservato nella posta inviata). 

Il docente non volle prendere posizione nonostante i quintali di carta che gli consegnai negli anni a mano e via e-mail (dal 2002, anno della mia laurea, al 2010), disse poi che era stato “un atto di debolezza”, disse tante altre assurdità (l’ultima mi è arrivata per interposta persona, ossia che “non ricorda tutte le mie ricerche passate”).

E non era finita. Molte pagine del mio blog erano state scopiazzate e altre pagine ancora sono finite in un libro uscito a dicembre 2015. Il volume è questo: Enrico Rini, Il nostro metodo consueto. Parte e tutto in Aristotele: dal continuo alle forme degli animali, Vita&Pensiero, 2015. Non vengo mai citata dall’autore pur essendo evidente un (ab)uso a mani basse del mio lavoro: sequenze di righe identiche per non parlare delle conclusioni sul piano interpretativo. Identiche.

Per tutelarmi, a febbraio di quest’anno partono due diffide legali. L’editore ovviamente si appella alla manleva; oltre ai file salvati su hard disk esterno e inviati al docente. il mio blog è on line da dieci anni e più. Ovviamente non mi interessa andare in causa, visto che non ci faccio nulla con questi studi; inoltre il docente che “seguiva” entrambi nelle ricerche mi disse nel 2009 che le mie pagine erano state copiate. So dal 2009 del furto e del plagio delle mie pagine, dunque penalmente se vado in causa il tutto rischierebbe di cadere nel nulla per “vizio di forma”: come mai non ho denunciato subito? Certo, come mai. Mi sono fidata del docente che credevo avesse a cuore le mie ricerche, e che mi aveva garantito che le mie pagine non sarebbero più ricomparse nei lavori altrui. 

Faccio alcuni esempi di pezzi identici. Ci sono altre sezioni riassunte. Oltre ai file salvati via e-mail e su supporti usb le cui date sono già state verificate dai legali cui mi sono rivolta (molte antecedenti a marzo 2007).

1) Una relazione che tenni ad un convegno a Firenze nel marzo 2006, inviata a mezzo e-mail a vari docenti e messa in rete su dropbox [http://bit.ly/1YnjUBD] contiene alcuni passi finiti nella sua tesi del luglio 2007. Me la mostrò il docente nel settembre 2009.

2) “Filosofia Prima e Filosofie Seconde in Aristotele”, oggetto di uno schizzo teorico inviato per e-mail al docente nel marzo 2006 e presente su questo sito (oltre che nelle mie pubblicazioni del 2011) è uguale a pagina 133-135 del Metodo Consueto. Trascrivo. “Il capitolo terzo di Metaph. Z fa da cerniera tra l’ontologia delle Categorie e l’ousiologia metafisica dei capitoli successivi; si tratta come sai di un dato che le interpretazioni più tecnicizzanti (quali quella di Frede-Patzig,Wedin e soprattutto Burnyeat) non fanno altro che enfatizzare e porre come chiave di volta delle proprie ricostruzioni: mi pare sia corretto sostenere con loro che il capitolo terzo del libro assolve a una funzione programmatica per ogni indagine ulteriore. L’intero sviluppo dell’ousiologia di Z, infatti, prende le mosse dalla messa in parentesi metodologica – operata in Z,2 – del problema “popolazionale” (quali sono le sostanze?) a favore del problema criteriologico (quale è il criterio in base al quale un ente è detto sostanza). […]  L’argomento di Metafisica Z,3 può essere letto tuttavia anche in modo controfattuale, ovvero come una dimostrazione per assurdo non tanto dell’erroneità del criterio dell’esser-soggetto, quanto della fallacia che consiste nel confondere il piano logico dell’ontologia su cui esso spazia con il piano propriamente metafisico che fa da sfondo al discorso ordinario. Per il nostro argomento è significativo un solo aspetto della fallacia che l’argomento mostra: l’implicazione mereologica dell’assolutizzazione di questo criterio, per cui si è spinti a ritenere che la scatola nera costituita dal soggetto ultimo non possa essere internamente articolata: se quella che si è indicata come la relatività di scala del discorso logico fosse assunta come un dato metafisico ultimativo ci dovremmo arrendere non tanto ad una ontologia indeterminata, quanto piuttosto ad una ontologia dell’indeterminato,che non ha evidentemente alcun senso. […] L’impegno ontologico di Aristotele sembra per larga parte, anche se non certamente in ogni luogo, svincolato dalla ammissione definitiva delle sostanze sovrasensibili: è sufficiente poter pensare che ve ne siano, o forse è sufficiente che esse siano possibili. In nessuno dei suoi rami la scienza aristotelica prende a prestito da una scienza superiore, e tantomeno dalla metafisica, i propri principi e la garanzia della sussistenza dei propri oggetti: l’aspetto fondazionale deve essere al contrario inteso come dato dall’ordinamento e coordinamento regolato dei compartimenti scientifici speciali a livello metateorico […] 

3) La Classica Extensional Mereology: pagine 17-23 di Il Nostro Metodo Consueto sono uguali a questo link datato 2007 [http://bit.ly/1T5acni];

Metodo Consueto: I concetti di parte e tutto hanno una varietà di utilizzi amplissima, che una ricerca filosofica dovrebbe impegnarsi a districare attraverso la disamina sistematica dei significati di “parte” e “tutto” e l’individuazione, tra di essi, di un significato focale concettualmente presupposto dagli altri. Questo sarà l’approccio aristotelico. Ciò che invece contraddistingue la mereologia come studio formale è la prescissione metodica dalla multivocità dei concetti di parte e tutto: i diversi tipi di parte sono in una prima mossa parificati e ridotti al loro minimo comune denominatore dato dall’essere costituenti. Posta dunque come “parte”, semplicemente, ogni componente di un intero, la relazione di composizione/esser parte di (espressa da una costante predicativa binaria ‘P’) viene determinata attraverso la formulazione di teorie definite da un opportuno insieme di assiomi per ‘P’. Solo in un momento successivo, e a un differente livello, l’adozione di determinati assiomi piuttosto che altri indirizza la teoria formulata in un senso piuttosto che in un altro, e dunque porta ad ammettere come costituenti in senso proprio certi tipi di parti piuttosto che altri. Tuttavia, la determinazione della priorità di uno sviluppo della teoria di base rispetto a un altro è, appunto, determinato post factum: esso è oggetto di una ricerca non formale ma sostantiva (e d’altra parte anche meta-logica), il cui effetto è primariamente quello di stabilire l’efficacia descrittiva dei modelli per le diverse teorie rispetto ai diversi campi fenomenici che sono oggetto di ricerca di merito. Una mereologia così intesa (CEM) fu introdotta nei lavori di Stanislaw Lesniewski e Alfred N. Whitehead (ca. 1914-16) e successivamente sviluppata, primariamente, da Alfred Tarski, Henry Leonard, Nelson Goodman e David Lewis”.

Il mio blog: I concetti di parte e tutto hanno una varietà di utilizzi amplissima, che una ricerca filosofica dovrebbe impegnarsi a districare attraverso la disamina sistematica dei significati di “parte” e “tutto” e l’individuazione, tra di essi, di un significato focale concettualmente presupposto dagli altri. Questo sarà l’approccio aristotelico. Ciò che invece contraddistingue la mereologia come studio formale è la prescissione metodica dalla multivocità dei concetti di parte e tutto: i diversi tipi di parte sono in una prima mossa parificati e ridotti al loro minimo comune denominatore dato dall’essere costituenti. Posta dunque come “parte”, semplicemente, ogni componente di un intero, la relazione di composizione/esser parte di (espressa da una costante predicativa binaria ‘P’) viene determinata attraverso la formulazione di teorie definite da un opportuno insieme di assiomi per ‘P’. Solo in un momento successivo, e a un differente livello, l’adozione di determinati assiomi piuttosto che altri indirizza la teoria formulata in un senso piuttosto che in un altro, e dunque porta ad ammettere come costituenti in senso proprio certi tipi di parti piuttosto che altri. Tuttavia, la determinazione della priorità di uno sviluppo della teoria di base rispetto a un altro è, appunto, determinato post factum: esso è oggetto di una ricerca non formale ma sostantiva (e d’altra parte anche meta-logica), il cui effetto è primariamente quello di stabilire l’efficacia descrittiva dei modelli per le diverse teorie rispetto ai diversi campi fenomenici che sono oggetto di ricerca di merito. Una mereologia così intesa (CEM) fu introdotta nei lavori di Stanislaw Lesniewski e Alfred N. Whitehead (ca. 1914-16) e successivamente sviluppata, primariamente, da Alfred Tarski, Henry Leonard, Nelson Goodman e David Lewis”.

4) L’analisi e interpretazione di Metafisica Iota: pagine 69-79  del Metodo Consueto sono uguali a questo link del mio blog datato 2009 [http://bit.ly/1Tb6nM6].

Metodo Consueto pag 69: “Nella Metafisica – segnatamente nel decimo libro – Aristotele riprende da un’angolazione differente l’analitica del mutamento articolata in Phys. V e VI. Anche in questo caso, come in generale per la concettualità ereditata dalla Fisica (a partire ovviamente dalle nozioni di causa, natura, forma e materia), l’approccio di Aristotele consiste nel ridefinire l’apparato teorico introdotto in funzione dell’analisi delle sostanze sensibili e del loro mutamento, in modo da metterne in luce lo scheletro fondamentale. Quest’operazione consente in primo luogo un’analisi delle medesime sostanze sensibili, considerate però ora non in quanto sensibili, ma semplicemente in quanto sostanze – e ciò avviene a prescindere dunque dall’esistenza o meno di sostanze immobili. Metafisica Iota rappresenta, anche da questa prospettiva metodologica, un luogo di osservazione privilegiato; qui troviamo infatti il cuore dell’ontologia formale di Aristotele, e troviamo in particolare un’analisi di quelle nozioni – come unità, identità e differenza – le cui condizioni di applicazione non introducono restrizione alcuna sull’estensione: quelle nozioni universalissime che la terminologia scolastica chiamerà trascendentali.”

La corrispondente pagina pubblicata sul blog che state leggendo:Nella Metafisica – segnatamente nel decimo libro – Aristotele riprende da un’angolazione differente l’analitica del mutamento articolata in Phys. V e VI. Anche in questo caso, come in generale per la concettualità ereditata dalla Fisica (a partire ovviamente dalle nozioni di causa, natura, forma e materia), l’approccio di Aristotele consiste nel ridefinire l’apparato teorico introdotto in funzione dell’analisi delle sostanze sensibili e del loro mutamento, in modo da metterne in luce lo scheletro fondamentale. Quest’operazione consente in primo luogo un’analisi delle medesime sostanze sensibili, considerate però ora non in quanto sensibili, ma semplicemente in quanto sostanze – e ciò avviene a prescindere dunque dall’esistenza o meno di sostanze immobili. Metafisica Iota rappresenta, anche da questa prospettiva metodologica, un luogo di osservazione privilegiato; qui troviamo infatti il cuore dell’ontologia formale di Aristotele, e troviamo in particolare un’analisi di quelle nozioni – come unità, identità e differenza – le cui condizioni di applicazione non introducono restrizione alcuna sull’estensione: quelle nozioni universalissime che la terminologia scolastica chiamerà trascendentali”.

4) Sul blog trovate le seguenti sezioni finite nella sua tesi magistrale del 2007 e riassunte in Il Nostro Metodo Consueto pagine 103-129:

Divagazioni Metafisiche (1): il soggetto categoriale in Aristotele [http://bit.ly/1VU9zzc]

Divagazioni Metafisiche (2): dal soggetto categoriale alla definizione d’essenza [http://bit.ly/1OkheEv]

Divagazioni Metafisiche (3): criteri di definibilità [http://bit.ly/1ZI9a17]

Divagazioni Metafisiche (4): le parti e il tutto [http://bit.ly/23JEMV1]

Divagazioni Metafisiche (5): criteri di esclusione [http://bit.ly/1VU9Fad]

Divagazioni Metafisiche (6): la forma come principio [http://bit.ly/1T9vgLp]

In sintesi questo è quanto è accaduto. Si parla di oltre sei anni di collaborazione fianco a fianco di un docente che ora dice di “non ricordare” gli argomenti delle mie ricerche (per evitare di assumersi le responsabilità di non aver denunciato un plagio). Ma questo non fa alcuna differenza, ormai. 

Annunci

La tesi di Duhem-Quine e la materia oscura

ResearchBlogging.org

Esiste. Sappiamo che esiste solo indirettamente, nel senso che ne osserviamo gli effetti gravitazionali. Non è stata scoperta in senso stretto, non c’è stato un eureka! urlato in qualche sperduto laboratorio sotterraneo. Né c’è stata un’elegante ipotesi teoretica, poi passata al vaglio con potenti macchine nei laboratori di mezzo mondo. La storia della materia oscura è la storia di previsioni non rispettate, di osservazioni che smentiscono i calcoli, di ipotesi in prima battuta controintuitive. Ma è anzitutto la storia di una domanda che sembrerà banale: dove risiede la massa dell’Universo? Rispondere correttamente significa assistere alla genesi del concetto di materia oscura. 

Mettiamo da parte questa domanda e riflettiamo sui concetti. Proprio il concetto di materia oscura sarebbe infatti un viatico privilegiato per condurre una riflessione filosofica su alcuni principi della meccanica classica: questo sembra uno degli obiettivi primari di un recente articolo di M. A. Reynolds, da poco caricato su arXiv.org, intitolato The Duhem-Quine thesis and the dark matter problem.

“The problem of dark matter, and especially the physics of spiral galaxy velocity rotation curves, is a straightforward application of Newton’s laws of motion and gravitation, and is just enough removed from everyday experience to be analyzed from a fresh perspective. It is proposed to teach students about important issues in the philosophy of physics, including Bacon’s induction, Popper’s falsifiability, and the Duhem-Quine thesis, all in light of the dark matter pproblem. These issues can be discussed in an advanced classical mechanics course, or, with limited ssimplification, at the end of a first course in introductory mechanics. The goal is for students to understand at a deeper level how the physics community has arrived at the current state of knowledge”.

Nell’immagine è visibile l’effetto lensing come osservato dal telescopio spaziale Hubble in Abell 1689. Credits: NASA.

Dopo un brevissimo resoconto delle teorie chiamate in causa nell’abstract qui sopra, e il successivo richiamo agli studi sugli ammassi di galassie di F. Zwicky e S. Smith, Reynolds presenta lo studio analitico di un esempio concreto – quello che in gergo si chiama case study – concernente le curve di rotazione. Applicando il criterio di falsificabilità di Duhem, Reynolds mostra che esiste uno spazio logico non indifferente per ripescare una teoria un po’ “vintage”, la Modified Newtonian Dynamics (MOND), ossia Dinamica Newtoniana Modificata (secondo alcuni sarebbe una valida alternativa all’ipotesi della materia oscura, pur non essendo ancora stata sviluppata una variante relativistica). Vediamo cos’è MOND per poi passare alla tesi di Duhem-Quine.

§1- MOND e la materia oscura – MOND ammette che la legge di gravitazione universale è valida solo per accelerazioni piuttosto grandi. Quando il valore tende a essere molto piccolo, la formula di Newton subirebbe un cambiamento. Tradotto in matematichese, questo significa che per MOND “F = ma” varrebbe solo per grandi accelerazioni. Se a scendesse al di sotto di un valore molto basso si dovrebbe usare la  versione più generale: “F = m μ(a/ao) a“.

Dove ao è l’accelerazione critica e varrebbe circa 10-10 m/sec2, mentre a è il modulo dell’accelerazione. μ (a/ao) vale esattamente 1 se a > ao e si ritorna alla formulazione newtoniana. μ (a/ao) vale invece a/ao se a < ao. Ne deriva che in questo caso la forza si smorza velocemente. In questo modo si riuscirebbe a spiegare la velocità di rotazione pressoché costante ai bordi delle galassie che sembra non seguire l’andamento previsto dalla legge di Keplero che impone una sua decrescita continua con la distanza dal centro della galassia (v con r -1/2). 

MOND sembra poter fare a meno della materia oscura, almeno per quanto riguarda una singola galassia. Più semplicemente, la teoria studia la dispersione della velocità di rotazione a diverse distanze dal centro e da questa si ricava l’accelerazione che permette di determinare la massa dell’intera galassia (questo ovviamente non è l’unico metodo per determinarla e vale anche il procedimento inverso).

Ora che sappiamo cos’è MOND possiamo cercare di capire se il tentativo di Reynolds è riuscito o meno: “the study finishes with an attempt to reconcile the observations and theoretical predictions in the light of the ideas of verification and falsification discussed“.

Sir Isaac NewtonRitratto di Sir Godfrey Kneller, 1702, olio su tela

Isaac Newton Ritratto di Sir Godfrey Kneller (1702, olio su tela). Credits: National Portrait Gallery.

§2- La sottodeterminazione di Duhem-Quine – Vi dico subito che apprezzo molto il tentativo teoretico di Reynolds e credo abbia molto più valore in campo filosofico che strettamente fisico in cui ci si deve volgere al tribunale dell’esperimento (peraltro non disintegra in alcun modo le ipotesi sull’esistenza della materia oscura). La tesi Duhem-Quine analizza il rapporto tra dati e ipotesi (o tra ipotesi e dati) sostenendo che un’ipotesi è difendibile ad libitum,visto che da dati finiti sono ricavabili infinite ipotesi. Benché vi sia una base comune che spinge i due filosofi a questa conclusione – ogni teoria (e quindi le ipotesi su cui essa si basa) è supportata da ipotesi ausiliarie ma imprenscindibili – esistono significative differenze tra le loro tesi.  

Ricordo le più evidenti. Secondo Duhem, in fisica un’ipotesi isolata non può essere falsificata da un’osservazione; può essere sottoposta a controllo sperimentale solo da un altro punto vista, quando è intesa come un tutto, ossia insieme alle ipotesi ausiliarie che determinano quel pacchetto teorico che sarà corroborato o falsificato. Se, previsto O, si osserverà che non-O, non saremo per questo in grado di desumere quale delle ipotesi del pacchetto è stata falsificata. Questa situazione mette in crisi il concetto baconiano di experimentum crucis: elencate tutte le ipotesi che si possono fare per rendere conto del gruppo di fenomeni, poi con la contraddizione sperimentale eliminatele tutte eccetto una. Quest’ultima cesserà di essere un’ipotesi per diventare una certezza (naturalmente non è un procedimento praticabile, poiché il fisico non è mai sicuro di aver effettuato tutte le ipotesi immaginabili.).

Pierre Maurice Marie Duhem.

Ora, la tesi di Duhem vale solo per una parte dell’edificio scientifico (segnatamente per la fisica) mentre quella di Quine si estende all’intero sistema della conoscenza umana, sistema che può essere mantenuto, malgrado qualsiasi falsificazione empirica, mediante correzione interna. Comprese le differenze, le due tesi possono essere unite nella tesi di Duhem-Quine secondo la quale la non-falsificabilità delle ipotesi isolate si applica

(i) alle teorie di alto livello della fisica, della matematica, della logica e di altre scienze, e

(ii) a un insieme teorico controllabile e limitato, non potendosi estendere all’interezza dell’esperienza umana.

In questa sua seconda parte, quindi, la tesi Duhem-Quine si avvale della teoria duhemiana del bon sens contrapponendosi ad una delle istanze dello stesso Quine, secondo cui tutte le asserzioni si potrebbero far valere qualunque cosa accada se facessimo delle rettifiche sufficientemente drastiche in qualche altra parte del sistema.

Un esempio di quanto detto sopra si trova nel tentativo storico di prevedere l’orbita di Urano tramite la teoria gravitazionale di Newton. Sappiamo che l’orbita di Urano non collimava con le teorie newtoniane ormai consolidate. Poiché la teoria gravitazionale del fisico inglese portava risultati pratici e tangibili, nonostante non sembrasse funzionare in questo specifico caso, si decise di non abbandonarla. Si optò, infatti, per la modifica (passatemi l’anacronismo) di una delle sue ipotesi ausiliarie: da “i pianeti sono sette”, a “i pianeti sono almeno otto”. Il fatto di ipotizzare un ottavo pianeta abbastanza grande da poter influenzare, tramite l’attrazione gravitazionale, il corso dell’orbita di Urano, permise la scoperta di Nettuno, ottavo pianeta del sistema solare. Era il 23 settembre 1846.

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986. Credits:NASA/JPL-Caltech.

La teoria newtoniana è stata preservata grazie all’alterazione delle ipotesi ausiliarie che determinano il suo raggio d’azione, utilizzando quindi il principio propugnato da Duhem e Quine: è evidente che al cambiamento delle ipotesi ausiliarie corrisponda l’applicabilità di una data teoria nella storia. Modificando il framework di ipotesi su cui si regge la teoria, essa diventa sostenibile all’infinito, dato che possiamo intervenire un numero infinito di volte per modificarlo. Se si dovesse quindi elaborare per induzione un’ipotesi circa un qualche esperimento ed osservazione scientifica, ci si potrebbe avvalere della totale libertà d’interpretazione, consci del fatto che, da un qualsiasi dato (anche grazie alla modifica delle solite ipotesi ausiliarie) sono ricavabili infinite ipotesi, eternamente sostenibili. Parafrasando Quine, si potrebbe sostenere che il tutto è mosso dagli dei omerici, e nessuno potrebbe dimostrare il contrario.

§3- Una lettura debole di Duhem-Quine – Detto ciò, se è vero che la tesi di Duhem-Quine pone il problema della sostenibilità di una teoria a scapito della sua stessa dimostrabilità, allora si può comprendere in che senso l’analisi di Reynolds ha una valenza filosofica più che fisica. Se Reynolds ha ragione, possiamo ben dire che esiste uno spazio logico per sostenere MOND anche a fronte di indizi a favore della materia oscura. Ma se davvero prendiamo alla lettera la tesi sottostante, ossia che è sempre impossibile dimostrare la verità o la falsità di una tesi, come possiamo ad evitare il collasso della scienza nel baratro della metafisica?

Credo sia sensato proporre, in modo più deciso di quanto mi sembra traspaia dalle pagine di Reynolds, una lettura debole della sottodeterminazione di Duhem-Quine.

La tesi della sottodeterminazione delle teorie rispetto all’esperienza presta il fianco alle medesime critiche che rivolge alle altre teorie. I due autori mi risponderebbero che, come ogni teoria di stampo olistico e relativizzante, essa conferma la sua potenza proprio nella demolizione di se stessa. Va bene, non è un buon terreno per proporre confutazioni. Possiamo scomodare Ockham, ragionare anche in termini di probabilità e, per dirla con Abelardo, di verosimiglianza. Come fare, però, con i domini non osservabili come la materia oscura? Ecco, forse abbiamo imboccato la retta via. Delimitando il campo di indagine e facendo leva su considerazioni di merito – in primis sul metodo scientifico – sarebbe bene adottare criteri di scala e misurazione condivisi, costruire un metodo e valorizzare la predicibilità di un evento, argomento di fondamentale importanza per una teoria scientifica (del quale non si avvale la metafisica).

Infatti, proprio grazie alla prevedibilità si può ipotizzare una teoria partendo da un effetto per poi individuarne la causa, proprio come è accaduto con la scoperta di Nettuno, o come accade per l’individuazione dei buchi neri che, distorcendo lo spaziotempo e quindi deviando il percorso della luce, sono enti reperibili e conoscibili come effetto di una causa. Proprio perché abbiamo detto che da dati finiti si possono formulare infinite ipotesi, abbiamo svolto un interessante esercizio filosofico. E adesso? Fisicamente, la materia oscura esiste o hanno ragione si sostenitori di MOND? Duhem-Quine ora non possono più aiutarci.

Paper:

Reynolds M. A. (2015). The Duhem-Quine thesis and the dark matter problem, Arxiv.org, (submitted to the American Journal of Physics), DOI: http://arxiv.org/abs/1507.06282

Il lato oscuro del bosone di Higgs

Su Phys.org è comparsa una breve ma incisiva intervista a Daniela Bortoletto una ricercatrice dell’Università di Oxford che fa parte del team di ATLAS al CERN.

Dopo la conferma del bosone di Higgs, come sapete da circa due mesi LHC ha ripreso a funzionare ad energie da record: 13 TeV. Sappiamo che decade in due fermioni, e avevo fatto un primo punto della situazione intervistando il Prof. Guido Tonelli.

Ora è interessante sentire cosa ha da dire la Prof.ssa Daniela Bortoletto, in quanto le sfide che ci aspettano sono a dir poco emozionanti. Per prima cosa gli scienziati sperano di colmare i buchi del Modello Standard, visto che non è una teoria del tutto. Per lo meno, non lo è ancora.

LHC.svg

La catena degli acceleratori del CERN, organizzati in stadi successivi di accelerazione terminanti con l’iniezione in LHC.

Come è noto, pur avendo riunificato la forza elettromagnetica e quella nucleare debole (forza elettrodebole), il Modello Standard non è completo:

(i) non include la forza di gravità, che è l’interazione di più debole intensità;

(ii) non spiega lo spettro delle masse delle particelle;

(iii) contiene diversi parametri arbitrari;

(iv) non rende conto dell’asimmetria tra materia e antimateria nell’universo, fallisce nell’identificare le particelle fondamentali di materia oscura e nello spiegare l’energia oscura;

(v) non riunisce in un’unica teoria l’interazione nucleare forte e la forza elettrodebole, che la teoria della grande unificazione spiega con l’ipotesi che queste due forze a temperature elevate si equivalgono.

Ovviamente è la materia oscura l’argomento più “caldo”. “Grazie alle elevate energie di LHC speriamo proprio di ricreare in laboratorio la materia oscura”, dichiara la Bortoletto. “Se la materia oscura è la più leggera delle particelle previste da SUSY che potremmo scoprire, ci sono molte altre particelle SUSY che potremmo scoprire, poiché la supersimmetria prevede che ogni particella del Modello Standard abbia una sua controparte supersimmetrica”.

Galassie mancate piene di materia oscura

Una suggestiva immagine dell’ammasso della Chioma (Cortesia NASA/JPL-Caltech/GSFC/SDSS).

La supersimmetria (o SUSY, da SUper SYmmetry) è stata formulata per rendere conto dei fenomeni della fisica delle particelle che rimangono inspiegati nell’ambito del Modello Standard. La peculiarità di questa ipotesi è semplice: a ogni particella bosonica, dotata cioè di spin intero, si associa una particella fermionica (o superpartner) dotata di spin semi-interi (in modo correlativo, ogni fermione ha un superpartner bosonico).Dobbiamo ammettere che sembra una tesi abbastanza esotica.  Perché abbiamo bisogno della supersimmetria?

Ecco tre buoni motivi: (i) consente di unificare le tre forze fondamentali della natura, una volta raggiunte le energie più elevate; (ii) prevede l’esistenza di particelle che potrebbero costituire la materia oscura; (iii) permette di risolvere il problema della differenza di intensità tra forza nucleare debole e forza gravitazionale – di 32 ordini di grandezza a favore della forza debole (ciò significa che è 100.000 miliardi di miliardi di miliardi più intensa). Tuttavia, benché il modello standard sia solidamente confermato dagli esperimenti, sul tappeto rimangono ancora molti problemi, in primis l’antimateria.

Che cosa ha causato l’asimmetria o, meglio, la rottura della simmetria che ha permesso alla materia barionica di dominare sull’antimateria? “Non lo sappiamo ancora, ma abbiamo scoperto il bosone di Higgs, una particella che non ha spin, che potrebbe decadere in particelle di materia oscura e che potrebbe aiutarci a capire perché non è stata l’antimateria a prendere il sopravvento”, spiega la Bortoletto. “Lo spin spiega il comportamento delle particelle. Gli elettroni hanno spin ½, mentre i fotoni che sono responsabili delle interazioni elettromagnetiche, hanno spin 1. Le particelle a spin ½ obbediscono al principio di esclusione di Pauli che vieta a due elettroni di occupare lo stesso stato quantico. L’Higgs è la prima particella spin 0, la prima particella scalare osservata, una particella che, tecnicamente, non è materia né forza”.

Proprio per questa sua natura ha certamente un ruolo importante nella spiegazione dell’inflazione cosmica, dell’energia del vuoto e, come è noto, nella spiegazione della massa delle altre particelle. “Ed è proprio a causa del bosone che l’elettrone ha massa e che gli atomi hanno potuto formarsi. Ma perché le particelle elementari hanno masse così diverse? Ora, grazie ai nuovi dati di LHC e ATLAS possiamo studiare meglio il decadimento del bosone e le interazioni tra bosoni e quarks”. Insomma, anche se il prossimo potenziamento di LHC sarà nel 2025, è ormai certo che in questi anni le novità non si faranno attendere.

Qui trovate la pagina della Prof.ssa Daniela Bortoletto – Department of Physics, Oxford.

Fonte: http://phys.org/news/2015-07-exploring-higgs-boson-dark-side.html

LHCb osserva i pentaquark

Nel comunicato stampa del 14 luglio di LHC Italia si legge che LHCb, uno dei quattro grandi esperimenti del Large Hadron Collider del CERN, ha riportato la scoperta di una classe di particelle esotiche note come pentaquark. La collaborazione ha pubblicato sul sito open access arXiv.org lo studio che descrive questi risultati, sottomesso per la pubblicazione alla rivista Physical Review Letters.

“Il pentaquark non è una qualsiasi nuova particella,” precisa a Phys.org il rappresentante del team di LHCb Guy Wilkinson. “Esso rappresenta un modo per aggregare i quarks, ossia i costituenti fondamentali dei protoni e neutroni ordinari, in uno schema che non è mai stata osservata prima d’ora in oltre 50 anni di ricerche sperimentali. Studiare le sue proprietà ci può permettere di comprendere come la materia ordinaria, i protoni ed i neutroni con cui siamo formati, è costituita”.

I ricercatori di LHCb hanno cercato stati di pentaquark esaminando il decadimento di un barione, conosciuto come Λb (Lambda b), in altre tre particelle: una J/ψ (J-psi), un protone e un kaone carico. Lo studio della distribuzione dell’energia della J/ψ e del protone ha rivelato che stati di aggregazione di materia intermedi, i pentaquark appunto, si formano a volte nel corso del decadimento di questi barioni.

“Approfittando della grande mole di dati forniti da LHC, e potendo contare sull’eccellente precisione del nostro rivelatore, abbiamo esaminato tutte le possibilità per questi segnali, e abbiamo concluso che si può spiegare solo con stati di pentaquark”, spiega il fisico della collaborazione internazionale LHCb Tomasz Skwarnicki, della Syracuse University negli Stati Uniti, che ha coordinato lo studio. “Più precisamente gli stati devono essere formati da due quark up, un quark down, un quark charm e un anti-quark charm”, conclude Skwarnicki.

CERN’s LHCb experiment reports observation of exotic pentaquark particles

L’immagine mostra una delle possibili configurazioni per i pentaquark. Come mostra l’immagine in apertura, essi potrebbero essere strutturati come un’unica particella composta da quattro quark e un antiquark, oppure da un mesone e un barione (tre quark) legati debolmente. Credit: Daniel Dominguez.

“L’esistenza di particelle esotiche, quelle che non riusciamo a inquadrare nei modelli che descrivono mesoni e barioni, è ormai un fatto sperimentalmente accertato: ad esempio, stati con quattro quark sono già stati scoperti in diversi esperimenti, incluso LHCb”, approfondisce Pierluigi Campana, a capo della collaborazione internazionale LHCb dal 2011 al 2014. “Però adesso abbiamo una forte indicazione di qualcosa di equivalente per i cinque quark. E questo grazie alla capacità di LHCb di riconoscere la natura delle particelle, in mezzo a quella tempesta di tracce che ci è generosamente offerta dalle collisioni a LHC”, conclude Campana.

Ma questo risultato non è conclusivo, perché i pentaquark sono una classe di particelle che ci può aprire le porte a una comprensione molto più approfondita della materia. Infatti, se noi conosciamo bene la forza elettromagnetica che tiene legati assieme gli atomi, cioè i nucleoni e gli elettroni, non altrettanto possiamo dire della forza forte, che tiene legati sia i protoni e i neutroni all’interno del nucleo, sia i quark che li compongono tra di loro.

A four-by-four table of particles. Columns are three generations of matter (fermions) and one of forces (bosons). In the first three columns, two rows contain quarks and two leptons. The top two rows' columns contain up (u) and down (d) quarks, charm (c) and strange (s) quarks, top (t) and bottom (b) quarks, and photon (γ) and gluon (g), respectively. The bottom two rows' columns contain electron neutrino (ν sub e) and electron (e), muon neutrino (ν sub μ) and muon (μ), and tau neutrino (ν sub τ) and tau (τ), and Z sup 0 and W sup ± weak force. Mass, charge, and spin are listed for each particle.

La suddivisione delle particelle nel Modello Standard. I sei tipi (o sapori) di quark sono colorati in violetto. Le colonne rappresentano le tre generazioni dei fermioni. Credit: wikipediaorg

La storia dei pentaquark comincia negli anni Sessanta del Novecento, precisamente nel 1964, quando Murray Gell-Mann ha proposto che una categoria di particelle, note come barioni, e che comprende protoni e neutroni, fossero composti di tre oggetti chiamati quark, e che un’altra categoria, i mesoni, fossero invece formati di coppie quark-antiquark (Gell-Mann fu insignito per questo lavoro del Premio Nobel per la fisica nel 1969). Ma la tavola periodica delle particelle elementari elaborata da Gell-Mann permette anche l’esistenza di altri stati di aggregati di quark, come il pentaquark appunto, composto da quattro quark e un antiquark. Fino ad ora, tuttavia, nonostante una ricerca serrata durata mezzo secolo e condotta da parte di molti esperimenti in tutto il mondo, non era mai stata portata nessuna prova conclusiva dell’esistenza del pentaquark.

Vediamo meglio cos’è un quark. Quando Gell-Mann e Yuval Ne’emen, in modo del tutto indipendente l’uno dall’altro, riunirono in gruppi le particelle sulla base delle loro proprietà, ottennero la eightfold way, la ottuplice via, indicata con SU(3) nel linguaggio formale. Dopo aver diviso in gruppi anche i barioni, nel 1964 Gell-Mann, che era alla ricerca del modo più semplice per rendere conto di tutti i barioni con un numero di particelle sub-barioniche fondamentali, propose il concetto di quark un approfondimento si trova sulla rivista asimmetrie a questo link.

I quark sono fermioni, i quali sono raggruppati in tre generazioni, ognuna composta da due leptoni e due quark (più le loro antiparticelle dette antiquark). In totale si originano in questo modo sei tipi o sapori di quark: la prima generazione è composta dai quark up edown; la seconda include il quark charme il quark strange; della terza fanno parte il quark top e il quark bottom.

Gell-Mann scelse il nome quark perché era giunto alla conclusione che per fare un barione bastava una combinazione di base di tre quark, e le diverse combinazioni dei quark erano sufficienti per costituire tutti i barioni fino ad allora noti, il che gli aveva richiamato alla mente un verso del Finnegan’s Wake di James Joyce: three quarks for Muster Mark.  

Paper: 

“Observation of J/ψp resonances consistent with pentaquark states in Λ0b→J/ψK−p decays.” arxiv.org/abs/1507.03414

Fonti:

http://phys.org/news/2015-07-cern-lhcb-exotic-pentaquark-particles.html

http://lhcitalia.infn.it/index.php/news/447-lhcb-osserva-i-pentaquark-particelle-esotiche-a-cinque-quark

Competizione e diversificazione: un case study

La diversificazione delle specie si verifica in risposta a una serie di fattori complessi, sia biotici che abiotici, la cui comprensione è una delle maggiori sfide per la biologia evolutiva. Lo stesso si può dire per le estinzioni (di massa e non). Un nuovo studio comparso sulla rivista National Academy of Sciences ha dimostrato che, nel caso dei canidi del Nord America, la competizione tra specie diverse ha avuto un ruolo molto più importante di quanto si credesse nelle estinzioni.

In dettaglio, la competizione tra più cladi di canidi carnivori avrebbe determinato la scomparsa di ben due specie distinte (Hesperocyoninae e Borophaginae). I ricercatori hanno analizzato circa 1.500 occorrenze fossili di 120 specie di canide da circa 40 milioni di anni fa ad oggi; partendo dall’ipotesi che la concorrenza di altre specie sia stata un fattore guida per i tassi di estinzione, hanno raccolto dati su cinque famiglie carnivore aggiuntive, tra cui gatti, cani e orsi.

Il quadro analitico risultante, correlando i tassi di estinzione alla grandezza media dei corpi di ciascuna specie, ha mostrato l’esistenza di un nesso tra abitudini alimentari carnivore, proprie di animali dai corpi sempre più grandi, e dinamiche di diversificazione/adattamento/estinzione. Niente di stupefacente. Il dato significativo riguarda la storia individuale delle singole specie di canidi.

Nel caso dei canidi nordamericani, infatti, questi vincoli adattativi avrebbero causato l’estinzione delle specie dai corpi meno massicci. L’attuale biodiversità sarebbe il risultato di una competizione infra-specifica. L’analisi bayesiana sembra infatti confermare che l’estinzione delle due sottofamiglie di canidi sia avvenuta anche a causa della competizione con altre specie.

Se è vero che già sapevamo come i cambiamenti climatici e gli eventi ambientali fossero un driver fondamentale nei processi di speciazione e di estinzione, è altrettanto vero che lo studio suggerisce fortemente che la lotta per la sopravvivenza giochi un ruolo importante nei destini di specie diverse in nicchie ecologiche simili.

Paper: “The role of clade competition in the diversification of North American canids.” PNAS 2015; published ahead of print June 29, 2015, DOI: 10.1073/pnas.1502803112

Fonte: phys.org.

Decapitare i fotoni per lo stoccaggio di informazioni

Dopo il Nobel 2012 assegnato a Serge Haroche e David Wineland, vari gruppi di ricerca stanno mettendo a punto tecniche di manipolazione dei sistemi quantistici per potenziare i calcolatori, ancora sofferenti a causa della decoerenza indotta dall’ambiente. Una ricerca pubblicata su National Science Review tenta di sfruttare la sovrapposizione quantistica per isolare e controllare il sistema rendendolo coerente il più a lungo possibile. Faccio un po’ il punto della situazione.

La comunicazione quantistica studia i modi in cui si può sfruttare la natura dei fotoni per trasmettere informazioni. Da quando sono state messe a punto alcune tecniche di crittografia quantistica, questa scienza ha ricevuto un’attenzione sempre maggiore da parte di governi, banche e multinazionali. Il motivo è semplice: è impossibile hackerarne i contenuti, in quanto i messaggi sono decifrabili solo dall’emittente e dal destinatario. Sappiamo che le particelle hanno proprietà davvero strane: non hanno una posizione, né uno stato ben definito, a meno che non intervenga un processo di misurazione a determinarli. Ciò significa che una chiave di cifratura può essere trasmessa in completa sicurezza da Alice a Bob – così di solito ci si esprime per descrivere la trasmissione dell’informazione da A a B – dato che ogni tentativo di intercettarla, dunque di intervenire nel sistema, sarebbe immediatamente noto ad A e B.

L’inviolabilità dei messaggi è garantita dalla sovrapposizione quantistica, una proprietà unica delle particelle: un fotone può esistere in due stati differenti (polarizzazione verticale e orizzontale, ad esempio). Invece di spedire segnali in codice digitale, cioè 0 e 1, la comunicazione quantistica può spedire informazioni in stati di sovrapposizione che rappresentano sia 0 che 1 allo stesso tempo. Senza contare che sistemi quantistici separati, come una coppia di fotoni, possono essere legati tra loro grazie all’entanglement: in questo modo si ottiene uno strumento estremamente potente, sicuro e che, nel caso di coppie di fotoni, non ha alcuna controparte classica.

L’approccio standard alla comunicazione quantistica prevede che la codifica dei qubit (i bit quantistici) avvenga sfruttando la polarizzazione di fotoni. La rilevazione della corretta polarizzazione richiede però che tutti gli utenti interessati abbiano un sistema di riferimento comune rispetto al quale valutare la polarizzazione stessa. A causa delle modalità di codifica dell’informazione nei qubit, fino ad oggi la comunicazione quantistica poteva essere realizzata solo fra sistemi in quiete. Sfruttando stati quantistici ibridi, di recente sono stati messi a punto dispositivi di codifica che permettono di trasmettere questo tipo di messaggi anche fra utenti in movimento. I segnali quantistici hanno coperto distanze di poche centinaia di kilometri, mettendo in comunicazione punti teoricamente situati in città diverse.

Fino ad oggi, soprattutto per potenziare le capacità dei computer, gli scienziati hanno aumentato il numero di particelle correlate, ciascuna di esse posta in uno stato bidimensionale di sovrapposizione: un qubit. Utilizzando questo metodo l’anno scorso è stato possibile realizzare stati entangled fino ad un massimo di 14 particelle (tenete presente che non è il record attuale).  Ora, in un nuovo paper appena pubblicato sembra possibile battere nuovamente il record. È infatti possibile creare stati entangled tra coppie di fotoni “in più dimensioni” utilizzando alcune proprietà quantistiche come lo spin dei fotoni. Questo metodo, chiamato “hyperentanglement” permette ad ogni coppia di fotoni di trasportare molti più dati di quanto fosse possibile con i metodi precedenti. Si parla di pacchetti di informazioni.

(Crediti: wikipedia.org).

La ricerca, pubblicata oggi su Nature Photonics descrive nel dettaglio questa innovativa tecnica, nota come “biphoton frequency comb”. In pratica, per semplificare in modo che capiate di cosa si parla, i ricercatori sono riusciti a dividere in parti i fotoni – lo so che sembra fantascienza, ma vi assicuro che è possibile –  per registrare ed immagazzinare un maggior numero di fotoni.  Nel trasferimento sicuro dei dati, i fotoni inviati su reti in fibra ottica possono essere criptati attraverso entanglement. Con ciascuna dimensione di entanglement, la quantità di informazioni trasportate su una coppia di fotoni viene raddoppiata, quindi una coppia di fotoni entangled a cinque dimensioni può trasportare una quantità di dati fino a 32 volte maggiore di quella veicolata da una coppia entangled ad una dimensione. “Abbiamo dimostrato che un pettine ottico a frequenza può essere generato a livello di un singolo fotone”, ha detto Xie. “Essenzialmente stiamo sfruttando la divisione della lunghezza d’onda per operare una specie di multiplazione a livello quantistico.” Le potenziali applicazioni per la ricerca comprendono la comunicazione sicura e di elaborazione delle informazioni, in particolare per il trasferimento di dati con il minimo errore.

Paper: Harnessing high-dimensional hyperentanglement through a biphoton frequency comb., in Nature Photonics (2015) DOI: 10.1038/nphoton.2015.110

Fonte: phys.org

Il Big Rip e l'ipotesi della fine dell'Universo

Per decenni i cosmologi hanno avuto difficoltà a conciliare la nozione classica di viscosità, ossia quella definita su base termodinamica, con la RG di Einstein. Oggi, un team di ricercatori dell’Università di Vanderbilt ha messo a punto una nuova soluzione matematica al problema che sembra colma questa lacuna e  ha significative implicazioni per il destino ultimo dell’universo. Lo studio è stato pubblicato sulla rivista Physical Review D.

Come sapete la teoria del Big Bang è una delle descrizioni più accreditate sulla nascita del nostro Universo. Da un “punto” di densità infinita l’universo si sarebbe inizialmente espanso, ma il destino è crudele, miei cari. La sua avventura terminerà in un “Big Rip”, un Grande Strappo. Il Big Rip  è un’ipotesi cosmologica sul destino ultimo dell’Universo.

L’ipotesi è concorde con il framework del Big Bang e prevede una continua accelerazione dell’espansione dell’Universo. Questo modello è stato sviluppato in seguito ad osservazioni di supernovae di tipo Ia in galassie lontane che, nel lontano 1998, hanno rivelato che l’espansione dell’Universo non è affatto costante ma sta accelerando – risultato inizialmente sorprendente per molti cosmologi.

(Crediti: NASA).

Il tipo di viscosità che ha rilevanza cosmologica è molto diversa dal concetto ordinario che ne abbiamo noi, la viscosità a “ketchup” per intenderci, quella che misura la resistenza di un fluido quando cerchiamo di farlo scorrere attraverso piccole fenditure.  La viscosità cosmologica è molto diversa e, purtroppo, è anche molto meno intuitiva (i liquidi che maneggiamo nella vita di tutti i giorni si prestano davvero poco ad essere compressi o espansi). Si tratta di una forma di viscosità della massa, e misura la resistenza di una massa (fluida) all’espansione o alla contrazione Per comprendere le caratteristiche della viscosità in contesti relativistici il gruppo di ricerca coordinato da Marcelo Disconzi si è messo a studiare quella classe di oggetti astronomici che producono questo effetto: le supernovae e le stelle di neutroni.

Dopo il successo avuto nelle simulazioni sul comportamento dei fluidi ideali (quelli senza viscosità) accelerati a velocità prossime a quelle della luce, per anni i tentativi di simulare il comportamento dei fluidi reali si è scontrato con serrati paradossi. Ora, riprendendo l’approccio del matematico francese André Lichnerowicz (siamo intorno agli anni cinquanta del novecento), una classe di nuove equazioni della fluidodinamica relativistica sembra rispettare la barriera della velocità della luce.

(Crediti: NASA).

La chiave della teoria è nella quantità di energia oscura nell’Universo. Se l’energia oscura fosse superiore ad un certo valore, tutta la materia verrebbe, alla fine, fatta letteralmente a pezzi. Il valore da considerare è w ossia il rapporto tra la pressione dell’energia oscura e la sua densità. Se w < −1 l’universo non ha scampo. Oltrepassata la “barriera fantasma” l’universo verrà fatto a pezzi. Il tasso di espansione dell’universo diventa così grande che in 22 miliardi di anni gli oggetti cominceranno a cadere letteralmente a pezzi.

“E’ possibile, ma non è molto probabile, che la viscosità potrebbe spiegare del tutto l’accelerazione che è stata attribuita all’ energia oscura”, ha spiegato Disconzi. “È più probabile che una frazione significativa dell’accelerazione potrebbe essere dovuto a questa causa più prosaica. Come risultato, la viscosità può agire come un importante vincolo sulle proprietà che l’energia oscura deve necessariamente avere “. Nella formulazione Desconzi-Kephart-Scherrer, tuttavia, questa barriera fantasma non esiste. Si fornisce infatti una soluzione all’equazione di stato al di sotto -1 permettendo di ipotizzare mediante la costruzione di modelli cosa potrebbe accadere.

Ovviamente questa non è l’unica ipotesi sugli ultimi minuti dell’Universo – leggetevi Paul Davies se siete interessati. Vi dico solo che esiste un’ipotesi simmetrica al Big bang, il Big Crunch, secondo cui l’Universo si contrarrebbe, e tutta la materia e l’energia verrebbero compresse in una singolarità gravitazionale. Altrettanto nota è l’ipotesi del Big Bounce, letteralmente “Grande Rimbalzo” o universo oscillante, una teoria cosmologica elaborata dal fisico Martin Bojowald, esperto di gravità quantistica, e dal suo team della Pennsylvania State University, che è stata pubblicata nel luglio 2007 su Nature Phisics online. Naturalmente ce ne sono altre. Beh, noi certo non ci saremo durante gli ultimi tre minuti.

Paper: Marcelo M. Disconzi, New approach to cosmological bulk viscosity, in Phys. Rev. D 91, 043532 –2015: http://journals.aps.org/prd/abstract/10.1103/PhysRevD.91.043532

Bojowald Martin, Prima del Big Bang. Storia completa dell’Universo, Bompiani, 2011

Goldhaber, G. and Perlmutter, S, A study of 42 type Ia supernovae and a resulting measurement of Omega(M) and Omega(Lambda), in Physics Reports -Review section of Physics Letters 307 (1-4): 325-331,1998.

Fonte:http://news.vanderbilt.edu/2015/06/new-model-of-cosmic-stickiness-favors-%E2%80%9Cbig-rip%E2%80%9D-demise-of-universe/