La tesi di Duhem-Quine e la materia oscura

ResearchBlogging.org

Esiste. Sappiamo che esiste solo indirettamente, nel senso che ne osserviamo gli effetti gravitazionali. Non è stata scoperta in senso stretto, non c’è stato un eureka! urlato in qualche sperduto laboratorio sotterraneo. Né c’è stata un’elegante ipotesi teoretica, poi passata al vaglio con potenti macchine nei laboratori di mezzo mondo. La storia della materia oscura è la storia di previsioni non rispettate, di osservazioni che smentiscono i calcoli, di ipotesi in prima battuta controintuitive. Ma è anzitutto la storia di una domanda che sembrerà banale: dove risiede la massa dell’Universo? Rispondere correttamente significa assistere alla genesi del concetto di materia oscura. 

Mettiamo da parte questa domanda e riflettiamo sui concetti. Proprio il concetto di materia oscura sarebbe infatti un viatico privilegiato per condurre una riflessione filosofica su alcuni principi della meccanica classica: questo sembra uno degli obiettivi primari di un recente articolo di M. A. Reynolds, da poco caricato su arXiv.org, intitolato The Duhem-Quine thesis and the dark matter problem.

“The problem of dark matter, and especially the physics of spiral galaxy velocity rotation curves, is a straightforward application of Newton’s laws of motion and gravitation, and is just enough removed from everyday experience to be analyzed from a fresh perspective. It is proposed to teach students about important issues in the philosophy of physics, including Bacon’s induction, Popper’s falsifiability, and the Duhem-Quine thesis, all in light of the dark matter pproblem. These issues can be discussed in an advanced classical mechanics course, or, with limited ssimplification, at the end of a first course in introductory mechanics. The goal is for students to understand at a deeper level how the physics community has arrived at the current state of knowledge”.

Nell’immagine è visibile l’effetto lensing come osservato dal telescopio spaziale Hubble in Abell 1689. Credits: NASA.

Dopo un brevissimo resoconto delle teorie chiamate in causa nell’abstract qui sopra, e il successivo richiamo agli studi sugli ammassi di galassie di F. Zwicky e S. Smith, Reynolds presenta lo studio analitico di un esempio concreto – quello che in gergo si chiama case study – concernente le curve di rotazione. Applicando il criterio di falsificabilità di Duhem, Reynolds mostra che esiste uno spazio logico non indifferente per ripescare una teoria un po’ “vintage”, la Modified Newtonian Dynamics (MOND), ossia Dinamica Newtoniana Modificata (secondo alcuni sarebbe una valida alternativa all’ipotesi della materia oscura, pur non essendo ancora stata sviluppata una variante relativistica). Vediamo cos’è MOND per poi passare alla tesi di Duhem-Quine.

§1- MOND e la materia oscura – MOND ammette che la legge di gravitazione universale è valida solo per accelerazioni piuttosto grandi. Quando il valore tende a essere molto piccolo, la formula di Newton subirebbe un cambiamento. Tradotto in matematichese, questo significa che per MOND “F = ma” varrebbe solo per grandi accelerazioni. Se a scendesse al di sotto di un valore molto basso si dovrebbe usare la  versione più generale: “F = m μ(a/ao) a“.

Dove ao è l’accelerazione critica e varrebbe circa 10-10 m/sec2, mentre a è il modulo dell’accelerazione. μ (a/ao) vale esattamente 1 se a > ao e si ritorna alla formulazione newtoniana. μ (a/ao) vale invece a/ao se a < ao. Ne deriva che in questo caso la forza si smorza velocemente. In questo modo si riuscirebbe a spiegare la velocità di rotazione pressoché costante ai bordi delle galassie che sembra non seguire l’andamento previsto dalla legge di Keplero che impone una sua decrescita continua con la distanza dal centro della galassia (v con r -1/2). 

MOND sembra poter fare a meno della materia oscura, almeno per quanto riguarda una singola galassia. Più semplicemente, la teoria studia la dispersione della velocità di rotazione a diverse distanze dal centro e da questa si ricava l’accelerazione che permette di determinare la massa dell’intera galassia (questo ovviamente non è l’unico metodo per determinarla e vale anche il procedimento inverso).

Ora che sappiamo cos’è MOND possiamo cercare di capire se il tentativo di Reynolds è riuscito o meno: “the study finishes with an attempt to reconcile the observations and theoretical predictions in the light of the ideas of verification and falsification discussed“.

Sir Isaac NewtonRitratto di Sir Godfrey Kneller, 1702, olio su tela

Isaac Newton Ritratto di Sir Godfrey Kneller (1702, olio su tela). Credits: National Portrait Gallery.

§2- La sottodeterminazione di Duhem-Quine – Vi dico subito che apprezzo molto il tentativo teoretico di Reynolds e credo abbia molto più valore in campo filosofico che strettamente fisico in cui ci si deve volgere al tribunale dell’esperimento (peraltro non disintegra in alcun modo le ipotesi sull’esistenza della materia oscura). La tesi Duhem-Quine analizza il rapporto tra dati e ipotesi (o tra ipotesi e dati) sostenendo che un’ipotesi è difendibile ad libitum,visto che da dati finiti sono ricavabili infinite ipotesi. Benché vi sia una base comune che spinge i due filosofi a questa conclusione – ogni teoria (e quindi le ipotesi su cui essa si basa) è supportata da ipotesi ausiliarie ma imprenscindibili – esistono significative differenze tra le loro tesi.  

Ricordo le più evidenti. Secondo Duhem, in fisica un’ipotesi isolata non può essere falsificata da un’osservazione; può essere sottoposta a controllo sperimentale solo da un altro punto vista, quando è intesa come un tutto, ossia insieme alle ipotesi ausiliarie che determinano quel pacchetto teorico che sarà corroborato o falsificato. Se, previsto O, si osserverà che non-O, non saremo per questo in grado di desumere quale delle ipotesi del pacchetto è stata falsificata. Questa situazione mette in crisi il concetto baconiano di experimentum crucis: elencate tutte le ipotesi che si possono fare per rendere conto del gruppo di fenomeni, poi con la contraddizione sperimentale eliminatele tutte eccetto una. Quest’ultima cesserà di essere un’ipotesi per diventare una certezza (naturalmente non è un procedimento praticabile, poiché il fisico non è mai sicuro di aver effettuato tutte le ipotesi immaginabili.).

Pierre Maurice Marie Duhem.

Ora, la tesi di Duhem vale solo per una parte dell’edificio scientifico (segnatamente per la fisica) mentre quella di Quine si estende all’intero sistema della conoscenza umana, sistema che può essere mantenuto, malgrado qualsiasi falsificazione empirica, mediante correzione interna. Comprese le differenze, le due tesi possono essere unite nella tesi di Duhem-Quine secondo la quale la non-falsificabilità delle ipotesi isolate si applica

(i) alle teorie di alto livello della fisica, della matematica, della logica e di altre scienze, e

(ii) a un insieme teorico controllabile e limitato, non potendosi estendere all’interezza dell’esperienza umana.

In questa sua seconda parte, quindi, la tesi Duhem-Quine si avvale della teoria duhemiana del bon sens contrapponendosi ad una delle istanze dello stesso Quine, secondo cui tutte le asserzioni si potrebbero far valere qualunque cosa accada se facessimo delle rettifiche sufficientemente drastiche in qualche altra parte del sistema.

Un esempio di quanto detto sopra si trova nel tentativo storico di prevedere l’orbita di Urano tramite la teoria gravitazionale di Newton. Sappiamo che l’orbita di Urano non collimava con le teorie newtoniane ormai consolidate. Poiché la teoria gravitazionale del fisico inglese portava risultati pratici e tangibili, nonostante non sembrasse funzionare in questo specifico caso, si decise di non abbandonarla. Si optò, infatti, per la modifica (passatemi l’anacronismo) di una delle sue ipotesi ausiliarie: da “i pianeti sono sette”, a “i pianeti sono almeno otto”. Il fatto di ipotizzare un ottavo pianeta abbastanza grande da poter influenzare, tramite l’attrazione gravitazionale, il corso dell’orbita di Urano, permise la scoperta di Nettuno, ottavo pianeta del sistema solare. Era il 23 settembre 1846.

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986

Fotografia di Urano fatta dalla sonda Voyager 2 nel 1986. Credits:NASA/JPL-Caltech.

La teoria newtoniana è stata preservata grazie all’alterazione delle ipotesi ausiliarie che determinano il suo raggio d’azione, utilizzando quindi il principio propugnato da Duhem e Quine: è evidente che al cambiamento delle ipotesi ausiliarie corrisponda l’applicabilità di una data teoria nella storia. Modificando il framework di ipotesi su cui si regge la teoria, essa diventa sostenibile all’infinito, dato che possiamo intervenire un numero infinito di volte per modificarlo. Se si dovesse quindi elaborare per induzione un’ipotesi circa un qualche esperimento ed osservazione scientifica, ci si potrebbe avvalere della totale libertà d’interpretazione, consci del fatto che, da un qualsiasi dato (anche grazie alla modifica delle solite ipotesi ausiliarie) sono ricavabili infinite ipotesi, eternamente sostenibili. Parafrasando Quine, si potrebbe sostenere che il tutto è mosso dagli dei omerici, e nessuno potrebbe dimostrare il contrario.

§3- Una lettura debole di Duhem-Quine – Detto ciò, se è vero che la tesi di Duhem-Quine pone il problema della sostenibilità di una teoria a scapito della sua stessa dimostrabilità, allora si può comprendere in che senso l’analisi di Reynolds ha una valenza filosofica più che fisica. Se Reynolds ha ragione, possiamo ben dire che esiste uno spazio logico per sostenere MOND anche a fronte di indizi a favore della materia oscura. Ma se davvero prendiamo alla lettera la tesi sottostante, ossia che è sempre impossibile dimostrare la verità o la falsità di una tesi, come possiamo ad evitare il collasso della scienza nel baratro della metafisica?

Credo sia sensato proporre, in modo più deciso di quanto mi sembra traspaia dalle pagine di Reynolds, una lettura debole della sottodeterminazione di Duhem-Quine.

La tesi della sottodeterminazione delle teorie rispetto all’esperienza presta il fianco alle medesime critiche che rivolge alle altre teorie. I due autori mi risponderebbero che, come ogni teoria di stampo olistico e relativizzante, essa conferma la sua potenza proprio nella demolizione di se stessa. Va bene, non è un buon terreno per proporre confutazioni. Possiamo scomodare Ockham, ragionare anche in termini di probabilità e, per dirla con Abelardo, di verosimiglianza. Come fare, però, con i domini non osservabili come la materia oscura? Ecco, forse abbiamo imboccato la retta via. Delimitando il campo di indagine e facendo leva su considerazioni di merito – in primis sul metodo scientifico – sarebbe bene adottare criteri di scala e misurazione condivisi, costruire un metodo e valorizzare la predicibilità di un evento, argomento di fondamentale importanza per una teoria scientifica (del quale non si avvale la metafisica).

Infatti, proprio grazie alla prevedibilità si può ipotizzare una teoria partendo da un effetto per poi individuarne la causa, proprio come è accaduto con la scoperta di Nettuno, o come accade per l’individuazione dei buchi neri che, distorcendo lo spaziotempo e quindi deviando il percorso della luce, sono enti reperibili e conoscibili come effetto di una causa. Proprio perché abbiamo detto che da dati finiti si possono formulare infinite ipotesi, abbiamo svolto un interessante esercizio filosofico. E adesso? Fisicamente, la materia oscura esiste o hanno ragione si sostenitori di MOND? Duhem-Quine ora non possono più aiutarci.

Paper:

Reynolds M. A. (2015). The Duhem-Quine thesis and the dark matter problem, Arxiv.org, (submitted to the American Journal of Physics), DOI: http://arxiv.org/abs/1507.06282

Annunci

Il lato oscuro del bosone di Higgs

Su Phys.org è comparsa una breve ma incisiva intervista a Daniela Bortoletto una ricercatrice dell’Università di Oxford che fa parte del team di ATLAS al CERN.

Dopo la conferma del bosone di Higgs, come sapete da circa due mesi LHC ha ripreso a funzionare ad energie da record: 13 TeV. Sappiamo che decade in due fermioni, e avevo fatto un primo punto della situazione intervistando il Prof. Guido Tonelli.

Ora è interessante sentire cosa ha da dire la Prof.ssa Daniela Bortoletto, in quanto le sfide che ci aspettano sono a dir poco emozionanti. Per prima cosa gli scienziati sperano di colmare i buchi del Modello Standard, visto che non è una teoria del tutto. Per lo meno, non lo è ancora.

LHC.svg

La catena degli acceleratori del CERN, organizzati in stadi successivi di accelerazione terminanti con l’iniezione in LHC.

Come è noto, pur avendo riunificato la forza elettromagnetica e quella nucleare debole (forza elettrodebole), il Modello Standard non è completo:

(i) non include la forza di gravità, che è l’interazione di più debole intensità;

(ii) non spiega lo spettro delle masse delle particelle;

(iii) contiene diversi parametri arbitrari;

(iv) non rende conto dell’asimmetria tra materia e antimateria nell’universo, fallisce nell’identificare le particelle fondamentali di materia oscura e nello spiegare l’energia oscura;

(v) non riunisce in un’unica teoria l’interazione nucleare forte e la forza elettrodebole, che la teoria della grande unificazione spiega con l’ipotesi che queste due forze a temperature elevate si equivalgono.

Ovviamente è la materia oscura l’argomento più “caldo”. “Grazie alle elevate energie di LHC speriamo proprio di ricreare in laboratorio la materia oscura”, dichiara la Bortoletto. “Se la materia oscura è la più leggera delle particelle previste da SUSY che potremmo scoprire, ci sono molte altre particelle SUSY che potremmo scoprire, poiché la supersimmetria prevede che ogni particella del Modello Standard abbia una sua controparte supersimmetrica”.

Galassie mancate piene di materia oscura

Una suggestiva immagine dell’ammasso della Chioma (Cortesia NASA/JPL-Caltech/GSFC/SDSS).

La supersimmetria (o SUSY, da SUper SYmmetry) è stata formulata per rendere conto dei fenomeni della fisica delle particelle che rimangono inspiegati nell’ambito del Modello Standard. La peculiarità di questa ipotesi è semplice: a ogni particella bosonica, dotata cioè di spin intero, si associa una particella fermionica (o superpartner) dotata di spin semi-interi (in modo correlativo, ogni fermione ha un superpartner bosonico).Dobbiamo ammettere che sembra una tesi abbastanza esotica.  Perché abbiamo bisogno della supersimmetria?

Ecco tre buoni motivi: (i) consente di unificare le tre forze fondamentali della natura, una volta raggiunte le energie più elevate; (ii) prevede l’esistenza di particelle che potrebbero costituire la materia oscura; (iii) permette di risolvere il problema della differenza di intensità tra forza nucleare debole e forza gravitazionale – di 32 ordini di grandezza a favore della forza debole (ciò significa che è 100.000 miliardi di miliardi di miliardi più intensa). Tuttavia, benché il modello standard sia solidamente confermato dagli esperimenti, sul tappeto rimangono ancora molti problemi, in primis l’antimateria.

Che cosa ha causato l’asimmetria o, meglio, la rottura della simmetria che ha permesso alla materia barionica di dominare sull’antimateria? “Non lo sappiamo ancora, ma abbiamo scoperto il bosone di Higgs, una particella che non ha spin, che potrebbe decadere in particelle di materia oscura e che potrebbe aiutarci a capire perché non è stata l’antimateria a prendere il sopravvento”, spiega la Bortoletto. “Lo spin spiega il comportamento delle particelle. Gli elettroni hanno spin ½, mentre i fotoni che sono responsabili delle interazioni elettromagnetiche, hanno spin 1. Le particelle a spin ½ obbediscono al principio di esclusione di Pauli che vieta a due elettroni di occupare lo stesso stato quantico. L’Higgs è la prima particella spin 0, la prima particella scalare osservata, una particella che, tecnicamente, non è materia né forza”.

Proprio per questa sua natura ha certamente un ruolo importante nella spiegazione dell’inflazione cosmica, dell’energia del vuoto e, come è noto, nella spiegazione della massa delle altre particelle. “Ed è proprio a causa del bosone che l’elettrone ha massa e che gli atomi hanno potuto formarsi. Ma perché le particelle elementari hanno masse così diverse? Ora, grazie ai nuovi dati di LHC e ATLAS possiamo studiare meglio il decadimento del bosone e le interazioni tra bosoni e quarks”. Insomma, anche se il prossimo potenziamento di LHC sarà nel 2025, è ormai certo che in questi anni le novità non si faranno attendere.

Qui trovate la pagina della Prof.ssa Daniela Bortoletto – Department of Physics, Oxford.

Fonte: http://phys.org/news/2015-07-exploring-higgs-boson-dark-side.html

LHCb osserva i pentaquark

Nel comunicato stampa del 14 luglio di LHC Italia si legge che LHCb, uno dei quattro grandi esperimenti del Large Hadron Collider del CERN, ha riportato la scoperta di una classe di particelle esotiche note come pentaquark. La collaborazione ha pubblicato sul sito open access arXiv.org lo studio che descrive questi risultati, sottomesso per la pubblicazione alla rivista Physical Review Letters.

“Il pentaquark non è una qualsiasi nuova particella,” precisa a Phys.org il rappresentante del team di LHCb Guy Wilkinson. “Esso rappresenta un modo per aggregare i quarks, ossia i costituenti fondamentali dei protoni e neutroni ordinari, in uno schema che non è mai stata osservata prima d’ora in oltre 50 anni di ricerche sperimentali. Studiare le sue proprietà ci può permettere di comprendere come la materia ordinaria, i protoni ed i neutroni con cui siamo formati, è costituita”.

I ricercatori di LHCb hanno cercato stati di pentaquark esaminando il decadimento di un barione, conosciuto come Λb (Lambda b), in altre tre particelle: una J/ψ (J-psi), un protone e un kaone carico. Lo studio della distribuzione dell’energia della J/ψ e del protone ha rivelato che stati di aggregazione di materia intermedi, i pentaquark appunto, si formano a volte nel corso del decadimento di questi barioni.

“Approfittando della grande mole di dati forniti da LHC, e potendo contare sull’eccellente precisione del nostro rivelatore, abbiamo esaminato tutte le possibilità per questi segnali, e abbiamo concluso che si può spiegare solo con stati di pentaquark”, spiega il fisico della collaborazione internazionale LHCb Tomasz Skwarnicki, della Syracuse University negli Stati Uniti, che ha coordinato lo studio. “Più precisamente gli stati devono essere formati da due quark up, un quark down, un quark charm e un anti-quark charm”, conclude Skwarnicki.

CERN’s LHCb experiment reports observation of exotic pentaquark particles

L’immagine mostra una delle possibili configurazioni per i pentaquark. Come mostra l’immagine in apertura, essi potrebbero essere strutturati come un’unica particella composta da quattro quark e un antiquark, oppure da un mesone e un barione (tre quark) legati debolmente. Credit: Daniel Dominguez.

“L’esistenza di particelle esotiche, quelle che non riusciamo a inquadrare nei modelli che descrivono mesoni e barioni, è ormai un fatto sperimentalmente accertato: ad esempio, stati con quattro quark sono già stati scoperti in diversi esperimenti, incluso LHCb”, approfondisce Pierluigi Campana, a capo della collaborazione internazionale LHCb dal 2011 al 2014. “Però adesso abbiamo una forte indicazione di qualcosa di equivalente per i cinque quark. E questo grazie alla capacità di LHCb di riconoscere la natura delle particelle, in mezzo a quella tempesta di tracce che ci è generosamente offerta dalle collisioni a LHC”, conclude Campana.

Ma questo risultato non è conclusivo, perché i pentaquark sono una classe di particelle che ci può aprire le porte a una comprensione molto più approfondita della materia. Infatti, se noi conosciamo bene la forza elettromagnetica che tiene legati assieme gli atomi, cioè i nucleoni e gli elettroni, non altrettanto possiamo dire della forza forte, che tiene legati sia i protoni e i neutroni all’interno del nucleo, sia i quark che li compongono tra di loro.

A four-by-four table of particles. Columns are three generations of matter (fermions) and one of forces (bosons). In the first three columns, two rows contain quarks and two leptons. The top two rows' columns contain up (u) and down (d) quarks, charm (c) and strange (s) quarks, top (t) and bottom (b) quarks, and photon (γ) and gluon (g), respectively. The bottom two rows' columns contain electron neutrino (ν sub e) and electron (e), muon neutrino (ν sub μ) and muon (μ), and tau neutrino (ν sub τ) and tau (τ), and Z sup 0 and W sup ± weak force. Mass, charge, and spin are listed for each particle.

La suddivisione delle particelle nel Modello Standard. I sei tipi (o sapori) di quark sono colorati in violetto. Le colonne rappresentano le tre generazioni dei fermioni. Credit: wikipediaorg

La storia dei pentaquark comincia negli anni Sessanta del Novecento, precisamente nel 1964, quando Murray Gell-Mann ha proposto che una categoria di particelle, note come barioni, e che comprende protoni e neutroni, fossero composti di tre oggetti chiamati quark, e che un’altra categoria, i mesoni, fossero invece formati di coppie quark-antiquark (Gell-Mann fu insignito per questo lavoro del Premio Nobel per la fisica nel 1969). Ma la tavola periodica delle particelle elementari elaborata da Gell-Mann permette anche l’esistenza di altri stati di aggregati di quark, come il pentaquark appunto, composto da quattro quark e un antiquark. Fino ad ora, tuttavia, nonostante una ricerca serrata durata mezzo secolo e condotta da parte di molti esperimenti in tutto il mondo, non era mai stata portata nessuna prova conclusiva dell’esistenza del pentaquark.

Vediamo meglio cos’è un quark. Quando Gell-Mann e Yuval Ne’emen, in modo del tutto indipendente l’uno dall’altro, riunirono in gruppi le particelle sulla base delle loro proprietà, ottennero la eightfold way, la ottuplice via, indicata con SU(3) nel linguaggio formale. Dopo aver diviso in gruppi anche i barioni, nel 1964 Gell-Mann, che era alla ricerca del modo più semplice per rendere conto di tutti i barioni con un numero di particelle sub-barioniche fondamentali, propose il concetto di quark un approfondimento si trova sulla rivista asimmetrie a questo link.

I quark sono fermioni, i quali sono raggruppati in tre generazioni, ognuna composta da due leptoni e due quark (più le loro antiparticelle dette antiquark). In totale si originano in questo modo sei tipi o sapori di quark: la prima generazione è composta dai quark up edown; la seconda include il quark charme il quark strange; della terza fanno parte il quark top e il quark bottom.

Gell-Mann scelse il nome quark perché era giunto alla conclusione che per fare un barione bastava una combinazione di base di tre quark, e le diverse combinazioni dei quark erano sufficienti per costituire tutti i barioni fino ad allora noti, il che gli aveva richiamato alla mente un verso del Finnegan’s Wake di James Joyce: three quarks for Muster Mark.  

Paper: 

“Observation of J/ψp resonances consistent with pentaquark states in Λ0b→J/ψK−p decays.” arxiv.org/abs/1507.03414

Fonti:

http://phys.org/news/2015-07-cern-lhcb-exotic-pentaquark-particles.html

http://lhcitalia.infn.it/index.php/news/447-lhcb-osserva-i-pentaquark-particelle-esotiche-a-cinque-quark

Competizione e diversificazione: un case study

La diversificazione delle specie si verifica in risposta a una serie di fattori complessi, sia biotici che abiotici, la cui comprensione è una delle maggiori sfide per la biologia evolutiva. Lo stesso si può dire per le estinzioni (di massa e non). Un nuovo studio comparso sulla rivista National Academy of Sciences ha dimostrato che, nel caso dei canidi del Nord America, la competizione tra specie diverse ha avuto un ruolo molto più importante di quanto si credesse nelle estinzioni.

In dettaglio, la competizione tra più cladi di canidi carnivori avrebbe determinato la scomparsa di ben due specie distinte (Hesperocyoninae e Borophaginae). I ricercatori hanno analizzato circa 1.500 occorrenze fossili di 120 specie di canide da circa 40 milioni di anni fa ad oggi; partendo dall’ipotesi che la concorrenza di altre specie sia stata un fattore guida per i tassi di estinzione, hanno raccolto dati su cinque famiglie carnivore aggiuntive, tra cui gatti, cani e orsi.

Il quadro analitico risultante, correlando i tassi di estinzione alla grandezza media dei corpi di ciascuna specie, ha mostrato l’esistenza di un nesso tra abitudini alimentari carnivore, proprie di animali dai corpi sempre più grandi, e dinamiche di diversificazione/adattamento/estinzione. Niente di stupefacente. Il dato significativo riguarda la storia individuale delle singole specie di canidi.

Nel caso dei canidi nordamericani, infatti, questi vincoli adattativi avrebbero causato l’estinzione delle specie dai corpi meno massicci. L’attuale biodiversità sarebbe il risultato di una competizione infra-specifica. L’analisi bayesiana sembra infatti confermare che l’estinzione delle due sottofamiglie di canidi sia avvenuta anche a causa della competizione con altre specie.

Se è vero che già sapevamo come i cambiamenti climatici e gli eventi ambientali fossero un driver fondamentale nei processi di speciazione e di estinzione, è altrettanto vero che lo studio suggerisce fortemente che la lotta per la sopravvivenza giochi un ruolo importante nei destini di specie diverse in nicchie ecologiche simili.

Paper: “The role of clade competition in the diversification of North American canids.” PNAS 2015; published ahead of print June 29, 2015, DOI: 10.1073/pnas.1502803112

Fonte: phys.org.

Decapitare i fotoni per lo stoccaggio di informazioni

Dopo il Nobel 2012 assegnato a Serge Haroche e David Wineland, vari gruppi di ricerca stanno mettendo a punto tecniche di manipolazione dei sistemi quantistici per potenziare i calcolatori, ancora sofferenti a causa della decoerenza indotta dall’ambiente. Una ricerca pubblicata su National Science Review tenta di sfruttare la sovrapposizione quantistica per isolare e controllare il sistema rendendolo coerente il più a lungo possibile. Faccio un po’ il punto della situazione.

La comunicazione quantistica studia i modi in cui si può sfruttare la natura dei fotoni per trasmettere informazioni. Da quando sono state messe a punto alcune tecniche di crittografia quantistica, questa scienza ha ricevuto un’attenzione sempre maggiore da parte di governi, banche e multinazionali. Il motivo è semplice: è impossibile hackerarne i contenuti, in quanto i messaggi sono decifrabili solo dall’emittente e dal destinatario. Sappiamo che le particelle hanno proprietà davvero strane: non hanno una posizione, né uno stato ben definito, a meno che non intervenga un processo di misurazione a determinarli. Ciò significa che una chiave di cifratura può essere trasmessa in completa sicurezza da Alice a Bob – così di solito ci si esprime per descrivere la trasmissione dell’informazione da A a B – dato che ogni tentativo di intercettarla, dunque di intervenire nel sistema, sarebbe immediatamente noto ad A e B.

L’inviolabilità dei messaggi è garantita dalla sovrapposizione quantistica, una proprietà unica delle particelle: un fotone può esistere in due stati differenti (polarizzazione verticale e orizzontale, ad esempio). Invece di spedire segnali in codice digitale, cioè 0 e 1, la comunicazione quantistica può spedire informazioni in stati di sovrapposizione che rappresentano sia 0 che 1 allo stesso tempo. Senza contare che sistemi quantistici separati, come una coppia di fotoni, possono essere legati tra loro grazie all’entanglement: in questo modo si ottiene uno strumento estremamente potente, sicuro e che, nel caso di coppie di fotoni, non ha alcuna controparte classica.

L’approccio standard alla comunicazione quantistica prevede che la codifica dei qubit (i bit quantistici) avvenga sfruttando la polarizzazione di fotoni. La rilevazione della corretta polarizzazione richiede però che tutti gli utenti interessati abbiano un sistema di riferimento comune rispetto al quale valutare la polarizzazione stessa. A causa delle modalità di codifica dell’informazione nei qubit, fino ad oggi la comunicazione quantistica poteva essere realizzata solo fra sistemi in quiete. Sfruttando stati quantistici ibridi, di recente sono stati messi a punto dispositivi di codifica che permettono di trasmettere questo tipo di messaggi anche fra utenti in movimento. I segnali quantistici hanno coperto distanze di poche centinaia di kilometri, mettendo in comunicazione punti teoricamente situati in città diverse.

Fino ad oggi, soprattutto per potenziare le capacità dei computer, gli scienziati hanno aumentato il numero di particelle correlate, ciascuna di esse posta in uno stato bidimensionale di sovrapposizione: un qubit. Utilizzando questo metodo l’anno scorso è stato possibile realizzare stati entangled fino ad un massimo di 14 particelle (tenete presente che non è il record attuale).  Ora, in un nuovo paper appena pubblicato sembra possibile battere nuovamente il record. È infatti possibile creare stati entangled tra coppie di fotoni “in più dimensioni” utilizzando alcune proprietà quantistiche come lo spin dei fotoni. Questo metodo, chiamato “hyperentanglement” permette ad ogni coppia di fotoni di trasportare molti più dati di quanto fosse possibile con i metodi precedenti. Si parla di pacchetti di informazioni.

(Crediti: wikipedia.org).

La ricerca, pubblicata oggi su Nature Photonics descrive nel dettaglio questa innovativa tecnica, nota come “biphoton frequency comb”. In pratica, per semplificare in modo che capiate di cosa si parla, i ricercatori sono riusciti a dividere in parti i fotoni – lo so che sembra fantascienza, ma vi assicuro che è possibile –  per registrare ed immagazzinare un maggior numero di fotoni.  Nel trasferimento sicuro dei dati, i fotoni inviati su reti in fibra ottica possono essere criptati attraverso entanglement. Con ciascuna dimensione di entanglement, la quantità di informazioni trasportate su una coppia di fotoni viene raddoppiata, quindi una coppia di fotoni entangled a cinque dimensioni può trasportare una quantità di dati fino a 32 volte maggiore di quella veicolata da una coppia entangled ad una dimensione. “Abbiamo dimostrato che un pettine ottico a frequenza può essere generato a livello di un singolo fotone”, ha detto Xie. “Essenzialmente stiamo sfruttando la divisione della lunghezza d’onda per operare una specie di multiplazione a livello quantistico.” Le potenziali applicazioni per la ricerca comprendono la comunicazione sicura e di elaborazione delle informazioni, in particolare per il trasferimento di dati con il minimo errore.

Paper: Harnessing high-dimensional hyperentanglement through a biphoton frequency comb., in Nature Photonics (2015) DOI: 10.1038/nphoton.2015.110

Fonte: phys.org

Il Big Rip e l'ipotesi della fine dell'Universo

Per decenni i cosmologi hanno avuto difficoltà a conciliare la nozione classica di viscosità, ossia quella definita su base termodinamica, con la RG di Einstein. Oggi, un team di ricercatori dell’Università di Vanderbilt ha messo a punto una nuova soluzione matematica al problema che sembra colma questa lacuna e  ha significative implicazioni per il destino ultimo dell’universo. Lo studio è stato pubblicato sulla rivista Physical Review D.

Come sapete la teoria del Big Bang è una delle descrizioni più accreditate sulla nascita del nostro Universo. Da un “punto” di densità infinita l’universo si sarebbe inizialmente espanso, ma il destino è crudele, miei cari. La sua avventura terminerà in un “Big Rip”, un Grande Strappo. Il Big Rip  è un’ipotesi cosmologica sul destino ultimo dell’Universo.

L’ipotesi è concorde con il framework del Big Bang e prevede una continua accelerazione dell’espansione dell’Universo. Questo modello è stato sviluppato in seguito ad osservazioni di supernovae di tipo Ia in galassie lontane che, nel lontano 1998, hanno rivelato che l’espansione dell’Universo non è affatto costante ma sta accelerando – risultato inizialmente sorprendente per molti cosmologi.

(Crediti: NASA).

Il tipo di viscosità che ha rilevanza cosmologica è molto diversa dal concetto ordinario che ne abbiamo noi, la viscosità a “ketchup” per intenderci, quella che misura la resistenza di un fluido quando cerchiamo di farlo scorrere attraverso piccole fenditure.  La viscosità cosmologica è molto diversa e, purtroppo, è anche molto meno intuitiva (i liquidi che maneggiamo nella vita di tutti i giorni si prestano davvero poco ad essere compressi o espansi). Si tratta di una forma di viscosità della massa, e misura la resistenza di una massa (fluida) all’espansione o alla contrazione Per comprendere le caratteristiche della viscosità in contesti relativistici il gruppo di ricerca coordinato da Marcelo Disconzi si è messo a studiare quella classe di oggetti astronomici che producono questo effetto: le supernovae e le stelle di neutroni.

Dopo il successo avuto nelle simulazioni sul comportamento dei fluidi ideali (quelli senza viscosità) accelerati a velocità prossime a quelle della luce, per anni i tentativi di simulare il comportamento dei fluidi reali si è scontrato con serrati paradossi. Ora, riprendendo l’approccio del matematico francese André Lichnerowicz (siamo intorno agli anni cinquanta del novecento), una classe di nuove equazioni della fluidodinamica relativistica sembra rispettare la barriera della velocità della luce.

(Crediti: NASA).

La chiave della teoria è nella quantità di energia oscura nell’Universo. Se l’energia oscura fosse superiore ad un certo valore, tutta la materia verrebbe, alla fine, fatta letteralmente a pezzi. Il valore da considerare è w ossia il rapporto tra la pressione dell’energia oscura e la sua densità. Se w < −1 l’universo non ha scampo. Oltrepassata la “barriera fantasma” l’universo verrà fatto a pezzi. Il tasso di espansione dell’universo diventa così grande che in 22 miliardi di anni gli oggetti cominceranno a cadere letteralmente a pezzi.

“E’ possibile, ma non è molto probabile, che la viscosità potrebbe spiegare del tutto l’accelerazione che è stata attribuita all’ energia oscura”, ha spiegato Disconzi. “È più probabile che una frazione significativa dell’accelerazione potrebbe essere dovuto a questa causa più prosaica. Come risultato, la viscosità può agire come un importante vincolo sulle proprietà che l’energia oscura deve necessariamente avere “. Nella formulazione Desconzi-Kephart-Scherrer, tuttavia, questa barriera fantasma non esiste. Si fornisce infatti una soluzione all’equazione di stato al di sotto -1 permettendo di ipotizzare mediante la costruzione di modelli cosa potrebbe accadere.

Ovviamente questa non è l’unica ipotesi sugli ultimi minuti dell’Universo – leggetevi Paul Davies se siete interessati. Vi dico solo che esiste un’ipotesi simmetrica al Big bang, il Big Crunch, secondo cui l’Universo si contrarrebbe, e tutta la materia e l’energia verrebbero compresse in una singolarità gravitazionale. Altrettanto nota è l’ipotesi del Big Bounce, letteralmente “Grande Rimbalzo” o universo oscillante, una teoria cosmologica elaborata dal fisico Martin Bojowald, esperto di gravità quantistica, e dal suo team della Pennsylvania State University, che è stata pubblicata nel luglio 2007 su Nature Phisics online. Naturalmente ce ne sono altre. Beh, noi certo non ci saremo durante gli ultimi tre minuti.

Paper: Marcelo M. Disconzi, New approach to cosmological bulk viscosity, in Phys. Rev. D 91, 043532 –2015: http://journals.aps.org/prd/abstract/10.1103/PhysRevD.91.043532

Bojowald Martin, Prima del Big Bang. Storia completa dell’Universo, Bompiani, 2011

Goldhaber, G. and Perlmutter, S, A study of 42 type Ia supernovae and a resulting measurement of Omega(M) and Omega(Lambda), in Physics Reports -Review section of Physics Letters 307 (1-4): 325-331,1998.

Fonte:http://news.vanderbilt.edu/2015/06/new-model-of-cosmic-stickiness-favors-%E2%80%9Cbig-rip%E2%80%9D-demise-of-universe/