Decapitare i fotoni per lo stoccaggio di informazioni

Dopo il Nobel 2012 assegnato a Serge Haroche e David Wineland, vari gruppi di ricerca stanno mettendo a punto tecniche di manipolazione dei sistemi quantistici per potenziare i calcolatori, ancora sofferenti a causa della decoerenza indotta dall’ambiente. Una ricerca pubblicata su National Science Review tenta di sfruttare la sovrapposizione quantistica per isolare e controllare il sistema rendendolo coerente il più a lungo possibile. Faccio un po’ il punto della situazione.

La comunicazione quantistica studia i modi in cui si può sfruttare la natura dei fotoni per trasmettere informazioni. Da quando sono state messe a punto alcune tecniche di crittografia quantistica, questa scienza ha ricevuto un’attenzione sempre maggiore da parte di governi, banche e multinazionali. Il motivo è semplice: è impossibile hackerarne i contenuti, in quanto i messaggi sono decifrabili solo dall’emittente e dal destinatario. Sappiamo che le particelle hanno proprietà davvero strane: non hanno una posizione, né uno stato ben definito, a meno che non intervenga un processo di misurazione a determinarli. Ciò significa che una chiave di cifratura può essere trasmessa in completa sicurezza da Alice a Bob – così di solito ci si esprime per descrivere la trasmissione dell’informazione da A a B – dato che ogni tentativo di intercettarla, dunque di intervenire nel sistema, sarebbe immediatamente noto ad A e B.

L’inviolabilità dei messaggi è garantita dalla sovrapposizione quantistica, una proprietà unica delle particelle: un fotone può esistere in due stati differenti (polarizzazione verticale e orizzontale, ad esempio). Invece di spedire segnali in codice digitale, cioè 0 e 1, la comunicazione quantistica può spedire informazioni in stati di sovrapposizione che rappresentano sia 0 che 1 allo stesso tempo. Senza contare che sistemi quantistici separati, come una coppia di fotoni, possono essere legati tra loro grazie all’entanglement: in questo modo si ottiene uno strumento estremamente potente, sicuro e che, nel caso di coppie di fotoni, non ha alcuna controparte classica.

L’approccio standard alla comunicazione quantistica prevede che la codifica dei qubit (i bit quantistici) avvenga sfruttando la polarizzazione di fotoni. La rilevazione della corretta polarizzazione richiede però che tutti gli utenti interessati abbiano un sistema di riferimento comune rispetto al quale valutare la polarizzazione stessa. A causa delle modalità di codifica dell’informazione nei qubit, fino ad oggi la comunicazione quantistica poteva essere realizzata solo fra sistemi in quiete. Sfruttando stati quantistici ibridi, di recente sono stati messi a punto dispositivi di codifica che permettono di trasmettere questo tipo di messaggi anche fra utenti in movimento. I segnali quantistici hanno coperto distanze di poche centinaia di kilometri, mettendo in comunicazione punti teoricamente situati in città diverse.

Fino ad oggi, soprattutto per potenziare le capacità dei computer, gli scienziati hanno aumentato il numero di particelle correlate, ciascuna di esse posta in uno stato bidimensionale di sovrapposizione: un qubit. Utilizzando questo metodo l’anno scorso è stato possibile realizzare stati entangled fino ad un massimo di 14 particelle (tenete presente che non è il record attuale).  Ora, in un nuovo paper appena pubblicato sembra possibile battere nuovamente il record. È infatti possibile creare stati entangled tra coppie di fotoni “in più dimensioni” utilizzando alcune proprietà quantistiche come lo spin dei fotoni. Questo metodo, chiamato “hyperentanglement” permette ad ogni coppia di fotoni di trasportare molti più dati di quanto fosse possibile con i metodi precedenti. Si parla di pacchetti di informazioni.

(Crediti: wikipedia.org).

La ricerca, pubblicata oggi su Nature Photonics descrive nel dettaglio questa innovativa tecnica, nota come “biphoton frequency comb”. In pratica, per semplificare in modo che capiate di cosa si parla, i ricercatori sono riusciti a dividere in parti i fotoni – lo so che sembra fantascienza, ma vi assicuro che è possibile –  per registrare ed immagazzinare un maggior numero di fotoni.  Nel trasferimento sicuro dei dati, i fotoni inviati su reti in fibra ottica possono essere criptati attraverso entanglement. Con ciascuna dimensione di entanglement, la quantità di informazioni trasportate su una coppia di fotoni viene raddoppiata, quindi una coppia di fotoni entangled a cinque dimensioni può trasportare una quantità di dati fino a 32 volte maggiore di quella veicolata da una coppia entangled ad una dimensione. “Abbiamo dimostrato che un pettine ottico a frequenza può essere generato a livello di un singolo fotone”, ha detto Xie. “Essenzialmente stiamo sfruttando la divisione della lunghezza d’onda per operare una specie di multiplazione a livello quantistico.” Le potenziali applicazioni per la ricerca comprendono la comunicazione sicura e di elaborazione delle informazioni, in particolare per il trasferimento di dati con il minimo errore.

Paper: Harnessing high-dimensional hyperentanglement through a biphoton frequency comb., in Nature Photonics (2015) DOI: 10.1038/nphoton.2015.110

Fonte: phys.org

Annunci

Il Big Rip e l'ipotesi della fine dell'Universo

Per decenni i cosmologi hanno avuto difficoltà a conciliare la nozione classica di viscosità, ossia quella definita su base termodinamica, con la RG di Einstein. Oggi, un team di ricercatori dell’Università di Vanderbilt ha messo a punto una nuova soluzione matematica al problema che sembra colma questa lacuna e  ha significative implicazioni per il destino ultimo dell’universo. Lo studio è stato pubblicato sulla rivista Physical Review D.

Come sapete la teoria del Big Bang è una delle descrizioni più accreditate sulla nascita del nostro Universo. Da un “punto” di densità infinita l’universo si sarebbe inizialmente espanso, ma il destino è crudele, miei cari. La sua avventura terminerà in un “Big Rip”, un Grande Strappo. Il Big Rip  è un’ipotesi cosmologica sul destino ultimo dell’Universo.

L’ipotesi è concorde con il framework del Big Bang e prevede una continua accelerazione dell’espansione dell’Universo. Questo modello è stato sviluppato in seguito ad osservazioni di supernovae di tipo Ia in galassie lontane che, nel lontano 1998, hanno rivelato che l’espansione dell’Universo non è affatto costante ma sta accelerando – risultato inizialmente sorprendente per molti cosmologi.

(Crediti: NASA).

Il tipo di viscosità che ha rilevanza cosmologica è molto diversa dal concetto ordinario che ne abbiamo noi, la viscosità a “ketchup” per intenderci, quella che misura la resistenza di un fluido quando cerchiamo di farlo scorrere attraverso piccole fenditure.  La viscosità cosmologica è molto diversa e, purtroppo, è anche molto meno intuitiva (i liquidi che maneggiamo nella vita di tutti i giorni si prestano davvero poco ad essere compressi o espansi). Si tratta di una forma di viscosità della massa, e misura la resistenza di una massa (fluida) all’espansione o alla contrazione Per comprendere le caratteristiche della viscosità in contesti relativistici il gruppo di ricerca coordinato da Marcelo Disconzi si è messo a studiare quella classe di oggetti astronomici che producono questo effetto: le supernovae e le stelle di neutroni.

Dopo il successo avuto nelle simulazioni sul comportamento dei fluidi ideali (quelli senza viscosità) accelerati a velocità prossime a quelle della luce, per anni i tentativi di simulare il comportamento dei fluidi reali si è scontrato con serrati paradossi. Ora, riprendendo l’approccio del matematico francese André Lichnerowicz (siamo intorno agli anni cinquanta del novecento), una classe di nuove equazioni della fluidodinamica relativistica sembra rispettare la barriera della velocità della luce.

(Crediti: NASA).

La chiave della teoria è nella quantità di energia oscura nell’Universo. Se l’energia oscura fosse superiore ad un certo valore, tutta la materia verrebbe, alla fine, fatta letteralmente a pezzi. Il valore da considerare è w ossia il rapporto tra la pressione dell’energia oscura e la sua densità. Se w < −1 l’universo non ha scampo. Oltrepassata la “barriera fantasma” l’universo verrà fatto a pezzi. Il tasso di espansione dell’universo diventa così grande che in 22 miliardi di anni gli oggetti cominceranno a cadere letteralmente a pezzi.

“E’ possibile, ma non è molto probabile, che la viscosità potrebbe spiegare del tutto l’accelerazione che è stata attribuita all’ energia oscura”, ha spiegato Disconzi. “È più probabile che una frazione significativa dell’accelerazione potrebbe essere dovuto a questa causa più prosaica. Come risultato, la viscosità può agire come un importante vincolo sulle proprietà che l’energia oscura deve necessariamente avere “. Nella formulazione Desconzi-Kephart-Scherrer, tuttavia, questa barriera fantasma non esiste. Si fornisce infatti una soluzione all’equazione di stato al di sotto -1 permettendo di ipotizzare mediante la costruzione di modelli cosa potrebbe accadere.

Ovviamente questa non è l’unica ipotesi sugli ultimi minuti dell’Universo – leggetevi Paul Davies se siete interessati. Vi dico solo che esiste un’ipotesi simmetrica al Big bang, il Big Crunch, secondo cui l’Universo si contrarrebbe, e tutta la materia e l’energia verrebbero compresse in una singolarità gravitazionale. Altrettanto nota è l’ipotesi del Big Bounce, letteralmente “Grande Rimbalzo” o universo oscillante, una teoria cosmologica elaborata dal fisico Martin Bojowald, esperto di gravità quantistica, e dal suo team della Pennsylvania State University, che è stata pubblicata nel luglio 2007 su Nature Phisics online. Naturalmente ce ne sono altre. Beh, noi certo non ci saremo durante gli ultimi tre minuti.

Paper: Marcelo M. Disconzi, New approach to cosmological bulk viscosity, in Phys. Rev. D 91, 043532 –2015: http://journals.aps.org/prd/abstract/10.1103/PhysRevD.91.043532

Bojowald Martin, Prima del Big Bang. Storia completa dell’Universo, Bompiani, 2011

Goldhaber, G. and Perlmutter, S, A study of 42 type Ia supernovae and a resulting measurement of Omega(M) and Omega(Lambda), in Physics Reports -Review section of Physics Letters 307 (1-4): 325-331,1998.

Fonte:http://news.vanderbilt.edu/2015/06/new-model-of-cosmic-stickiness-favors-%E2%80%9Cbig-rip%E2%80%9D-demise-of-universe/

DESI: una mappa 3D dell’energia oscura

Nei primi anni del Novecento si pensava che la quasi totalità della massa dell’Universo risiedesse nelle stelle. Tutto cambiò, e la domanda divenne davvero una domanda da un milione di dollari, quando si scoprì che le leggi di Newton erano in evidente disaccordo con le osservazioni compiute sul moto delle galassie e degli ammassi.

Sono molti gli esempi di osservazioni che falsificano i calcoli. Nelle galassie la concentrazione delle stelle diminuisce più ci si allontana dal nucleo, e la velocità delle stelle che abitano la regione esterna al nucleo decresce all’aumentare della distanza. Questo ci dice la legge di gravitazione universale di Newton. Ma c’è un problema: le osservazioni smentiscono questa spiegazione. La velocità delle stelle anche lontane dal nucleo è molto maggiore di quella attesa e, inoltre, non diminuisce affatto con la distanza! Cosa significa? Che c’è più massa di quella che vediamo. Se, infatti, si correggono i calcoli ammettendo che c’è una materia invisibile e non concentrata nel nucleo, la cui attrazione gravitazionale è responsabile del moto delle stelle, allora le equazioni confermano che le stelle sono letteralmente circondate da una grande massa invisibile. La stessa cosa vale per gli ammassi di galassie. Conoscendo la massa totale di un ammasso si può calcolare il moto relativo di ciascuna galassia presente in esso.

Anche in questo caso le osservazioni sperimentali, per essere coerenti con la formula newtoniana, richiedono un surplus di materia, visto che le velocità delle galassie sono anche di 400 volte maggiori di quelle calcolate. Un’altra conferma viene dalla forma dell’Universo. L’Universo ha una curvatura spaziotemporale nulla, il che significa che è piatto. Questo comporta che la sua densità di massa totale deve essere uguale a un valore noto, la Densità Critica (circa 10-30 g/cm3). Anche questo valore si spiega solo ammettendo la presenza di materia invisibile. Oggi sappiamo che il Modello Standard spiega solo il 4% della materia/energia dell’Universo; il resto è materia oscura per il 24% ed energia oscura per il 72%. Secondo il principio di equivalenza di Einstein (E=mc2), l’energia oscura rende conto della maggior parte della massa/densità dell’Universo, visto che si comporta come una gravità negativa – tende a far espandere l’Universo – e si contrappone alla decelerazione dovuta all’attrazione gravitazionale della materia (barionica e non).

Cartoline di luce: comincia l'avventura  della Dark Energy Camera

NGC 1365 è una delle prime immagini scattate dalla Dark Energy Camera da 570 megapixel. (Crediti: Dark Energy Survey Collaboration).

In altre parole, osservando la curva di rotazione delle galassie a spirale, ci si è resi conto che le stelle ai bordi del disco non seguono delle leggi di rotazione “kepleriane” come ci si attenderebbe se la maggior parte della massa delle galassie fosse concentrata nel “bulbo”; come conseguenza di ciò è evidente che, oltre alla massa “luminosa” concentrata nelle stelle, debba esserci una consistente quantità di materia attorno alle galassie, che non emette luce. Si può dire altrettanto osservando gli ammassi di galassie. Molte galassie infatti hanno velocità mutue così elevate che farebbero “disgregare” gli ammassi stessi in pochi miliardi di anni, cosa che è palesemente falsa, visto che gli ammassi sono tuttora esistenti. Ancora una volta la spiegazione è che esiste della “gravità aggiuntiva” negli ammassi, tale da tenere assieme le galassie. Questa gravità è rappresentata da materia che però non appare ai telescopi. Questi e altri indizi hanno portato a formulare la teoria dell’esistenza di “materia oscura” nel cosmo, di cui si vedono gli effetti gravitazionali sugli oggetti luminosi, ma che non emette luce.

Materia oscura è dunque un nome, un concetto che ci spinge ad accettare che c’è più massa di quella che vediamo, e che esiste un’energia invisibile che induce l’universo a dilatarsi sempre più. Vari gruppi di ricerca stanno facendo enormi sforzi per rispondere a questa domanda. In questo senso, per capire come rilevarla in laboratorio è necessario capire di cosa è fatta la materia oscura, che cos’è. Eh sì, non solo è oscura – nomina sunt omina – ma sembra ci si possa addirittura dilettare con una vera e propria tassonomia: alcuni ritengono abbia una componente ordinaria, sia cioè fatta di atomi (tecnicamente si dice che ha una componente barionica), mentre altri la ritengono qualcosa di esotico, di non barionico.

La componente barionica, fatta di corpi massicci ma non luminosi, è esemplificata da pianeti, stelle di neutroni, buchi neri, nane bianche (stelle che hanno finito di bruciare) e nane brune (stelle che non hanno mai iniziato a bruciare). Questi oggetti si chiamano in gergo MACHOs (Massive Astrophysical Compact Halo Objects, Oggetti astrofisici massicci e compatti di alone) ed emettono una quantità di luce troppo scarsa per poter essere visti. Come rilevarli? Attraverso un effetto molto noto: la (micro)lente gravitazionale. Sappiamo che lo spazio si curva in presenza di oggetti molto pesanti. Questo implica che le immagini di oggetti distanti possono essere deviate e deformate se fra loro e noi si frappone una galassia o un ammasso. In sintesi, se osserviamo una sorgente luminosa e un MACHO si frappone fra noi e la sorgente, il fenomeno a cui assistiamo è chiamato microlente (microlensing), perché la massa del MACHO non è grande abbastanza da creare una lente gravitazionale, in cui la curvatura dello spazio dovuta alla galassia o all’ammasso può provocare la deviazione della traiettoria della luce. Il fenomeno resta molto simile, solo che le varie immagini sdoppiate non sono rilevabili perché troppo vicine; non potendo osservare più immagini separate, le vedremo tutte insieme con un incremento di luminosità dovuto alla massa del MACHO (maggiori informazioni si trovano qui).

La deviazione della luce di una galassia distante intorno ad un oggetto massivo. Le frecce arancioni indicano la posizione apparente della galassia distante. Le frecce bianche il reale percorso della luce. Crediti: wikipedia.org.

Invece, se ha una componente non barionica allora è costituita da particelle. Le candidate migliori sono le WIMPs (Weakly Interacting Massive Particles, particelle massive debolmente interagenti), che interagiscono pochissimo con la materia, ancor meno dei neutrini.  Esse vagherebbero nel cosmo, addensandosi in prossimità delle galassie a causa dell’attrazione gravitazionale. Ma non c’è accordo sulle loro caratteristiche: sono pesanti o leggere? Quelle pesanti, circa sui 100 GigaelettronVolt (GeV), cento volte più di un protone, sono predette dalla supersimmetria, mentre quelle leggere, pur non essendo agganciate a nessuna teoria, alcuni credono di averle già osservate.  Esempi? La Cryogenic Dark Matter Search (Cdms), ha dichiarato di aver individuato tre particelle di materia oscura che hanno, più o meno, la stessa massa e il team della Coherent Germanium Neutrino Technology (CoGeNT) ha rilevato un segnale compatibile con una particella di materia oscura di massa compresa tra 7 e 11 GeV (se è non barionica, sarà pesante o leggera?).

Quello dell’energia oscura è un problema diverso, primariamente connesso con l’espansione accelerata dell’Universo. L’evidenza più diretta di tale accelerazione viene dall’osservazione di “candele standard” a distanze cosmologiche, ovvero oggetti la cui luminosità intrinseca può essere calibrata a priori e la cui distanza quindi misurata direttamente dalla luminosità apparente. È questo il caso delle cosiddette supernovae di tipo Ia, che alla fine degli anni ’90 hanno permesso di evidenziare per la prima volta la presenza di accelerazione. È infatti noto fin dagli anni ’20 del 1900 che l’universo è in espansione (legge di Hubble), ma si era sempre pensato che questa espansione dovesse essere decelerata. Del resto il ragionamento appariva semplice: siccome su scale di distanza galattiche l’unica forza che agisce con intensità non trascurabile è la gravità e siccome il modello di Einstein della gravità prevede che essa sia solo attrattiva, essa si deve opporre all’espansione dell’universo, decelerandola.

Una immagine del resto di supernova SN 1604. Essa sovrappone diverse immagini dell’oggetto a differenti lunghezze d’onda: raggi X, infrarosso, visibile. Crediti: NASA/ESA/JHU/R.Sankrit & W.Blair.

Ora, le supernovae sono stelle che esplodono, e quelle di una particolare classe, detta Ia, seguono una curva di luce molto precisa, che ha un valore di luminosità nel punto di massimo che è quasi costante. Di conseguenza, osservando supernovae lontane si può stimarne la distanza sia in base alla legge di Hubble, che prevede il redshift delle righe spettrali in base alla velocità di allontanamento, sia in base all’attenuazione della luce dovuta alla distanza. Mettendo insieme questi parametri ci si è accorti che le supernovae lontane sono più lontane di quanto ci si aspetti, e dunque che l’universo si sta espandendo più rapidamente del dovuto. Sono state avanzate diverse ipotesi per spiegare il fenomeno (da errori sistematici sulle misure, al fatto che le suprenovae lontane possano seguire curve di luce leggermente differenti rispetto a quelle vicine, ecc…) ma l’ipotesi al momento data per più probabile è che vi sia una qualche forza repulsiva che agisce in tutto l’universo e che lo sta spingendo ad accelerare la sua espansione.

Questa energia che dovrebbe avere un effetto anti-gravitazionale è di natura sconosciuta, anche se i teorici hanno già notato come una leggera modifica alle equazioni di Einstein (che peraltro egli stesso aveva già introdotto e poi rinnegato) potrebbe portare l’effetto repulsivo cercato. In ogni modo, resta del tutto un mistero su cosa provochi questo fenomeno, per cui si è coniato il termine “energia oscura”, non perché essa non emette luce (come nel caso della “materia oscura”), ma perché è ignoto di cosa si tratti.

Cortesia NOAO.

Gli studi attuali e futuri si concentrano nella ricerca di una dipendenza dal tempo della cosiddetta “equazione di stato” dell’energia oscura, per dimostrare se l’energia oscura sia semplicemente la costante cosmologica di Einstein, oppure sia legata ad un campo di energia primordiale anch’esso legato alla formazione delle particelle elementari. A questo scopo diversi progetti in corso e proposte per il futuro sono dedicati a ricerche sistematiche di supernovae Ia, sia da terra sia dallo spazio. Sicuramente essi accresceranno notevolmente nei prossimi anni la mole di dati sulle supernovae lontane, portando nuova luce sulla natura dell’accelerazione cosmica. La ricerca e la calibrazione di nuove candele standard (quali superovae “core-collapse” e gamma-ray bursts) sono un’altra area di ricerca cui dedicare un’attenzione crescente.

Altri esperimenti hanno in programma di realizzare coperture di grandi aree di cielo con immagini di alta qualità (e quindi in generale osservate dallo spazio) per misurare il cosiddetto effetto di lente gravitazionale debole (weak lensing). Tale distorsione, introdotta nelle immagini delle galassie ”di sfondo” da parte della distribuzione di massa incontrata lungo il cammino che i fotoni compiono per arrivare a noi, dipende dalla crescita gravitazionale delle fluttuazioni e in ultima istanza dai parametri cosmologici. Lo scopo finale di queste surveys è la realizzazione di mappe di “shear”, come viene chiamata la deflessione da weak lensing, in diversi intervalli di redshifts, producendo una tomografia delle strutture cosmiche ad epoche successive. Queste “lastre tomografiche” misurano direttamente la storia di espansione e di strutturazione dell’Universo che dipendono direttamente dalla presenza di energia oscura.

Cartoline di luce: comincia l'avventura  della Dark Energy Camera

Il Victor Blanco Four-meter Telescope, dalla caratteristica cupola argentata, è l’attuale dimora della Dark Energy Camera. Il telescopio si trova in Cile e fa parte del Cerro Tololo Inter-American Observatory. Crediti: NOAO/NSF.

L’ultima frontiera è il Dark Energy Spectroscopic Instrument che intende produrre una mappa in 3D dell’universo misurandone l’energia oscura. Una dettagliata descrizione del robot di DESi si trova in un articolo su Symmetrymagazine. I robot di DESI sono in fase di sviluppo presso il Lawrence Berkeley National Laboratory e l’Università del Michigan. Oltre a registrare luce emessa da oggetti lontani, DESI scandaglierà il cielo alla ricerca di raggruppamenti lontani di galassie e quasar soprattutto per studiarne la natura e l’evoluzione. I numeri promettono di battere ampiamente i meno di 2 milioni di oggetti esaminati da BOSS.

Coerenza ed entanglement: due facce della stessa medaglia

Coerenza quantistica ed entanglement sono fenomeni funzionalmente equivalenti ma (ancora) concettualmente distinti. A dimostrarlo è un recente studio comparso sulla rivista Physical Review Letters. Sappiamo che entrambi dipendono dalla sovrapposizione quantistica che consente ad un sistema di trovarsi in due stati differenti nello stesso istante t (come se dicessimo che un gatto è sia vivo che morto). La sovrapposizione quantistica è infatti una proprietà unica delle particelle: un fotone può esistere in due stati differenti (polarizzazione verticale e orizzontale, ad esempio). Questo significa che invece di spedire segnali in codice digitale, cioè 0 e 1, la comunicazione quantistica può spedire informazioni in stati di sovrapposizione che rappresentano sia 0 che 1 allo stesso tempo. Ricordo cosa si intende per coerenza ed entanglement.

Lo studio degli stati coerenti costituisce uno dei più grandi problemi che i fisici si sono trovati ad affrontare in seguito allo sviluppo della meccanica quantistica. La nozione di stato coerente era inizialmente legata ad un ambito strettamente meccanico, cioè allo studio dell’oscillatore armonico e di altri sistemi dinamici. La loro introduzione a livello concettuale risale infatti ad un articolo pubblicato nel 1926, in cui Schrödinger riporta l’esistenza di una classe di stati dell’oscillatore armonico che mostrano, in certo qual modo, un comportamento analogo a quello di un oscillatore classico: per tali stati si verifica che l’energia media corrisponde al valore classico e le medie di posizione e impulso hanno forme oscillatorie in relazione di fase costante.

Gli stati quasi classici individuati da Schrödinger presentano, oltre alle caratteristiche già citate, un importante aspetto: essendo rappresentati da pacchetti d’onda gaussiani che non cambiano forma nel tempo, garantiscono la minimizzazione del prodotto tra le incertezze sulla posizione e sull’impulso, cioè la condizione più vicina alla possibilità di misurare contemporaneamente le suddette grandezze con precisione arbitraria, consentita dalla fisica classica. Una volta isolate funzioni d’onda di questo genere per un oscillatore armonico, l’obiettivo di Schrödinger era la ricerca di stati simili per altri sistemi dinamici, primo tra tutti l’atomo d’idrogeno (tentativo non andato a buon fine).

(foto: Corbis Images)

Crediti: Corbis Images.

L’entanglement è un fenomeno, privo di analogo classico, che si verifica a livello quantistico, che coinvolge due o più particelle generate da uno stesso processo o che si siano trovate in interazione reciproca per un certo periodo. Queste particelle restano intrecciate (entangled) e legate indissolubilmente, nel senso che, indipendentemente dalla distanza che le separa, quello che accade a una di esse si ripercuote immediatamente sull’altra. L’evidenza di questo fenomeno ci costringe a rivedere profondamente non solo la logica classica ma anche altre strutture concettuali – in primis quelle di causalità, determinismo e realismo – che contribuiscono a forgiare la nostra visione e comprensione del mondo.

Veniamo alla ricerca in corso di pubblicazione. Un gruppo di ricercatori guidato da Gerardo Adesso, professore associato all’università di Nottingham, ha dimostrato che coerenza ed entanglement sono quantitativamente (o, meglio, operativamente) equivalenti ma non identici: “per esempio, la coerenza può essere presente in sistemi quantistici singoli, dove l’entanglement non è ben definito. Inoltre, la coerenza è definita rispetto ad un ambiente dato, mentre l’entanglement è invariante per cambiamenti su base locale. Per questi motivi riteniamo che la coerenza e l’entanglement siano operativamente equivalenti ma concettualmente diversi”, hanno spiegato i coautori della ricerca Uttam Singh, Himadri Dhar e Manabendra Bera.

Come si legge nell’abstract dell’articolo, la coerenza quantistica è un ingrediente essenziale per l’elaborazione dell’informazione quantistica e svolge un ruolo centrale in settori emergenti come la termodinamica su  nanoscala e la biologia quantistica. Tuttavia, la nostra comprensione e la caratterizzazione quantitativa della coerenza come risorsa operativa sono ancora molto limitate. Un primo passo viene fatto proprio in questa ricerca, in quanto si propone la conversione di qualsiasi livello di coerenza in uno stato incoerente di entanglement.

Oggi gli stati coerenti trovano ampio utilizzo nello studio delle proprietà della statistica dei fotoni nei campi elettromagnetici; anche nell’ambito dell’elettrodinamica quantistica è possibile ricorrere ad una descrizione della radiazione in termini di stati coerenti per stabilire una corrispondenza tra i campi classici e i campi quantizzati; se gli oscillatori equivalenti al campo elettromagnetico sono in uno stato coerente, i valori attesi del campo elettrico e del campo magnetico si evolvono come i corrispondenti valori classici: ciò rende possibile introdurre un concetto di coerenza della radiazione anche in ambito quantistico. Se, poi, si affianca a tutto ciò l’importanza degli stati entangled è evidente che ricerche simili saranno molto importanti per lo sviluppo della crittografia e della comunicazione quantistica.

Paper: Alexander Streltsov, et al. Measuring Quantum Coherence with Entanglement, in Physical Review Letters. (in corso di pubblicazione) Disponibile su  arXiv:1502.05876 [quant-ph]

Fonte: http://phys.org/news/2015-06-physicists-quantum-coherence-entanglement-sides.html

Un nuovo isolante topologico per l'informazione quantistica

Cosa succede quando atomi di ferro sono posti sulla superficie di un materiale conduttore? Diventa un superconduttore topologico. A dimostrarlo è un gruppo di ricercatori finlandesi che, in un recente articolo che esamina le proprietà dei superconduttori a basse temperature, presenta un modello matematico in grado di predire l’esistenza fisica di un superconduttore topologico costituito da un sottile film metallico. L’articolo è comparso sulla rivista Physical Review Letters. 

Un isolante topologico è un materiale di nuova generazione che ci induce a rivedere il concetto tradizionale di isolante, cioè di materiale che non conduce corrente elettrica. Gli isolanti topologici hanno infatti una caratteristica bizzarra: sono ancora isolanti al loro interno, ma non sulla superficie, dove la corrente elettrica, ovvero un flusso di elettroni, può scorrere più o meno liberamente e in modo molto efficiente. Da un punto di vista microscopico, nei materiali isolanti, gli elettroni non possono muoversi perché vincolati strettamente agli atomi di appartenenza. Per guadagnare la libertà di movimento dovrebbero riuscire a salire di livello energetico: questa distanza tra livello energetico occupato dagli elettroni in un isolante e livello che dovrebbero occupare per diventare conduttori è chiamata gap energetico. Negli isolanti topologici, questa stratificazione dell’energia in bande è modificata fortemente da un fenomeno quantistico che coinvolge le orbite degli elettroni e lo spin di queste particelle.

Researchers predicted existence of new quantum matter theoretically

Lo stato del superconduttore topologico previsto dal modello matematico elaborato dai ricercatori finlandesi. (Crediti: Aalto University).

“Sappiamo che in uno stato quantico la corrente elettrica si muove senza resistenza sulle superfici dei metalli superconduttori. Si tratta di un fenomeno interessante che abbiamo voluto studiare in modo più dettagliato. I superconduttori topologici differiscono da quelli normali in quanto hanno una corrente costante di movimento lungo i bordi. Questa corrente contiene particelle esotiche chiamate fermioni di Majorana. Abbiamo ottenuto segnali affidabili da queste particelle in test effettuati alla fine dello scorso anno”, spiega Teemu Ojanen uno degli autori della ricerca. “I bordi della superficie di un superconduttore topologico sono unidirezionali; di conseguenza la corrente è trasportata in una sola direzione. Tuttavia, il numero e la direzione degli stati può variare. Questa situazione potrebbe essere paragonata ad una rotonda in cui il numero di corsie e la direzione possono cambiare”, conclude Ojanen.

Si è già previsto sul piano teorico che i fermioni di Majorana hanno proprietà che possono contribuire a creare stati quantici di questo tipo. Le strutture prodotte in questo modo possono essere utilizzate per la codifica di informazioni. Per questo motivo infatti le applicazioni future più interessanti concernono i computer quantistici. Questa nuova promessa del mondo dell’informatica permetterebbe infatti di produrre circuiti elettronici che non risentono degli effetti deleteri del surriscaldamento generato dal passaggio della corrente elettrica, un fenomeno che chiunque usi un dispositivo elettronico ha sperimentato. Basta poggiare una mano sul proprio pc per rendersi conto del calore emesso durante il tempo di utilizzo.

Paper: “Topological Superconductivity and High Chern Numbers in 2D Ferromagnetic Shiba Lattices” journals.aps.org/prl/abstract/10.1103/PhysRevLett.114.236803

Fonte: http://phys.org/news/2015-06-quantum-theoretically.html

Un nuovo isolante topologico per l’informazione quantistica

Cosa succede quando atomi di ferro sono posti sulla superficie di un materiale conduttore? Diventa un superconduttore topologico. A dimostrarlo è un gruppo di ricercatori finlandesi che, in un recente articolo che esamina le proprietà dei superconduttori a basse temperature, presenta un modello matematico in grado di predire l’esistenza fisica di un superconduttore topologico costituito da un sottile film metallico. L’articolo è comparso sulla rivista Physical Review Letters. 

Un isolante topologico è un materiale di nuova generazione che ci induce a rivedere il concetto tradizionale di isolante, cioè di materiale che non conduce corrente elettrica. Gli isolanti topologici hanno infatti una caratteristica bizzarra: sono ancora isolanti al loro interno, ma non sulla superficie, dove la corrente elettrica, ovvero un flusso di elettroni, può scorrere più o meno liberamente e in modo molto efficiente. Da un punto di vista microscopico, nei materiali isolanti, gli elettroni non possono muoversi perché vincolati strettamente agli atomi di appartenenza. Per guadagnare la libertà di movimento dovrebbero riuscire a salire di livello energetico: questa distanza tra livello energetico occupato dagli elettroni in un isolante e livello che dovrebbero occupare per diventare conduttori è chiamata gap energetico. Negli isolanti topologici, questa stratificazione dell’energia in bande è modificata fortemente da un fenomeno quantistico che coinvolge le orbite degli elettroni e lo spin di queste particelle.

Researchers predicted existence of new quantum matter theoretically

Lo stato del superconduttore topologico previsto dal modello matematico elaborato dai ricercatori finlandesi. (Crediti: Aalto University).

“Sappiamo che in uno stato quantico la corrente elettrica si muove senza resistenza sulle superfici dei metalli superconduttori. Si tratta di un fenomeno interessante che abbiamo voluto studiare in modo più dettagliato. I superconduttori topologici differiscono da quelli normali in quanto hanno una corrente costante di movimento lungo i bordi. Questa corrente contiene particelle esotiche chiamate fermioni di Majorana. Abbiamo ottenuto segnali affidabili da queste particelle in test effettuati alla fine dello scorso anno”, spiega Teemu Ojanen uno degli autori della ricerca. “I bordi della superficie di un superconduttore topologico sono unidirezionali; di conseguenza la corrente è trasportata in una sola direzione. Tuttavia, il numero e la direzione degli stati può variare. Questa situazione potrebbe essere paragonata ad una rotonda in cui il numero di corsie e la direzione possono cambiare”, conclude Ojanen.

Si è già previsto sul piano teorico che i fermioni di Majorana hanno proprietà che possono contribuire a creare stati quantici di questo tipo. Le strutture prodotte in questo modo possono essere utilizzate per la codifica di informazioni. Per questo motivo infatti le applicazioni future più interessanti concernono i computer quantistici. Questa nuova promessa del mondo dell’informatica permetterebbe infatti di produrre circuiti elettronici che non risentono degli effetti deleteri del surriscaldamento generato dal passaggio della corrente elettrica, un fenomeno che chiunque usi un dispositivo elettronico ha sperimentato. Basta poggiare una mano sul proprio pc per rendersi conto del calore emesso durante il tempo di utilizzo.

Paper: “Topological Superconductivity and High Chern Numbers in 2D Ferromagnetic Shiba Lattices” journals.aps.org/prl/abstract/10.1103/PhysRevLett.114.236803

Fonte: http://phys.org/news/2015-06-quantum-theoretically.html

Dione fotografata da Cassini il 16 giugno

Rugosa, aspra e ghiacciata. Così i ricercatori che lavorano con la sonda Cassini di Nasa/Esa/Asi hanno descritto la luna di Saturno Dione, nota anche come Saturno IV. La sonda – scrive Media Inaf, il notiziario online dell’Istituto nazionale di Astrofisica – lanciata nel 1997 (ed entrata in orbita attorno a Saturno il primo luglio 2004), ha effettuato il suo penultimo flyby attorno al satellite naturale del sesto pianeta del Sistema solare alle 22.12 (ora italiana) di martedì 16 giugno, volando a una distanza massima dalla superficie di soli 516 chilometri.

Le prime immagini sono arrivate pochi giorni dopo il passaggio ravvicinato. Tra quelle pubblicate su Media Inaf, una – scattata dalla narrow-angle camera (montata a bordo della sonda) dalla distanza di 77 mila chilometri – offre una vista particolare sulla luna ghiacciata e sugli anelli che circondano Saturno. Un’altra foto – scattata dalla wide-angle camera sempre a 77 mila chilometri di distanza – mostra in tandem Saturno, la luna Dione e anche (in alto a destra) la luna Encelado.

Cassini zooms past Dione

Fotografia di Dione scattata dalla sonda Cassini ad una distanza di 615 km (Credit: NASA/JPL-Caltech/Space Science Institute).

Il 17 agosto la sonda Nasa/Esa/Asi passerà nuovamente attorno a Dione, a una distanza di 474 chilometri (l’incontro più vicino con la luna ghiacciata risale al dicembre 2011 quando la sonda si avvicinò fino a ben 100 chilometri dalla superficie). A ottobre Cassini volerà ancora due volte attorno alla luna Encelado per studiarne i potenti getti di ghiaccio, avvicinandosi fino a 48 chilometri nel passaggio finale. Cassini partirà dal piano equatoriale di Saturno (da dove le lune sono più visibili) a fine 2015 per iniziare un anno di preparazione tecnica al gran finale: gettarsi – letteralmente – tra gli anelli di Saturno per gli studi finali.

La missione Cassini-Huygens è un progetto che vede la cooperazione di vari enti: NASA, ESA (European Space Agency) e dell’Agenzia Spaziale Italiana. Maggiori informazioni si trovano sul sito della Missione Cassini: saturn.jpl.nasa.gov/photos/raw

Una selezione di immagini si trova qui: www.ciclops.org/view_event/212/DIONE-REV-217-RAW-PREVIEW