Wormhole. La Fisica di Jim Al Khalili

La filosofia della fisica studia gli aspetti logici, epistemologici, ontologici (potremmo dire, in linea generale “filosofici”) delle teorie fisiche con particolare attenzione a concetti come materia, energia, spazio e tempo. Possiamo considerarla come una sotto-branca della  filosofia della scienza e negli ultimi anni è sempre più interessata a questioni concernenti la Relatività, la Cosmologia, la Meccanica Quantistica e Statistica riflettendo, in questo modo, sulla causalità, il determinismo e la natura stessa delle leggi fisiche. Classicamente alcune di queste problematiche venivano studiate all’interno della metafisica o dell’ontologia: per fare un esempio, nella filosofia analitica l’ontologia è quella teoria che stabilisce i criteri di esistenza di determinate entità a partire da un linguaggio formale. Quindi quando si parla di “ontologia” e “metafisica” dobbiamo di volta in volta chiarire il significato dei termini.

L’impegno divulgativo di Jim Al Khalili consente proprio di approfondire questo aspetto. Non solo sul significato di alcuni concetti prettamente fisici – a seguire un esempio – ma anche filosofici. Ma andiamo con ordine. Prendiamo un concetto fisico, anzi forse sarebbe più corretto parlare di un costrutto matematico visto che non esiste sul piano strettamente fisico. Parlo dei wormholes. Il termine wormhole fu coniato dal fisico teorico americano John Archibald Wheeler nel 1957. Comunque, l’idea dei wormhole fu già teorizzata nel 1921 dal matematico tedesco Hermann Weyl nella sua analisi della massa in termini di energia del campo elettromagnetico.

L’analogia usata per spiegare il concetto espresso dal termine wormhole è questa: si immagini che l’universo sia una mela, e che un verme viaggi sulla sua superficie. La distanza tra due punti opposti della mela è pari a metà della sua circonferenza se il verme resta sulla superficie della mela, ma se invece esso si scava un foro direttamente attraverso la mela la distanza che deve percorrere per raggiungere quel determinato punto diventa inferiore. Il foro attraverso la mela rappresenta il cunicolo spaziotemporale.

Esistono vari tipi di wormholes.  I cunicoli spazio-temporali lorentziani, noti anche come cunicoli di Schwarzschild o ponti di Einstein-Rosen (A. Einstein e N. Rosen, The Particle Problem in the General Theory of Relativity, in “Physical Review”, 48, 73, 1935). Sono molto noti ma già nel 1962  John A. Wheeler e Robert W. Fuller hanno mostrato che questo tipo di wormhole è instabile, al punto che nemmeno la luce riesce ad attraversarlo (R. W. Fuller e J. A. Wheeler, Causality e Multiply-Connected Space-Time, in “Physical Review”, 128, 919, 1962). Esistono anche wormholes attraversabili, sempre compatibili con la teoria della Relatività, ossia alle scorciatoie di cui si parla in M. Morris, K. Thorne, e U. YurtseverWormholes, Time Machines, and the Weak Energy Condition, in “Physical Review”, 61, 13, 1988, pp: 1446-1449. In questo caso, con i wormholes di Morris-Thorne abbiamo dei ponti tenuti aperti da un guscio sferico di materia esotica. Connettendo due punti nello spaziotempo, permetterebbero in linea di principio di viaggiare nel tempo e nello spazio.

Per quanto riguarda invece il discorso sui concetti filosofici, qui mi basta sottolineare una banalità. Avete mai riflettuto sui titoli dei libri divulgativi di Al Khalili. Qui vi lascio il link alla sua pagina ufficiale: http://www.jimal-khalili.com/.

Già dai titoli (e qui il discorso non vale solo per lui ma anche per molti altri testi divulgativi) è evidente la commistione tra argomenti fisici e riflessione filosofica: i concetti di vita, paradosso, saggezza, tempo sono esplicitamente richiamati da Al Khalili e il suo stesso approccio semplice e diretto a questi temi suggerisce una riflessione più ampia a riguardo. Un ottimo punto di partenza per chi intende avvicinarsi a temi così complessi non avendo una preparazione tecnica alle spalle.

Bibliografia

Jim Al Khalili, La fisica della vita. La nuova scienza della biologia quantistica ► http://amzn.to/1QOZKf7

Jim Al Khalili, La fisica del diavolo. Maxwell, Schrödinger, Einstein e i paradossi del mondo ► http://amzn.to/1R9B14z

Jim Al Khalili, La casa della saggezza. L’epoca d’oro della scienza araba ► http://amzn.to/1pzmdpC

Jim Al Khalili, La fisica dei perplessi: L’incredibile mondo dei quanti ► http://amzn.to/1pikFRg

Jim Al Khalili, Buchi neri, wormholes e macchine del tempo ► http://amzn.to/1UVrQKQ

DESI: una mappa 3D dell’energia oscura

Nei primi anni del Novecento si pensava che la quasi totalità della massa dell’Universo risiedesse nelle stelle. Tutto cambiò, e la domanda divenne davvero una domanda da un milione di dollari, quando si scoprì che le leggi di Newton erano in evidente disaccordo con le osservazioni compiute sul moto delle galassie e degli ammassi.

Sono molti gli esempi di osservazioni che falsificano i calcoli. Nelle galassie la concentrazione delle stelle diminuisce più ci si allontana dal nucleo, e la velocità delle stelle che abitano la regione esterna al nucleo decresce all’aumentare della distanza. Questo ci dice la legge di gravitazione universale di Newton. Ma c’è un problema: le osservazioni smentiscono questa spiegazione. La velocità delle stelle anche lontane dal nucleo è molto maggiore di quella attesa e, inoltre, non diminuisce affatto con la distanza! Cosa significa? Che c’è più massa di quella che vediamo. Se, infatti, si correggono i calcoli ammettendo che c’è una materia invisibile e non concentrata nel nucleo, la cui attrazione gravitazionale è responsabile del moto delle stelle, allora le equazioni confermano che le stelle sono letteralmente circondate da una grande massa invisibile. La stessa cosa vale per gli ammassi di galassie. Conoscendo la massa totale di un ammasso si può calcolare il moto relativo di ciascuna galassia presente in esso.

Anche in questo caso le osservazioni sperimentali, per essere coerenti con la formula newtoniana, richiedono un surplus di materia, visto che le velocità delle galassie sono anche di 400 volte maggiori di quelle calcolate. Un’altra conferma viene dalla forma dell’Universo. L’Universo ha una curvatura spaziotemporale nulla, il che significa che è piatto. Questo comporta che la sua densità di massa totale deve essere uguale a un valore noto, la Densità Critica (circa 10-30 g/cm3). Anche questo valore si spiega solo ammettendo la presenza di materia invisibile. Oggi sappiamo che il Modello Standard spiega solo il 4% della materia/energia dell’Universo; il resto è materia oscura per il 24% ed energia oscura per il 72%. Secondo il principio di equivalenza di Einstein (E=mc2), l’energia oscura rende conto della maggior parte della massa/densità dell’Universo, visto che si comporta come una gravità negativa – tende a far espandere l’Universo – e si contrappone alla decelerazione dovuta all’attrazione gravitazionale della materia (barionica e non).

Cartoline di luce: comincia l'avventura  della Dark Energy Camera

NGC 1365 è una delle prime immagini scattate dalla Dark Energy Camera da 570 megapixel. (Crediti: Dark Energy Survey Collaboration).

In altre parole, osservando la curva di rotazione delle galassie a spirale, ci si è resi conto che le stelle ai bordi del disco non seguono delle leggi di rotazione “kepleriane” come ci si attenderebbe se la maggior parte della massa delle galassie fosse concentrata nel “bulbo”; come conseguenza di ciò è evidente che, oltre alla massa “luminosa” concentrata nelle stelle, debba esserci una consistente quantità di materia attorno alle galassie, che non emette luce. Si può dire altrettanto osservando gli ammassi di galassie. Molte galassie infatti hanno velocità mutue così elevate che farebbero “disgregare” gli ammassi stessi in pochi miliardi di anni, cosa che è palesemente falsa, visto che gli ammassi sono tuttora esistenti. Ancora una volta la spiegazione è che esiste della “gravità aggiuntiva” negli ammassi, tale da tenere assieme le galassie. Questa gravità è rappresentata da materia che però non appare ai telescopi. Questi e altri indizi hanno portato a formulare la teoria dell’esistenza di “materia oscura” nel cosmo, di cui si vedono gli effetti gravitazionali sugli oggetti luminosi, ma che non emette luce.

Materia oscura è dunque un nome, un concetto che ci spinge ad accettare che c’è più massa di quella che vediamo, e che esiste un’energia invisibile che induce l’universo a dilatarsi sempre più. Vari gruppi di ricerca stanno facendo enormi sforzi per rispondere a questa domanda. In questo senso, per capire come rilevarla in laboratorio è necessario capire di cosa è fatta la materia oscura, che cos’è. Eh sì, non solo è oscura – nomina sunt omina – ma sembra ci si possa addirittura dilettare con una vera e propria tassonomia: alcuni ritengono abbia una componente ordinaria, sia cioè fatta di atomi (tecnicamente si dice che ha una componente barionica), mentre altri la ritengono qualcosa di esotico, di non barionico.

La componente barionica, fatta di corpi massicci ma non luminosi, è esemplificata da pianeti, stelle di neutroni, buchi neri, nane bianche (stelle che hanno finito di bruciare) e nane brune (stelle che non hanno mai iniziato a bruciare). Questi oggetti si chiamano in gergo MACHOs (Massive Astrophysical Compact Halo Objects, Oggetti astrofisici massicci e compatti di alone) ed emettono una quantità di luce troppo scarsa per poter essere visti. Come rilevarli? Attraverso un effetto molto noto: la (micro)lente gravitazionale. Sappiamo che lo spazio si curva in presenza di oggetti molto pesanti. Questo implica che le immagini di oggetti distanti possono essere deviate e deformate se fra loro e noi si frappone una galassia o un ammasso. In sintesi, se osserviamo una sorgente luminosa e un MACHO si frappone fra noi e la sorgente, il fenomeno a cui assistiamo è chiamato microlente (microlensing), perché la massa del MACHO non è grande abbastanza da creare una lente gravitazionale, in cui la curvatura dello spazio dovuta alla galassia o all’ammasso può provocare la deviazione della traiettoria della luce. Il fenomeno resta molto simile, solo che le varie immagini sdoppiate non sono rilevabili perché troppo vicine; non potendo osservare più immagini separate, le vedremo tutte insieme con un incremento di luminosità dovuto alla massa del MACHO (maggiori informazioni si trovano qui).

La deviazione della luce di una galassia distante intorno ad un oggetto massivo. Le frecce arancioni indicano la posizione apparente della galassia distante. Le frecce bianche il reale percorso della luce. Crediti: wikipedia.org.

Invece, se ha una componente non barionica allora è costituita da particelle. Le candidate migliori sono le WIMPs (Weakly Interacting Massive Particles, particelle massive debolmente interagenti), che interagiscono pochissimo con la materia, ancor meno dei neutrini.  Esse vagherebbero nel cosmo, addensandosi in prossimità delle galassie a causa dell’attrazione gravitazionale. Ma non c’è accordo sulle loro caratteristiche: sono pesanti o leggere? Quelle pesanti, circa sui 100 GigaelettronVolt (GeV), cento volte più di un protone, sono predette dalla supersimmetria, mentre quelle leggere, pur non essendo agganciate a nessuna teoria, alcuni credono di averle già osservate.  Esempi? La Cryogenic Dark Matter Search (Cdms), ha dichiarato di aver individuato tre particelle di materia oscura che hanno, più o meno, la stessa massa e il team della Coherent Germanium Neutrino Technology (CoGeNT) ha rilevato un segnale compatibile con una particella di materia oscura di massa compresa tra 7 e 11 GeV (se è non barionica, sarà pesante o leggera?).

Quello dell’energia oscura è un problema diverso, primariamente connesso con l’espansione accelerata dell’Universo. L’evidenza più diretta di tale accelerazione viene dall’osservazione di “candele standard” a distanze cosmologiche, ovvero oggetti la cui luminosità intrinseca può essere calibrata a priori e la cui distanza quindi misurata direttamente dalla luminosità apparente. È questo il caso delle cosiddette supernovae di tipo Ia, che alla fine degli anni ’90 hanno permesso di evidenziare per la prima volta la presenza di accelerazione. È infatti noto fin dagli anni ’20 del 1900 che l’universo è in espansione (legge di Hubble), ma si era sempre pensato che questa espansione dovesse essere decelerata. Del resto il ragionamento appariva semplice: siccome su scale di distanza galattiche l’unica forza che agisce con intensità non trascurabile è la gravità e siccome il modello di Einstein della gravità prevede che essa sia solo attrattiva, essa si deve opporre all’espansione dell’universo, decelerandola.

Una immagine del resto di supernova SN 1604. Essa sovrappone diverse immagini dell’oggetto a differenti lunghezze d’onda: raggi X, infrarosso, visibile. Crediti: NASA/ESA/JHU/R.Sankrit & W.Blair.

Ora, le supernovae sono stelle che esplodono, e quelle di una particolare classe, detta Ia, seguono una curva di luce molto precisa, che ha un valore di luminosità nel punto di massimo che è quasi costante. Di conseguenza, osservando supernovae lontane si può stimarne la distanza sia in base alla legge di Hubble, che prevede il redshift delle righe spettrali in base alla velocità di allontanamento, sia in base all’attenuazione della luce dovuta alla distanza. Mettendo insieme questi parametri ci si è accorti che le supernovae lontane sono più lontane di quanto ci si aspetti, e dunque che l’universo si sta espandendo più rapidamente del dovuto. Sono state avanzate diverse ipotesi per spiegare il fenomeno (da errori sistematici sulle misure, al fatto che le suprenovae lontane possano seguire curve di luce leggermente differenti rispetto a quelle vicine, ecc…) ma l’ipotesi al momento data per più probabile è che vi sia una qualche forza repulsiva che agisce in tutto l’universo e che lo sta spingendo ad accelerare la sua espansione.

Questa energia che dovrebbe avere un effetto anti-gravitazionale è di natura sconosciuta, anche se i teorici hanno già notato come una leggera modifica alle equazioni di Einstein (che peraltro egli stesso aveva già introdotto e poi rinnegato) potrebbe portare l’effetto repulsivo cercato. In ogni modo, resta del tutto un mistero su cosa provochi questo fenomeno, per cui si è coniato il termine “energia oscura”, non perché essa non emette luce (come nel caso della “materia oscura”), ma perché è ignoto di cosa si tratti.

Cortesia NOAO.

Gli studi attuali e futuri si concentrano nella ricerca di una dipendenza dal tempo della cosiddetta “equazione di stato” dell’energia oscura, per dimostrare se l’energia oscura sia semplicemente la costante cosmologica di Einstein, oppure sia legata ad un campo di energia primordiale anch’esso legato alla formazione delle particelle elementari. A questo scopo diversi progetti in corso e proposte per il futuro sono dedicati a ricerche sistematiche di supernovae Ia, sia da terra sia dallo spazio. Sicuramente essi accresceranno notevolmente nei prossimi anni la mole di dati sulle supernovae lontane, portando nuova luce sulla natura dell’accelerazione cosmica. La ricerca e la calibrazione di nuove candele standard (quali superovae “core-collapse” e gamma-ray bursts) sono un’altra area di ricerca cui dedicare un’attenzione crescente.

Altri esperimenti hanno in programma di realizzare coperture di grandi aree di cielo con immagini di alta qualità (e quindi in generale osservate dallo spazio) per misurare il cosiddetto effetto di lente gravitazionale debole (weak lensing). Tale distorsione, introdotta nelle immagini delle galassie ”di sfondo” da parte della distribuzione di massa incontrata lungo il cammino che i fotoni compiono per arrivare a noi, dipende dalla crescita gravitazionale delle fluttuazioni e in ultima istanza dai parametri cosmologici. Lo scopo finale di queste surveys è la realizzazione di mappe di “shear”, come viene chiamata la deflessione da weak lensing, in diversi intervalli di redshifts, producendo una tomografia delle strutture cosmiche ad epoche successive. Queste “lastre tomografiche” misurano direttamente la storia di espansione e di strutturazione dell’Universo che dipendono direttamente dalla presenza di energia oscura.

Cartoline di luce: comincia l'avventura  della Dark Energy Camera

Il Victor Blanco Four-meter Telescope, dalla caratteristica cupola argentata, è l’attuale dimora della Dark Energy Camera. Il telescopio si trova in Cile e fa parte del Cerro Tololo Inter-American Observatory. Crediti: NOAO/NSF.

L’ultima frontiera è il Dark Energy Spectroscopic Instrument che intende produrre una mappa in 3D dell’universo misurandone l’energia oscura. Una dettagliata descrizione del robot di DESi si trova in un articolo su Symmetrymagazine. I robot di DESI sono in fase di sviluppo presso il Lawrence Berkeley National Laboratory e l’Università del Michigan. Oltre a registrare luce emessa da oggetti lontani, DESI scandaglierà il cielo alla ricerca di raggruppamenti lontani di galassie e quasar soprattutto per studiarne la natura e l’evoluzione. I numeri promettono di battere ampiamente i meno di 2 milioni di oggetti esaminati da BOSS.

Coerenza ed entanglement: due facce della stessa medaglia

Coerenza quantistica ed entanglement sono fenomeni funzionalmente equivalenti ma (ancora) concettualmente distinti. A dimostrarlo è un recente studio comparso sulla rivista Physical Review Letters. Sappiamo che entrambi dipendono dalla sovrapposizione quantistica che consente ad un sistema di trovarsi in due stati differenti nello stesso istante t (come se dicessimo che un gatto è sia vivo che morto). La sovrapposizione quantistica è infatti una proprietà unica delle particelle: un fotone può esistere in due stati differenti (polarizzazione verticale e orizzontale, ad esempio). Questo significa che invece di spedire segnali in codice digitale, cioè 0 e 1, la comunicazione quantistica può spedire informazioni in stati di sovrapposizione che rappresentano sia 0 che 1 allo stesso tempo. Ricordo cosa si intende per coerenza ed entanglement.

Lo studio degli stati coerenti costituisce uno dei più grandi problemi che i fisici si sono trovati ad affrontare in seguito allo sviluppo della meccanica quantistica. La nozione di stato coerente era inizialmente legata ad un ambito strettamente meccanico, cioè allo studio dell’oscillatore armonico e di altri sistemi dinamici. La loro introduzione a livello concettuale risale infatti ad un articolo pubblicato nel 1926, in cui Schrödinger riporta l’esistenza di una classe di stati dell’oscillatore armonico che mostrano, in certo qual modo, un comportamento analogo a quello di un oscillatore classico: per tali stati si verifica che l’energia media corrisponde al valore classico e le medie di posizione e impulso hanno forme oscillatorie in relazione di fase costante.

Gli stati quasi classici individuati da Schrödinger presentano, oltre alle caratteristiche già citate, un importante aspetto: essendo rappresentati da pacchetti d’onda gaussiani che non cambiano forma nel tempo, garantiscono la minimizzazione del prodotto tra le incertezze sulla posizione e sull’impulso, cioè la condizione più vicina alla possibilità di misurare contemporaneamente le suddette grandezze con precisione arbitraria, consentita dalla fisica classica. Una volta isolate funzioni d’onda di questo genere per un oscillatore armonico, l’obiettivo di Schrödinger era la ricerca di stati simili per altri sistemi dinamici, primo tra tutti l’atomo d’idrogeno (tentativo non andato a buon fine).

(foto: Corbis Images)

Crediti: Corbis Images.

L’entanglement è un fenomeno, privo di analogo classico, che si verifica a livello quantistico, che coinvolge due o più particelle generate da uno stesso processo o che si siano trovate in interazione reciproca per un certo periodo. Queste particelle restano intrecciate (entangled) e legate indissolubilmente, nel senso che, indipendentemente dalla distanza che le separa, quello che accade a una di esse si ripercuote immediatamente sull’altra. L’evidenza di questo fenomeno ci costringe a rivedere profondamente non solo la logica classica ma anche altre strutture concettuali – in primis quelle di causalità, determinismo e realismo – che contribuiscono a forgiare la nostra visione e comprensione del mondo.

Veniamo alla ricerca in corso di pubblicazione. Un gruppo di ricercatori guidato da Gerardo Adesso, professore associato all’università di Nottingham, ha dimostrato che coerenza ed entanglement sono quantitativamente (o, meglio, operativamente) equivalenti ma non identici: “per esempio, la coerenza può essere presente in sistemi quantistici singoli, dove l’entanglement non è ben definito. Inoltre, la coerenza è definita rispetto ad un ambiente dato, mentre l’entanglement è invariante per cambiamenti su base locale. Per questi motivi riteniamo che la coerenza e l’entanglement siano operativamente equivalenti ma concettualmente diversi”, hanno spiegato i coautori della ricerca Uttam Singh, Himadri Dhar e Manabendra Bera.

Come si legge nell’abstract dell’articolo, la coerenza quantistica è un ingrediente essenziale per l’elaborazione dell’informazione quantistica e svolge un ruolo centrale in settori emergenti come la termodinamica su  nanoscala e la biologia quantistica. Tuttavia, la nostra comprensione e la caratterizzazione quantitativa della coerenza come risorsa operativa sono ancora molto limitate. Un primo passo viene fatto proprio in questa ricerca, in quanto si propone la conversione di qualsiasi livello di coerenza in uno stato incoerente di entanglement.

Oggi gli stati coerenti trovano ampio utilizzo nello studio delle proprietà della statistica dei fotoni nei campi elettromagnetici; anche nell’ambito dell’elettrodinamica quantistica è possibile ricorrere ad una descrizione della radiazione in termini di stati coerenti per stabilire una corrispondenza tra i campi classici e i campi quantizzati; se gli oscillatori equivalenti al campo elettromagnetico sono in uno stato coerente, i valori attesi del campo elettrico e del campo magnetico si evolvono come i corrispondenti valori classici: ciò rende possibile introdurre un concetto di coerenza della radiazione anche in ambito quantistico. Se, poi, si affianca a tutto ciò l’importanza degli stati entangled è evidente che ricerche simili saranno molto importanti per lo sviluppo della crittografia e della comunicazione quantistica.

Paper: Alexander Streltsov, et al. Measuring Quantum Coherence with Entanglement, in Physical Review Letters. (in corso di pubblicazione) Disponibile su  arXiv:1502.05876 [quant-ph]

Fonte: http://phys.org/news/2015-06-physicists-quantum-coherence-entanglement-sides.html

Un nuovo isolante topologico per l’informazione quantistica

Cosa succede quando atomi di ferro sono posti sulla superficie di un materiale conduttore? Diventa un superconduttore topologico. A dimostrarlo è un gruppo di ricercatori finlandesi che, in un recente articolo che esamina le proprietà dei superconduttori a basse temperature, presenta un modello matematico in grado di predire l’esistenza fisica di un superconduttore topologico costituito da un sottile film metallico. L’articolo è comparso sulla rivista Physical Review Letters. 

Un isolante topologico è un materiale di nuova generazione che ci induce a rivedere il concetto tradizionale di isolante, cioè di materiale che non conduce corrente elettrica. Gli isolanti topologici hanno infatti una caratteristica bizzarra: sono ancora isolanti al loro interno, ma non sulla superficie, dove la corrente elettrica, ovvero un flusso di elettroni, può scorrere più o meno liberamente e in modo molto efficiente. Da un punto di vista microscopico, nei materiali isolanti, gli elettroni non possono muoversi perché vincolati strettamente agli atomi di appartenenza. Per guadagnare la libertà di movimento dovrebbero riuscire a salire di livello energetico: questa distanza tra livello energetico occupato dagli elettroni in un isolante e livello che dovrebbero occupare per diventare conduttori è chiamata gap energetico. Negli isolanti topologici, questa stratificazione dell’energia in bande è modificata fortemente da un fenomeno quantistico che coinvolge le orbite degli elettroni e lo spin di queste particelle.

Researchers predicted existence of new quantum matter theoretically

Lo stato del superconduttore topologico previsto dal modello matematico elaborato dai ricercatori finlandesi. (Crediti: Aalto University).

“Sappiamo che in uno stato quantico la corrente elettrica si muove senza resistenza sulle superfici dei metalli superconduttori. Si tratta di un fenomeno interessante che abbiamo voluto studiare in modo più dettagliato. I superconduttori topologici differiscono da quelli normali in quanto hanno una corrente costante di movimento lungo i bordi. Questa corrente contiene particelle esotiche chiamate fermioni di Majorana. Abbiamo ottenuto segnali affidabili da queste particelle in test effettuati alla fine dello scorso anno”, spiega Teemu Ojanen uno degli autori della ricerca. “I bordi della superficie di un superconduttore topologico sono unidirezionali; di conseguenza la corrente è trasportata in una sola direzione. Tuttavia, il numero e la direzione degli stati può variare. Questa situazione potrebbe essere paragonata ad una rotonda in cui il numero di corsie e la direzione possono cambiare”, conclude Ojanen.

Si è già previsto sul piano teorico che i fermioni di Majorana hanno proprietà che possono contribuire a creare stati quantici di questo tipo. Le strutture prodotte in questo modo possono essere utilizzate per la codifica di informazioni. Per questo motivo infatti le applicazioni future più interessanti concernono i computer quantistici. Questa nuova promessa del mondo dell’informatica permetterebbe infatti di produrre circuiti elettronici che non risentono degli effetti deleteri del surriscaldamento generato dal passaggio della corrente elettrica, un fenomeno che chiunque usi un dispositivo elettronico ha sperimentato. Basta poggiare una mano sul proprio pc per rendersi conto del calore emesso durante il tempo di utilizzo.

Paper: “Topological Superconductivity and High Chern Numbers in 2D Ferromagnetic Shiba Lattices” journals.aps.org/prl/abstract/10.1103/PhysRevLett.114.236803

Fonte: http://phys.org/news/2015-06-quantum-theoretically.html

Un nuovo isolante topologico per l'informazione quantistica

Cosa succede quando atomi di ferro sono posti sulla superficie di un materiale conduttore? Diventa un superconduttore topologico. A dimostrarlo è un gruppo di ricercatori finlandesi che, in un recente articolo che esamina le proprietà dei superconduttori a basse temperature, presenta un modello matematico in grado di predire l’esistenza fisica di un superconduttore topologico costituito da un sottile film metallico. L’articolo è comparso sulla rivista Physical Review Letters. 

Un isolante topologico è un materiale di nuova generazione che ci induce a rivedere il concetto tradizionale di isolante, cioè di materiale che non conduce corrente elettrica. Gli isolanti topologici hanno infatti una caratteristica bizzarra: sono ancora isolanti al loro interno, ma non sulla superficie, dove la corrente elettrica, ovvero un flusso di elettroni, può scorrere più o meno liberamente e in modo molto efficiente. Da un punto di vista microscopico, nei materiali isolanti, gli elettroni non possono muoversi perché vincolati strettamente agli atomi di appartenenza. Per guadagnare la libertà di movimento dovrebbero riuscire a salire di livello energetico: questa distanza tra livello energetico occupato dagli elettroni in un isolante e livello che dovrebbero occupare per diventare conduttori è chiamata gap energetico. Negli isolanti topologici, questa stratificazione dell’energia in bande è modificata fortemente da un fenomeno quantistico che coinvolge le orbite degli elettroni e lo spin di queste particelle.

Researchers predicted existence of new quantum matter theoretically

Lo stato del superconduttore topologico previsto dal modello matematico elaborato dai ricercatori finlandesi. (Crediti: Aalto University).

“Sappiamo che in uno stato quantico la corrente elettrica si muove senza resistenza sulle superfici dei metalli superconduttori. Si tratta di un fenomeno interessante che abbiamo voluto studiare in modo più dettagliato. I superconduttori topologici differiscono da quelli normali in quanto hanno una corrente costante di movimento lungo i bordi. Questa corrente contiene particelle esotiche chiamate fermioni di Majorana. Abbiamo ottenuto segnali affidabili da queste particelle in test effettuati alla fine dello scorso anno”, spiega Teemu Ojanen uno degli autori della ricerca. “I bordi della superficie di un superconduttore topologico sono unidirezionali; di conseguenza la corrente è trasportata in una sola direzione. Tuttavia, il numero e la direzione degli stati può variare. Questa situazione potrebbe essere paragonata ad una rotonda in cui il numero di corsie e la direzione possono cambiare”, conclude Ojanen.

Si è già previsto sul piano teorico che i fermioni di Majorana hanno proprietà che possono contribuire a creare stati quantici di questo tipo. Le strutture prodotte in questo modo possono essere utilizzate per la codifica di informazioni. Per questo motivo infatti le applicazioni future più interessanti concernono i computer quantistici. Questa nuova promessa del mondo dell’informatica permetterebbe infatti di produrre circuiti elettronici che non risentono degli effetti deleteri del surriscaldamento generato dal passaggio della corrente elettrica, un fenomeno che chiunque usi un dispositivo elettronico ha sperimentato. Basta poggiare una mano sul proprio pc per rendersi conto del calore emesso durante il tempo di utilizzo.

Paper: “Topological Superconductivity and High Chern Numbers in 2D Ferromagnetic Shiba Lattices” journals.aps.org/prl/abstract/10.1103/PhysRevLett.114.236803

Fonte: http://phys.org/news/2015-06-quantum-theoretically.html

Dione fotografata da Cassini il 16 giugno

Rugosa, aspra e ghiacciata. Così i ricercatori che lavorano con la sonda Cassini di Nasa/Esa/Asi hanno descritto la luna di Saturno Dione, nota anche come Saturno IV. La sonda – scrive Media Inaf, il notiziario online dell’Istituto nazionale di Astrofisica – lanciata nel 1997 (ed entrata in orbita attorno a Saturno il primo luglio 2004), ha effettuato il suo penultimo flyby attorno al satellite naturale del sesto pianeta del Sistema solare alle 22.12 (ora italiana) di martedì 16 giugno, volando a una distanza massima dalla superficie di soli 516 chilometri.

Le prime immagini sono arrivate pochi giorni dopo il passaggio ravvicinato. Tra quelle pubblicate su Media Inaf, una – scattata dalla narrow-angle camera (montata a bordo della sonda) dalla distanza di 77 mila chilometri – offre una vista particolare sulla luna ghiacciata e sugli anelli che circondano Saturno. Un’altra foto – scattata dalla wide-angle camera sempre a 77 mila chilometri di distanza – mostra in tandem Saturno, la luna Dione e anche (in alto a destra) la luna Encelado.

Cassini zooms past Dione

Fotografia di Dione scattata dalla sonda Cassini ad una distanza di 615 km (Credit: NASA/JPL-Caltech/Space Science Institute).

Il 17 agosto la sonda Nasa/Esa/Asi passerà nuovamente attorno a Dione, a una distanza di 474 chilometri (l’incontro più vicino con la luna ghiacciata risale al dicembre 2011 quando la sonda si avvicinò fino a ben 100 chilometri dalla superficie). A ottobre Cassini volerà ancora due volte attorno alla luna Encelado per studiarne i potenti getti di ghiaccio, avvicinandosi fino a 48 chilometri nel passaggio finale. Cassini partirà dal piano equatoriale di Saturno (da dove le lune sono più visibili) a fine 2015 per iniziare un anno di preparazione tecnica al gran finale: gettarsi – letteralmente – tra gli anelli di Saturno per gli studi finali.

La missione Cassini-Huygens è un progetto che vede la cooperazione di vari enti: NASA, ESA (European Space Agency) e dell’Agenzia Spaziale Italiana. Maggiori informazioni si trovano sul sito della Missione Cassini: saturn.jpl.nasa.gov/photos/raw

Una selezione di immagini si trova qui: www.ciclops.org/view_event/212/DIONE-REV-217-RAW-PREVIEW

I buchi neri. Generatori di universi olografici?

Samir Mathur dice no. L’idea secondo cui i buchi neri hanno un “firewall” che distrugge tutto quello che tocca non è corretta. In un articolo pubblicato su arXiv.org Mathur dimostra matematicamente che i buchi neri non sono necessariamente arbitri di sventure. Di che cosa sia il paradosso del firewall ne ho parlato in due occasioni: L’orizzonte apparente e i buchi neri secondo Stephen W. Hawking e Un wormhole per il paradosso del firewall nei buchi neri.

Le radici teoriche della posizione di Mathur affondano nelle sue ricerche ormai decennali concernenti la teoria delle stringhe. L’intento principale è sostanzialmente questo: dimostrare che i buchi neri sono, in realtà, palle di stringhe cosmiche aggrovigliate. Questa tesi battezzata fuzzball theory ha contribuito a risolvere alcune contraddizioni insite nel modo in cui i fisici pensano di buchi neri. Ovviamente questa idea non è stata accettata passivamente dalla comunità dei fisici; come sapete gli stringhisti ormai sono demodé. C’è anche stato chi ha mostrato che la superficie del fuzzball era in realtà un firewall o in qualche modo riducibile a un firewall – ma qui la questione si fa complessa, matematicamente complessa!

Rappresentazione artistica di un buco nero supermassiccio che assorbe materia da una stella vicina. In basso: immagini che si pensa mostrino un buco nero supermassiccio che divora una stella nella galassia RXJ 1242-11. A sinistra vedete l’ immagine ai raggi X, mentre a destra l’immagine ottica. (Crediti: NASA).

Il punto più interessate di questa querelle firewall-fuzzball è questo: i sostenitori del firewall sostengono che la “superficie” di un buco nero è mortale, mentre Mathur e il suo team sono giunti alla conclusione opposta. I buchi neri sarebbero piuttosto generatori di universi olografici o, su piccola scala, di copie di ciò che incontrano e “toccano”. Ovviamente uso un linguaggio improprio per rendere l’idea ma, credetemi, si tratta proprio di due modelli matematici alternativi: Mathur sostiene infatti che quando un qualunque tipo di materia tocca la superficie di un buco nero essa “diventa” un ologramma, una copia “quasi perfetta” che continua ad esistere come prima.

Tra i mille problemi che un’affermazione del genere solleva, il “quasi perfetta” merita una breve nota. In fisica esiste un’ipotesi teorica nota come complementarietà. È stata proposto per la prima volta dal fisico della Stanford University Leonard Susskind nel 1993. La complementarità richiede che l’ologramma creato da un buco nero sia una copia perfetta dell’originale, non quasi perfetta. A i fisici sanno fin troppo bene che matematicamente è impossibile che si realizzi una rigorosa complementarietà, e questo è, indubbiamente, un punto a favore dei sostenitori del firewall. Senza perfezione (o complementarietà) può esserci solo la spaghettificazione della materia e la compressione in quel punto dalla densità infinita noto come singolarità.

Mathur ha raffinato ulteriormente la questione nel paper A model with no firewall sviluppando un modello modificato di complementarietà che, peraltro, tende anche a risolvere il paradosso dell’informazione enunciato da Stephen W. Hawking. Come è evidente, le implicazioni di simili teorie sono davvero profonde, soprattutto se si pensa che uno dei principi della teoria delle stringhe è che il nostro spaziotempo quadrimensionale sia solo un ologramma che si dipana da una superficie che esiste in molte più dimensioni! Insomma, se la superficie di un buco nero è un firewall allora l’idea dell’universo come un ologramma deve essere sbagliato. Ecco, appunto. Un’idea matematicamente accettabile ma, forse – e sottolineo forse – non compatibile con il nostro universo in cui simmetrie e complementarietà sono sistematicamente violate.

Fonte: http://phys.org/news/2015-06-surface-black-hole-firewalland-nature.html