Il lato oscuro del bosone di Higgs

Su Phys.org è comparsa una breve ma incisiva intervista a Daniela Bortoletto una ricercatrice dell’Università di Oxford che fa parte del team di ATLAS al CERN.

Dopo la conferma del bosone di Higgs, come sapete da circa due mesi LHC ha ripreso a funzionare ad energie da record: 13 TeV. Sappiamo che decade in due fermioni, e avevo fatto un primo punto della situazione intervistando il Prof. Guido Tonelli.

Ora è interessante sentire cosa ha da dire la Prof.ssa Daniela Bortoletto, in quanto le sfide che ci aspettano sono a dir poco emozionanti. Per prima cosa gli scienziati sperano di colmare i buchi del Modello Standard, visto che non è una teoria del tutto. Per lo meno, non lo è ancora.

LHC.svg

La catena degli acceleratori del CERN, organizzati in stadi successivi di accelerazione terminanti con l’iniezione in LHC.

Come è noto, pur avendo riunificato la forza elettromagnetica e quella nucleare debole (forza elettrodebole), il Modello Standard non è completo:

(i) non include la forza di gravità, che è l’interazione di più debole intensità;

(ii) non spiega lo spettro delle masse delle particelle;

(iii) contiene diversi parametri arbitrari;

(iv) non rende conto dell’asimmetria tra materia e antimateria nell’universo, fallisce nell’identificare le particelle fondamentali di materia oscura e nello spiegare l’energia oscura;

(v) non riunisce in un’unica teoria l’interazione nucleare forte e la forza elettrodebole, che la teoria della grande unificazione spiega con l’ipotesi che queste due forze a temperature elevate si equivalgono.

Ovviamente è la materia oscura l’argomento più “caldo”. “Grazie alle elevate energie di LHC speriamo proprio di ricreare in laboratorio la materia oscura”, dichiara la Bortoletto. “Se la materia oscura è la più leggera delle particelle previste da SUSY che potremmo scoprire, ci sono molte altre particelle SUSY che potremmo scoprire, poiché la supersimmetria prevede che ogni particella del Modello Standard abbia una sua controparte supersimmetrica”.

Galassie mancate piene di materia oscura

Una suggestiva immagine dell’ammasso della Chioma (Cortesia NASA/JPL-Caltech/GSFC/SDSS).

La supersimmetria (o SUSY, da SUper SYmmetry) è stata formulata per rendere conto dei fenomeni della fisica delle particelle che rimangono inspiegati nell’ambito del Modello Standard. La peculiarità di questa ipotesi è semplice: a ogni particella bosonica, dotata cioè di spin intero, si associa una particella fermionica (o superpartner) dotata di spin semi-interi (in modo correlativo, ogni fermione ha un superpartner bosonico).Dobbiamo ammettere che sembra una tesi abbastanza esotica.  Perché abbiamo bisogno della supersimmetria?

Ecco tre buoni motivi: (i) consente di unificare le tre forze fondamentali della natura, una volta raggiunte le energie più elevate; (ii) prevede l’esistenza di particelle che potrebbero costituire la materia oscura; (iii) permette di risolvere il problema della differenza di intensità tra forza nucleare debole e forza gravitazionale – di 32 ordini di grandezza a favore della forza debole (ciò significa che è 100.000 miliardi di miliardi di miliardi più intensa). Tuttavia, benché il modello standard sia solidamente confermato dagli esperimenti, sul tappeto rimangono ancora molti problemi, in primis l’antimateria.

Che cosa ha causato l’asimmetria o, meglio, la rottura della simmetria che ha permesso alla materia barionica di dominare sull’antimateria? “Non lo sappiamo ancora, ma abbiamo scoperto il bosone di Higgs, una particella che non ha spin, che potrebbe decadere in particelle di materia oscura e che potrebbe aiutarci a capire perché non è stata l’antimateria a prendere il sopravvento”, spiega la Bortoletto. “Lo spin spiega il comportamento delle particelle. Gli elettroni hanno spin ½, mentre i fotoni che sono responsabili delle interazioni elettromagnetiche, hanno spin 1. Le particelle a spin ½ obbediscono al principio di esclusione di Pauli che vieta a due elettroni di occupare lo stesso stato quantico. L’Higgs è la prima particella spin 0, la prima particella scalare osservata, una particella che, tecnicamente, non è materia né forza”.

Proprio per questa sua natura ha certamente un ruolo importante nella spiegazione dell’inflazione cosmica, dell’energia del vuoto e, come è noto, nella spiegazione della massa delle altre particelle. “Ed è proprio a causa del bosone che l’elettrone ha massa e che gli atomi hanno potuto formarsi. Ma perché le particelle elementari hanno masse così diverse? Ora, grazie ai nuovi dati di LHC e ATLAS possiamo studiare meglio il decadimento del bosone e le interazioni tra bosoni e quarks”. Insomma, anche se il prossimo potenziamento di LHC sarà nel 2025, è ormai certo che in questi anni le novità non si faranno attendere.

Qui trovate la pagina della Prof.ssa Daniela Bortoletto – Department of Physics, Oxford.

Fonte: http://phys.org/news/2015-07-exploring-higgs-boson-dark-side.html

Annunci

LHCb osserva i pentaquark

Nel comunicato stampa del 14 luglio di LHC Italia si legge che LHCb, uno dei quattro grandi esperimenti del Large Hadron Collider del CERN, ha riportato la scoperta di una classe di particelle esotiche note come pentaquark. La collaborazione ha pubblicato sul sito open access arXiv.org lo studio che descrive questi risultati, sottomesso per la pubblicazione alla rivista Physical Review Letters.

“Il pentaquark non è una qualsiasi nuova particella,” precisa a Phys.org il rappresentante del team di LHCb Guy Wilkinson. “Esso rappresenta un modo per aggregare i quarks, ossia i costituenti fondamentali dei protoni e neutroni ordinari, in uno schema che non è mai stata osservata prima d’ora in oltre 50 anni di ricerche sperimentali. Studiare le sue proprietà ci può permettere di comprendere come la materia ordinaria, i protoni ed i neutroni con cui siamo formati, è costituita”.

I ricercatori di LHCb hanno cercato stati di pentaquark esaminando il decadimento di un barione, conosciuto come Λb (Lambda b), in altre tre particelle: una J/ψ (J-psi), un protone e un kaone carico. Lo studio della distribuzione dell’energia della J/ψ e del protone ha rivelato che stati di aggregazione di materia intermedi, i pentaquark appunto, si formano a volte nel corso del decadimento di questi barioni.

“Approfittando della grande mole di dati forniti da LHC, e potendo contare sull’eccellente precisione del nostro rivelatore, abbiamo esaminato tutte le possibilità per questi segnali, e abbiamo concluso che si può spiegare solo con stati di pentaquark”, spiega il fisico della collaborazione internazionale LHCb Tomasz Skwarnicki, della Syracuse University negli Stati Uniti, che ha coordinato lo studio. “Più precisamente gli stati devono essere formati da due quark up, un quark down, un quark charm e un anti-quark charm”, conclude Skwarnicki.

CERN’s LHCb experiment reports observation of exotic pentaquark particles

L’immagine mostra una delle possibili configurazioni per i pentaquark. Come mostra l’immagine in apertura, essi potrebbero essere strutturati come un’unica particella composta da quattro quark e un antiquark, oppure da un mesone e un barione (tre quark) legati debolmente. Credit: Daniel Dominguez.

“L’esistenza di particelle esotiche, quelle che non riusciamo a inquadrare nei modelli che descrivono mesoni e barioni, è ormai un fatto sperimentalmente accertato: ad esempio, stati con quattro quark sono già stati scoperti in diversi esperimenti, incluso LHCb”, approfondisce Pierluigi Campana, a capo della collaborazione internazionale LHCb dal 2011 al 2014. “Però adesso abbiamo una forte indicazione di qualcosa di equivalente per i cinque quark. E questo grazie alla capacità di LHCb di riconoscere la natura delle particelle, in mezzo a quella tempesta di tracce che ci è generosamente offerta dalle collisioni a LHC”, conclude Campana.

Ma questo risultato non è conclusivo, perché i pentaquark sono una classe di particelle che ci può aprire le porte a una comprensione molto più approfondita della materia. Infatti, se noi conosciamo bene la forza elettromagnetica che tiene legati assieme gli atomi, cioè i nucleoni e gli elettroni, non altrettanto possiamo dire della forza forte, che tiene legati sia i protoni e i neutroni all’interno del nucleo, sia i quark che li compongono tra di loro.

A four-by-four table of particles. Columns are three generations of matter (fermions) and one of forces (bosons). In the first three columns, two rows contain quarks and two leptons. The top two rows' columns contain up (u) and down (d) quarks, charm (c) and strange (s) quarks, top (t) and bottom (b) quarks, and photon (γ) and gluon (g), respectively. The bottom two rows' columns contain electron neutrino (ν sub e) and electron (e), muon neutrino (ν sub μ) and muon (μ), and tau neutrino (ν sub τ) and tau (τ), and Z sup 0 and W sup ± weak force. Mass, charge, and spin are listed for each particle.

La suddivisione delle particelle nel Modello Standard. I sei tipi (o sapori) di quark sono colorati in violetto. Le colonne rappresentano le tre generazioni dei fermioni. Credit: wikipediaorg

La storia dei pentaquark comincia negli anni Sessanta del Novecento, precisamente nel 1964, quando Murray Gell-Mann ha proposto che una categoria di particelle, note come barioni, e che comprende protoni e neutroni, fossero composti di tre oggetti chiamati quark, e che un’altra categoria, i mesoni, fossero invece formati di coppie quark-antiquark (Gell-Mann fu insignito per questo lavoro del Premio Nobel per la fisica nel 1969). Ma la tavola periodica delle particelle elementari elaborata da Gell-Mann permette anche l’esistenza di altri stati di aggregati di quark, come il pentaquark appunto, composto da quattro quark e un antiquark. Fino ad ora, tuttavia, nonostante una ricerca serrata durata mezzo secolo e condotta da parte di molti esperimenti in tutto il mondo, non era mai stata portata nessuna prova conclusiva dell’esistenza del pentaquark.

Vediamo meglio cos’è un quark. Quando Gell-Mann e Yuval Ne’emen, in modo del tutto indipendente l’uno dall’altro, riunirono in gruppi le particelle sulla base delle loro proprietà, ottennero la eightfold way, la ottuplice via, indicata con SU(3) nel linguaggio formale. Dopo aver diviso in gruppi anche i barioni, nel 1964 Gell-Mann, che era alla ricerca del modo più semplice per rendere conto di tutti i barioni con un numero di particelle sub-barioniche fondamentali, propose il concetto di quark un approfondimento si trova sulla rivista asimmetrie a questo link.

I quark sono fermioni, i quali sono raggruppati in tre generazioni, ognuna composta da due leptoni e due quark (più le loro antiparticelle dette antiquark). In totale si originano in questo modo sei tipi o sapori di quark: la prima generazione è composta dai quark up edown; la seconda include il quark charme il quark strange; della terza fanno parte il quark top e il quark bottom.

Gell-Mann scelse il nome quark perché era giunto alla conclusione che per fare un barione bastava una combinazione di base di tre quark, e le diverse combinazioni dei quark erano sufficienti per costituire tutti i barioni fino ad allora noti, il che gli aveva richiamato alla mente un verso del Finnegan’s Wake di James Joyce: three quarks for Muster Mark.  

Paper: 

“Observation of J/ψp resonances consistent with pentaquark states in Λ0b→J/ψK−p decays.” arxiv.org/abs/1507.03414

Fonti:

http://phys.org/news/2015-07-cern-lhcb-exotic-pentaquark-particles.html

http://lhcitalia.infn.it/index.php/news/447-lhcb-osserva-i-pentaquark-particelle-esotiche-a-cinque-quark

Competizione e diversificazione: un case study

La diversificazione delle specie si verifica in risposta a una serie di fattori complessi, sia biotici che abiotici, la cui comprensione è una delle maggiori sfide per la biologia evolutiva. Lo stesso si può dire per le estinzioni (di massa e non). Un nuovo studio comparso sulla rivista National Academy of Sciences ha dimostrato che, nel caso dei canidi del Nord America, la competizione tra specie diverse ha avuto un ruolo molto più importante di quanto si credesse nelle estinzioni.

In dettaglio, la competizione tra più cladi di canidi carnivori avrebbe determinato la scomparsa di ben due specie distinte (Hesperocyoninae e Borophaginae). I ricercatori hanno analizzato circa 1.500 occorrenze fossili di 120 specie di canide da circa 40 milioni di anni fa ad oggi; partendo dall’ipotesi che la concorrenza di altre specie sia stata un fattore guida per i tassi di estinzione, hanno raccolto dati su cinque famiglie carnivore aggiuntive, tra cui gatti, cani e orsi.

Il quadro analitico risultante, correlando i tassi di estinzione alla grandezza media dei corpi di ciascuna specie, ha mostrato l’esistenza di un nesso tra abitudini alimentari carnivore, proprie di animali dai corpi sempre più grandi, e dinamiche di diversificazione/adattamento/estinzione. Niente di stupefacente. Il dato significativo riguarda la storia individuale delle singole specie di canidi.

Nel caso dei canidi nordamericani, infatti, questi vincoli adattativi avrebbero causato l’estinzione delle specie dai corpi meno massicci. L’attuale biodiversità sarebbe il risultato di una competizione infra-specifica. L’analisi bayesiana sembra infatti confermare che l’estinzione delle due sottofamiglie di canidi sia avvenuta anche a causa della competizione con altre specie.

Se è vero che già sapevamo come i cambiamenti climatici e gli eventi ambientali fossero un driver fondamentale nei processi di speciazione e di estinzione, è altrettanto vero che lo studio suggerisce fortemente che la lotta per la sopravvivenza giochi un ruolo importante nei destini di specie diverse in nicchie ecologiche simili.

Paper: “The role of clade competition in the diversification of North American canids.” PNAS 2015; published ahead of print June 29, 2015, DOI: 10.1073/pnas.1502803112

Fonte: phys.org.

Decapitare i fotoni per lo stoccaggio di informazioni

Dopo il Nobel 2012 assegnato a Serge Haroche e David Wineland, vari gruppi di ricerca stanno mettendo a punto tecniche di manipolazione dei sistemi quantistici per potenziare i calcolatori, ancora sofferenti a causa della decoerenza indotta dall’ambiente. Una ricerca pubblicata su National Science Review tenta di sfruttare la sovrapposizione quantistica per isolare e controllare il sistema rendendolo coerente il più a lungo possibile. Faccio un po’ il punto della situazione.

La comunicazione quantistica studia i modi in cui si può sfruttare la natura dei fotoni per trasmettere informazioni. Da quando sono state messe a punto alcune tecniche di crittografia quantistica, questa scienza ha ricevuto un’attenzione sempre maggiore da parte di governi, banche e multinazionali. Il motivo è semplice: è impossibile hackerarne i contenuti, in quanto i messaggi sono decifrabili solo dall’emittente e dal destinatario. Sappiamo che le particelle hanno proprietà davvero strane: non hanno una posizione, né uno stato ben definito, a meno che non intervenga un processo di misurazione a determinarli. Ciò significa che una chiave di cifratura può essere trasmessa in completa sicurezza da Alice a Bob – così di solito ci si esprime per descrivere la trasmissione dell’informazione da A a B – dato che ogni tentativo di intercettarla, dunque di intervenire nel sistema, sarebbe immediatamente noto ad A e B.

L’inviolabilità dei messaggi è garantita dalla sovrapposizione quantistica, una proprietà unica delle particelle: un fotone può esistere in due stati differenti (polarizzazione verticale e orizzontale, ad esempio). Invece di spedire segnali in codice digitale, cioè 0 e 1, la comunicazione quantistica può spedire informazioni in stati di sovrapposizione che rappresentano sia 0 che 1 allo stesso tempo. Senza contare che sistemi quantistici separati, come una coppia di fotoni, possono essere legati tra loro grazie all’entanglement: in questo modo si ottiene uno strumento estremamente potente, sicuro e che, nel caso di coppie di fotoni, non ha alcuna controparte classica.

L’approccio standard alla comunicazione quantistica prevede che la codifica dei qubit (i bit quantistici) avvenga sfruttando la polarizzazione di fotoni. La rilevazione della corretta polarizzazione richiede però che tutti gli utenti interessati abbiano un sistema di riferimento comune rispetto al quale valutare la polarizzazione stessa. A causa delle modalità di codifica dell’informazione nei qubit, fino ad oggi la comunicazione quantistica poteva essere realizzata solo fra sistemi in quiete. Sfruttando stati quantistici ibridi, di recente sono stati messi a punto dispositivi di codifica che permettono di trasmettere questo tipo di messaggi anche fra utenti in movimento. I segnali quantistici hanno coperto distanze di poche centinaia di kilometri, mettendo in comunicazione punti teoricamente situati in città diverse.

Fino ad oggi, soprattutto per potenziare le capacità dei computer, gli scienziati hanno aumentato il numero di particelle correlate, ciascuna di esse posta in uno stato bidimensionale di sovrapposizione: un qubit. Utilizzando questo metodo l’anno scorso è stato possibile realizzare stati entangled fino ad un massimo di 14 particelle (tenete presente che non è il record attuale).  Ora, in un nuovo paper appena pubblicato sembra possibile battere nuovamente il record. È infatti possibile creare stati entangled tra coppie di fotoni “in più dimensioni” utilizzando alcune proprietà quantistiche come lo spin dei fotoni. Questo metodo, chiamato “hyperentanglement” permette ad ogni coppia di fotoni di trasportare molti più dati di quanto fosse possibile con i metodi precedenti. Si parla di pacchetti di informazioni.

(Crediti: wikipedia.org).

La ricerca, pubblicata oggi su Nature Photonics descrive nel dettaglio questa innovativa tecnica, nota come “biphoton frequency comb”. In pratica, per semplificare in modo che capiate di cosa si parla, i ricercatori sono riusciti a dividere in parti i fotoni – lo so che sembra fantascienza, ma vi assicuro che è possibile –  per registrare ed immagazzinare un maggior numero di fotoni.  Nel trasferimento sicuro dei dati, i fotoni inviati su reti in fibra ottica possono essere criptati attraverso entanglement. Con ciascuna dimensione di entanglement, la quantità di informazioni trasportate su una coppia di fotoni viene raddoppiata, quindi una coppia di fotoni entangled a cinque dimensioni può trasportare una quantità di dati fino a 32 volte maggiore di quella veicolata da una coppia entangled ad una dimensione. “Abbiamo dimostrato che un pettine ottico a frequenza può essere generato a livello di un singolo fotone”, ha detto Xie. “Essenzialmente stiamo sfruttando la divisione della lunghezza d’onda per operare una specie di multiplazione a livello quantistico.” Le potenziali applicazioni per la ricerca comprendono la comunicazione sicura e di elaborazione delle informazioni, in particolare per il trasferimento di dati con il minimo errore.

Paper: Harnessing high-dimensional hyperentanglement through a biphoton frequency comb., in Nature Photonics (2015) DOI: 10.1038/nphoton.2015.110

Fonte: phys.org

Il Big Rip e l'ipotesi della fine dell'Universo

Per decenni i cosmologi hanno avuto difficoltà a conciliare la nozione classica di viscosità, ossia quella definita su base termodinamica, con la RG di Einstein. Oggi, un team di ricercatori dell’Università di Vanderbilt ha messo a punto una nuova soluzione matematica al problema che sembra colma questa lacuna e  ha significative implicazioni per il destino ultimo dell’universo. Lo studio è stato pubblicato sulla rivista Physical Review D.

Come sapete la teoria del Big Bang è una delle descrizioni più accreditate sulla nascita del nostro Universo. Da un “punto” di densità infinita l’universo si sarebbe inizialmente espanso, ma il destino è crudele, miei cari. La sua avventura terminerà in un “Big Rip”, un Grande Strappo. Il Big Rip  è un’ipotesi cosmologica sul destino ultimo dell’Universo.

L’ipotesi è concorde con il framework del Big Bang e prevede una continua accelerazione dell’espansione dell’Universo. Questo modello è stato sviluppato in seguito ad osservazioni di supernovae di tipo Ia in galassie lontane che, nel lontano 1998, hanno rivelato che l’espansione dell’Universo non è affatto costante ma sta accelerando – risultato inizialmente sorprendente per molti cosmologi.

(Crediti: NASA).

Il tipo di viscosità che ha rilevanza cosmologica è molto diversa dal concetto ordinario che ne abbiamo noi, la viscosità a “ketchup” per intenderci, quella che misura la resistenza di un fluido quando cerchiamo di farlo scorrere attraverso piccole fenditure.  La viscosità cosmologica è molto diversa e, purtroppo, è anche molto meno intuitiva (i liquidi che maneggiamo nella vita di tutti i giorni si prestano davvero poco ad essere compressi o espansi). Si tratta di una forma di viscosità della massa, e misura la resistenza di una massa (fluida) all’espansione o alla contrazione Per comprendere le caratteristiche della viscosità in contesti relativistici il gruppo di ricerca coordinato da Marcelo Disconzi si è messo a studiare quella classe di oggetti astronomici che producono questo effetto: le supernovae e le stelle di neutroni.

Dopo il successo avuto nelle simulazioni sul comportamento dei fluidi ideali (quelli senza viscosità) accelerati a velocità prossime a quelle della luce, per anni i tentativi di simulare il comportamento dei fluidi reali si è scontrato con serrati paradossi. Ora, riprendendo l’approccio del matematico francese André Lichnerowicz (siamo intorno agli anni cinquanta del novecento), una classe di nuove equazioni della fluidodinamica relativistica sembra rispettare la barriera della velocità della luce.

(Crediti: NASA).

La chiave della teoria è nella quantità di energia oscura nell’Universo. Se l’energia oscura fosse superiore ad un certo valore, tutta la materia verrebbe, alla fine, fatta letteralmente a pezzi. Il valore da considerare è w ossia il rapporto tra la pressione dell’energia oscura e la sua densità. Se w < −1 l’universo non ha scampo. Oltrepassata la “barriera fantasma” l’universo verrà fatto a pezzi. Il tasso di espansione dell’universo diventa così grande che in 22 miliardi di anni gli oggetti cominceranno a cadere letteralmente a pezzi.

“E’ possibile, ma non è molto probabile, che la viscosità potrebbe spiegare del tutto l’accelerazione che è stata attribuita all’ energia oscura”, ha spiegato Disconzi. “È più probabile che una frazione significativa dell’accelerazione potrebbe essere dovuto a questa causa più prosaica. Come risultato, la viscosità può agire come un importante vincolo sulle proprietà che l’energia oscura deve necessariamente avere “. Nella formulazione Desconzi-Kephart-Scherrer, tuttavia, questa barriera fantasma non esiste. Si fornisce infatti una soluzione all’equazione di stato al di sotto -1 permettendo di ipotizzare mediante la costruzione di modelli cosa potrebbe accadere.

Ovviamente questa non è l’unica ipotesi sugli ultimi minuti dell’Universo – leggetevi Paul Davies se siete interessati. Vi dico solo che esiste un’ipotesi simmetrica al Big bang, il Big Crunch, secondo cui l’Universo si contrarrebbe, e tutta la materia e l’energia verrebbero compresse in una singolarità gravitazionale. Altrettanto nota è l’ipotesi del Big Bounce, letteralmente “Grande Rimbalzo” o universo oscillante, una teoria cosmologica elaborata dal fisico Martin Bojowald, esperto di gravità quantistica, e dal suo team della Pennsylvania State University, che è stata pubblicata nel luglio 2007 su Nature Phisics online. Naturalmente ce ne sono altre. Beh, noi certo non ci saremo durante gli ultimi tre minuti.

Paper: Marcelo M. Disconzi, New approach to cosmological bulk viscosity, in Phys. Rev. D 91, 043532 –2015: http://journals.aps.org/prd/abstract/10.1103/PhysRevD.91.043532

Bojowald Martin, Prima del Big Bang. Storia completa dell’Universo, Bompiani, 2011

Goldhaber, G. and Perlmutter, S, A study of 42 type Ia supernovae and a resulting measurement of Omega(M) and Omega(Lambda), in Physics Reports -Review section of Physics Letters 307 (1-4): 325-331,1998.

Fonte:http://news.vanderbilt.edu/2015/06/new-model-of-cosmic-stickiness-favors-%E2%80%9Cbig-rip%E2%80%9D-demise-of-universe/

Le Stregatto Quantistico e l'ontologia delle proprietà

cheshire cat

Il gatto del Cheshire. Immagine tratta dal romanzo di Lewis Carroll, Alice nel paese delle meraviglie.

“È la cosa più curiosa che abbia mai visto prima!”, pensò Alice quando vide un gatto del Cheshire scomparire lasciando dietro di sé solo il suo sorriso. Con queste parole Lewis Carroll descrive l’evanescente gatto. L’episodio ha sollevato un vero e proprio rompicapo per fisici e filosofi: in che modo un oggetto può essere separato dalle sue proprietà? I fotoni sono “oggetti” nello stesso senso in cui lo sono sedie e gatti? Continua a leggere

Il Large Hadron Collider e la "nuova fisica"

A scientist looks at a section of the Large Hadron Collider (LHC) which was used to prove the existence of the Higgs Boson—also

Un ingegnere al CERN (crediti: Cern).

 Mercoledì dal CERN è arrivato l’annuncio. Siamo ufficialmente in una nuova era per la fisica fondamentale, in cui si auspica la risoluzione di alcuni misteri dell’universo. Il Large Hadron Collider (LHC), il più potente acceleratore di particelle al mondo, ha ripreso a funzionare dopo oltre due anni di interruzione e, stando ai comunicati stampa e a quanto si legge sui giornali, ne vedremo delle belle. Ma quanti sanno di cosa stiamo parlando?

Continua a leggere