Ad
Ad
Ad
Tag

fisica

Browsing

A GIORGIO PARISI IL PRESTIGIOSO WOLF PRIZE PER LA FISICA 2021

Il fisico teorico Giorgio Parisi, ricercatore dell’INFN Istituto Nazionale di Fisica Nucleare, professore alla Sapienza Università di Roma e Presidente dell’Accademia Nazionale dei Lincei, è stato insignito del prestigioso Wolf Prize per la fisica 2021 “per le sue scoperte pionieristiche nella teoria quantistica dei campi, in meccanica statistica e nei sistemi complessi”.

Giorgio Parisi Wolf Prize 2021
Giorgio Parisi, vincitore del Wolf Prize per la Fisica 2021

“Sono estremamente contento e onorato per aver ricevuto questo premio prestigioso, – commenta Giorgio Parisi – non solo per essere stato inserito in una compagnia molto prestigiosa, nella quale ritrovo molti amici, ma anche per essere stato messo in relazione diretta con Riccardo Wolf, persona che ammiro moltissimo per le sue capacità scientifiche e il grande impegno civile”. “Il merito di questo premio va anche a tantissimi collaboratori che ho avuto, con i quali ci siamo divertiti nel cercare di svelare quelli che una volta si chiamavano i ‘misteri della natura’”. Conclude Parisi.

“Il premio assegnato a Giorgio Parisi è motivo di orgoglio per tutta la Comunità della Sapienza – dichiara la rettrice Antonella Polimeni – e sono lieta di esprimere le mie più fervide congratulazioni  per questo ulteriore prestigioso tassello nel percorso di un’eccellenza della ricerca italiana”.

Il Wolf Prize è stato istituito dalla Fondazione Wolf di Israele nel 1978 come riconoscimento per gli scienziati e gli artisti che hanno prodotto “risultati nell’interesse dell’umanità e relazioni amichevoli tra le persone, indipendentemente dalla nazionalità, razza, colore, religione, sesso o opinioni politiche”. Tra coloro che hanno vinto il Wolf Prize in fisica vi sono Giuseppe Occhialini, Bruno Rossi, Riccardo Giacconi, Leon Lederman, Roger Penrose, Stephen Hawking, Peter Higgs, per citare solo alcuni degli scienziati più noti.

Giorgio Parisi Wolf Prize 2021
Giorgio Parisi, vincitore del Wolf Prize per la Fisica 2021

Giorgio Parisi è professore ordinario di Fisica Teorica alla Sapienza Università di Roma, ricercatore associato all’INFN Istituto Nazionale di Fisica Nucleare e dal 2018 Presidente dell’Accademia dei Lincei. Nato a Roma nel 1948, Parisi ha completato i suoi studi alla Sapienza Università di Roma dove si è laureato in fisica nel 1970 sotto la guida di Nicola Cabibbo. Ha iniziato la sua carriera scientifica ai Laboratori Nazionali di Frascati dell’INFN, prima come membro del CNR (1971-1973) e successivamente come ricercatore dell’INFN (1973-1981). Durante questo periodo ha trascorso lunghi soggiorni all’estero, prima alla Columbia University di New York (1973-1974), all’Institut des Hautes Etudes Scientifiques a Bures-sur-Yvettes (1976-1977), all’Ecole Normale Superieure di Parigi (1977-1978). Nella sua carriera scientifica, Giorgio Parisi ha dato molti contributi determinanti e ampiamente riconosciuti in diverse aree della fisica: in fisica delle particelle, meccanica statistica, fluidodinamica, materia condensata, supercomputer. Ha, inoltre, scritto articoli su reti neurali, sistema immunitario e movimento di gruppi di animali. È stato vincitore di due advanced grant dell’ERC European Reasearch Council, nel 2010 e nel 2016, ed è autore di oltre seicento articoli e contributi a conferenze scientifiche e di quattro libri. Le sue opere sono molto conosciute.

Riconoscimenti. Nel 1992 gli è stata conferita la Medaglia Boltzmann (assegnata ogni tre anni dalla IUPAP International Union of Pure and Applied Physics per nuovi risultati in termodinamica e meccanica statistica) per i suoi contributi alla teoria dei sistemi disordinati, e la Medaglia Max Planck nel 2011, dalla società tedesca di fisica Deutsche Physikalische Gesellschaft. Ha ricevuto i premi Feltrinelli per la Fisica nel 1987, Italgas nel 1993, la Medaglia Dirac per la fisica teorica nel 1999, il premio del Primo Ministro italiano nel 2002, Enrico Fermi nel 2003, Dannie Heineman nel 2005, Nonino nel 2005, Galileo nel 2006, Microsoft nel 2007, Lagrange nel 2009, Vittorio De Sica nel 2011, Prix des Trois Physiciens nel 2012, il Nature Award Mentoring in Science nel 2013, High Energy and Particle Physics dell’EPS European Physical Society nel 2015, Lars Onsager dell’APS American Physical Society nel 2016. È membro dell’Accademia dei Quaranta, dell’Académie des Sciences, dell’Accademia Nazionale delle Scienze degli Stati Uniti, dell’Accademia Europea, dell’Academia Europea e dell’American Philosophical Society.

Testo e immagini dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Futuro Remoto 2020 – XXXIV edizione – Pianeta, tra cambiamenti epocali e sfide globali

La ricerca scientifica e tecnologica rappresenta un punto cardine con cui preservare e migliorare il benessere dell’uomo, degli animali e dell’ambiente. Il suo ruolo indiscusso non è sempre in connessione con i cittadini, a discapito di un sapere scientifico che dovrebbe essere accessibile a tutti, soprattutto in un momento storico nel quale le informazioni scorrono in maniera disordinata e rapida, distorcendo spesso la realtà. Quest’anno più di qualsiasi altro ci ha dimostrato uno degli effetti dei cambiamenti che il Pianeta Terra sta subendo, ovvero la pandemia da Covid-19, un fenomeno altamente ripetibile in futuro.

Mostra Missione Antartide alla XXXIV edizione di Futuro Remoto

Futuro Remoto, giunto alla XXXIV edizione, ha come filo conduttore quello di creare una rete di conoscenze tra scienza e pubblico, con più di 300 eventi in programma, tra mostre, rubriche speciali ed incontri internazionali in streaming per discutere dei cambiamenti climatici, della salute del Pianeta e della pandemia da Covid-19. Il festival è promosso da Città della Scienza di Napoli, con il sostegno della Regione Campania, la co-organizzazione delle sette Università della Campania e la collaborazione dell’Istituto Nazionale di Astrofisica-Inaf, del Consiglio Nazionale delle Ricerche-CNR, del Programma Nazionale di Ricerca in Antartide, dell’Ambasciata italiana in Messico, del consolato Generale Usa di Napoli e dell’Unione Industriali di Napoli.

Futuro Remoto XXXIV edizione
La locandina della XXXIV edizione di Futuro Remoto

 

L’evento inaugurale tenutosi il 20 Novembre ha dato inizio, a pieno ritmo, al festival con una diretta tenuta da Riccardo Villari, Presidente Fondazione IDIS – Città della Scienza, che introduce il saluto del Ministro MIUR Gaetano Manfredi e di Valeria Fascione, assessore alla ricerca, innovazione e startup della Regione Campania, i quali ricordano lo spirito di Futuro Remoto come luogo dove far crescere la cultura nella collettività con l’incontro tra scienza e pubblico.

 

Città della Scienza propone da anni il festival come una realtà che possa trasferire il sapere e la conoscenza scientifica ai cittadini, creando una vetrina per la ricerca, affinché si abbia una maggiore consapevolezza sulla salute dell’uomo e, in questo caso, del Pianeta Terra.

È seguito il talk introdotto da Luigi Nicolais – Coordinatore CTS Fondazione IDIS – Città della Scienza – e moderato da Luca Carra – direttore di Scienzainrete – in cui sono intervenuti illustri studiosi. Da Piero Genovesi, zoologo, ecologo specializzato in biodiversità a Filippo Giorgi, fisico e climatologo parte del Gruppo intergovernativo sul cambiamento climatico (IPPC). Sono intervenuti poi Roberto Danovaro, ecologo e biologo marino presidente della Stazione zoologica Anton Dohrn, Patrizia Caraveo, astrofisica la quale mette in risalto il tema dell’inquinamento luminoso, e Paolo Vineis, medico epidemiologo e docente all’Imperial College di Londra in salute globale. Egli risponde al tema dell’emergenza ambientale come fattore influente sulla salute dell’uomo insieme alle diseguaglianze sociali.

Al termine dell’inaugurazione, sono intervenuti i rettori delle Università della Campania insieme a Marcella Marconi – Direttore Osservatorio Astronomico di Capodimonte, Luisa Franzese – Ufficio scolastico regionale per la Campania e Massimo Inguscio – Presidente CNR.

 

La settimana successiva è iniziata ancor più a pieno ritmo, con nomi noti al grande pubblico, come Ilaria Capua. La virologa di fama mondiale per gli studi sull’influenza aviaria e i dibattiti riguardo la scienza open-source, ha partecipato alla live moderata da Luca Carra, discutendo su approcci atti a migliorare le metodiche con cui affrontare eventi tra cui quelli pandemici. Durante il talk si sono proposti temi contenuti del suo libro “Salute circolare: una rivoluzione necessaria”, come l’importanza dell’interdisciplinarietà nella ricerca scientifica utile a creare equilibri nuovi e virtuosi rendendola più sostenibile e convergente. Il concetto di salute è da considerare come un punto di connessione tra uomo, animali ed ambiente e le conoscenze trasversali virando l’approccio verticale alla complessità dei problemi.

Nel pomeriggio di Lunedì 23 è seguito un talk di approfondimento a ricordi dei 40 anni dal terremoto dell’Irpinia-Lucania, uno dei più forti che si ricordino in Italia. Giorgio Della Via a moderare insieme a Maddalena De Lucia, addetta alla divulgazione presso l’Osservatorio vesuviano, hanno introdotto gli argomenti trattati ed i relatori, i quali si sono tutti trovati a vivere in prima persona il fenomeno sismico ed in un secondo momento a studiarlo. Mario Castellano, dirigente tecnologo dell’Osservatorio Vesuviano sezione Napoli dell’ INGV, Girolamo Milano, ricercatore geofisico dell’Osservatorio Vesuviano e Giuliana Alessio, ricercatore presso l’Istituto nazionale di Geofisica e Vulcanologia, hanno raccontato il tipo di sisma, come fu studiato, le cause e gli aspetti tecnici del terremoto dell’Irpinia. La rete sismica del Meridione era composta da una serie di stazioni il cui numero fu ampliato sul territorio per aumentare le informazioni da raccogliere ed analizzare meglio il fenomeno anche ai finiti studi successivi riguardo la dinamica sismica. Il terremoto del 1980 è stato un momenti di svolta per capire i meccanismi alla base e per confermare, il termini di prevenzione, l’aspetto edile come unica chiave per limitare i danni.

 

Nella mattina di Martedì 24 si è tenuta una live molto interessante, dal titolo “Istruzione, Ricerca e Medicina in Africa” durante la quale sono intervenuti Pasquale Maffia, professore associato in immunologia presso l’Università degli Studi di Napoli Federico II, Mayowa Ojo Owolabi, Preside della Facoltà di Medicina di Ibadan in Nigeria, Ntobeko Ntusi, Preside della Facoltà di Medicina presso l’Università di Cape Town e Wilson Mandala Oda, Professore alla Malawi University of Science and Technology e al College of Medicina dell’Università del Malawi. Si è discusso sul tema pandemia da Covid-19 in Africa, su come è stata affrontata e sul suo andamento in associazione ad un approccio più precario riguardo le campagna di vaccinazione, oltre all’importanza dell’istruzione e dell’università nella risoluzione di problematiche sanitarie, ricerca scientifica e medicina.

Per giovedì 26 gli appuntamenti sono stati tanti, tra cui alle ore 15:00 un talk dal titolo “+Innovation +Green +Future. Tecnologie digitali e processi Industriali Virtuosi di sostenibilità ambientale”. Luigi Nicolais introduce Riccardo Villari, Presidente della Fondazione IDIS, Valeria Fascione, assessore alla ricerca, innovazione e startup della Regione Campania e Maurizio Manfellotto, presidente Unioni Industriali Napoli, i quali hanno riflettuto sul tema della sostenibilità con un richiamo all’assetto politico e sociale che la gestisce.

Il primo intervento è stato di Reimung Neugebauer, Presidente del Fraunhofer – Gesellschaft, la più grande organizzazione di ricerca applicata in Europa. Illustrata la diffusione dei centri in Europa ed in Italia, tra cui con l’Università degli studi di Napoli Federico II, e l’aspetto strategico ed economico del “Fraunhofer model”. Si è sottolineato come sia fondamentale realizzare la sostenibilità e mirare a creare strategie innovative per raggiungere quest’obiettivo, coinvolgendo le industrie.

A seguire Pietro Palatino, Presidente di MediTech Competence Centre I4.0, che ha richiamato il concetto di economia circolare applicata all’industria. Sono intervenuti anche Marco Zigon, Presidente di GETRA, azienda che appartiene alla filiera di produzione e distribuzione dell’energia elettrica; Massimo Moschini, Presidente e Amministratore Delegato Laminazione Sottile e Maria Cristina Piovesana, Vicepresidente Confindustria per l’Ambiente, la Sostenibilità e la Cultura.

Nel pomeriggio di Giovedì 26, un altro appuntamento ha visto come protagonista Barbara Gallavotti, biologa ed autrice di programmi come SuperQuark e Ulisse. La giornalista scientifica ha discusso la paura che l’uomo ha di non poter controllare la scienza, insieme a Giulio Sandini, bioingegnere dell’IIT, a Claudio Franceschi, immunologo dell’Istituto di Scienze Neurologiche di Bologna, a Maurizio Mori, professore di bioetica presso l’Università di Torino e a Gennaro Carillo, filosofo dell’Università SuorOrsola Benincasa di Napoli.

Nella live del titolo “Da Frankenstein al futuro”, la Gallavotti ha raccontato di Mary Shelley e di Frankestein, un corpo che da vita alla paura che la scienza non sia sotto il controllo dell’uomo. Nel talk si è affrontato in maniera interdisciplinare come queste paure siano traslate alla nostra epoca ed al futuro, toccando punto come l’aspettativa di vita, la trasmissione della vita umana ed il non adattamento dell’uomo al mondo.

A cornice dei vari eventi, Venerdì 20, Domenica 22, Lunedì 23, Mercoledì 25 e Sabato 28 il pirata Barbascura X ha tenuto live con ospiti importanti, tutte visionabili sul suo canale Twitch o su YouTube.

Tanti altri eventi si sono articolati in rubriche speciali, mostre virtuali, laboratori virtuali e talk, disponibili sulla pagina Facebook o sul canale YouTube.

Lidar e rifugio, foto dalla mostra Missione Antartide alla XXXIV edizione di Futuro Remoto. Foto copyright B. Healey, ESA, IPEV, PNRA

 

Si ringrazia Futuro Remoto – Città della Scienza per le foto.

Un team di ricercatori del Dipartimento di Fisica della Sapienza Università di Roma, dell’Istituto dei Sistemi Complessi del CNR e dell’Università Cattolica di Roma ha sviluppato un sistema di intelligenza artificiale che, inglobando il tumore in una rete neurale, è capace di monitorare il metabolismo e la crescita delle cellule cancerose e, in maniera del tutto non invasiva, gli effetti delle chemioterapie. I risultati del lavoro sono stati pubblicati sulla rivista Communications Physics

reti neurali cancro
La figura mostra l’evoluzione temporale del campione tumorale usato nella rete ottica

L’intelligenza artificiale sta cambiando non solo molti aspetti della vita quotidiana, ma anche il modo di “fare scienza”, stimolando nuovi esperimenti e suggerendo strade di ricerca finora inesplorate.

Così i sistemi di intelligenza artificiale diventano sempre più avveniristici, interdisciplinari e neuromorfici (ovvero simili ai sistemi viventi) e trovano applicazione nei più disparati settori, come l’elettronica, l’informatica, la simulazione e le diverse branche della medicina. I nuovi modelli sono sviluppati per imitare il cervello umano, sia nel funzionamento, con un consumo di energia molto ridotto per l’apprendimento, sia nella struttura, utilizzando materiali biologici.

Il team di ricercatori coordinato da Claudio Conti del Dipartimento di Fisica della Sapienza e Direttore dell’Istituto dei sistemi complessi del CNR, in collaborazione con Massimiliano Papi della Università Cattolica del Sacro Cuore di Roma, ha realizzato una rete neurale ottica che ingloba al suo interno delle cellule tumorali viventi che crescono e si moltiplicano nel tempo. Si tratta di un dispositivo ibrido, formato da tessuti viventi e parti fisiche, come lenti, specchi e computer tradizionali, che evolve nel tempo e può essere addestrato per fornire informazioni sulle cellule tumorali, il loro metabolismo e l’effetto di chemioterapia e altri trattamenti.

Nello studio, sviluppato nell’ambito del progetto PRIN “PELM: Photonic Extreme Learning Machine” e pubblicato sulla rivista Communications Physics, i ricercatori hanno utilizzato cellule tumorali di glioblastoma, un tumore gravissimo del cervello, che sono state inserite nel dispositivo ottico. Fasci laser sono stati opportunamente addestrati per attraversare le cellule tumorali, che si comportano come dei nodi di una rete neurale. A questo punto il sistema di intelligenza artificiale, agisce come una vera e propria rete neurale biologica, memorizza ed elabora i dati e successivamente codifica le informazioni contenute nella luce estratta dalle cellule tumorali.

reti neurali cancro
Lo schema della rete neurale ottica usata negli esperimenti

Ma non solo, la rete neurale vivente può riconoscere gli stimoli esterni e reagire ai cambiamenti: aggiungendo alcune dosi di farmaci chemioterapici i ricercatori hanno dimostrato la capacità del modello di calcolare l’efficacia della terapia contro il glioblastoma.

La rete neurale, opportunamente addestrata, evidenzia infatti cambiamenti nel tumore non rivelabili con i metodi tradizionali, come la microscopia o le tecniche fisico-chimiche, e inoltre fornisce nuove informazioni sulla dinamica dell’evoluzione temporale e sugli effetti della temperatura, prima ottenibili solo attraverso tagli o modifiche invasive ai campioni tumorali. Il potenziale di tale tecnica sta nelle importanti ricadute applicative nel campo delle nuove tecnologie impiegate nella cura del cancro e in particolare nella nanomedicina.

“Si tratta di un’applicazione originale e innovativa dei nuovi concetti di Deep Learning alla fisica – spiega Claudio Conti. L’idea è che possiamo usare questi modelli matematici non solo per fare operazioni semplici come il riconoscimento delle immagini, ma anche fare esperimenti decisamente non convenzionali, che sfruttano la fisica e la biofisica con un approccio interdisciplinare”.

Riferimenti:

Living optical random neural network with three dimensional tumor spheroids for cancer morphodynamics – D.Pierangeli, V.Palmieri, G.Marcucci, C.Moriconi, G.Perini, M.DeSpirito, M.Papi, C.Conti – Communications Physics (2020) DOI: https://doi.org/10.1038/s42005-020-00428-9

 

Testo e immagini dalla Sapienza Università di Roma

ASTROFISICI SCOPRONO CHE IL “MODELLO UNIFICATO”

DELLE GALASSIE ATTIVE NON È COMPLETAMENTE VERIFICATO 

I risultati del lavoro del team internazionale guidato dal prof. Francesco Massaro di UniTo rilanciano l’eterno dibattito tra Mendel e Darwin per le radio galassie e gli oggetti di tipo BL Lac

La galassia attiva Hercules A: foto Hubble Telescope sovrapposta all’immagine radio del Very Large Array (VLA). Foto Credits: NASA, ESA, S. Baum and C. O’Dea (RIT), R. Perley and W. Cotton (NRAO/AUI/NSF), and the Hubble Heritage Team (STScI/AURA)  – http://www.spacetelescope.org/images/opo1247a/, CC BY 3.0

Un gruppo internazionale di astrofisici italiani guidato dal Prof. Francesco Massaro del Dipartimento di Fisica dell’Università degli Studi di Torino, associato sia all’Istituto Nazionale di Astrofisica che all’Istituto Nazionale di Fisica Nucleare, ha dimostrato – in un articolo pubblicato dalla rivista internazionale Astrophysical Journal Letters  che le previsioni del modello unificato delle galassie attive, per una particolare classe di sorgenti conosciute come oggetti di tipo BL Lac, non sono verificate.

Immagine ottica di BL Lac PKS 2155-304. Foto di Rfalomo – [1], in pubblico dominio
Nel nostro Universo esistono galassie denominate “attive” perché presentano un nucleo almeno cento volte più brillante dei miliardi di stelle che le costituiscono. Per oltre 30 anni, gli astrofisici avevano pensato che le differenze osservate tra le diverse classi di galassie attive fossero da imputare, in prevalenza, a un solo unico parametro: l’orientazione della struttura interna rispetto alla linea di vista. In accordo con quello che viene definito il modello unificato, tutte le galassie attive sarebbero “geneticamente” simili e l’angolo rispetto alla linea di vista l’unico parametro che le fa apparire diverse.

“Se il modello unificato è, almeno all’ordine zero, corretto – spiega il Prof. Massaro –, l’ambiente su grande scala dove la galassia attiva si trova è una proprietà che non dipende da come la si guarda. Quindi oggetti che possono apparire con diverse proprietà osservate perché semplicemente visti con una diversa inclinazione, se intrinsecamente uguali, dovranno risiedere in un ambiente che ha le stesse caratteristiche”.

Questo è proprio il caso delle radio galassie di tipo FRI, considerate sorgenti intrinsecamente uguali agli oggetti di tipo BL Lac. I loro getti di plasma si espandono ben al di fuori della loro galassia ospite su scale dei milioni di anni luce. In accordo con il modello unificato si è sempre pensato che una radio galassia di tipo FRI il cui getto puntasse in direzione della Terra corrispondesse a una sorgente classificabile come BL Lac. Il Prof. Massaro e il suo team internazionale hanno invece mostrato che l’ambiente in cui risiedono BL Lac e radio galassie FRI è estremamente diverso e pertanto le due classi di sorgenti non sono assimilabili.

“Ma il lavoro non è finito qui – aggiunge il Dott. Alessandro Capetti dell’Osservatorio Astrofisico di Torino anch’egli autore dell’articolo – il nostro studio ci ha anche permesso di dimostrare che gli oggetti di tipo BL Lac sembrano essere intrinsecamente simili a una classe differente di radio galassie, estremamente compatte, i cui getti non sono così estesi da essere visti in banda radio su scale ben al di fuori della galassia ospite”.

“Siamo estremamente soddisfatti dei risultati ottenuti e continueremo su questa linea di ricerca – continua il Prof. Massaro –, stiamo infatti cercando di dare una risposta definitiva al quesito sulle proprietà osservate nelle radio sorgenti e alla loro evoluzione, se dipendano dall’ambiente su grande scale in cui nascono, vivono e muoiono oppure se parametri intrinseci, come l’angolo rispetto alla linea di vista, siano sufficienti a caratterizzarle. Un po’ come il dibattito tra Darwin e Mendel visto in ambito astrofisico dove al momento le opinioni del primo sembrano prevalere”.

Hanno contribuito all’analisi e alla stesura del lavoro il Dott. R. D. Baldi dell’Istituto di Radio Astronomia, il Dott. R. Campana dell’Osservatorio di Astrofisica e Scienza dello Spazio di Bologna e il Dott. I. Pillitteri dell’Osservatorio Astronomico di Palermo, tutte sedi dell’Istituto Nazionale di Astrofisica, e infine il Dott. A. Paggi, dell’Università degli studi di Torino e il Dott. A. Tramacere dell’Università di Ginevra. La ricerca, portata avanti in questi anni, è stata finanziata dalla Compagnia di San Paolo e dal Consorzio Interuniversitario per la fisica Spaziale (CIFS) ed è stata realizzata nell’ambito del finanziamento relativo ai “Dipartimenti di Eccellenza 2018 – 2022” del MIUR (L. 232/2016) ricevuto dal Dipartimento di Fisica dell’Università degli studi di Torino.


Testo e immagini dall’Ufficio Stampa dell’Università degli Studi di Torino

Tra i risultati presentati all’ultima conferenza ICHEP (40th ICHEP conference), spicca l’annuncio di due esperimenti del CERN, ATLASCMS di nuove misure che mostrano il decadimento del bosone di Higgs in due muoni. Il muone è una copia più  pesante dell’elettrone, una delle particelle elementari che costituiscono la materia dell’Universo. Gli elettroni sono classificati come particelle di prima generazione mentre i muoni appartengono alla seconda generazione.

decadimento bosone di Higgs CERN CMS ATLAS Roberto Carlin
Il decadimento del bosone di Higgs in due muoni, così come registrato dai due esperimenti CERN, CMS (a sinistra) e ATLAS (destra). Immagine: CERN

Il processo di decadimento del bosone di Higgs in muoni, secondo la teoria del Modello Standard, è molto raro (un bosone di Higgs su 5000 decade in muoni). Questi risultati sono molto importanti dal momento che indicano per la prima volta che il bosone di Higgs interagisce con particelle elementari della seconda generazione.

Abbiamo intervistato Roberto Carlin, ricercatore dell’INFN e professore dell’Università di Padova che attualmente è il portavoce dell’esperimento CMS (Compact Muon Solenoid) e gli abbiamo posto alcune domande su questo annuncio e sul prossimo futuro dell’esperimento CMS.

 

Un decadimento molto raro del bosone di Higgs al CERN

Recentemente la collaborazione CMS ha annunciato i rilevamenti di un decadimento molto raro del bosone di H –> mumu. Per quale motivo è così importante questa misura?

La materia di cui siamo fatti è formata da elettroni e quark di tipo “up” e “down”, i costituenti dei protoni e dei neutroni. Queste sono le particelle della cosiddetta “prima generazione”. Esistono particelle con massa più grande che compaiono nelle interazioni ad alte energie, e sono instabili, decadendo alla fine nelle particelle più leggere: il muone appunto, una specie di elettrone duecento volte più pesante, che con i quark “strange” e “charm” costituiscono la seconda generazione.

Ne esiste una terza, ancora più pesante, con il tau ed i due quark bottom e top. Sappiamo che è così ma non sappiamo perché. Non sappiamo perché ci siano tre famiglie e perché abbiano masse così diverse. Il quark top, la particella più pesante che conosciamo, ha una massa poco più di 170 volte quella di un atomo di idrogeno e circa 350 mila volte quella di un elettrone.

Però sappiamo che nel Modello Standard, l’attuale teoria che descrive le particelle elementari e le loro interazioni, la massa delle particelle è generata dalla loro interazione con il campo di Higgs. Quindi studiare l’accoppiamento delle particelle con il bosone di Higgs significa studiare il meccanismo che fornisce loro la massa, e potrebbe gettare luce sulle ragioni di tanta diversità.

Dalla terza generazione alla seconda

Finora, dopo la scoperta del bosone di Higgs che data al 2012, si sono studiati i suoi accoppiamenti con le particelle pesanti, di terza generazione: tau, top, bottom (oltre che quelli con i bosoni vettori più pesanti, W e Z, particelle che mediano la forza elettro-debole). E il motivo è chiaro, più pesante la particella, più grande è l’accoppiamento con il bosone di Higgs, e quindi più facile misurarlo. Con questa nuova misura per la prima volta abbiamo avuto indicazioni sull’accoppiamento con i muoni, particelle della seconda generazione, più leggere, ottenendo risultati in accordo, entro le incertezze sperimentali, con le previsioni del Modello Standard.

Una misura molto difficile, solo un bosone di Higgs su 5000 decade in una coppia di muoni, mentre più della metà delle volte decade in una coppia di quark bottom. Il risultato è molto importante e niente affatto scontato: a priori il meccanismo che fornisce massa alle particelle di diversa generazione potrebbe essere più complesso coinvolgendo, per esempio, diversi bosoni di Higgs.

Peter Ware Higgs, insignito del Nobel della Fisica nel 2013, predisse negli anni ’60 l’esistenza del bosone che oggi ne porta il nome. Oggi con l’esperimento CMS del CERN, si rileva un raro decadimento del bosone di Higgs in due muoni. Foto Flickr di Bengt Nyman, CC BY 2.0

Evidenza o Scoperta?

Nell’annuncio si sottolinea che la significatività è di “soli” 3 sigma. Ci potrebbe spiegare per quale motivo 3 sigma non sono sufficienti e quando si pensa di raggiungere la soglia dei 5 sigma?

Intanto direi “già” 3 sigma, non “soli”. Perché una misura di questa significatività non era attesa così presto, ci si aspettava di arrivarci utilizzando anche i dati del “Run 3”, previsto tra il 2022 ed il 2024. Invece la gran mole dei dati forniti negli anni passati da LHC, la grande efficienza e qualità della rivelazione e ricostruzione di muoni in CMS, e l’impiego di strumenti di deep learning, ovvero le tecniche sviluppate nel campo dell’intelligenza artificiale, hanno permesso questo eccellente risultato. Il problema di questa misura è che non solo il segnale è molto raro, abbiamo detto che solo un bosone di Higgs su 5000 decade in due muoni, ma anche che esistono processi diversi che possono imitare il segnale cercato (eventi di fondo), e questi sono migliaia di volte più frequenti del segnale.

Una significatività di 3 sigma viene chiamata “evidenza” e significa che, in assenza di segnale, fluttuazioni degli eventi di fondo potrebbero generare un contributo simile a quanto osservato (e quindi un falso segnale) una volta su 700. Una probabilità piccola ma non piccolissima. Lo standard che ci siamo dati per una “osservazione”, al di là di ogni ragionevole dubbio, è di 5 sigma, che rappresenta una probabilità di una volta su qualche milione.

Per arrivare ciò serviranno circa il triplo dei dati attualmente disponibili. Speriamo che il Run 3 ci darà tanto, contiamo almeno di raddoppiare i dati, anche se siamo abituati a risultati migliori dell’atteso. In ogni caso una combinazione dei risultati di ATLAS e CMS alla fine Run 3 dovrebbe permetterci di arrivare a questa nuova soglia.

Una conferma del Modello Standard

Ci sono stati casi di misure a 3 sigma che poi, con l’aumentare del campione di indagine, si sono rivelate semplici fluttuazioni statistiche?

Certamente. Abbiamo detto che con 3 sigma si parla di probabilità pari una volta su 700. Poiché in questi esperimenti facciamo molte misure diverse (CMS ha recentemente celebrato i 1000 articoli scientifici), simili fluttuazioni accadono. Nel caso una fluttuazione di 3 sigma punti a un fenomeno nuovo, inaspettato, siamo perciò molto cauti. Qui si tratta di una misura, molto importante, che conferma entro le incertezze sperimentali quanto previsto dal Modello standard, il risultato inaspettato sarebbe stato la mancanza del segnale, non la sua presenza.

Muon Collider

Se questa scoperta venisse confermata, avremmo una conferma sperimentale dell’accoppiamento del bosone H con leptoni della seconda famiglia. Questa potrebbe avere influenza per lo sviluppo di un acceleratore basato sullo scontro di muoni invece che elettroni?

Queste prime misure indicano che l’accoppiamento del bosone di Higgs con i muoni è compatibile con quello atteso. In questo caso, assumendo valido il Modello Standard, la probabilità di produrre direttamente (in modo risonante) bosoni di Higgs in un collisore di muoni sarebbe circa 40 mila volte maggiore di quella, troppo piccola, che si avrebbe in un collisore di elettroni, e questo renderebbe possibile misurare alcune quantità, come la massa del bosone di Higgs, con altissima precisione.

Aggiornamento del rivelatore CMS

L’acceleratore LHC (Large Hadron Collider) dovrebbe ripartire tra qualche mese, dopo un anno di riposo. Che miglioramenti sono stati apportati al rivelatore CMS in questo periodo?

Il numero di miglioramenti è molto grande. Tra questi, l’elettronica del rivelatore di vertice, il più preciso e vicino al punto di interazione, sta ricevendo vari aggiornamenti approfittando della necessità programmata di rimpiazzarne lo strato interno, il più soggetto a danneggiamenti da radiazioni. Anche l’elettronica del calorimetro per adroni è stata completamente sostituita, aumentandone significativamente le prestazioni.

Inoltre, abbiamo cominciato a installare rivelatori che sono previsti nel piano di aggiornamento per il futuro “High-Luminosity LHC”. In particolare due dischi di rivelatori di muoni basati sulla nuova tecnologia GEM (Gas Electron Multiplier). Avremo quindi un rivelatore ancora migliore, adatto a gestire in maniera ottimale l’alta intensità di collisioni tra protoni che LHC si prepara a fornire (anche lo stesso LHC ha significativi aggiornamenti in questo periodo).

L’impatto del COVID-19

L’emergenza COVID-19 ha costretto università ed enti di ricerca a nuove forme di lavoro a distanza. Vi sono state conseguenze, come ritardi nella programmazione della ripartenza di LHC o negli aggiornamenti al rivelatore?

CMS è una grande collaborazione internazionale, con istituti da 55 paesi di tutto il mondo, e siamo quindi già abituati a lavorare in rete. Praticamente tutti i nostri meeting sono da anni in videoconferenza per facilitare l’accesso remoto. Quindi la transizione a una modalità di telelavoro per alcune  attività, in particolare l’analisi dei dati, è stata forse più facile che in altri contesti. Anche se con difficoltà innegabili, per esempio per persone che hanno dovuto gestire figli a casa. Naturalmente altre attività di aggiornamento dei rivelatori, previste in questo periodo, hanno subito dei ritardi a causa della chiusura del CERN.

Alla fine del lockdown il management degli esperimenti, degli acceleratori e del CERN si è riunito e abbiamo deciso un nuovo programma, che vede la ripresa di LHC ad inizio 2022 invece che a metà 2021. Siamo tuttavia riusciti a ottimizzare i periodi seguenti cosicché la quantità di dati prevista nel prossimo periodo prima della nuova chiusura nel 2025, prevista per installare il grande aggiornamento di “high lumi LHC”, non ne risentirà e ci consentirà di continuare il nostro vastissimo programma di studi, ottenendo sicuramente nuovi importanti risultati.

 

Articolo a cura di Silvia Giomi e Piero Paduano

L’Universo in cui viviamo ci è in gran parte ignoto. La materia di cui siamo fatti noi, i pianeti, le stelle e tutti gli oggetti che osserviamo – e quindi conosciamo – ne costituisce meno del 5%. La restante parte dell’Universo è energia oscura (70%) e materia oscura (25%). Quest’ultima è detta “oscura” poiché, non emettendo radiazione elettromagnetica, rimane invisibile ai nostri strumenti, ma la sua presenza si rivela per via degli effetti gravitazionali osservati.

La ricerca delle particelle di materia oscura è una sfida che coinvolge da anni la comunità scientifica che si cimenta in esperimenti di osservazione diretta (in laboratori sotterranei come CERN, LNGS) e indiretta (nello spazio).

Tra i metodi indiretti vi è quello che sfrutta il fenomeno della superradianza dei buchi neri, esplorato approfonditamente nell’articolo Black hole superradiant instability from ultralight spin-2 fields, pubblicato sulla rivista Physical Review Letters.

Tale metodo è estremamente interessante anche perché si inserisce nel contesto della LGQ (Loop Quantum Gravity), teoria che cerca di unificare la meccanica quantistica e la relatività generale.

Abbiamo il piacere e l’onore di parlarne con il professor Paolo Pani, associato in Fisica Teorica presso il Dipartimento di Fisica della Sapienza Università di Roma, tra i protagonisti dello studio.

instabilità per superradianza Paolo Pani buchi neri materia oscura
Il buco nero supermassiccio nel nucleo della galassia ellittica Messier 87 nella costellazione della Vergine. Si tratta della prima foto diretta di un buco nero, realizzata dal progetto internazionale Event Horizon Telescope. Foto modificata Event Horizon TelescopeCC BY 4.0

 

In cosa consiste l’instabilità per superradianza, e in che modo la sfruttate per la vostra indagine?

La superradianza è un fenomeno che avviene in molti sistemi fisici quando un’onda riflessa da un oggetto viene amplificata a scapito dell’energia dell’oggetto stesso. Questo avviene anche per un buco nero, che può amplificare le onde elettromagnetiche o gravitazionali che “sbattono” su di esso. L’energia in eccesso viene presa dalla velocità di rotazione dell’oggetto, che diminuisce.

L’instabilità per superradianza è un fenomeno collegato: se le particelle del campo elettromagnetico (fotoni) o del campo gravitazionale (gravitoni) avessero una seppur minuscola massa, la radiazione amplificata per superradianza rimarrebbe intrappolata vicino al buco nero, generando un effetto a cascata che rallenta il buco nero fino quasi a fermare completamente la sua rotazione.

In questo caso l’energia in eccesso viene emessa in onde gravitazionali la cui frequenza è direttamente collegata all’ipotetica massa del campo. Se queste particelle ultraleggere esistessero, quindi, non dovremmo osservare buchi neri rotanti e ciascun buco nero si comporterebbe come un “faro” di onde gravitazionali.

 

Il fenomeno della superradianza ha qualche connessione con la radiazione di Hawking?

Sì, si può dire che la superradianza è la controparte “classica” della radiazione di Hawking, che è invece un effetto “quantistico”. La superradianza richiede che il buco nero ruoti, mentre nel caso della radiazione di Hawking il buco nero può rimanere statico. In questo caso la radiazione viene emessa spontaneamente, a scapito della massa del buco nero.

 

Può spiegarci quali sono i vantaggi di aver esteso il fenomeno al caso di campo tensoriale rispetto allo scalare e al vettoriale?

Il caso di campo tensoriale è strettamente collegato ad alcune teorie che prevedono una massa minuscola per il gravitone, una proprietà che potrebbe risolvere il problema della costante cosmologica e dell’energia oscura responsabile dell’espansione accelerata dell’universo.

Inoltre, campi tensoriali ultraleggeri sono ottimi candidati per spiegare la materia oscura che sembra permeare il cosmo ma che finora non si è riusciti a misurare in laboratorio. Il nostro studio mostra che i segnali di onde gravitazionali presenti e futuri permettono di ricercare queste particelle anche quando la loro massa è troppo piccola per essere vista in esperimenti terrestri, come negli acceleratori di particelle.

 

I vostri risultati sono condizionati dalla scelta della metrica di Kerr?

Nella teoria della gravitazione di Einstein, la relatività generale, la metrica di Kerr è l’unica possibile per descrivere un buco nero astrofisico. Nelle teorie che menzionavo sopra, tuttavia, possono esistere altre soluzioni che descrivono buchi neri differenti.

Nel nostro studio abbiamo fatto l’ipotesi standard che i buchi neri siano descritti dalla metrica di Kerr. Scelte differenti renderebbero i calcoli più laboriosi ma ci aspettiamo che non modifichino sostanzialmente il risultato: in presenza di campi ultraleggeri tutti i buchi neri rotanti sono instabili per superradianza ed emettono onde gravitazionali.

 

Quali porte si stanno aprendo e/o quali si stanno chiudendo sulla ricerca della materia oscura?

Il problema della materia oscura è che sappiamo davvero poco su di essa, e quindi svariate speculazioni teoriche sono possibili. Nel corso dei decessi alcuni modelli teorici sono divenuti più popolari di altri, ma l’ultima parola ce l’ha sempre l’esperimento: finché non scopriremo tracce di materia oscura oltre quelle ben note, non sarà possibile distinguere diversi modelli.

Gli esperimenti attuali atti a ricercare uno dei candidati più promettenti (le cosidette WIMPS, weakly interacting massive particles) hanno raggiunto precisioni tali che possono quasi escludere questa ipotesi. Un altro candidato molto promettente sono gli assioni, che sono appunto particelle ultraleggere che producono l’instabilita’ di superradianza dei buchi neri.

Penso che la risposta al problema della materia oscura arriverà da esperimenti innovativi, o magari proprio dai buchi neri, tramite segnali inaspettati di onde gravitazionali.

 

 

Riferimenti allo studio su instabilità per superradianza, buchi neri, materia oscura:

Black Hole Superradiant Instability from Ultralight Spin-2 Fields – Richard Brito, Sara Grillo, and Paolo Pani – Phys. Rev. Lett. 124, 211101 – Published 27 May 2020 DOI:https://doi.org/10.1103/PhysRevLett.124.211101

L’esperimento NA62, installato nei laboratori del CERN di Ginevra, ha annunciato un importante risultato ottenuto dalla analisi dei dati raccolti fra il 2016 e il 2018, il ruolo degli scienziati perugini 

 

 

esperimento NA62
L’esperimento NA62 installato presso il CERN (immagine proveniente dalla pagina web: https://na62.web.cern.ch/Home/Home.html)

Nel tardo pomeriggio del 28 luglio 2020, in occasione della quarantesima edizione della International Conference on High Energy Physics (ICHEP), l’esperimento NA62, installato presso i laboratori del CERN di Ginevra, ha annunciato un importante risultato ottenuto dalla analisi dei dati raccolti fra il 2016 e il 2018. 

 L’esperimento NA62 è stato costruito con lo scopo di osservare il decadimento ultra-raro di un kaone carico in un pione carico e una coppia neutrino-antineutrino (K+ → p+ nn), e di misurare la probabilità che esso avvenga dato un generico decadimento del kaone carico. 

La teoria che descrive le interazioni fra particelle elementari, il cosiddetto Modello Standard, prevede che questo decadimento avvenga circa una volta ogni dieci miliardi di decadimenti del kaone carico. La misura della probabilità di decadimento da parte di NA62 può quindi fornire un test di precisione per il Modello Standard, con la possibilità di evidenziare effetti di Nuova Fisica, qualora il risultato della misura sia significativamente diverso dalla predizione teorica. 

L’esperimento NA62 ha annunciato di aver osservato, nei dati raccolti nel 2018, diciassette eventi compatibili con il decadimento cercato, che si aggiungono ai due eventi osservati nei dati 2017 e ad un evento osservato nei dati 2016. Ciò rappresenta la più alta statistica mai raccolta per l’osservazione di questo decadimento, che ha consentito all’esperimento NA62 di poter effettuare la misura più precisa mai realizzata per questa probabilità di decadimento, che risulta essere compatibile con quanto predetto dalla teoria, entro le incertezze sperimentali. 

L’esperimento continuerà a raccogliere dati a partire dal 2021, al fine di migliorare ulteriormente la precisione della misura. 

Alla Collaborazione NA62, che conta circa duecento ricercatori da tutto il mondo, partecipa anche un gruppo di ricercatori del Dipartimento di Fisica e Geologia dell’Università degli Studi di Perugia (referente: Prof.ssa Giuseppina Anzivino) e della sezione di Perugia dell’Istituto Nazionale di Fisica Nucleare (referente: Dott.ssa Monica Pepe). 

Il gruppo ha contribuito in maniera fondamentale a tale risultato, attraverso la partecipazione alla costruzione e al mantenimento di uno dei rivelatori chiave dell’esperimento, il RICH, e rivestendo un ruolo da protagonista nell’analisi dei dati che ha portato all’osservazione degli eventi, con due tesi di dottorato sul tema.

 

Testo e foto dall’Ufficio Stampa Università degli Studi di Perugia

Le forme dell’acqua

Un nuovo studio numerico, risultato di una collaborazione tra la Sapienza Università di Roma e la Princeton University, ha dimostrato per la prima volta l’esistenza di due diverse forme di acqua, ovvero di due distinte fasi liquide che a bassissime temperature si separano, galleggiando l’una sull’altra. Il lavoro, pubblicato sulla rivista Science, apre nuove strade alla comprensione dei misteri legati al liquido della vita

forme acqua
In questa serie di immagini, la molecola centrale (rossa) è legata attraverso legami idrogeno con le molecole vicine. In verde sono indicate le molecole che accettano il protone dalla molecola centrale, in giallo le molecole che donano il protone alla molecola centrale. In viola, molecole non direttamente legate alla molecola centrale.
L’ immagine di sinistra rappresenta una molecola con intorno una struttura tetraedrica, con quattro legami idrogeno (due verdi, due gialli). Al centro il caso di una molecola con cinque legami idrogeno (due verdi, tre gialli) e a destra il caso di una molecola centrale che forma solo tre legami idrogeno (due verdi ed un giallo). Il liquido a bassa densità è tutto formato da molecole tetraedriche. Il liquido ad alta densità include anche molecole con tre e cinque legami.

 

Ogni liquido assume la forma del contenitore che lo accoglie. Sappiamo che è così perché riusciamo a osservarlo direttamente con i nostri occhi. Eppure questa affermazione vale solo a livello macroscopico. A livello molecolare infatti ogni liquido ha una forma propria determinata dalla posizione spaziale in cui si dispongono le molecole che lo compongono.

L’acqua, il liquido della vita, potrebbe invece essere differente e avere, non una, ma bensì due forme molecolari diverse: una forma in cui localmente ogni molecola è circondata da quattro altre molecole disposte con una geometria tetraedrica (ordinata) e con le quali forma dei legami particolarmente intensi (i legami idrogeno), e una in cui la struttura tetraedrica invece è significativamente distorta, ovvero una configurazione più disordinata, in cui alcune molecole formano solo tre o cinque legami idrogeno.

La competizione tra queste due strutture spiegherebbe le anomalie dell’elemento più prezioso e abbondante della Terra: l’acqua infatti ha un comportamento che differisce da quello di tutti gli altri liquidi esistenti in natura. Per esempio come solido ha una densità inferiore che come liquido (si spiega così il galleggiamento del ghiaccio), ha un calore specifico molto alto (è in assoluto il liquido che impiega più tempo per riscaldarsi), ha una tensione superficiale elevata (le gocce d’acqua rimangono integre su molte superfici, come sulle foglie delle piante, e non si espandono come gli altri liquidi).

Nonostante i molteplici lavori, teorici e sperimentali condotti negli ultimi venti anni, non sono state prodotte prove definitive del ruolo giocato da queste due strutture all’interno dell’acqua.

Un nuovo studio pubblicato sulla rivista Science fornisce una prova inequivocabile, basata sui più accurati modelli oggi disponibili, che l’unicità dell’acqua dipenda proprio dalla non univocità della sua forma. Il lavoro, frutto della collaborazione scientifica fra Francesco Sciortino del Dipartimento di Fisica della Sapienza di Roma e il team di Pablo Debenedetti della Princeton University (USA), ha dimostrato per la prima volta che a temperature bassissime la “competizione” tra le due strutture genera due fasi liquide ben distinte, con diversa densità e che il passaggio tra le due “acque” costituisce una vera e propria transizione di fase, esattamente come avviene, ad esempio, da una fase solida a una gassosa.

In particolare, i ricercatori hanno visto che al di sotto della temperatura di circa 180 gradi Kelvin, l’equivalente di -90 gradi Celsius, dove l’acqua è metastabile rispetto al ghiaccio, la densità del liquido comincia a oscillare fra due valori: liquido a bassa densità e liquido ad alta densità.

“Come il ghiaccio che galleggia sull’acqua – spiega Francesco Sciortino – sotto i 180 gradi Kelvin, l’acqua di bassa densità galleggia sopra l’acqua di alta densità. Abbiamo dimostrato, con modelli alquanto accurati, un punto critico per la transizione liquido-liquido: la prova teorica che serviva per convincere la comunità scientifica che è possibile avere un sistema puro (una sola componente) con più di una fase liquida”.

Per raggiungere questi risultati sono state necessarie simulazioni estremamente lunghe di sistemi particolarmente grandi, un vero tour-de-force numerico che ha richiesto una enorme quantità di risorse di calcolo, sia a Roma che a Princeton. Gli autori infatti hanno risolto le equazioni del moto che descrivono l’evoluzione del liquido per ben 100 miliardi di volte di seguito coprendo così un intervallo temporale di circa 100 microsecondi, per osservare la transizione tra i due liquidi che avviene sulla scala di decine di microsecondi, prima che l’acqua cristallizzi.

“Grazie a questo lavoro – conclude Sciortino – disponiamo di un modello e di dati numerici accurati che ci consentiranno in futuro di osservare la struttura molecolare su scala subnanometrica, per dimostrare sperimentalmente questa transizione di fase e per scartare scenari termodinamici rivelatisi inadeguati a coglierne l’esistenza”.

 

 

Riferimenti:

Second critical point in two realistic models of water – Pablo G. Debenedetti, Francesco Sciortino, Gül H. Zerze – Science  17 Jul 2020 DOI: 10.1126/science.abb9796

 

Testo, video e immagine sulle forme dell’acqua dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma.

Record mondiale di luminosità all’acceleratore di particelle SuperKEKB in Giappone, il ruolo degli scienziati perugini

Luminosità istantanea fornita dall’acceleratore SuperKEKB al rilevatore Belle II in funzione del tempo

Alle 13.34 del 15 Giugno 2020 ora italiana, l’acceleratore SuperKEKB, nel laboratorio KEK a Tsukuba in Giappone, ha stabilito un nuovo record mondiale, raggiungendo la luminosità istantanea di 2.22×1034 cm-2 s -1 . Il precedente record di luminosità era detenuto dal Large Hadron Collider (LHC) del CERN di Ginevra con 2.14×1034 cm-2 s -1 .

La luminosità di un acceleratore esprime la capacità dell’apparato di produrre collisioni tra particelle e pertanto rappresenta uno dei principali elementi per ottenere nuove scoperte nel campo della fisica. In SuperKEKB avvengono collisioni tra elettroni e positroni ad un’energia prossima alla massa della risonanza Y(4S) (10.58 GeV) dove è copiosa la produzione di mesoni B, D e di leptoni t.

L’esperimento Belle II ha come obbiettivo principale la ricerca di effetti di nuova fisica, al di là del Modello Standard, nella produzione e nel decadimento di tale particelle.

Belle II è il risultato di una collaborazione internazionale di circa 1.000 fisici e ingegneri provenienti da 115 università e laboratori di 26 Paesi. L’Italia partecipa attraverso l’Istituto Nazionale di Fisica Nucleare (INFN) e le Università collegate, tra cui la Sezione di Perugia INFN e l’Ateneo perugino.

Claudia Cecchi, Maurizio Biasini, Elisa Manoni

Il gruppo perugino dell’esperimento Belle II, guidato dalla Professoressa Claudia Cecchi del Dipartimento di Fisica e Geologia dell’Università degli Studi di Perugia, contribuisce attivamente alla presa dati dell’esperimento, al mantenimento di una parte del rivelatore in particolare del Calorimetro Elettromagnetico (ECL) per la misura dell’energia di fotoni ed elettroni e ricopre ruoli di responsabilità nell’analisi dei dati per la ricerca di decadimenti rari che potrebbero dare informazioni fondamentali sulla ricerca di Nuova Fisica oltre il modello Standard. Il gruppo si avvale inoltre della collaborazione del Professor Maurizio Biasini, docente dello stesso Dipartimento, e della Dottoressa Elisa Manoni, ricercatrice della Sezione di Perugia dell’Istituto Nazionale di Fisica Nucleare.

Sebbene il Modello Standard descriva correttamente il comportamento delle particelle sub-atomiche note, numerose teorie predicono nuove particelle e ci sono osservazioni di natura astrofisica che suggeriscono l’esistenza di materia ed energia oscure. Inoltre è tutt’ora aperta la questione di quale sia l’origine dell’asimmetria materia-antimateria dell’universo. Nuove particelle, con massa molto grande, possono essere prodotte direttamente se si dispone di energia sufficiente, oppure possono essere osservate indirettamente attraverso gli effetti quantistici con cui modificano i processi di produzione e decadimento delle particelle già note e questo secondo approccio è quello seguito dal collisore SuperKEKB e dall’esperimento Belle II. Questi effetti quantistici sono tanto più rari quanto è maggiore la massa della nuova particella che li genera ed è quindi necessaria una grande quantità di dati per osservarli, per cui la luminosità fornita dal collisore è un fattore cruciale in questa ricerca. L’esperimento Belle II, in circa 10 anni di presa dati, accumulerà una luminosità integrata 50 volte maggiore (corrispondente alla produzione di 50 miliardi di coppie di mesoni B) rispetto ai suoi predecessori Belle e Babar. I dati raccolti fino ad ora hanno già permesso di porre un limite interessante nell’ambito della ricerca della materia oscura e sono stati pubblicati.

Per raggiungere l’alta luminosità necessaria, SuperKEKB adotta l’innovativo schema a nano-beam secondo il quale si fanno collidere fasci di elettroni e positroni organizzati in pacchetti lunghi ed estremamente sottili che si scontrano con un angolo d’incrocio relativamente grande. Questo record di luminosità è stato ottenuto integrando lo schema a nano-beam con il crab-waist, una tecnica quest’ultima che consente di contenere la distribuzione nello spazio delle fasi delle particelle nei fasci interagenti e di stabilizzare le collisioni.

È doveroso ricordare che lo schema a nano-beam ed il crab-waist sono stati concepiti e realizzati grazie ad un lavoro pioneristico del gruppo di fisica degli acceleratori dei Laboratori Nazionali di Frascati guidati dal fisico italiano Pantaleo Raimondi, anche nel contesto del progetto, poi non realizzato, dell’acceleratore SuperB.

 

Perugia, 26 giugno 2020

 

 

 

Testo e foto dall’Ufficio Stampa Università degli Studi di Perugia

WFIRST (Wide Field InfraRed Survey Telescope) – da poco ribattezzato Roman Telescope in onore dell’astronoma statunitense Nancy Grace Roman, affettuosamente chiamata “la mamma di Hubble” – è un progetto NASA designato ad indagare su alcuni grandi misteri dell’Universo come la materia e l’energia oscura e per cercare nuovi mondi in orbita attorno ad altre stelle della nostra galassia.

ScientifiCult ha l’onore di poter intervistare il dott. Valerio Bozza, ricercatore presso l’Università degli Studi di Salerno e attualmente impegnato a collaborare con la NASA per la realizzazione del Telescopio Roman.

Valerio Bozza
Il dott. Valerio Bozza

Può raccontarci i momenti della Sua carriera professionale che ricorda con più piacere?

In vent’anni di ricerca ho avuto la fortuna di vivere tante soddisfazioni e di lavorare con le persone che hanno scritto i libri su cui ho studiato. Certamente, partecipare alle discussioni nello studio di Gabriele Veneziano al CERN con i cosmologi più importanti del mondo e poter assistere alla nascita di idee geniali su quella lavagna è stata un’esperienza formativa fondamentale. Quando ho avuto il mio primo invito a relazionare ad un workshop all’American Institute of Mathematics sul gravitational lensing di buchi neri e ho ricevuto i complimenti di Ezra T. Newman, ho capito che potevo davvero dire la mia anche io.

Ricordo ancora le notti di osservazioni allo European Southern Observatory a La Silla in Cile, sotto il cielo più bello del pianeta. Ricordo l’invito al Collège de France a Parigi da parte di Antoine Layberie per un seminario, che poi ho scoperto di dover tenere in francese! Poi non ci dimentichiamo la notizia della vittoria al concorso da ricercatore, che mi ha raggiunto mentre ero in Brasile per un altro workshop sulle perturbazioni cosmologiche. Infine, ricordo con una certa malinconia le notti e i giorni di lavoro all’Osservatorio Astronomico UNISA per mettere su un programma di ricerca competitivo. Tutto è finito con la copertina di Nature sulla scoperta del pianeta KELT-9b, il più caldo mai visto, e la distruzione dell’Osservatorio nel febbraio 2019, una ferita ancora aperta.

Adesso, però, è ora di concentrarsi sullo sviluppo del nuovo telescopio spaziale WFIRST della NASA, che il 20 maggio scorso è stato rinominato Nancy Grace Roman Space Telescope (o semplicemente “Roman”, in breve), in onore della astronoma che ha contribuito alla nascita dei primi telescopi spaziali della NASA.

Infine, ricordo con una certa malinconia le notti e i giorni di lavoro all’Osservatorio Astronomico UNISA con il Prof. Gaetano Scarpetta, per mettere su un programma di ricerca competitivo.

Ci sono degli aggiornamenti sulla data del lancio di Roman?

Il lancio del telescopio Roman era programmato per il 2025, ma diverse vicende hanno giocato contro in questi ultimi anni: il ritardo nel lancio del JWST, lo shutdown del governo americano ad inizio 2019 e soprattutto l’epidemia di COVID-19, che sta provocando ritardi su tutte le scadenze nella tabella di marcia. A questo punto, direi che uno slittamento all’anno successivo possa essere plausibile. Tuttavia, l’interesse verso questa missione sta continuando a crescere sia dentro che fuori l’ambito accademico, mettendola al riparo da eventuali tagli di budget.


Roman viene spesso paragonato al telescopio spaziale Hubble. Quali sono le differenze e le somiglianze? E con il JWST?

Si tratta di tre telescopi spaziali che spesso vengono citati insieme, ma sono tutti e tre profondamente diversi: Hubble opera nella banda del visibile e nell’ultravioletto, mentre non è molto sensibile all’infrarosso. Al contrario, sia JWST che Roman opereranno nel vicino infrarosso. JWST avrà un campo di vista molto più piccolo anche di Hubble, perché il suo scopo è fornirci immagini con dettagli mai visti prima di sistemi stellari e planetari in formazione. Roman, invece, avrà un campo di vista cento volte più grande di Hubble, perché il suo scopo è quello di scandagliare aree di cielo molto grandi alla ricerca di galassie o fenomeni transienti. La grande novità è che Roman condurrà queste survey a grande campo con una risoluzione di 0.1 secondi d’arco, simile a quella di Hubble! Quindi, avremo la possibilità di condurre la scienza di Hubble su enormi aree di cielo contemporaneamente. JWST, invece, condurrà osservazioni con un dettaglio molto migliore di Hubble e di Roman, ma su un singolo oggetto in un’area molto limitata.

Roman telescope Valerio Bozza
Immagine 3D del veicolo spaziale Roman (luglio 2018). Immagine NASA (WFIRST Project and Dominic Benford), adattata, in pubblico dominio


Quali sono i target scientifici della missione e come vengono raggiunti?

A differenza di Hubble e JWST, Roman avrà poco spazio per richieste estemporanee di osservazioni. Sarà un telescopio essenzialmente dedicato a due programmi principali: una survey delle galassie lontane e una survey del centro della nostra Galassia. La prima survey effettuerà delle immagini di tutto il cielo alla ricerca di galassie deboli e lontane. Queste immagini consentiranno di capire meglio la distribuzione della materia nel nostro Universo, fissare le tappe dell’espansione cosmologica e chiarire i meccanismi alla base dell’espansione accelerata, scoperta venti anni fa attraverso lo studio delle supernovae Ia. I cosmologi si aspettano che Roman possa fornirci risposte fondamentali sulla natura della cosiddetta Dark Energy, che è stata ipotizzata per spiegare l’accelerazione del nostro Universo, ma la cui natura è del tutto sconosciuta.

Il secondo programma osservativo è una survey delle affollatissime regioni centrali della nostra galassia. Monitorando miliardi di stelle, ci aspettiamo che, almeno per una frazione di queste, la loro luce verrà amplificata da effetti temporanei di microlensing dovuti a stelle che attraversano la linea di vista. Il microlensing è un’amplificazione dovuta al ben noto effetto “lente gravitazionale” previsto dalla relatività generale di Einstein. Se la stella che fa da lente è anche accompagnata da un pianeta, l’amplificazione riporterà delle “anomalie” che potranno essere utilizzate per studiare e censire i sistemi planetari nella nostra galassia. Roman sarà così sensibile da rivelare anche pianeti piccoli come Marte o Mercurio!

microlensing
Il fenomeno del microlensing: la sorgente (in alto) appare più brillante quando una stella lente passa lungo la linea di vista. Se la lente è accompagnata da un pianeta, la luminosità mostra anche una breve anomalia. Credits: © ESA


Quali differenze tra le caratteristiche dei pianeti extrasolari che andrà a scoprire
Roman e quelle dei pianeti che ha osservato Kepler e che osserva TESS?

Il metodo del microlensing, utilizzato da Roman, è in grado di scoprire pianeti in orbite medio-larghe intorno alle rispettive stelle. Al contrario, sia Kepler che TESS, utilizzano il metodo dei transiti, in cui si misura l’eclisse parziale prodotta dal pianeta che oscura parte della sua stella. Questi due satelliti, quindi, hanno scoperto tipicamente pianeti molto vicini alle rispettive stelle.

Ipotizzando di osservare una copia del Sistema Solare, Kepler e TESS potrebbero vedere Mercurio o Venere, nel caso di un buon allineamento. Roman, invece, avrebbe ottime probabilità di rivelare tutti i pianeti da Marte a Nettuno.

Un’altra differenza è che Roman scoprirà pianeti distribuiti lungo tutta la linea di vista fino al centro della Galassia, consentendo un’indagine molto più ampia della distribuzione dei pianeti di quanto si possa fare con altri metodi, tipicamente limitati al vicinato del Sole. Purtroppo, però, i pianeti scoperti col microlensing non si prestano ad indagini approfondite, poiché, una volta terminato l’effetto di amplificazione, i pianeti tornano ad essere inosservabili e sono perduti per sempre.

In definitiva, la conoscenza dei pianeti nella nostra Galassia passa per il confronto tra diversi metodi di indagine complementari. Ognuno ci aiuta a comprendere una parte di un puzzle che si rivela sempre più complesso, mano mano che scopriamo mondi sempre più sorprendenti.

 

Nancy Grace Roman, in una foto NASA del 2015, in pubblico dominio