News
Ad
Ad
Ad
Tag

Massachusetts Institute of Technology

Browsing

L’altermagnete ioduro di nichel per l’elettronica del futuro: più veloce, efficiente e a basso consumo. Un magnete “invisibile” per computer più green. Lo studio di Milano-Bicocca e Mit pubblicato su Nature

Un nuovo materiale scoperto da Bicocca e MIT potrebbe rivoluzionare l’elettronica del futuro: più veloce, efficiente e a basso consumo. Si chiama ioduro di nichel ed è un altermagnete, una nuova classe di materiali che unisce controllo e stabilità magnetica. La scoperta è stata pubblicata su Nature.

Milano, 1 agosto 2025 – Computer, smartphone e data center del futuro potrebbero diventare più veloci ed efficienti, riducendo allo stesso tempo il consumo energetico. Un passo importante per raggiungere questo obiettivo arriva da una scoperta nel campo del magnetismo alla quale ha contribuito anche l’Università di Milano-Bicocca. Il gruppo del Dipartimento di Scienza dei Materiali, guidato dalla professoressa Silvia Picozzi, ha infatti identificato un nuovo materiale, lo ioduro di nichel (NiI₂), che appartiene a una classe di materiali recentemente scoperta: quella degli altermagneti. Lo studio, svolto in collaborazione con il Massachusetts Institute of Technology (MIT) di Boston, è stato pubblicato su Nature, tra le più autorevoli riviste scientifiche internazionali (link all’articolo).

La teoria classica del magnetismo distingue due principali categorie di materiali: i ferromagneti, come le comuni calamite, e gli antiferromagneti. I primi sono facili da controllare, ma non miniaturizzabili al di sotto di un certo limite; i secondi sono più stabili, veloci e immuni ai cosiddetti “campi magnetici parassiti”, ma difficili da manipolare perché privi di una magnetizzazione netta.

Nel 2022 è stata identificata una terza forma di comportamento magnetico: l’altermagnetismo. Gli altermagneti si comportano in modo inedito, permettendo di superare i limiti di entrambe le classi tradizionali. In questi materiali, pur in assenza di una magnetizzazione complessiva, gli stati elettronici con spin opposto hanno energie differenti. Questa proprietà consente un controllo più efficace e preciso del comportamento magnetico.

Figura - Spin disposti ad elica in NiI2 vengono controllati con un campo elettrico (parte alta e bassa) e, di conseguenza, gli stati elettronici cambiano il carattere di spin (colonna di destra)
Figura – Spin disposti ad elica in NiI2 vengono controllati con un campo elettrico (parte alta e bassa) e, di conseguenza, gli stati elettronici cambiano il carattere di spin (colonna di destra)

Considerata la rilevanza potenziale in ambito tecnologico, l’altermagnetismo è stato incluso dalla rivista Science tra le principali scoperte scientifiche del 2024, unica voce nel settore della fisica. La possibilità di utilizzare questi materiali nella spintronica – un’elettronica che sfrutta lo spin degli elettroni anziché la sola carica – apre scenari concreti per lo sviluppo di dispositivi più precisi, veloci, miniaturizzabili e con consumi energetici molto ridotti. Alcuni prototipi di memorie RAM spintroniche, ad esempio, hanno già dimostrato un risparmio energetico superiore al 95% rispetto ai dispositivi CMOS tradizionali. Un risultato rilevante se si considera che i data center rappresentano oggi oltre il 2% del consumo energetico globale.

Nel progetto, il gruppo dell’Università di Milano-Bicocca ha curato lo sviluppo teorico e le simulazioni numeriche, mentre il team del MIT ha condotto la caratterizzazione fisica del materiale. Lo ioduro di nichel costituisce un importante sistema modello per lo studio degli altermagneti, ma al momento richiede temperature molto basse per esprimere le sue proprietà magnetiche e non è ancora utilizzabile nei dispositivi reali.

Il prossimo passo sarà quindi utilizzare le conoscenze acquisite su NiI₂ per progettare nuovi materiali altermagnetici stabili a temperatura ambiente, con l’obiettivo di rendere possibile la realizzazione di dispositivi elettronici a basso consumo e altissime prestazioni.

Riferimenti bibliografici:

Song, Q., Stavrić, S., Barone, P. et al. Electrical switching of a p-wave magnet, Nature 642, 64–70 (2025), DOI: https://doi.org/10.1038/s41586-025-09034-7

Testo e immagine dall’Ufficio stampa Università di Milano-Bicocca.

IL BUCO NERO SUPERMASSICCIO 1ES 1927+654, CON LA CORONA OSCILLANTE

Grazie a una lunga campagna di osservazioni realizzate con il telescopio spaziale XMM-Newton dell’Agenzia Spaziale Europea (ESA), un gruppo internazionale di ricerca guidato dal Massachusetts Institute of Technology (MIT), di cui fa parte anche Ciro Pinto dell’Istituto Nazionale di Astrofisica, ha rilevato oscillazioni quasi periodiche dei segnali X provenienti dalla “corona” di particelle che circonda un buco nero supermassiccio situato nel cuore di una galassia vicina. L’evoluzione di queste oscillazioni non solo suggerisce la presenza di un altro oggetto celeste in orbita attorno al buco nero, ma indica inoltre che questi oggetti compatti divorano la materia in modi più complessi di quanto gli astronomi inizialmente pensassero.

I risultati dello studio, in uscita sulla rivista Nature, suggeriscono che a produrre tale variabilità possa essere una nana bianca attorno al buco nero, che viene divorata a piccoli “morsi” a ogni orbita. Il lavoro, basato su osservazioni del buco nero supermassiccio 1ES 1927+654, al centro dell’omonima galassia situata in direzione della costellazione del Dragone, è stato presentato oggi al 245mo meeting dell’American Astronomical Society in corso a National Harbor (Maryland, Stati Uniti). Durante il meeting sono stati presentati altri due studi, dedicati a osservazioni dello stesso buco nero, firmati tra gli altri da Gabriele Bruni, Francesca Panessa e Susanna Bisogni dell’INAF.

I buchi neri supermassicci sono mostri cosmici che imprigionano qualsiasi cosa varchi il loro “confine”, una regione dello spaziotempo nota come orizzonte degli eventi. Previsti dalla teoria della relatività generale di Albert Einstein, si distinguono per la loro capacità di accrescere massa attraverso un disco di accrescimento riscaldato dall’attrito, emettendo luce visibile, ultravioletta e raggi X. Intorno al disco si sviluppa una corona di particelle caldissime che emette raggi X ad alta energia, la cui intensità varia in base alla quantità di materia che fluisce verso il buco nero.

Le emissioni descritte nell’articolo di Nature sono segnali a raggi X variabili nel tempo e in frequenza, chiamate oscillazioni quasi periodiche, o QPO (dall’inglese Quasi Periodic Oscillations). Le osservazioni hanno rivelato picchi di emissione X che variano su tempi scala brevissimi, dell’ordine di 500 secondi.

Gli autori dello studio, guidato da Megan Masterson del Massachusetts Institute of Technology, negli Stati Uniti, osservano 1ES 1927+654 con XMM-Newton fin dal 2011. All’inizio il buco nero si trovava in una fase di basso accrescimento, una sorta di “regime alimentare dietetico”. Le cose sono cambiate nel 2018, quando è entrato in una fase di accrescimento estremo, caratterizzata da una potente esplosione (outburst in inglese) associata all’emissione da parte del disco di accrescimento di luce visibile e ultravioletta, come pure di potenti venti relativistici: il segno tangibile di un “pasto abbondante”. In quell’occasione, i ricercatori hanno anche osservato la scomparsa dell’emissione X ad alta energia della corona – precedentemente osservata -, sinonimo di distruzione della corona stessa.

Dopo il ripristino del flusso di raggi X emessi dalla corona nel 2021, nuove osservazioni condotte sempre con XMM-Newton a luglio del 2022 hanno però mostrato rapide variazioni di questo flusso, con periodi compresi tra 400 e 1000 secondi. Il profilo di emissione presentava picchi che si alternavano a bruschi cali del segnale: le oscillazioni quasi periodiche (QPO), fluttuazioni dell’emissione X notoriamente difficili da rilevare nei buchi neri supermassicci, e che, a distanza di anni dalla loro scoperta, non si sa ancora per certo che cosa li produca fisicamente.

“A marzo del 2024, abbiamo osservato nuovamente il buco nero con XMM-Newton e le oscillazioni erano ancora presenti” sottolinea Ciro Pinto, ricercatore INAF, tra i firmatari dello studio. “L’oggetto orbitava a quasi la metà della velocità della luce, completando un’orbita ogni sette minuti”.

Per spiegare una tale curva di luce, il team ha proposto due ipotesi alternative. La prima ipotesi è che nei pressi del buco nero si sia verificato un evento di distruzione mareale, ossia la disintegrazione di un corpo celeste, ad esempio una stella, da parte delle forze di marea del buco nero. Un tale evento potrebbe spiegare la perturbazione della nube di particelle della corona. L’altra ipotesi prevede che a determinare il profilo di emissione di 1ES 1927+654 possa essere stata invece una nana bianca, un “cadavere stellare” catturato dalla immane forza di gravità del buco nero che, orbitando rapidamente attorno a esso, avrebbe spazzato via a ogni orbita il gas della corona responsabile delle emissioni.

I calcoli effettuati dai ricercatori sembravano avallare la seconda ipotesi. Le fluttuazioni dell’emissione X erano molto probabilmente determinate da una nana bianca dieci volte meno massiccia del Sole, che completa un’orbita attorno al buco nero, a una distanza di circa cento milioni di chilometri, ogni diciotto minuti circa.

Le nuove osservazioni hanno tuttavia messo in discussione entrambe le ipotesi. Lo studio dell’evoluzione della frequenza delle emissioni nel tempo ha infatti mostrato che le oscillazioni aumentavano la loro frequenza: un simile comportamento esclude che a produrre la curva di luce possa essere stato un evento di distruzione mareale, che avrebbe causato la scomparsa dei picchi di emissione X nell’arco di alcuni mesi. In questo caso, invece, le oscillazioni sono state osservate per almeno due anni. I dati di XMM-Newton del 2024 hanno mostrato inoltre che, su tempi scala ancora più lunghi, i picchi di emissione X coronali si sono stabilizzati, il che esclude anche l’ipotesi della nana bianca, o quanto meno che la distruzione sia avvenuta in un colpo solo. Si potrebbe però considerare una nana bianca alla quale il buco nero strappa materia “a piccoli bocconi”: questa non sarebbe stata consumata in un solo pasto, dunque, ma poco a poco.

A discriminare tra i vari scenari potrebbe essere un’altra osservazione, quella di onde gravitazionali. Quando due oggetti compatti, come nane bianche o buchi neri, ruotano l’uno attorno all’altro, vengono infatti prodotte queste increspature nello spazio tempo che si propagano nel cosmo. Se l’ipotesi della nana bianca fatta a pezzi “a piccoli morsi” dal buco nero fosse vera, si dovrebbero captare questi segnali: non con gli osservatori terrestri, che osservano onde gravitazionali ad alte frequenze, ma con osservatori spaziali come la futura missione LISA, il primo osservatorio spaziale di onde gravitazionali, che l’ESA lancerà nel 2035. Progettato per rilevare onde gravitazionali esattamente nella gamma di frequenze che 1ES 1927+654 sta emettendo, LISA potrebbe confutare o confermare l’ipotesi dei ricercatori.

“A partire dagli anni 2030 per questo tipo di astrofisica si apriranno nuove frontiere”, conclude Ciro Pinto. “Il primo grande passo verso nuove scoperte sarà il lancio della missione LISA, che permetterà la rilevazione di onde gravitazionali da buchi neri supermassicci. A questo obiettivo si aggiungerà la missione NewAthena che, dotata di ottiche più potenti dei precedenti osservatori a raggi X, fornirà misurazioni di oscillazioni quasi periodiche più accurate e per più sorgenti. Tale combinazione di strumenti è indispensabile per valutare quale tra le varie interpretazioni o modelli finora disponibili circa l’origine delle oscillazioni quasi periodiche sia corretta. Tutto ciò è rilevante per comprendere i meccanismi di formazione dei buchi neri supermassicci, ancora oggi in discussione”.

Illustrazione artistica che mostra una nana bianca in orbita attorno a un buco nero supermassiccio in accrescimento. Crediti: NASA/Sonoma State University, Aurore Simonnet
Illustrazione artistica che mostra una nana bianca in orbita attorno a un buco nero supermassiccio in accrescimento. Crediti: NASA/Sonoma State University, Aurore Simonnet

Riferimenti bibliografici:

L’articolo “Millihertz Oscillations Near the Innermost Orbit of a Supermassive Black Hole”, di Megan Masterson et al., in uscita su Nature.

Testo e immagine dall’Ufficio Stampa Istituto Nazionale di Astrofisica – INAF.

FARMACI: DOMANDA IN AUMENTO E CARENZE SUL MERCATO? Una soluzione dalla tesi di Francesco Destro: in tempo reale una maggiore produzione a un costo inferiore

 

Premiato dall’European Federation of Chemical Engineering Francesco Destro per i nuovi algoritmi di monitoraggio capaci di risolvere il disequilibrio tra domanda e offerta attraverso tecnologie innovative e digital twin, le repliche virtuali dei processi di produzione. La ricerca è stata sviluppata al CAPE-Lab dell’Università di Padova

Ieri, lunedì 3 giugno, all’European Symposium on Computer Aided Process Engineering and International Symposium on Process Systems Engineering che si è tenuto a Firenze – con la seguente motivazione “Relevance to the CAPE terms of reference, innovation, technical quality, scientific impact including industrial relevance, and dissemination of the results” – l’European Federation of Chemical Engineering (EFCE)  ha premiato Francesco Destro, Ricercatore al Dipartimento di Ingegneria Chimica dell’Università di Padova e al Centro di Innovazione Biomedica del Massachusetts Institute of Technology di Boston, per la sua tesi di dottorato dal titolo “Digitalizing pharmaceutical development and manufacturing: advanced mathematical modeling for operation design, process monitoring and process control”.

FRANCESCO DESTRO premiazione

L’immagine idealizzata di laboratori farmaceutici perfettamente efficienti si scontra con la cruda realtà: i processi per la produzione di farmaci sono spesso inefficienti e soggetti ad una serie di sfide. Sebbene i farmaci che troviamo in farmacia siano indiscutibilmente di qualità eccellente, la capacità globale di produzione di farmaci su larga scala è estremamente limitata e i costi sono spesso elevati.

Il risultato? Difficoltà nel soddisfare una domanda in aumento, con conseguenti carenze di farmaci sul mercato. Secondo il rapporto del 2023 di PGEU, Il Gruppo Farmaceutico dell’Unione Europea, l’85% dei Paesi Europei ha segnalato, nel 2023, carenze per più di 300 farmaci, tra cui antibiotici, antitumorali e farmaci per il sistema cardiovascolare. Addirittura, il 42% dei Paesi europei ha riportato carenze per più di 500 farmaci. Le inefficienze nei processi della produzione di farmaci non solo causano queste carenze sullo scaffale della farmacia, ma allungano notevolmente i tempi di attesa per l’approvazione e la distribuzione di nuovi farmaci, rallentando l’innovazione nel settore farmaceutico.

Un esempio emblematico della scarsa efficienza nella produzione farmaceutica è stato l’accesso ai vaccini contro il COVID-19. Dopo l’approvazione dei vaccini COVID, l’Italia, come molti altri Paesi, ha dovuto affrontare una lunga attesa prima di poterli distribuire su larga scala. Questa situazione ha messo in luce la difficoltà dell’industria farmaceutica nel produrre farmaci su larga scala, specialmente quando la domanda cresce improvvisamente. Di nuovo: questo limite non riguarda la qualità dei farmaci a cui abbiamo accesso, ma, appunto, il costo produttivo e la quantità di farmaci che siamo in grado di produrre a livello globale.

«Tuttavia, a fronte di questo scenario esiste un possibile rimedio: la digitalizzazione, la cosiddetta Industria 4.0. L’applicazione di tecnologie come il machine learning e l’intelligenza artificiale stanno aprendo nuove strade per ottimizzare i processi di produzione di farmaci. Questa è esattamente l’area di interesse su cui si è concentrata la mia tesi di dottorato. Nel corso della ricerca, ho sviluppato tecnologie innovative per la digitalizzazione e l’ottimizzazione dei processi di produzione di farmaci – dice Francesco Destro –Ho implementato nuovi algoritmi di monitoraggio di processo basati sul machine learning, che permettono di identificare e correggere eventuali inefficienze o anomalie in tempo reale, consentendo di produrre una maggiore quantità di farmaci ad un costo inferiore. Inoltre, ho lavorato allo sviluppo di cosiddetti digital twin di processi farmaceutici che sono una replica virtuale sullo schermo di un computer di un processo di produzione farmaceutica, completa di tutte le variabili e i parametri che influenzano il processo reale. Questa replica digitale – spiega Francesco Destro – non solo ci consente di testare e ottimizzare diversi scenari da un computer, senza dover intervenire direttamente sul processo reale, ma può anche essere utilizzata per predire e prevenire problemi potenziali prima che si verifichino, garantendo così una produzione di farmaci più efficiente e affidabile».

La ricerca di dottorato si è svolta al CAPE-Lab dell’Università di Padova, sotto la guida del Professor Massimiliano Barolo. Il CAPE-Lab è pioniere in Italia nella digitalizzazione dei processi farmaceutici ed è riconosciuto a livello mondiale per la sua visione innovativa e per progetti all’avanguardia iniziati oltre 10 anni fa nell’ambito di digital twin e machine learning per l’ottimizzazione della produzione di farmaci. Grazie al ruolo di leader che CAPE-Lab ha in questo settore, Francesco Destro ha avuto l’opportunità di collaborare durante la ricerca con istituzioni di primo piano nel mondo accademico e industriale, tra cui Siemens, US Food & Drug Administration, Eli Lilly and Company e Purdue University. Collaborando con i partner si sono validati gli algoritmi e il software sviluppato in CAPE-Lab su impianti industriali, trasformando la ricerca da teorica in soluzioni pratiche che stanno già facendo la differenza nel mondo reale.

«Dopo aver conseguito il dottorato all’Università di Padova nel 2022, ho iniziato a lavorare come Ricercatore associato al Dipartimento di Ingegneria Chimica del Massachusetts Institute of Technology (MIT) di Boston, negli Stati Uniti. Al MIT, metto in pratica le conoscenze avanzate acquisite al CAPE-Lab per rivoluzionare la produzione di una nuova generazione di farmaci per terapia genica. Questi farmaci – conclude Francesco Destro – permettono di curare gravi patologie genetiche, ma sono prodotti tramite processi estremamente complessi, con costi di produzione che possono superare i 200.000 euro per una singola dose per un paziente. Attraverso l’applicazione delle tecnologie di digitalizzazione e machine learning che ho sviluppato durante il mio percorso di dottorato a Padova, sto contribuendo a rendere la produzione di questi farmaci innovativi più economica e accessibile a tutti i pazienti che ne hanno bisogno».

«Il gruppo di ricerca CAPE-Lab (Computer-Aided Process Engineering Laboratory) del Dipartimento di Ingegneria Industriale è attivo da vent’anni e da circa quindici è fortemente coinvolto in ricerche nell’ambito dell’ingegneria farmaceutica. Da un punto di vista generale, sviluppiamo tecnologie in grado di migliorare la produzione su larga scala di farmaci; in particolare, cerchiamo di ridurre quanto più possibile il tempo che passa da quando le autorità competenti approvano la messa in commercio di un farmaco, a quando il farmaco diventa effettivamente disponibile per tutti in farmacia – afferma Massimiliano Barolo direttore di CAPE-Lab –. Per raggiungere questo obiettivo, i problemi tecnologici che vanno affrontati sono numerosi. Per esempio: come assicurare che la qualità finale del prodotto sia garantita sempre, indipendentemente da chi fabbrica il farmaco e da quanto variabile è la qualità delle materie prime? come ridurre il numero di esperimenti necessari allo sviluppo su scala industriale del processo produttivo su scala industriale? come trasferire con rapidità la produzione da un sito produttivo a un altro? come ridurre i consumi di energia e gli scarti di produzione? come estrarre informazioni utili dai dati che i moderni sensori restituiscono ogni pochi secondi? Cerchiamo di dare risposta a queste domande impiegando due risorse fondamentali – sottolinea Barolo –. La prima è il bagaglio di tecniche di modellazione matematica, di ottimizzazione, di analisi dei dati e di progettazione degli esperimenti che la nostra disciplina di base ‒ l’ingegneria chimica ‒ ci mette a disposizione. La seconda è il continuo dialogo con l’industria, che ci permette da un lato di essere sistematicamente vicini alle problematiche del mondo produttivo, e dall’altro di sviluppare soluzioni che siano non soltanto scientificamente originali, ma anche efficaci nella pratica. Poter contribuire a rendere meno tortuoso il “viaggio” che un farmaco fa, dal laboratorio dello scienziato che l’ha scoperto alla casa del paziente che lo deve impiegare, ci riempie davvero di orgoglio».

Francesco Destro è Ricercatore Associato al Dipartimento di Ingegneria Chimica e al Centro di Innovazione Biomedica del Massachusetts Institute of Technology di Boston, negli Stati Uniti. La sua ricerca è focalizzata sullo sviluppo di software ed algoritmi per ottimizzare la produzione di farmaci per terapia genica. Tali farmaci sono in grado di curare gravi patologie genetiche, ma hanno attualmente costi produttivi che possono superare 200.000 euro per dose, a causa della complessità intrinseca di questi prodotti biotecnologici. Francesco Destro ha ricevuto il Dottorato di Ricerca in Ingegneria Industriale con Curriculum Ingegneria Chimica ed Ambientale all’Università di Padova. Durante il suo dottorato, Destro ha sviluppato software e algoritmi di machine learning per l’ottimizzazione dei processi di produzione farmaceutica. Attualmente, al MIT, Destro applica queste tecnologie avanzate per rendere la produzione di farmaci per terapia genica più efficiente e sostenibile, contribuendo a ridurre i costi e migliorare l’accessibilità per i pazienti.

Testo e foto dall’Ufficio Stampa dell’Università di Padova

CUORE METTE NUOVI LIMITI ALL’INSOLITO COMPORTAMENTO DEI NEUTRINI

CUORE neutrini Nature INFN

Le ricercatrici e i ricercatori dell’esperimento CUORE (Cryogenic Underground Observatory for Rare Events) situato ai Laboratori Nazionali del Gran Sasso dell’Istituto Nazionale di Fisica Nucleare (INFN) hanno pubblicato oggi, 6 aprile, su Nature i nuovi risultati sulla natura del neutrino, che dimostrano inoltre l’eccezionalità della tecnologia sviluppata, in grado di mantenere un rivelatore di oltre 700 kg a temperature vicine allo zero assoluto, per più di tre anni.

CUORE, che opera nel silenzio cosmico delle sale sperimentali sotterranee dei Laboratori del Gran Sasso, protetto da 1.400 metri di roccia, è tra gli esperimenti più sensibili al mondo per lo studio di un processo nucleare, chiamato doppio decadimento beta senza emissione di neutrini, possibile solo se neutrino e antineutrino sono la stessa particella. Questo decadimento, se osservato, chiarirebbe per la prima volta il mistero della natura di Majorana del neutrino. I risultati di CUORE si basano su una quantità di dati, raccolta negli ultimi tre anni, dieci volte più grande di qualsiasi altra ricerca con tecnica sperimentale simile. Nonostante la sua fenomenale sensibilità, l’esperimento non ha ancora osservato prove di eventi di questo tipo. Da questo risultato è possibile stabilire che un atomo di tellurio impiega più di 22 milioni di miliardi di miliardi di anni per decadere. I nuovi limiti di CUORE sul comportamento dei neutrini sono cruciali nella ricerca di una possibile nuova scoperta della fisica delle particelle, che sarebbe rivoluzionaria perché aiuterebbe a comprendere le nostre stesse origini.

L’obiettivo è capire come ha avuto origine la materia”, spiega Carlo Bucci, ricercatore dei Laboratori Nazionali del Gran Sasso e responsabile internazionale dell’esperimento CUORE.

“Stiamo cercando un processo che violi una simmetria fondamentale della natura”, aggiunge Roger Huang, giovane ricercatore del Lawrence Berkeley National Laboratory del Department of Energy degli Stati Uniti e uno degli autori del nuovo studio. “L’asimmetria tra materia e antimateria nell’universo è ancora un rebus”, dice Huang. “Se i neutrini sono le loro stesse antiparticelle, questo potrebbe aiutare a risolverlo”.

CUORE neutrini Nature INFN

“Il doppio decadimento beta senza emissione di neutrini, se sarà misurato, sarà il processo più raro mai osservato in natura, con un tempo di decadimento di oltre un milione di miliardi di volte superiore all’età dell’universo”, afferma Danielle Speller, professoressa alla Johns Hopkins University e componente del Physics Board di CUORE.

CUORE è un vero trionfo scientifico e tecnologico, non solo per i suoi nuovi risultati, ma anche per aver dimostrato con successo il funzionamento del suo criostato in condizioni veramente estreme, alla temperatura di 10 millesimi di grado sopra lo zero assoluto (10 milliKelvin). La temperatura nel rivelatore CUORE viene attentamente monitorata con sensori in grado di rilevare una variazione di appena un decimillesimo di grado Celsius. Il doppio decadimento beta senza emissione di neutrini ha una firma energetica specifica e aumenterebbe la temperatura di un singolo cristallo di una quantità ben definita e riconoscibile.

“È il più grande refrigeratore del suo genere al mondo”, sottolinea Paolo Gorla, ricercatore dei Laboratori del Gran Sasso e Technical Coordinator di CUORE. “Capace di mantenere la temperatura di 10 milliKelvin ininterrottamente per circa tre anni”. Una tale tecnologia ha applicazioni ben oltre la fisica delle particelle fondamentali. In particolare, può trovare impiego nella realizzazione dei computer quantistici, dove una delle principali difficoltà dal punto di vista tecnologico è mantenerli sufficientemente freddi e schermati dalle radiazioni ambientali.

Lo straordinario funzionamento del criostato di CUORE è il coronamento di una lunga sfida tecnologica iniziata a metà degli anni ‘80 dal gruppo di Ettore Fiorini a Milano, che ha visto l’evoluzione dei rivelatori criogenici, da cristalli di pochi grammi agli oltre 700 kg degli attuali”, aggiunge Oliviero Cremonesi, Presidente della Commissione Scientifica Nazionale per la fisica astroparticellare dell’INFN.

“La sensibilità del rivelatore è davvero fenomenale,” afferma Laura Marini, ricercatrice presso il Gran Sasso Science Institute e Run Coordinator di CUORE, “al punto che osserviamo segnali generati da vibrazioni microscopiche della crosta terrestre.” “Abbiamo visto effetti dovuti a terremoti in Cile e Nuova Zelanda”, continua Marini “misuriamo costantemente il segnale delle onde che si infrangono sulla riva del mare Adriatico, a 60 chilometri di distanza, che diventa più forte in inverno, quando c’è tempesta”.

CUORE sta facendo da apripista per la prossima generazione di esperimenti: il suo successore, CUPID (CUORE Upgrade with Particle Identification), è già in avanzata fase di sviluppo e sarà oltre dieci volte più sensibile di CUORE. Nel frattempo, CUORE non ha ancora finito.

“Saremo operativi fino al 2024 – aggiunge Bucci – e sono impaziente di vedere che cosa troveremo”.

CUORE è gestito da una collaborazione di ricerca internazionale, guidata dall’INFN in Italia e dal Berkeley National Laboratory negli Stati Uniti.

CUORE neutrini Nature INFN

APPROFONDIMENTI

Particelle particolari

I neutrini sono ovunque: ci sono quasi mille miliardi di neutrini che passano attraverso l’unghia di un tuo dito mentre leggi questa frase. Non sentono l’effetto delle due forze più intense dell’universo, l’elettromagnetismo e la forza nucleare forte, e questo consente loro di passare attraverso la materia, quindi anche attraverso tutta la Terra, senza interagire. Nonostante il numero enorme, la loro natura così elusiva li rende molto difficili da studiare, sono un vero grattacapo per i fisici. L’esistenza di queste particelle è stata postulata per la prima volta oltre 90 anni fa, ma fino alla fine degli anni ’90 non si sapeva nemmeno se i neutrini avessero una massa, ora sappiamo di sì ma è davvero molto piccola.

Una delle tante domande ancore aperte sui neutrini è se siano le loro stesse antiparticelle. Tutte le altre particelle hanno delle corrispondenti antiparticelle, la loro controparte di antimateria: agli elettroni corrispondono gli antielettroni (positroni), ai quark gli antiquark, ai neutroni e ai protoni (che sono i costituenti dei nuclei atomici) gli antineutroni e gli antiprotoni. A differenza di tutte le altre particelle, è possibile che i neutrini siano le loro stesse antiparticelle. Un tale scenario è stato teorizzato per la prima volta dal fisico Ettore Majorana nel 1937 e le particelle che mostrano questa proprietà sono conosciute come fermioni di Majorana.

Se i neutrini fossero davvero fermioni di Majorana potremmo forse rispondere a una domanda che è alla base della nostra stessa esistenza: perché c’è così tanta più materia che antimateria nell’universo?

Un dispositivo raro per decadimenti rari

Determinare se i neutrini siano le loro stesse antiparticelle è difficile, proprio perché essi non interagiscono molto spesso. Il miglior strumento dei fisici per cercare i neutrini di Majorana è un ipotetico tipo di decadimento naturale radioattivo chiamato decadimento doppio beta senza neutrini. Il decadimento beta è una forma abbastanza comune di decadimento in alcuni atomi, che trasforma un neutrone di un nucleo atomico in un protone, mutando l’elemento chimico dell’atomo ed emettendo un elettrone e un antineutrino come conseguenza del processo. Il doppio decadimento beta è più raro: invece di un solo neutrone, due di essi si trasformano in due protoni allo stesso tempo, emettendo due elettroni e due antineutrini. Ma se il neutrino è un fermione di Majorana, allora teoricamente un singolo neutrino “virtuale”, che funge da antiparticella di sé stesso, potrebbe prendere il posto di entrambi gli antineutrini e solo i due elettroni sarebbero emessi dal nucleo atomico, da qui il nome del processo. Il decadimento doppio beta senza neutrini è stato teorizzato per decenni, ma non è mai stato osservato.

L’esperimento CUORE è impegnato a rivelare negli atomi di tellurio un decadimento doppio beta senza neutrini. L’esperimento utilizza quasi mille cristalli di ossido di tellurio purissimo, del peso complessivo di oltre 700 kg. Questa grande quantità di tellurio è necessaria perché, in media, ci vuole più di un miliardo di volte l’età dell’Universo perché un singolo atomo instabile di tellurio subisca un normale doppio decadimento beta. Ma ci sono milioni di miliardi di miliardi di atomi di tellurio in ciascuno dei cristalli utilizzati da CUORE, il che significa che il doppio decadimento beta standard (con emissione di due neutrini) avviene abbastanza regolarmente nel rivelatore, circa alcune volte al giorno in ciascun cristallo. Il doppio decadimento beta senza neutrini, ammesso che si verifichi, è estremamente più raro, e quindi la Collaborazione di CUORE deve impegnarsi per rimuovere quante più fonti di interferenza possibile che potrebbero nascondere l’evento cercato. Per schermare il rivelatore dai raggi cosmici, l’intero sistema si trova nelle sale sperimentali sotterranee dei Laboratori del Gran Sasso, dove i 1400 metri di roccia sovrastanti proteggono gli esperimenti dai raggi cosmici che piovono incessantemente sulla Terra. Una ulteriore schermatura è fornita da diverse tonnellate di piombo. Il piombo appena prodotto è leggermente radioattivo a causa della contaminazione naturale da uranio e altri elementi. Questo livello di radioattività è assolutamente trascurabile per qualsiasi tipo di utilizzo del piombo, eccetto per un rivelatore così sensibile come CUORE. Poiché la radioattività diminuisce nel tempo, il piombo utilizzato per circondare i rivelatori di CUORE è principalmente piombo recuperato da un’antica nave romana affondata quasi 2000 anni fa al largo delle coste della Sardegna.

CUORE è finanziato negli Stati Uniti dal Department of Energy (DoE) e dalla National Science Foundation (NSF) e in Italia dall’INFN, l’Istituto Nazionale di Fisica Nucleare. La Collaborazione CUORE include in Italia i Laboratori Nazionali del Gran Sasso, i Laboratori Nazionali di Frascati e i Laboratori Nazionali di Legnaro dell’INFN e le Sezioni INFN e Università di Bologna, Università di Genova, Università di Milano Bicocca, Sapienza Università di Roma e il Gran Sasso Science Institute; negli Stati Uniti: California Polytechnic State University, San Luis Obispo; Lawrence Berkeley National Laboratory; Johns Hopkins University; Lawrence Livermore National Laboratory; Massachusetts Institute of Technology; University of California, Berkeley; University of California, Los Angeles; University of South Carolina; Virginia Polytechnic Institute and State University; Yale University; in Francia: Saclay Nuclear Research Center (CEA) e Irène Joliot-Curie Laboratory (CNRS/IN2P3, Paris Saclay University); in Cina: Fudan University e Shanghai Jiao Tong University.

 

Testo e immagini dall’Ufficio Stampa INFN Istituto Nazionale di Fisica Nucleare