News
Ad
Ad
Ad
Tag

Università Sapienza di Roma

Browsing

QUBIC, un modo nuovo di studiare l’universo primordiale

Escono oggi, giovedì 21 aprile, su un numero speciale della rivista “Journal of Cosmology and Astroparticle Physics”, otto articoli a firma della collaborazione internazionale QUBIC (Q&U Bolometric Interferometer for Cosmology), che sta realizzando in Argentina un telescopio per lo studio dell’universo appena nato che si avvarrà di una tecnica innovativa.

QUBIC, infatti, osserverà e mapperà le proprietà del fondo cosmico a microonde, l’eco residua del Big Bang, concentrandosi sulla misura di particolari componenti dell’orientamento dell’oscillazione delle microonde della radiazione cosmica di fondo sul piano del cielo (polarizzazione), denominate modi-B, indicative delle possibili perturbazioni indotte dalle onde gravitazionali generate nei primi istanti di vita dell’universo.

Il progetto vede l’Italia protagonista grazie ai contributi scientifici e tecnologici forniti dall’INFN (Istituto Nazionale di Fisica Nucleare) e dalle Università di Milano Statale, Milano-Bicocca, Università di Roma “Tor Vergata” e Sapienza Università di Roma. QUBIC osserverà il cielo a partire dalla fine del 2022, da un sito desertico di alta quota (5000 m) in Argentina, vicino alla località San Antonio de Los Cobres.

QUBIC
Rotatore criogenico. Crediti: archivio fotografico QUBIC

Dopo il suo sviluppo e l’integrazione avvenuta presso i laboratori europei delle Università e degli enti di ricerca coinvolti nella collaborazione, QUBIC è arrivato in Argentina, nella città di Salta, nel luglio 2021, dove si sta procedendo alle fasi finali di calibrazione e di test in laboratorio. I risultati di queste attività, presentati negli otto articoli apparsi su ‘Journal of Cosmology and Astroparticle Physics, hanno confermato il corretto funzionamento dello strumento e dell’’interferometria bolometrica’, ossia la tecnica di nuova concezione su cui si baseranno le osservazioni di QUBIC, che combina l’elevatissima sensibilità dei rivelatori raffreddati quasi allo zero assoluto (-273 °C) e capaci di misurare l’energia della radiazione del fondo cosmico trasformandola in calore (bolometri), con la precisione degli strumenti interferometrici.

“QUBIC è uno strumento originale ed estremamente complesso: per questo era necessario pubblicare in anticipo tutti i dettagli del suo hardware e delle nuove metodologie di sfruttamento dei dati raccolti. Inoltre, con queste lunghe ed esaustive calibrazioni abbiamo dimostrato in laboratorio l’efficienza di QUBIC come interferometro bolometrico. È un passo essenziale per le successive misure di interesse per la cosmologia e la fisica fondamentale”, spiega Silvia Masi, docente presso Sapienza Università di Roma e ricercatrice INFN, che coordina la partecipazione italiana all’esperimento.

Grazie alla sua estrema sensibilità, che consentirà di distinguere i dettagli di ciascuno dei ‘pixel’ in cui sarà suddivisa la mappa celeste, QUBIC potrà discriminare i modi-B dai segnali generati dalle altre sorgenti del cielo, fornendo una prova diretta della teoria dell’inflazione. Questa è oggi la teoria di riferimento per la descrizione di ciò che sarebbe avvenuto nei primi istanti dell’universo, sviluppata negli anni ‘80 per spiegare alcune caratteristiche dell’universo, fra cui la ‘piattezza’ e l’estrema omogeneità dello spaziotempo.

QUBIC
Criostato. Crediti: archivio fotografico QUBIC

Secondo la teoria dell’inflazione, la rapidissima fase di espansione dell’universo subito dopo il Big Bang, durata meno di un centomillesimo di miliardesimo di miliardesimo di miliardesimo di secondo (circa 10-32 secondi), avrebbe lasciato un debole fondo di onde gravitazionali, che a loro volta avrebbero prodotto particolari debolissime tracce, detti modi-B, nella polarizzazione del fondo cosmico di microonde. In pratica, le onde elettromagnetiche del fondo cosmico non oscillerebbero in direzioni casuali. Sarebbero invece leggermente preferite direzioni che in cielo formano un disegno vorticoso.

Alla precisione delle misure che saranno effettuate da QUBIC contribuiranno inoltre la limpidezza e l’assenza di umidità che contraddistinguono l’aria del sito di Alto Chorrillo in cui sarà istallato il telescopio, a circa 5000 metri sul livello del mare, sul plateau La Puna nell’Argentina settentrionale, vicino alla cittadina di San Antonio de los Cobres, nella provincia di Salta.

“QUBIC verrà portato nel sito di Alto Chorrillo entro pochi mesi. Le prime misure dimostreranno l’efficienza del nuovo metodo dell’interferometria bolometrica per la prima volta osservando sorgenti astronomiche. Lo strumento verrà poi completato inserendo un maggiore numero di rivelatori, in modo da poter eseguire le misure di interesse cosmologico entro tre anni. La strada è lunga, e QUBIC si presenta come estremamente originale e complementare a tutti gli altri che cercano di misurare questo elusivo segnale primordiale”, illustra Aniello Mennella, ricercatore INFN e docente all’Università di Milano.

La ricerca dei modi-B rappresenta una sfida formidabile e centrale per fisici e astrofisici. Il segnale da misurare è così debole da richiedere rivelatori ultrasensibili e telescopi di grande precisione, anche per rimuovere, durante l’analisi dati, altri segnali polarizzati di origine locale che potrebbero confondere la misura. Le misure di QUBIC saranno perciò contemporanee a quelle di una mezza dozzina di altri esperimenti nel mondo che hanno lo stesso obiettivo scientifico. A differenza di questi ultimi, che producono immagini direttamente tramite telescopi a singola apertura, QUBIC sarà l’unico strumento a effettuare osservazioni raccogliendo le microonde da molte aperture e facendole interferire.

“La misura di un segnale così debole”, dice Mario Zannoni, ricercatore INFN e docente all’Università di Milano-Bicocca, “verrà ritenuta esente da errori sistematici solo se si avranno risultati consistenti provenienti da strumenti molto diversi. Proprio per questo motivo QUBIC, unico interferometro bolometrico, rappresenta una risorsa insostituibile nella ricerca dei modi-B e nello studio dei primi attimi dell’universo”. Grazie alle capacità multispettrali e di autocalibrazione, “QUBIC produrrà dati del tutto originali e complementari a quelli degli altri esperimenti, offrendo agli analisti innumerevoli possibilità di controllo incrociato e quindi una robustezza ineguagliabile dei risultati”, conclude Giancarlo De Gasperis, ricercatore INFN e docente all’Università di Roma “Tor Vergata”.

QUBIC è il risultato della collaborazione di 130 ricercatori, ingegneri e tecnici in Francia, Italia, Argentina, Irlanda e Regno Unito. Lo strumento è stato integrato a Parigi presso i laboratori APC nel 2018 e calibrato durante il 2019-2021.

Il contributo italiano è stato fondamentale per lo sviluppo dello strumento, e continuerà ad esserlo nelle fasi successive dell’esperimento. Lo strumento è ospitato in un criostato, progettato e costruito nei laboratori della Sapienza e della Sezione di Roma dell’INFN, capace di raffreddare vicino allo zero assoluto non solo i rivelatori ma anche tutto il sistema ottico dell’interferometro. Lo stesso gruppo ha realizzato anche il sistema crio-meccanico che permette di ruotare i componenti ottici all’interno del criostato per misurare lo stato di polarizzazione della radiazione. Italiane sono anche altre componenti criogeniche, che lavorano a una temperatura inferiore a -270 °C, come le avanzatissime antenne corrugate che selezionano i fotoni da far interferire, realizzate nei laboratori dell’Università e della Sezione INFN di Milano Statale, mentre le ottiche che focalizzano i fotoni sui rivelatori e il sistema di otturatori che permette di variare la configurazione dell’interferometro e di autocalibrarlo sono realizzate dall’Università e dalla Sezione di Milano Bicocca. L’Università di Roma “Tor Vergata” e la Sezione INFN di Roma2 contribuisce invece allo sviluppo del complesso software di analisi dei dati.

Per maggiori informazioni:

 

 

Testo dall’Ufficio Stampa Università di Milano-Bicocca e dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma, immagini dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma.

Un gruppo di ricerca internazionale rileva il precursore di un buco nero supermassiccio nei dati di archivio del telescopio Hubble

Una collaborazione internazionale, che ha visto la partecipazione di astrofisici della Sapienza e dell’Istituto nazionale di astrofisica – Inaf, ha scoperto un oggetto distante circa 13 miliardi di anni luce dalla Terra, estremamente compatto e arrossato dalla polvere stellare. La rilevazione, effettuata grazie all’utilizzo del telescopio spaziale Hubble, farà luce sul mistero della crescita dei buchi neri supermassicci nell’universo primordiale. I risultati del lavoro sono stati pubblicati su Nature.

il precursore di un buco nero supermassiccio
Il precursore di un buco nero supermassiccio nei dati di archivio di Hubble. Figura 1: GNz7q, un oggetto scoperto a circa 13,1 miliardi di anni luce dalla Terra che mostra segni di un buco nero in rapida crescita all’interno di una galassia in forte formazione stellare e ricca di polvere interstellare (starburst polverosa), colorato nell’immagine combinando i dati di tre osservazioni a colori del telescopio spaziale Hubble. Trovato nella regione GOODS-North[1], una delle regioni del cielo più studiate fino ad oggi, GNz7q è l’oggetto rosso al centro dell’immagine ingrandita (Credito: ESA/Hubble/Fujimoto et al.)

La scoperta di buchi neri supermassicci nell’universo primordiale, con masse fino a diverse centinaia di milioni di volte quella del sole, ha sollevato il problema di capire come oggetti di questa taglia siano stati in grado di formarsi e crescere nel breve periodo di tempo successivo alla nascita dell’Universo (meno di un miliardo di anni). Teoricamente, un buco nero inizia dapprima ad aumentare la sua massa accrescendo gas e polvere nel nucleo di una galassia ricca di polvere e caratterizzata da elevati tassi di formazione stellare (una cosiddetta galassia starburst polverosa). L’energia generata nel processo spazza via i materiali circostanti, trasformando il sistema in un quasar, una sorgente astrofisica molto luminosa e compatta.

Fino a oggi sono state scoperte galassie starburst polverose e quasar luminosi post-transizione ad appena 700-800 milioni di anni dopo il Big Bang, ma non è mai stato trovato un “giovane” quasar nella fase di transizione, la cui scoperta deterrebbe la chiave per la comprensione dei meccanismi di formazione dei buchi neri supermassicci nell’Universo primordiale.

Un gruppo di ricerca internazionale, coordinato dall’astronomo Seiji Fujimoto dell’Università di Copenaghen, con la partecipazione, fra gli altri, di ricercatori del Dipartimento di Fisica della Sapienza e dell’Istituto nazionale di astrofisica – Inaf, ha rianalizzato una grande quantità di dati d’archivio estratti dal telescopio spaziale Hubble e ha scoperto un oggetto, denominato poi GNz7q, che è proprio l’anello mancante tra le galassie starburst e i quasar luminosi nell’universo primordiale. I risultati del lavoro sono stati pubblicati sulla rivista Nature.

Le osservazioni spettroscopiche con i radiotelescopi hanno mostrato che il giovane quasar è nato solo 750 milioni di anni dopo il Big Bang. Tali osservazioni, sono state poi confrontate con i modelli teorici. Questa importante fase del lavoro è stata svolta da Rosa Valiante dell’Inaf e Raffaella Schneider della Sapienza e ha mostrato come le caratteristiche dello spettro elettromagnetico di questo oggetto, dai raggi X alle onde radio, non si discostano dalle previsioni delle simulazioni teoriche.

“Questo suggerisce che GNz7q sia il primo esempio di buco nero in rapida crescita nel centro di una galassia starburst polverosa – commentano Schneider e Valiante. “Pensiamo che GNz7q sia un precursore dei buchi neri supermassicci trovati nell’universo primordiale”.

La scoperta di GNz7q non solo rappresenta un elemento importante per comprendere l’origine dei buchi neri supermassicci, ma anche un motivo di sorpresa per i ricercatori: la rilevazione infatti è stata fatta in una delle regioni più osservate nel cielo notturno – denominata GOODS, Great Observatories Origins Deep Survey, oggetto d’indagine astronomica dei telescopi più potenti mai costruiti (ovvero quelli operativi nello spazio come Hubble, Herschel e XMM-Newton dell’ESA, il telescopio Spitzer della NASA e l’Osservatorio a raggi X Chandra, oltre a potenti telescopi terrestri, compreso il telescopio Subaru) – suggerendo quindi che sorgenti di questo tipo possano essere più frequenti di quanto si pensasse in precedenza.

Il gruppo di ricerca si propone di condurre una ricerca sistematica di sorgenti simili utilizzando campagne osservative ad alta risoluzione e di sfruttare gli strumenti spettroscopici del telescopio spaziale James Webb della NASA/ESA/CSA, una volta che sarà in regolare funzionamento, per studiare oggetti come GNz7q con una ricchezza di dettagli senza precedenti.

il precursore di un buco nero supermassiccio
Il precursore di un buco nero supermassiccio nei dati di archivio di Hubble. Figura 2: un’impressione artistica di un giovane buco nero in crescita che emerge dal centro di una galassia starburst polverosa, mentre i materiali densi circostanti di gas e polvere vengono spazzati via dalla potente energia generata quando il buco nero evolve rapidamente accrescendo la materia circostante. (Credito: ESA/Hubble)

Riferimenti:

A dusty compact object bridging galaxies and quasars at cosmic dawn – S. Fujimoto, G. B. Brammer, D. Watson, G. E. Magdis, V. Kokorev, T. R. Greve, S. Toft, F. Walter, R. Valiante, M. Ginolfi, R. Schneider, F. Valentino, L. Colina, M. Vestergaard, R. Marques-Chaves, J. P. U. Fynbo, M. Krips, C. L. Steinhardt, I. Cortzen, F. Rizzo & P. A. Oesch – Nature https://doi.org/10.1038/s41586-022-04454-1 

Testo e immagini dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Alzheimer: un approccio machine learning per individuare le predisposizioni genetiche 

Un nuovo studio Sapienza, realizzato con l’Istituto italiano di tecnologia (IIT) e altri centri di ricerca internazionali, ha valutato la possibilità di predirre con metodi di apprendimento automatico le varianti genetiche associate a un alto rischio di malattia. I risultati del lavoro sono stati pubblicati su Alzheimer’s & Dementia: Diagnosis, Assessment & Disease Monitoring.

malattia di Alzheimer machine learning varianti genetiche
Alzheimer: machine learning per individuare le predisposizioni genetiche. Immagine di Chen (chenspec)

L’Alzheimer fa parte di quelle malattie genetiche causate da mutazioni a livello di un singolo gene, ovvero in cui una variante a livello di singolo nucleotide (SNV Single-Nucleotide Variants) è sufficiente per causare la patologia genetica. Ad oggi si conoscono il gene e la mutazione coinvolti nell’insorgenza di solo la metà di queste malattie.

Diversi studi di larga scala (chiamati in inglese GWAS, Genome-wide association studies) hanno portato alla luce informazioni su singole varianti associate alla propensione di un paziente di contrarre l’Alzheimer, ma gli SNV non posso essere utilizzati efficacemente a scopo predittivo senza considerare le relazioni fra di essi e i potenziali rapporti con altri elementi del genoma.

Basti pensare che molti soggetti con una determinata variante genica associata all’Alzheimer (come per esempio la mutazione nel gene APOE), non sviluppano la patologia.

Per comprendere come ciò possa accadere, un team di ricercatori del Dipartimento di Biologia e biotecnologie Charles Darwin della Sapienza, insieme con l’Istituto italiano di tecnologia (IIT) e altri centri di ricerca internazionali, ha utilizzato un approccio di machine learning per analizzare l’intero profilo genomico di pazienti con malattia di Alzheimer e individuare le predisposizioni genetiche alla base dell’insorgenza della patologia. I risultati dello studio, condotto dalla giovane ricercatrice Magdalena Arnal nel laboratorio Sapienza di Gian Gaetano Tartaglia, sono stati pubblicati sulla rivista Alzheimer’s & Dementia: Diagnosis, Assessment & Disease Monitoring.

In particolare, per costruire i profili genomici, è stato utilizzato un subset di dati costruito a partire da due dei più grandi database esistenti: UK Biobank e ADNI.

“Le combinazioni ottenibili sono innumerevoli, abbiamo quindi sviluppato un approccio informatico di tipo machine learning per semplificare l’analisi – spiega Magdalena Arnal. “Senza questa svolta computazionale la nostra analisi non sarebbe stata possibile”.

In questo modo i ricercatori hanno identificato sei varianti SVN in una zona del genoma, il cromosoma 19, che permettono di identificare un gran numero di individui come potenziali casi di Alzheimer.

“Quello che abbiamo scoperto è definito epistasi, una forma di interazione genica per cui una variazione genica può mascherare o contribuire all’espressione fenotipica di altri geni – aggiunge Gian Gaetano Tartaglia. “Questa è la chiave per comprendere l’organizzazione del genoma: a seconda di come gli SNV si combinano, un individuo può sviluppare la malattia di Alzheimer o meno”.

Il prossimo step per i ricercatori sarà quello di identificare nuovi patterns coinvolti in altre malattie.

Riferimenti:

Machine learning methods applied to genotyping data capture interactions between single nucleotide variants in late onset Alzheimer’s disease – Alzheimer’s & Dementia: Diagnosis, Assessment & Disease Monitoring http://doi.org/10.1002/dad2.12300

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Migliorare la memoria è una questione di allenamento ripetuto, ma nel tempo

Un nuovo studio firmato dalla Sapienza ha scoperto che il coinvolgimento di aree diverse del cervello nella memorizzazione, alla base del ricordo, è legato alla distribuzione nel tempo dell’apprendimento. I risultati sono stati pubblicati sulla rivista PNAS.

migliorare la memoria allenamento
Migliorare la memoria è una questione di allenamento ripetuto, ma nel tempo. Foto di Dariusz Sankowski

L’apprendimento migliora se un’esperienza viene distribuita nel tempo piuttosto che essere concentrata in un’unica soluzione. Questo vale nello studio, ma anche nell’ambito della pubblicità e di tanti altri aspetti della vita quotidiana.

Un team di ricerca della Sapienza ha svelato per la prima volta che la maggiore efficienza di un apprendimento ripartito nel tempo dipende dal fatto che il cervello utilizza circuiti cerebrali diversi a seconda della modalità di apprendimento, indipendentemente da ciò che deve essere appreso. Inoltre, i ricercatori hanno dimostrato che la stimolazione artificiale dei circuiti responsabili dell’apprendimento distribuito nel tempo si traduce in un miglioramento della memoria.

In particolare lo studio, pubblicato sulla rivista PNAS, ha messo in evidenza, che lo striato, una struttura del cervello che si pensava coinvolta principalmente in funzioni motorie (ad esempio il Parkinson), ha un ruolo anche in funzioni cognitive complesse.

“Inoltre – spiega Andrea Mele, coordinatore dello studio – abbiamo visto che la sua stimolazione esogena durante l’apprendimento, migliora la durata della memoria nei topi”.

Lo studio è molto importante sia da un punto di vista teorico, perché include tra le aree del cervello responsabili del ricordo regioni cui prima erano attribuite altre funzioni, sia da un punto di vista traslazionale perché suggerisce la possibilità di migliorare la memoria attraverso una stimolazione artificiale del cervello, aprendo nuove prospettive nel trattamento di patologie neurodegenerative come l’Alzheimer.

Riferimenti:

The neural substrate of spatial memory stabilization depends on the distribution of the training sessions – Valentina Mastrorilli, Eleonora Centofante, Federica, Arianna Rinaldi and Andrea Mele – PNAS 2022 https://doi.org/10.1073/pnas.2120717119

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

CUORE METTE NUOVI LIMITI ALL’INSOLITO COMPORTAMENTO DEI NEUTRINI

CUORE neutrini Nature INFN

Le ricercatrici e i ricercatori dell’esperimento CUORE (Cryogenic Underground Observatory for Rare Events) situato ai Laboratori Nazionali del Gran Sasso dell’Istituto Nazionale di Fisica Nucleare (INFN) hanno pubblicato oggi, 6 aprile, su Nature i nuovi risultati sulla natura del neutrino, che dimostrano inoltre l’eccezionalità della tecnologia sviluppata, in grado di mantenere un rivelatore di oltre 700 kg a temperature vicine allo zero assoluto, per più di tre anni.

CUORE, che opera nel silenzio cosmico delle sale sperimentali sotterranee dei Laboratori del Gran Sasso, protetto da 1.400 metri di roccia, è tra gli esperimenti più sensibili al mondo per lo studio di un processo nucleare, chiamato doppio decadimento beta senza emissione di neutrini, possibile solo se neutrino e antineutrino sono la stessa particella. Questo decadimento, se osservato, chiarirebbe per la prima volta il mistero della natura di Majorana del neutrino. I risultati di CUORE si basano su una quantità di dati, raccolta negli ultimi tre anni, dieci volte più grande di qualsiasi altra ricerca con tecnica sperimentale simile. Nonostante la sua fenomenale sensibilità, l’esperimento non ha ancora osservato prove di eventi di questo tipo. Da questo risultato è possibile stabilire che un atomo di tellurio impiega più di 22 milioni di miliardi di miliardi di anni per decadere. I nuovi limiti di CUORE sul comportamento dei neutrini sono cruciali nella ricerca di una possibile nuova scoperta della fisica delle particelle, che sarebbe rivoluzionaria perché aiuterebbe a comprendere le nostre stesse origini.

L’obiettivo è capire come ha avuto origine la materia”, spiega Carlo Bucci, ricercatore dei Laboratori Nazionali del Gran Sasso e responsabile internazionale dell’esperimento CUORE.

“Stiamo cercando un processo che violi una simmetria fondamentale della natura”, aggiunge Roger Huang, giovane ricercatore del Lawrence Berkeley National Laboratory del Department of Energy degli Stati Uniti e uno degli autori del nuovo studio. “L’asimmetria tra materia e antimateria nell’universo è ancora un rebus”, dice Huang. “Se i neutrini sono le loro stesse antiparticelle, questo potrebbe aiutare a risolverlo”.

CUORE neutrini Nature INFN

“Il doppio decadimento beta senza emissione di neutrini, se sarà misurato, sarà il processo più raro mai osservato in natura, con un tempo di decadimento di oltre un milione di miliardi di volte superiore all’età dell’universo”, afferma Danielle Speller, professoressa alla Johns Hopkins University e componente del Physics Board di CUORE.

CUORE è un vero trionfo scientifico e tecnologico, non solo per i suoi nuovi risultati, ma anche per aver dimostrato con successo il funzionamento del suo criostato in condizioni veramente estreme, alla temperatura di 10 millesimi di grado sopra lo zero assoluto (10 milliKelvin). La temperatura nel rivelatore CUORE viene attentamente monitorata con sensori in grado di rilevare una variazione di appena un decimillesimo di grado Celsius. Il doppio decadimento beta senza emissione di neutrini ha una firma energetica specifica e aumenterebbe la temperatura di un singolo cristallo di una quantità ben definita e riconoscibile.

“È il più grande refrigeratore del suo genere al mondo”, sottolinea Paolo Gorla, ricercatore dei Laboratori del Gran Sasso e Technical Coordinator di CUORE. “Capace di mantenere la temperatura di 10 milliKelvin ininterrottamente per circa tre anni”. Una tale tecnologia ha applicazioni ben oltre la fisica delle particelle fondamentali. In particolare, può trovare impiego nella realizzazione dei computer quantistici, dove una delle principali difficoltà dal punto di vista tecnologico è mantenerli sufficientemente freddi e schermati dalle radiazioni ambientali.

Lo straordinario funzionamento del criostato di CUORE è il coronamento di una lunga sfida tecnologica iniziata a metà degli anni ‘80 dal gruppo di Ettore Fiorini a Milano, che ha visto l’evoluzione dei rivelatori criogenici, da cristalli di pochi grammi agli oltre 700 kg degli attuali”, aggiunge Oliviero Cremonesi, Presidente della Commissione Scientifica Nazionale per la fisica astroparticellare dell’INFN.

“La sensibilità del rivelatore è davvero fenomenale,” afferma Laura Marini, ricercatrice presso il Gran Sasso Science Institute e Run Coordinator di CUORE, “al punto che osserviamo segnali generati da vibrazioni microscopiche della crosta terrestre.” “Abbiamo visto effetti dovuti a terremoti in Cile e Nuova Zelanda”, continua Marini “misuriamo costantemente il segnale delle onde che si infrangono sulla riva del mare Adriatico, a 60 chilometri di distanza, che diventa più forte in inverno, quando c’è tempesta”.

CUORE sta facendo da apripista per la prossima generazione di esperimenti: il suo successore, CUPID (CUORE Upgrade with Particle Identification), è già in avanzata fase di sviluppo e sarà oltre dieci volte più sensibile di CUORE. Nel frattempo, CUORE non ha ancora finito.

“Saremo operativi fino al 2024 – aggiunge Bucci – e sono impaziente di vedere che cosa troveremo”.

CUORE è gestito da una collaborazione di ricerca internazionale, guidata dall’INFN in Italia e dal Berkeley National Laboratory negli Stati Uniti.

CUORE neutrini Nature INFN

APPROFONDIMENTI

Particelle particolari

I neutrini sono ovunque: ci sono quasi mille miliardi di neutrini che passano attraverso l’unghia di un tuo dito mentre leggi questa frase. Non sentono l’effetto delle due forze più intense dell’universo, l’elettromagnetismo e la forza nucleare forte, e questo consente loro di passare attraverso la materia, quindi anche attraverso tutta la Terra, senza interagire. Nonostante il numero enorme, la loro natura così elusiva li rende molto difficili da studiare, sono un vero grattacapo per i fisici. L’esistenza di queste particelle è stata postulata per la prima volta oltre 90 anni fa, ma fino alla fine degli anni ’90 non si sapeva nemmeno se i neutrini avessero una massa, ora sappiamo di sì ma è davvero molto piccola.

Una delle tante domande ancore aperte sui neutrini è se siano le loro stesse antiparticelle. Tutte le altre particelle hanno delle corrispondenti antiparticelle, la loro controparte di antimateria: agli elettroni corrispondono gli antielettroni (positroni), ai quark gli antiquark, ai neutroni e ai protoni (che sono i costituenti dei nuclei atomici) gli antineutroni e gli antiprotoni. A differenza di tutte le altre particelle, è possibile che i neutrini siano le loro stesse antiparticelle. Un tale scenario è stato teorizzato per la prima volta dal fisico Ettore Majorana nel 1937 e le particelle che mostrano questa proprietà sono conosciute come fermioni di Majorana.

Se i neutrini fossero davvero fermioni di Majorana potremmo forse rispondere a una domanda che è alla base della nostra stessa esistenza: perché c’è così tanta più materia che antimateria nell’universo?

Un dispositivo raro per decadimenti rari

Determinare se i neutrini siano le loro stesse antiparticelle è difficile, proprio perché essi non interagiscono molto spesso. Il miglior strumento dei fisici per cercare i neutrini di Majorana è un ipotetico tipo di decadimento naturale radioattivo chiamato decadimento doppio beta senza neutrini. Il decadimento beta è una forma abbastanza comune di decadimento in alcuni atomi, che trasforma un neutrone di un nucleo atomico in un protone, mutando l’elemento chimico dell’atomo ed emettendo un elettrone e un antineutrino come conseguenza del processo. Il doppio decadimento beta è più raro: invece di un solo neutrone, due di essi si trasformano in due protoni allo stesso tempo, emettendo due elettroni e due antineutrini. Ma se il neutrino è un fermione di Majorana, allora teoricamente un singolo neutrino “virtuale”, che funge da antiparticella di sé stesso, potrebbe prendere il posto di entrambi gli antineutrini e solo i due elettroni sarebbero emessi dal nucleo atomico, da qui il nome del processo. Il decadimento doppio beta senza neutrini è stato teorizzato per decenni, ma non è mai stato osservato.

L’esperimento CUORE è impegnato a rivelare negli atomi di tellurio un decadimento doppio beta senza neutrini. L’esperimento utilizza quasi mille cristalli di ossido di tellurio purissimo, del peso complessivo di oltre 700 kg. Questa grande quantità di tellurio è necessaria perché, in media, ci vuole più di un miliardo di volte l’età dell’Universo perché un singolo atomo instabile di tellurio subisca un normale doppio decadimento beta. Ma ci sono milioni di miliardi di miliardi di atomi di tellurio in ciascuno dei cristalli utilizzati da CUORE, il che significa che il doppio decadimento beta standard (con emissione di due neutrini) avviene abbastanza regolarmente nel rivelatore, circa alcune volte al giorno in ciascun cristallo. Il doppio decadimento beta senza neutrini, ammesso che si verifichi, è estremamente più raro, e quindi la Collaborazione di CUORE deve impegnarsi per rimuovere quante più fonti di interferenza possibile che potrebbero nascondere l’evento cercato. Per schermare il rivelatore dai raggi cosmici, l’intero sistema si trova nelle sale sperimentali sotterranee dei Laboratori del Gran Sasso, dove i 1400 metri di roccia sovrastanti proteggono gli esperimenti dai raggi cosmici che piovono incessantemente sulla Terra. Una ulteriore schermatura è fornita da diverse tonnellate di piombo. Il piombo appena prodotto è leggermente radioattivo a causa della contaminazione naturale da uranio e altri elementi. Questo livello di radioattività è assolutamente trascurabile per qualsiasi tipo di utilizzo del piombo, eccetto per un rivelatore così sensibile come CUORE. Poiché la radioattività diminuisce nel tempo, il piombo utilizzato per circondare i rivelatori di CUORE è principalmente piombo recuperato da un’antica nave romana affondata quasi 2000 anni fa al largo delle coste della Sardegna.

CUORE è finanziato negli Stati Uniti dal Department of Energy (DoE) e dalla National Science Foundation (NSF) e in Italia dall’INFN, l’Istituto Nazionale di Fisica Nucleare. La Collaborazione CUORE include in Italia i Laboratori Nazionali del Gran Sasso, i Laboratori Nazionali di Frascati e i Laboratori Nazionali di Legnaro dell’INFN e le Sezioni INFN e Università di Bologna, Università di Genova, Università di Milano Bicocca, Sapienza Università di Roma e il Gran Sasso Science Institute; negli Stati Uniti: California Polytechnic State University, San Luis Obispo; Lawrence Berkeley National Laboratory; Johns Hopkins University; Lawrence Livermore National Laboratory; Massachusetts Institute of Technology; University of California, Berkeley; University of California, Los Angeles; University of South Carolina; Virginia Polytechnic Institute and State University; Yale University; in Francia: Saclay Nuclear Research Center (CEA) e Irène Joliot-Curie Laboratory (CNRS/IN2P3, Paris Saclay University); in Cina: Fudan University e Shanghai Jiao Tong University.

 

Testo e immagini dall’Ufficio Stampa INFN Istituto Nazionale di Fisica Nucleare

 

Cardiopatia ischemica: il ruolo degli ormoni sessuali
Uno studio italiano, a cui partecipano i ricercatori della Sapienza, ha valutato l’impatto dei livelli di testosterone e di estradiolo sull’attivazione delle piastrine del sangue, processo direttamente collegato al rischio di eventi coronarici acuti. I risultati del lavoro, condotto su un campione di oltre 400 pazienti di entrambi i sessi, sono stati pubblicati sulla rivista Journal of Endocrinological Investigation.

arterie coronariche cardiopatia ischemica ormoni sessuali
Arterie coronariche. Immagine di BruceBlaus, CC BY 3.0

La prevenzione della cardiopatia ischemica, patologia a carico delle arterie coronariche che portano sangue al cuore, ha fatto passi da gigante negli ultimi decenni, permettendo una notevole riduzione dei tassi di eventi acuti, che vanno dall’infarto alla morte. Tuttavia, l’incidenza mondiale di cardiopatia ischemica è ancora molto elevata.

La malattia colpisce entrambi i sessi, ma spesso con una fisiopatologia, sintomatologia e risposta alle terapie molto diversa: per tale ragione gli attributi biologici sono stati rivendicati come i principali fattori di queste differenze, canalizzando l’attenzione sul possibile ruolo degli ormoni sessuali.

Lo studio italiano EVA (Endocrine Vascular Disease Approach) coordinato da un team di ricercatori della Sapienza e condotto su 434 soggetti con cardiopatia ischemica, ospedalizzati e sottoposti a coronarografia e/o a intervento di angioplastica, ha valutato l’impatto degli ormoni sessuali maschili (testosterone) e femminili (estradiolo) sulla fisiopatologia e sulla gravità della patologia coronarica e in particolare sull’attivazione delle piastrine del sangue, direttamente associate al rischio di eventi coronarici acuti.

Lo studio, iniziato nel 2015 con un finanziamento del Ministero dell’Università e ricerca – MUR nell’ambito dei progetti per i giovani ricercatori (SIR), vinto da Valeria Raparelli del Dipartimento di Medicina sperimentale della Sapienza e ora afferente all’Università di Ferrara, ha coinvolto oltre all’Ateneo romano altre università italiane (Ferrara e Milano), inglesi (Liverpool) e canadesi (Alberta e McGill).

I risultati dello studio EVA, pubblicati sulla rivista Journal of Endocrinological Investigation, hanno messo in evidenza come un basso rapporto tra testosterone ed estradiolo si associ in entrambi i sessi a un aumentato rischio di mortalità nei due anni successivi la valutazione. Inoltre è stato visto come da tale relazione dipenda una maggiore attività delle piastrine.

Alla luce del ruolo chiave dell’attivazione piastrinica sul rischio di eventi acuti coronarici, la correlazione con il rapporto tra testosterone ed estradiolo apre nuovi orizzonti di ricerca: questi risultati suggeriscono l’utilità di valutare gli ormoni sessuali in entrambi i sessi per la pianificazione di nuove strategie terapeutiche che tengano anche conto dell’equilibrio ormonale di ciascun individuo affetto da cardiopatia ischemica.

 

Riferimenti:

Testosterone-to-estradiol ratio and platelet thromboxane release in ischemic heart disease: the EVA project – V. Raparelli, C. Nocella, M. Proietti, G. F. Romiti, B. Corica, S. Bartimoccia, L. Stefanini, A. Lenzi, N. Viceconte, G. Tanzilli, V. Cammisotto, L. Pilote, R. Cangemi, S. Basili, R. Carnevale, EVA Collaborators.

J Endocrinol Invest. 2022  doi: 10.1007/s40618-022-01771-0

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

L’abete rosso in Scandinavia: una colonizzazione che ha avuto inizio più di 10.000 anni fa 

La recente scoperta di antichi resti di DNA antico, presenti nei sedimenti lacustri al margine meridionale della calotta glaciale scandinava e attribuibili all’abete rosso, porta nuova luce sulle dinamiche di risposta delle foreste ai cambiamenti climatici del passato. Lo studio internazionale, coordinato dalla Sapienza, è stato pubblicato su Nature Communications.

Härjehågna

L’abete rosso è oggi la specie arborea più comune in Fennoscandia, la parte d’Europa che comprende la Finlandia e la penisola scandinava. Diversi studi, basati su ritrovamenti di polline fossile di abete in antichi sedimenti lacustri, hanno dimostrato che ci sono volute diverse migliaia di anni prima che questa specie giungesse in Svezia dopo l’ultima glaciazione e diventasse la specie dominante delle foreste scandinave. Secondo tali analisi l’abete sarebbe giunto in Svezia dal nord-est solo 2.000 anni fa.

abete rosso in Scandinavia

Oggi, un nuovo studio che utilizza il DNA ambientale antico conservato negli stessi sedimenti dimostra che l’abete rosso era invece presente in Svezia meridionale già dopo l’ultima glaciazione, circa 14.000 anni fa. Il lavoro, coordinato dal Dipartimento di Biologia ambientale della Sapienza e dall’Università di Uppsala in Svezia, in collaborazione con gruppi di ricerca di Università europee e giapponesi, è stato pubblicato sulla rivista Nature Communications.

abete rosso in Scandinavia

Contrariamente a quanto sempre creduto, infatti l’abete rosso sembra essere uno dei primi alberi che ha colonizzato la Svezia, sebbene riuscì a diffondersi in larga misura solo 2.000 anni fa. Cosa abbia trattenuto l’abete per le successive migliaia di anni però non è ancora del tutto chiaro.

Questi ultimi risultati hanno evidenziato una somiglianza genetica fra i gruppi di abeti solitari che oggi crescono e si riproducono vegetativamente (cloni) in alto sui pendii montuosi nella Svezia centrale e quelli che arrivarono successivamente dal nord-est, dimostrando il ruolo delle piccole popolazioni arboree locali superstiti nella ricolonizzazione delle foreste del nord Europa dopo l’ultima glaciazione.

L’abete rosso in Scandinavia: una colonizzazione che ha avuto inizio più di 10.000 anni fa

“Le analisi genetiche mostrano che l’abete svedese è sopravvissuto molto vicino alla calotta glaciale – spiega Laura Parducci della Sapienza, coordinatrice del lavoro – e abbia dunque sperimentato diversi tentativi per impossessarsi delle foreste scandinave, ma che solo l’ultima espansione abbia avuto successo”.

Gli studi sulla conservazione e il ripristino delle foreste sono strumenti importanti per contrastare le minacce causate dalla frammentazione degli habitat e dai cambiamenti climatici. Tuttavia, per favorire la diversificazione e la resilienza delle foreste è necessario prima comprendere le dinamiche della risposta delle foreste ai cambiamenti climatici del passato. Pertanto, l’utilizzo del DNA antico per la comprensione della velocità con cui l’abete ha ricolonizzato la Fennoscandia è di grande importanza per prevedere le risposte ecologiche al futuro riscaldamento climatico.

abete rosso in Scandinavia

Riferimenti:

Norway spruce postglacial recolonization of Fennoscandia – Kevin Nota, Jonatan Klaminder, Pascal Milesi, Richard Bindler, Alessandro Nobile, Tamara van Steijn, Stefan Bertilsson, Brita Svensson, Shun K. Hirota, Ayumi Matsuo, Urban Gunnarsson, Heikki Seppä, Minna M. Väliranta, Barbara Wohlfarth, Yoshihisa Suyama & Laura Parducci – Nature Communications DOI https://doi.org/10.1038/s41467-022-28976-4

abete rosso in Scandinavia

 

Testo e foto dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

COVID-19: scoperta la “tempesta perfetta” che aumenta il rischio di trombosi

Due studi italiani, condotti da un gruppo di ricercatori della Sapienza Università di Roma su pazienti con infezione da Sars Cov-2, identificano un mix di fattori per riconoscere i soggetti a maggior rischio di trombosi e le indicazioni per ottimizzare la terapia anti-coagulante.

trombosi COVID-19
Foto di PIRO4D

Nei pazienti COVID-19 una delle principali cause di mortalità è l’elevato rischio di trombosi, che può presentarsi sia nel distretto venoso in forma di trombosi venosa profonda o embolia polmonare, sia in quello arterioso in forma di infarto del miocardio o ictus. Circa il 20% dei pazienti COVID-19 può andare incontro a queste gravi complicanze durante il ricovero.

Purtroppo fino a ora le evidenze disponibili non hanno consentito di identificare con chiarezza i pazienti COVID-19 a rischio di trombosi né le indicazioni alla terapia anticoagulante per la prevenzione del rischio tromboembolico.

Il gruppo di ricerca coordinato da Francesco Violi del Dipartimento di Medicina interna e specialità mediche della Sapienza Università di Roma, in collaborazione con Lorenzo Loffredo, Pasquale Pignatelli e Annarita Vestri dello stesso Ateneo, ha realizzato due studi nei quali vengono identificati quali sono i pazienti con maggiore rischio di trombosi e quali le dosi ideali di terapia anticoagulante per la prevenzione di eventi trombotici. Uno dei due lavori è pubblicato sulla rivista Thrombosis and Haemostasis e l’altro è in pubblicazione su Haematologica.

In particolare, il primo lavoro è consistito in uno studio multicentrico che ha incluso 674 pazienti COVID-19, nel quale la combinazione di 3 semplici variabili quali età, albumina serica e livelli di D-dimero, uno dei frammenti proteici della fibrina, responsabile della formazione di coaguli (trombi) nei vasi sanguigni, ha permesso di identificare i pazienti con maggior rischio di trombosi.

È stato visto che coloro che avevano una combinazione di età elevata (più di 70anni) bassa albumina (<35 g/L) e D-dimero elevato (>2000ng/ml) avevano una maggiore probabilità di trombosi, rispetto a pazienti di età inferiore e con valori normali di albumina e D-dimero.

“Avendo a disposizione questo semplice punteggio, chiamato ADA score – spiega Francesco Violi – è adesso possibile stabilire chi è a maggiore rischio di trombosi e che ha necessità di un trattamento anticoagulante”.

Il secondo lavoro, in pubblicazione su Haematologica, rivista ufficiale della Società Europea di Ematologia, risponde a una problematica ancora dibattuta dopo due anni dall’inizio della pandemia, ovvero se la prevenzione di questi eventi trombotici vada fatta con una terapia anticoagulante standard o con dosi profilattiche, cioè basse dosi di anticoagulanti. Questo aspetto è rilevante in quanto le basse dosi di anticoagulante, che tutt’oggi sono la terapia più usata, potrebbero essere insufficienti a ridurre il rischio di trombosi.

Il team di ricercatori ha effettuato una meta-analisi degli studi che hanno confrontato i due tipi di trattamento, dimostrando che le dosi standard di anticoagulanti sono superiori alle dosi profilattiche nel ridurre gli eventi trombotici senza aumentare il rischio di emorragie serie.

“La meta-analisi, che ha incluso circa 4500 pazienti COVID-19 – conclude Violi – dimostra come questa terapia rappresenterebbe un utile supporto non solo per ridurre gli eventi trombotici, ma anche della mortalità, che, purtroppo, rimane ancora elevata fra questi soggetti”.

Riferimenti:

The ADA (Age-D-Dimer-Albumin) score to predict thrombosis in SARS-CoV-2 – Francesco Violi, Pasquale Pignatelli, Annarita Vestri, Alessandra Spagnoli, Francesco Cipollone, Giancarlo Ceccarelli, Alessandra Oliva, Maria Amitrano, Matteo Pirro, Gloria Taliani, Roberto Cangemi, Miriam Lichtner, Francesco Pugliese, Marco Falcone, Mario Venditti, Claudio Maria Mastroianni, Lorenzo Loffredo – Thromb Haemost DOI: 10.1055/a-1788-7592

Full versus prophylactic-intermediate doses of anticoagulants in COVID-19: a meta-analysis – Lorenzo Loffredo, Augusto Di Castelnuovo, Giovanni Aldo Chiariello, Pasquale Pignatelli and Francesco Violi – Haematologica

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Le nanoparticelle diventano invisibili per essere più efficaci contro i tumori

Un team di ricerca internazionale coordinato dalla Sapienza ha messo a punto un nuovo tipo di nanoparticella per la veicolazione e il trasporto dei farmaci che, grazie a un rivestimento di proteine plasmatiche umane, è in grado di ingannare il sistema immunitario, permanendo a lungo nell’organismo. I risultati dello studio sono stati pubblicati sulla rivista ACS Nano.

liposoma nanoparticelle tumori
Le nanoparticelle diventano invisibili per essere più efficaci contro i tumori. Lo schema di un liposoma. Immagine di Emmanuel Boutet, CC BY-SA 3.0

In campo biomedico i liposomi rappresentano lo strumento ideale per veicolare il trasporto di farmaci nelle terapie antitumorali. Queste nanoparticelle, formate da uno o più doppi strati lipidici, offrono numerosi vantaggi rispetto alle tecnologie tradizionali, come la possibilità di ridurre le dosi dei farmaci, aumentando la selettività verso gli organi bersaglio e la riduzione degli effetti collaterali potenzialmente dannosi. Tuttavia, solo un numero esiguo di formulazioni liposomiali è stato approvato dagli enti regolatori ed è entrato stabilmente nella pratica clinica.

Decenni di ricerche hanno stabilito infatti che il limitato successo clinico dei liposomi è dovuto principalmente ai cambiamenti a cui essi vanno incontro non appena entrano in contatto con il sangue: una volta introdotti nel liquido organico, questi si ricoprono di una “corona proteica” e vengono riconosciuti dal sistema immunitario come un corpo estraneo da eliminare. Quello che il sistema immunitario combatte quindi non è il liposoma in sé stesso, ma proprio l’abito proteico che indossa nel sangue.

Da qui nasce l’idea di un team di ricerca internazionale, coordinato da Giulio Caracciolo e Saula Checquolo della Sapienza, di realizzare un rivestimento proteico invisibile al sistema immunitario, per “ingannarlo” e “fargli accettare” le nanoparticelle che contengono la terapia farmacologica.

La particella biomimetica messa a punto dai ricercatori in uno studio pubblicato sulla rivista ACS Nano, con la collaborazione della University of Technology di Graz in Austria e della Utrecht University in Olanda, è detta proteoDNAsoma ed è costituita da tre comparti distinti: lipidi, DNA e proteine.

Lo strato più interno è formato da un core lipidico, in cui è incapsulato il farmaco da veicolare, il quale è ricoperto da un rivestimento di DNA con una duplice finalità: funzionale e strutturale. Funzionalmente iI DNA serve a far esprimere una proteina terapeuticamente utile nella cellula bersaglio, mentre la sua carica elettrica negativa permette di far adsorbire un terzo e ultimo strato fatto di specifiche proteine plasmatiche. E’ proprio questo strato proteico a rendere il proteoDNAsoma invisibile al sistema immunitario.

“Rivestire le nanoparticelle con una corona proteica artificiale fatta di proteine plasmatiche umane – spiega Giulio Caracciolo del Dipartimento di Medicina molecolare della Sapienza – permette di ridurre drasticamente la captazione da parte dei leucociti e di prolungare la circolazione delle vescicole lipidiche nell’organismo, aumentando così l’efficacia terapeutica del trattamento farmacologico”.

Numerose sono le applicazioni di questa scoperta, prima fra tutte l’immunoterapia dei tumori, ma anche altri campi di natura biomedica.

 

Riferimenti:

Opsonin-deficient nucleoproteic corona endows unPEGylated liposomes with stealth properties in vivo – Francesca Giulimondi, Elisabetta Vulpis, Luca Digiacomo, Maria Valeria Giuli, Angelica Mancusi, Anna Laura Capriotti, Aldo Laganà, Andrea Cerrato, Riccardo Zenezini Chiozzi, Carmine Nicoletti, Heinz Amenitsch, Francesco Cardarelli, Laura Masuelli, Roberto Bei, Isabella Screpanti, Daniela Pozzi, Alessandra Zingoni, Saula Checquolo, Giulio Caracciolo – ACS Nano 2022 https://doi.org/10.1021/acsnano.1c07687

 

Testo e immagine dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma sullo studio circa le modalità per avere nanoparticelle più efficaci contro i tumori.

La pelle del camaleonte come modello per lo sviluppo di un dispositivo in grado di misurare i livelli di glucosio nelle urine

Il biosensore, progettato da ricercatori della Sapienza, del Cnr e di altri enti internazionali ispirandosi alla naturale organizzazione nanostrutturata della pelle del rettile, potrà avere anche altri campi di applicazione, come il monitoraggio di marker tumorali o il riconoscimento specifico di anticorpi come quelli anti-SARS-CoV-2.

camaleonte glucosio

Il monitoraggio costante e continuo della glicemia è una pratica fondamentale per la corretta sorveglianza e gestione della terapia del diabete. L’autocontrollo della glicemia avviene principalmente mediante l’utilizzo di piccoli apparecchi elettronici (glucometri) che analizzano in breve tempo i valori glicemici su piccoli quantitativi di sangue. Considerando il costante aumento delle persone diabetiche e iperglicemiche, lo sviluppo di sistemi innovativi che possano essere rapidi, compatti, flessibili, indossabili, e capaci di lavorare senza l’analisi di piccoli quantitativi di sangue, è in costante sviluppo.

In questo contesto, si inserisce lo studio pubblicato sulla rivista NPG Asia Materials – Nature da ricercatori del Dipartimento di Scienze e biotecnologie medico-chirurgiche della Sapienza, in collaborazione con il CNR e altri enti internazionali.

Il team di ricerca ha sviluppato un biosensore per la misurazione delle concentrazioni di glucosio nelle urine che utilizza una combinazione vincente di polimeri a più strati (idrogel) e nanoparticelle di argento: questa struttura multistrato (che ospita nano-riflettori con geometria cubica) è stata ispirata dalla naturale organizzazione nanostrutturata che si trova nella pelle del camaleonte.

“Lo studio – spiega Luciano De Sio della Sapienza – ha dimostrato che il biosensore è in grado di monitorare concentrazioni di glucosio molto basse con un limite di rivelabilità più basso rispetto ai dispositivi attualmente disponibili.

Il dispositivo proposto, oltre a essere flessibile, risulta possedere sia proprietà antibatteriche che foto-termiche grazie alle nanoparticelle di argento: l’utilizzo di una radiazione luminosa consente di produrre significative variazioni di temperatura che rendono il dispositivo sterilizzabile e riutilizzabile.

“I prossimi passi – commenta Antonella Calogero – saranno quelli di sfruttare l’enorme versatilità del dispositivo aggiungendo opportune funzionalizzazioni biochimiche che permettano l’utilizzo del biosensore in altri campi di applicazione, quali il monitoraggio di marker tumorali o il riconoscimento specifico di anticorpi come, ad esempio, quelli sviluppati a seguito di infezione da SARS-CoV-2”.

Inoltre, sarà possibile realizzare biosensori indossabili per il monitoraggio multiplo di analiti di interesse medico, anche in condizioni di microgravità.

Riferimenti:

Ziai, F. Petronella, C. Rinoldi, P. Nakielski,A. Zakrzewska, T. A. Kowalewski, W. Augustyniak, X. Li, A. Calogero, I. Sabała, B. Ding, L. De Sio,* and F. Pierini*Chameleon-inspired multifunctional plasmonic nanoplatforms for biosensing applications. NPG Asia Mater 14, 18 (2022). https://doi.org/10.1038/s41427-022-00365-9

Testo e immagine dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma