News
Ad
Ad
Ad
Author

ScientifiCult

Browsing

Un nuovo studio della Sapienza e del Policlinico Umberto I di Roma fornisce per la prima volta una interpretazione del rischio trombotico nei pazienti Covid-19, aprendo la strada a una identificazione precoce dei soggetti ad alto rischio e a nuove prospettive terapeutiche.

Foto di Michal Jarmoluk 

Eruzioni cutanee, gambe gonfie, cateteri ostruiti e morte improvvisa.  La “tempesta” di coaguli di sangue è una complicazione letale in una buona percentuale di coloro che si ammalano gravemente di COVID-19.

Alcuni studi stanno iniziando a chiarire i meccanismi alla base di questa correlazione, ma fino a oggi la strategia terapeutica giusta per una guarigione era ancora lontana.

In un nuovo lavoro coordinato da Francesco Violi del Dipartimento di Medicina interna e specialità mediche e pubblicato sulla rivista Circulation Research, il team di ricercatori della Sapienza e del Policlinico Umberto ha osservato valori molto bassi di albumina sierica nei pazienti Covid-19 e ne ha quindi indagato, confermandola, una relazione con le complicanze trombotiche.

Partendo dall’assunto che, in qualsiasi condizione clinica, quando l’albumina nel sangue è inferiore a un certo livello – che corrisponde a <35g/L – il rischio di trombosi arteriosa e venosa aumenta, i ricercatori hanno verificato questi dati nei pazienti Covid-19. Lo studio, condotto su 73 pazienti ricoverati presso i reparti di Malattie infettive e di Terapia intensiva del Policlinico Umberto I, diretti rispettivamente da Claudio Mastroianni e Francesco Pugliese, ha dimostrato che i pazienti Covid-19, soprattutto quelli gravi o che andavano incontro a complicanze trombotiche, avevano valori di albumina più bassi, appunto, di 35g/L.

L’albumina è una importante proteina del sangue che svolge una potente attività antinfiammatoria grazie alla capacità di antagonizzare gli effetti dello stress ossidativo nel nostro organismo. L’importanza di queste funzioni è confermata dal fatto che quando vi è una riduzione dei livelli di albumina plasmatica, le cellule producono elevate quantità di radicali di ossigeno, portando a una attivazione incontrollata delle cellule fino alla loro morte.

“Il nostro lavoro – spiega Francesco Violi del Dipartimento di Medicina interna e specialità mediche della Sapienza e Direttore della I Clinica Medica del Policlinico – oltre a dare una interpretazione, fino a ora non chiarita, del rischio trombotico dei pazienti Covid-19, apre la strada a una identificazione precoce dei soggetti ad alto rischio e a nuove prospettive terapeutiche per ridurne le trombosi”.

Riferimenti:

Hypoalbuminemia, Coagulopathy and Vascular Disease in Covid-19 – Francesco Violi, Giancarlo Ceccarelli  Roberto Cangemi, Francesco Alessandri, Gabriella d’Ettorre, Alessandra Oliva, Daniele Pastori, Lorenzo Loffredo, Pasquale Pignatelli, Franco Ruberto, Mario Venditti, Francesco Pugliese, and Claudio Maria Mastroianni – Circulation Research Jun 2020 https://doi.org/10.1161/CIRCRESAHA.120.317173

 

Testo dal Settore Ufficio stampa e comunicazione Università Sapienza di Roma

Lo studio che lo dimostra mettendo insieme due teorie finora discordanti è stato pubblicato su Physical Review X
Sferici, lisci e semplici secondo la teoria della relatività o estremamente complessi e ricchissimi d’informazione come, seguendo le leggi quantistiche, diceva Stephen Hawking: su questi misteriosi oggetti cosmici una risposta univoca non c’è. Una nuova ricerca propone ora una soluzione al dilemma. Davvero sorprendente
buchi neri ologramma
Credits: Gerd Altmann da Pixabay

Tutti abbiamo negli occhi la prima incredibile immagine di un buco nero che ha fatto il giro del mondo circa un anno fa. Eppure, secondo una nuova ricerca targata Sissa, Ictp e Infn, i buchi neri sarebbero come un ologramma, dove tutte le informazioni sono ammassate su una superficie a due dimensioni capace di riprodurre un’immagine tridimensionale.

In questo modo questi corpi cosmici, come sostenuto dalle teorie quantistiche, potrebbero essere incredibilmente complessi e concentrare un’enorme quantità di informazione al proprio interno, come “il più grande hard disk che esista in Natura”, in due dimensioni. E questo senza contrapporsi alla relatività di Einstein che li vorrebbe in tre dimensioni, semplici, sferici, lisci, come si presentano in quella celebre immagine. Insomma, i buchi neri “appaiono” come non sono, proprio come gli ologrammi. Lo studio che lo dimostra, e che mette insieme due teorie finora discordanti, è da poco stato pubblicato su Physical Review X.

Il mistero dei buchi neri

Per gli scienziati, i buchi neri rappresentano un grosso punto interrogativo per diversi aspetti. Sono, per esempio, ottimi rappresentanti delle grosse difficoltà della fisica teorica nel mettere insieme i principi della teoria della relatività generale di Einstein con quelli della fisica quantistica quando si parla di gravità. Secondo la prima teoria sarebbero corpi semplici e senza informazione. Secondo l’altra, come sostenuto da Jacob Bekenstein e Stephen Hawking, sarebbero invece “i sistemi più complessi esistenti” perché caratterizzati da un enorme “entropia”, che misura la complessità di un sistema, e quindi con moltissima informazione al loro interno.

Il principio olografico applicato ai buchi neri

Per studiare i buchi neri, i due autori della ricerca Francesco Benini e Paolo Milan hanno utilizzato un’idea vecchia di quasi trent’anni ma ancora sorprendente detta “Principio olografico”. Raccontano i ricercatori: “Questo principio, rivoluzionario e un po’ controintuitivo, propone che il comportamento della gravità in una determinata regione di spazio si possa alternativamente descrivere in termini di un diverso sistema, che vive solo lungo il bordo di quella regione e quindi in una dimensione in meno. E, cosa più importante, in questa descrizione alternativa (detta appunto olografica) la gravità non compare esplicitamente. In altre parole, il principio olografico ci permette di descrivere la gravità usando un linguaggio che non contiene la gravità, evitando così frizioni con la meccanica quantistica”.

Quello che Benini e Milan hanno fatto in questo studio “è applicare la teoria del principio olografico ai buchi neri. In questo modo le loro misteriose proprietà termodinamiche sono diventate più comprensibili:
focalizzandoci sulla previsione che questi corpi abbiano una grande entropia, e osservandoli dal punto di vista della meccanica quantistica, si può descriverli proprio come un ologramma: sono a due dimensioni, in cui la gravità sparisce, ma riproducono un oggetto in tre dimensioni”.

Dalla teoria all’osservazione

“Questo studio” spiegano i due scienziati “è solo il primo passo verso una comprensione più profonda di questi corpi cosmici e delle proprietà che li caratterizzano quando la meccanica quantistica si incrocia con la relatività generale. Il tutto è ancora più importante ora, nel momento in cui le osservazioni in astrofisica stanno conoscendo un incredibile sviluppo. Basti pensare all’osservazione delle onde gravitazionali provenienti dalla fusione di buchi neri frutto della collaborazione LIGO e Virgo o, per l’appunto, quella del buco nero fatta dall’Event Horizon Telescope che ha prodotto quella straordinaria immagine. In un futuro vicino potremo forse mettere alla prova dell’osservazione le nostre predizioni teoriche riguardo la gravità quantistica, come quelle fatte in questo studio. E questo, dal punto di vista scientifico, sarebbe una cosa assolutamente eccezionale”.

Comunicato stampa sui buchi neri come ologramma dalla Scuola Internazionale Superiore di Studi Avanzati

Un nuovo studio del Dipartimento di Biologia e Biotecnologie Charles Darwin della Sapienza ha valutato l’impatto delle attività umane sull’estinzione locale dei mammiferi negli ultimi 50 anni. Solo poche specie sono riuscite a trarre vantaggio dalla convivenza con l’uomo colonizzando nuove aree. Il lavoro è pubblicato su Nature Communications

mammiferi estinzione
Rinoceronte bianco, una delle specie il cui areale di distribuzione ha subito gli impatti maggiori dovuti alle attività antropiche.

L’impatto delle attività umane sull’ambiente, che ha avuto un notevole incremento a partire dagli anni ‘70 del secolo scorso con la terza rivoluzione industriale, sta alterando sensibilmente i processi ecologici alla base della vita sulla Terra.

Uno degli effetti principali dell’intensificarsi delle attività antropiche è la progressiva scomparsa di alcune specie autoctone, con risvolti drammatici sugli equilibri ecosistemici a esse associati. I mammiferi, in particolare, sono stati oggetto di importanti diminuzioni, con il 25% delle specie viventi ritenuto oggi a rischio di estinzione.

In un nuovo studio pubblicato sulla rivista Nature Communications, il team di ricercatori coordinato da Michela Pacifici del Dipartimento di Biologia e biotecnologie Charles Darwin ha confrontato le distribuzioni di un campione rappresentativo di mammiferi terrestri negli anni ‘70 e oggi, riscontrando che circa il 75% di queste ha subito cambiamenti.

I ricercatori hanno inoltre individuato i fattori associati al declino e all’espansione dell’areale, ovvero della superfice normalmente abitata da una specie, includendo tra queste variabili sia quelle di natura antropica sia quelle legate alla biologia delle specie, come il peso e le strategie riproduttive.

“Abbiamo scoperto – spiega Michela Pacifici – che una specie su cinque ha subito contrazioni dell’areale di oltre il 50%. I principali responsabili sembrano essere l’incremento della temperatura globale, la perdita di aree naturali e l’aumento della densità umana, fattori che influiscono soprattutto su specie di grandi dimensioni come il rinoceronte bianco, l’elefante asiatico e l’antilope Addax”.

Comprendere quali variabili siano implicate nel declino dei mammiferi è fondamentale per focalizzare le azioni di conservazione necessarie, specialmente in considerazione delle molteplici minacce alle quali i mammiferi sono soggetti, incluso il cambiamento climatico.

“Studi precedenti – commenta Carlo Rondinini, coautore dello studio e coordinatore del Global Mammal Assessment, una partnership tra Sapienza e l’Unione internazionale per la conservazione della natura (Iucn) – evidenziano che le uniche specie in grado di spostarsi abbastanza velocemente per seguire il clima che cambia sono i grandi mammiferi. Da questo studio si evidenzia che proprio i grandi mammiferi hanno maggiormente sofferto l’azione diretta dell’uomo. Resta quindi fondamentale, per evitare la scomparsa dei grandi mammiferi, mettere in atto tutte le misure per consentire il loro spostamento naturale alla ricerca di ambienti adatti”.

Per quanto riguarda l’espansione di areale, i risultati dello studio evidenziano che le specie che ne hanno beneficiato sono in numero inferiore e che le variabili determinanti sono maggiormente legate alle caratteristiche intrinseche, favorendo le specie con tassi riproduttivi veloci, dieta generalista e massa corporea inferiore.

“Questo studio – aggiunge Moreno Di Marco, autore senior dello studio – dimostra ancora una volta che ci sono molte specie di mammiferi che declinano rapidamente in seguito alla pressione antropica, mentre poche specie riescono, per le loro caratteristiche biologiche, ad adattarsi ed eventualmente approfittare del cambiamento globale”.

“I nostri dati – conclude Pacifici – dimostrano che una percentuale elevata di mammiferi, tra cui molte specie carismatiche, sta scomparendo da zone in cui questi erano presenti fino a meno di 50 anni fa. Questo risultato allarmante evidenzia come sia di fondamentale importanza comprendere quali siano i fattori di rischio che hanno portato le specie a estinguersi localmente, in modo tale da agire in maniera proattiva e ridurre il rischio di ulteriori perdite”.

Riferimenti:

Global correlates of range contractions and expansions in terrestrial mammals – Michela Pacifici, Carlo Rondinini, Jonathan R. Rhodes, Andrew A. Burbidge, Andrea Cristiano, James E. M. Watson, John C. Z. Woinarski & Moreno Di Marco – Nature Communications volume 11, Article number: 2840 (2020) https://doi.org/10.1038/s41467-020-16684-w

https://www.nature.com/articles/s41467-020-16684-w 

 

Testo e foto dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

I buchi neri come fari sulla materia oscura

Una nuova luce sulla strada della ricerca della materia ultraleggera dell’Universo arriva dai buchi neri. È quanto suggerisce lo studio del Dipartimento di Fisica della Sapienza pubblicato sulla rivista Physical Review Letters

buchi neri materia oscura
Il buco nero supermassiccio nel nucleo della galassia ellittica Messier 87 nella costellazione della Vergine. Si tratta della prima foto diretta di un buco nero, realizzata dal progetto internazionale Event Horizon Telescope. Foto modificata Event Horizon Telescope, CC BY 4.0

Le osservazioni sulla cosiddetta materia oscura del nostro Universo sono sempre più numerose e significative, ma sono ancora tante le incognite in questo affascinante campo della fisica moderna.

La particella elementare massiccia più leggera conosciuta in natura è il neutrino, con una massa qualche milione di volte più piccola di quella di un elettrone. Alcuni modelli di materia oscura hanno però suggerito l’esistenza di particelle elementari anche molto più leggere, le cui masse che possono essere miliardi di volte più piccole di quella di un neutrino.

Rilevare queste sfuggenti particelle è impossibile sulla Terra, a causa delle loro debolissime interazioni con la materia “conosciuta”, cosiddetta ordinaria.

In un nuovo lavoro recentemente pubblicato sulla rivista Physical Review Letters, il team di ricercatori coordinato da Paolo Pani del Dipartimento di Fisica della Sapienza, ha identificato nei buchi neri un metodo innovativo per la ricerca di questa materia oscura ultraleggera.

I buchi neri possono amplificare radiazione in un certo range di frequenze generando un sorprendente effetto chiamato superradianza. Finora la superradianza e il suo segnale emesso in onde gravitazionali sono stati studiati solo per una certa famiglia di particelle con proprietà simili al fotone, per riprodurre onde elettromagnetiche, qui, per la prima volta sono stati applicati a particelle con proprietà simili al gravitone, trasformando i buchi neri in veri e propri “fari di onde gravitazionali”.

Secondo i ricercatori, se tali particelle esistono in natura e hanno una massa minuscola, potenzialmente qualsiasi buco nero nell’universo potrebbe emettere periodicamente onde gravitazionali a una data frequenza (direttamente correlata alla massa delle particelle di materia oscura), analogamente a uno strumento musicale che ripete sempre la stessa singola nota con cadenza regolare.

“Cercando questo segnale – commenta Paolo Pani – i rivelatori di onde gravitazionali come LIGO e Virgo (e la futura missione spaziale LISA, supportata da ESA e NASA) cercheranno la materia oscura ultraleggera in un nuovo regime, finora praticamente inesplorato. E forse, dopo tutto, la risposta al problema della materia oscura verrà proprio dai buchi neri”.

Lo studio è parte del progetto Marie Skłodowska Curie “FunGraW” (PI: Richard Brito) e del progetto ERC DarkGRA (PI: Paolo Pani) entrambi ospitati presso il Dipartimento di Fisica della Sapienza.

 

Riferimenti:

Black Hole Superradiant Instability from Ultralight Spin-2 Fields – Richard Brito, Sara Grillo, and Paolo Pani – Phys. Rev. Lett. 124, 211101 – Published 27 May 2020 DOI:https://doi.org/10.1103/PhysRevLett.124.211101

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

CONDIZIONATORE GONFIA LA BOLLETTA DEL 42%,

AUMENTA IL RISCHIO DI POVERTÀ ENERGETICA

 

Studio di Ca’ Foscari e CMCC combina dati Ocse e Nasa di 8 paesi scoprendo una incidenza del raffrescamento sulle spese familiari superiore a quanto previsto da studi precedenti

condizionatore povertà
Immagine di Mohamed Hassan

VENEZIA, 03/06/2020 – L’uso del condizionatore gonfia notevolmente le bollette elettriche delle famiglie, con importanti conseguenze sulla loro “povertà energetica”. Lo rivela uno studio condotto da un gruppo di ricerca dell’Università Ca’ Foscari Venezia e del Centro Euro-Mediterraneo sui Cambiamenti Climatici (CMCC), appena pubblicato sulla rivista scientifica Economic Modeling.

Studi precedenti realizzati negli Stati Uniti stimano un incremento della spesa familiare per l’energia elettrica legata ai condizionatori intorno all’11%. Analizzando i dati socio-economici di famiglie residenti in altri paesi OCSE (Australia, Canada, Francia, Giappone, Olanda, Spagna, Svezia e Svizzera) e dati climatici della NASA, gli autori di questo nuovo studio hanno calcolato che, in media, l’uso del condizionatore porta a spendere fino al 42% in più per l’energia elettrica, rispetto a chi non ha il condizionatore.

Gli aumenti effettivi dipenderanno da quanti gradi centigradi in più le famiglie dovranno affrontare per via del cambiamento climatico. I consumi elettrici per raffrescamento saranno quindi un nuovo fattore destinato ad aumentare la povertà energetica legata all’elettricità, condizione in cui si trovano le famiglie che spendono più del 5% del loro reddito annuale in bollette elettriche.

Secondo il Buildings Performance Institute Europe, nel 2014 la povertà energetica toccava già il 10-15% delle famiglie europee. Lo studio appena pubblicato delinea invece una situazione ancor più preoccupante.

“Il concetto di povertà energetica, già oggetto di attenzione in Europa, è di norma legato alla possibilità di assicurarsi un livello adeguato di riscaldamento durante i mesi più freddi – spiega Enrica De Cian, professoressa di Economia ambientale a Ca’ Foscari e responsabile del team di ricerca del progetto ERC Energya che ha svolto lo studio. – I nostri dati, tuttavia, suggeriscono di allargare il concetto includendo il ruolo sempre più determinante del raffrescamento estivo. I nuclei familiari più poveri spendono già di norma una porzione ampia del loro budget in beni essenziali, come il cibo e l’elettricità. Quest’ultima voce dovrà aumentare per proteggere i più vulnerabili dal rischio di mortalità o da altri gravi problemi di salute durante le ondate di calore”.

Possedere l’aria condizionata comporta importanti conseguenze sia per la spesa energetica delle famiglie che dei Paesi, anche se permangono grandi differenze: negli Stati Uniti rappresenta l’11% del consumo energetico negli edifici mentre in Europa è solo l’1,2%.

“I dati che abbiamo analizzato rivelano che in Spagna il 18.5% delle famiglie spende più del 5% del proprio budget in elettricità – afferma l’economista cafoscarina. Queste percentuali sono generalmente più alte nei paesi freddi, arrivando al 24.2% in Svezia. In Francia e Svizzera troviamo numeri più bassi: 8% e 5% rispettivamente”. L’Italia non è stata analizzata perché non compresa nel dataset OCSE considerato in questo studio, ma “ci aspettiamo un andamento simile a Francia e Spagna, e lo stiamo verificando negli studi che stiamo svolgendo”.

Chi usa il condizionatore e perché

“L’elemento innovativo di questo lavoro – afferma l’economista Teresa Randazzo, prima autrice dello studio – è che la nostra analisi empirica permette di tenere conto di fattori di scelta che sono di norma difficili da osservare e misurare, come la percezione personale del comfort termico, l’avversione al rischio o la consapevolezza ambientale”.

Lo studio evidenzia in effetti come varie caratteristiche degli individui e dei nuclei familiari portino – o meno – all’adozione dell’aria condizionata nelle case. Ad esempio, la presenza di minori in casa induce ad adottare e ad usare di più i condizionatori.

Ancora, gli individui più istruiti tendono a usare meno i condizionatori, suggerendo che sono più consapevoli dell’impatto dei loro consumi sull’ambiente. Allo stesso modo, le famiglie che sono più inclini al risparmio energetico tendono ad usare meno l’aria condizionata. Viceversa, le famiglie che posseggono numerosi elettrodomestici tendono ad usare di più i condizionatori.

Vivere in aree urbane aumenta la probabilità che si adotti un condizionatore di 9 punti percentuali, un contributo importante, se paragonato al ruolo del clima o del reddito familiare, probabilmente dovuto al fenomeno delle isole di calore urbane”, spiega Malcolm Mistry, responsabile dei dati climatici per il progetto Energy-a, e coautore della ricerca.

L’analisi dei dati su famiglie e clima

Per capire meglio le dinamiche di adozione dell’aria condizionata nei paesi industrializzati e il suo impatto sul bilancio delle famiglie, anche alla luce dei cambiamenti climatici, i ricercatori di Energya hanno esaminato otto paesi OCSE di diverse latitudine: Australia, Canada, Francia, Giappone, Paesi Bassi, Spagna, Svezia e Svizzera.

I ricercatori hanno combinato le informazioni geo-codificate su 3.615 famiglie provenienti da dati dell’OCSE raccolti nel 2011, con dati storici sul clima. “La nostra rielaborazione dei dati climatici NASA-GLDAS calcola i cosiddetti Cooling Degree Days per gli ultimi 49 anni, un indicatore comunemente usato in letteratura per catturare l’intensità e la durata dei periodi particolarmente caldi e i corrispondenti bisogni di raffreddamento”, spiega Malcolm Mistry.

I trend nel mercato dei condizionatori

Spinte in gran parte dal settore residenziale, dal 1990 le vendite annuali dei condizionatori d’aria  sono più che triplicate a livello mondiale, raggiungendo 135 milioni unità nel 2016, secondo gli ultimi dati dell’Agenzia Internazionale per l’Energia. La Cina è in testa, con 41 milioni di condizionatori nelle case private, seguita da 16 milioni negli Stati Uniti e circa 9 milioni sia in Giappone che in Europa. “Secondo il nostro studio, oltre al ruolo determinante del miglioramento del tenore di vita, i cambiamenti climatici aumenteranno i tassi di adozione dell’aria condizionata anche in Europa, con incrementi fino al 21% in Spagna e al 35% in Francia tra soli 20 anni” conclude la professoressa De Cian.

 

Riferimenti

Link all’articolo su Economic Modeling: https://doi.org/10.1016/j.econmod.2020.05.001

 

Testo e grafico dall’Ufficio Comunicazione e Promozione di Ateneo Università Ca’ Foscari Venezia

Il topolino domestico delle Isole Eolie: uno straordinario modello evolutivo risultato di una amicizia millenaria con l’uomo 

Lo studio firmato Sapienza identifica nel patrimonio genetico del piccolo animale il segreto per la comprensione degli intricati meccanismi legati alla comparsa di nuove specie I risultati sono stati pubblicati sulla rivista Molecular Biology and Evolution

topolino domestico delle Isole Eolie
Vista di Vulcano dall’osservatorio di Lipari. Foto Flickr di Andrea Pacelli, CC BY-SA 2.0

Secondo il calendario cinese, il 2020 è l’anno del Topo e la rivista Molecular Biology and Evolution ha voluto celebrare questo avvenimento dedicando una particolare attenzione scientifica agli studi sulla genetica evolutiva di ratti e topi.

Fra questi, è stato selezionato e pubblicato il lavoro del gruppo di ricerca coordinato da Riccardo Castiglia del Dipartimento di Biologia e biotecnologie Charles Darwin della Sapienza, riguardante l’evoluzione in Mus domesticus, anche detto topolino delle case o topo domestico, nell’arcipelago delle Isole Eolie (Sicilia).

Lo studio, per mezzo di tecniche di sequenziamento genetico di ultima generazione (Next Generation Sequencing, NGS), ha analizzato da un nuovo punto di vista la straordinaria diversità cromosomica delle popolazioni del topolino delle case che vivono nell’arcipelago. La particolarità genetica di questo animale è il risultato di una millenaria convivenza con l’uomo che avrebbe avuto quindi un ruolo determinate nel suo processo evolutivo.

Il topolino domestico ha origine nel corso del Neolitico in Medio Oriente, come commensale dell’uomo che, a quel tempo, iniziava a vivere in comunità stanziali. Da lì, insieme al suo compagno di viaggio si è spostato arrivando nel Mediterraneo centrale circa 3.000 anni fa, durante l’Età del Ferro. Le Isole Eolie rappresentavano in quel periodo storico un crocevia di passaggio delle navi mercantili, una delle principali vie commerciali dell’ossidiana, il prezioso vetro nero vulcanico.

“Le isole – commenta Emanuela Solano, autrice dello studio – sono una fabbrica di variabilità genetica e rappresentano un vero paradiso per il biologo evoluzionista. Grazie alla collaborazione con l’Università di Konstanz, nel nostro lavoro abbiamo affiancato per la prima volta all’analisi dell’evoluzione cromosomica in Mus domesticus, che è il nostro ambito di ricerca da svariati anni, un approccio genome wide, basato sull’indagine dell’intero genoma”.

Così i ricercatori hanno osservato come il Mus domesticus abbia sviluppato, nel tempo e in molte delle aree che ha “colonizzato”, diverse mutazioni cromosomiche (dette traslocazioni Robertsoniane) da cui sono derivate le cosiddette razze cromosomiche, ovvero numerose popolazioni con numero cromosomico variabile. Nello specifico è stato evidenziato che tale diversità cromosomica si è originata all’interno dell’arcipelago e non deriva da colonizzazioni multiple da aree limitrofe, come invece si riteneva in precedenza.

Inoltre, sono stati dimostrati complessi meccanismi di ibridazione che hanno “rimescolato” le razze cromosomiche presenti sulle diverse isole per arrivare a nuove combinazioni cromosomiche.

“La presenza di razze cromosomiche – aggiunge Solano – rende il topolino un modello per gli studi volti a comprendere i meccanismi legati all’origine di nuove specie (la speciazione) e il ruolo delle mutazioni cromosomiche nella fertilità degli ibridi”.

“La risoluzione di questo complesso modello di evoluzione cromosomica – conclude Riccardo Castiglia – ha dimostrato che il topolino ha grandi “capacità evolutive” e che nella sua veste selvatica può rappresentare un occhio sull’evoluzione in tempi brevi, evidenziando, ogni volta che si va a fondo su questo argomento, aspetti sorprendenti. Rappresenta, quindi, un validissimo strumento per la comprensione degli intricati meccanismi che portano alla comparsa di nuove specie rappresentando un proxy per lo studio della biodiversità del pianeta”.

Riferimenti:

Reconstructing the evolutionary history of chromosomal races on islands: a genome-wide analysis of natural house mouse populations – Paolo Franchini,  Andreas F Kautt,  Alexander Nater,  Gloria Antonini,  Riccardo Castiglia, Axel Meyer,  Emanuela Solano – Molecular Biology and Evolution https://doi.org/10.1093/molbev/msaa118

 

Testo sul topolino domestico delle Isole Eolie (Sicilia) dal Settore Ufficio stampa e comunicazione dell’Università Sapienza di Roma

Un nuovo alleato per resistere a quell’incontrollabile desiderio di abbuffarsi di cibo

Lo studio italiano dei gruppi di ricerca della Sapienza e dell’Università di Camerino ha identificato in una molecola, l’oleoiletanolamide, un nuovo strumento farmacologico per prevenire e contrastare il disturbo da alimentazione incontrollata. I risultati del lavoro sono stati pubblicati sulla prestigiosa rivista Neuropsychopharmacology

oleoiletanolamide

Durante questo periodo unico nella storia moderna rifugiarsi nel cibo è per molte persone un modo per sfuggire alle emozioni negative e per gratificarsi attraverso i piaceri della vita. Questo perché molti alimenti, soprattutto quelli ricchi di zuccheri, costituiscono una fonte di energia immediatamente disponibile per l’organismo e allo stesso tempo stimolano la trasmissione dopaminergica nel cervello, il neurotrasmettitore associato alla motivazione e al senso di gratificazione.

Si tratta di una normale risposta fisiologica allo stress che, tuttavia, in molti individui diventa un comportamento compulsivo, incontrollabile e ripetitivo che spesso sfocia in una vera e propria patologia. È il caso del Binge Eating Disorder (BED) il disturbo alimentare più comune, caratterizzato da episodi ricorrenti di abbuffate fuori controllo, analoghe a quelle della bulimia, non seguiti da atti compensatori o di eliminazione (come l’induzione del vomito o l’auto-somministrazione di lassativi). Chi ne è affetto sviluppa nel tempo obesità grave, oltre a un marcato disagio psicologico, caratterizzato da depressione, ansia, bassa autostima o altri problemi che possono influenzare notevolmente la qualità della vita.

I trattamenti più significativi e attualmente disponibili per il BED prevedono una combinazione di psicoterapia e farmacoterapia, quest’ultima generalmente basata su farmaci antidepressivi. Tuttavia, il fatto che il tasso di ricaduta sia ancora molto elevato evidenzia la necessità di individuare strategie più efficaci.

Due gruppi di ricerca coordinati rispettivamente da Silvana Gaetani del Dipartimento di Fisiologia e farmacologia Vittorio Erspamer della Sapienza e da Carlo Cifani della Scuola di Scienze del farmaco e dei prodotti della salute dell’Università di Camerino, hanno identificato in una molecola, l’oleoiletanolamide, un nuovo strumento farmacologico per prevenire e contrastare il disturbo da alimentazione incontrollata. I risultati dello studio sono stati recentemente pubblicati sulla rivista Neuropsychopharmacology.

Il crescente interesse della comunità scientifica per l’oleoiletanolamide, più nota con il suo acronimo OEA, deriva dal suo ruolo ben caratterizzato come segnale di sazietà per il cervello e come regolatore del metabolismo, soprattutto quello dei grassi.  In questo panorama di scoperte chiave sul ruolo dell’OEA, il team Sapienza ha dato negli ultimi quindici anni un significativo contributo.

“Oggi sappiamo – spiegano Adele Romano della Sapienza e Maria Vittoria Micioni Di Bonaventura dell’Università di Camerino, entrambe primi co-autori dello studio – che l’OEA è in grado di prevenire lo sviluppo di un comportamento alimentare anomalo, di tipo binge, e agisce modulando l’attività di circuiti cerebrali che rispondono alle proprietà piacevoli del cibo e/o all’esposizione a una condizione stressante”.

“Le prove scientifiche che abbiamo fornito – aggiunge Silvana Gaetani – sono state ottenute in un modello sperimentale di BED, sviluppato dal team di Carlo Cifani, e sebbene debbano essere confermate in pazienti affetti da BED, fanno ben sperare che l’OEA possa essere effettivamente un nuovo potenziale alleato per la prevenzione o la cura dei disturbi del comportamento alimentare”.

 

Riferimenti:

Oleoylethanolamide decreases frustration stress-induced binge-like eating in female rats: a novel potential  treatment for binge eating disorder – Adele Romano, Maria Vittoria Micioni Di Bonaventura, Cristina Anna Gallelli, Justyna Barbara Koczwara, Dorien Smeets, Maria Elena Giusepponi, Marialuisa De Ceglia, Marzia Friuli, Emanuela Micioni Di Bonaventura, Caterina Scuderi, Annabella Vitalone, Antonella Tramutola, Fabio Altieri, Thomas A. Lutz, Anna Maria Giudetti, Tommaso Cassano, Carlo Cifani and Silvana Gaetani – Neuropsychopharmacology (2020) 0:1–11; https://doi.org/10.1038/s41386-020-0686-z

 

Testo e foto dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

I giovani ricercatori del QuantumLab della Sapienza, coordinato da Fabio Sciarrino, hanno realizzato la prima rete quantistica in grado di generare correlazioni non-locali tra cinque laboratori distinti. L’articolo è stato pubblicato su Nature Communications

rete quantistica Quantum Lab

Dodici giovanissimi ricercatori, cinque laboratori da coordinare e una rete da formare.

Così l’esperienza interdisciplinare del gruppo del Quantum Information Lab della Sapienza, guidato da Fabio Sciarrino e composto da un laureando magistrale, sei studenti di dottorato, un tecnico elettronico, un assegnista e un ricercatore, con il supporto del fisico brasiliano Rafael Chaves, ha portato alla realizzazione di una rete quantistica formata da cinque diversi nodi, che ha permesso di mostrare correlazioni quantistiche condivise da più di tre parti distinte, il massimo mai raggiunto finora.

Le tecnologie basate sulle leggi della meccanica quantistica sono sempre più diffuse ed i potenziali vantaggi legati al loro utilizzo sono ormai riconosciuti in tutti i campi, dalla comunicazione alla protezione dei dati. “Ciononostante – commenta Gonzalo Carvacho, assegnista senior del QuantumLab – test di non-località multipartita sono stati limitati ai casi più semplici. Qui andiamo oltre, verso la realizzazione di reti quantistiche più grandi”.

Nello studio pubblicato su Nature Communications, il team ha scelto infatti una configurazione “a stella”, in cui si ha un nodo centrale che condivide uno stato quantistico correlato con quattro nodi periferici, tutti collocati in laboratori diversi, muniti di una sorgente di stati quantistici e da una stazione di misura.

Qui ogni nodo genera uno stato formato da due sottosistemi correlati e, attraverso una fibra lunga 30 metri, ne manda uno a quello centrale. A questo punto, sia il nodo centrale sia quelli periferici effettuano misure sul loro sistema, sincronizzandosi attraverso un sofisticato software realizzato ad hoc per l’esperimento.

“Infine – spiega Davide Poderini, studente di dottorato – abbiamo verificato che tra le sorgenti degli stati quantistici non ci fosse una comunicazione “classica”, bensì solo correlazioni quantistiche (o non classiche). Usando dei dispositivi totalmente diversi e scorrelati nei vari laboratori, possiamo assicurare, con un elevato livello di confidenza, la loro indipendenza”.

“Questo risultato – aggiunge Iris Agresti, da poco assegnista junior del QuantumLab – è un passo avanti significativo verso la realizzazione di una rete quantistica di grandi dimensioni, perché offre un prototipo scalabile, che va oltre gli scenari più semplici realizzati finora”.

I risultati dell’esperimento, per sua natura versatile, costituiscono un elemento chiave per nuovi studi su topologie diverse di rete capaci di generare correlazioni non-classiche di vari tipi, aprendo scenari inesplorati. Inoltre, l’apparato progettato potrà anche essere utilizzato per la realizzazione di nuovi protocolli di comunicazione e di crittografia.

“Il prossimo passo – conclude Fabio Sciarrino – sarà combinare le aree di esperienza del gruppo nella fotonica integrata e nella realizzazione di stati quantistici condivisi da più parti, per nuove applicazioni che si trovino all’intersezione tra la comunicazione e la computazione quantistica”.

Referimenti:

 

Experimental violation of n-locality in a star quantum network – Davide Poderini, Iris Agresti, Guglielmo Marchese, Emanuele Polino, Taira Giordani, Alessia Suprano, Mauro Valeri, Giorgio Milani, Nicolò Spagnolo, Gonzalo Carvacho, Rafael Chaves and Fabio Sciarrino – Nature Communications volume 11, Article number: 2467 (2020) DOI 10.1038/s41467-020-16189-6

rete quantistica Quantum Lab

Testo e immagini dall’Ufficio Stampa Università La Sapienza Roma

Prevedere il comportamento delle piante con un modello matematico 

È uno dei pochi modelli computazionali che, riproducendo l’attività di diversi network genetici, è in grado di fare predizioni poi verificate in vivo. Lo studio, coordinato dal Dipartimento di Biologia e biotecnologie Charles Darwin della Sapienza in collaborazione con l’Università di Utrecht, è stato pubblicato sulla rivista Developmental Cell

piante modello matematico
Radice di Arabidodopsis thaliana esprimente il gene PLETHORA (in giallo) messa a confronto con il layout del modello matematico in cui una simulazione ha distribuito il gene PLETHORA (in bianco)

La crescita di un organo è un processo articolato in cui l’attività delle cellule e dei tessuti che lo compongono deve essere finemente regolata per garantire una forma e una dimensione finale compatibili con la sua funzione. Ciò vale anche per i vegetali, dei quali sono ancora poco noti i meccanismi alla base della formazione di organi, quali radici, fusti e foglie.

Con le moderne tecnologie di analisi molecolare ad ampio spettro è stato possibile raccogliere negli ultimi anni un’enorme quantità di dati di rilevanza biologica, ma la possibilità di integrarli in un modello capace di predire il comportamento in funzione di alcuni parametri resta ancora molto limitata.

In un nuovo studio coordinato da Sabrina Sabatini del Dipartimento di Biologia e biotecnologie Charles Darwin della Sapienza, in collaborazione con il Dipartimento di Biologia computazionale dell’Università di Utrecht, è stato realizzato un modello computazionale in grado di riprodurre esattamente le fasi di crescita della radice di Arabidopsis thaliana. Integrando evidenze sperimentali con la biologia computazionale, il programma predice il comportamento della pianta in vivo e in diverse condizioni ambientali. Il lavoro è stato pubblicato sulla rivista Developmental Cell.

Per acquisire tali risultati, i ricercatori hanno identificato alcuni dei circuiti molecolari centrali nella crescita della radice, utilizzandoli poi come parametri per lo sviluppo del modello.

“Questo lavoro – spiega Sabrina Sabatini – è un esempio di come si può modellizzare un sistema regolativo complesso predicendone gli esiti a partire dai parametri chiave. L’utilizzo di un modello computazionale ci ha permesso di stabilire ad esempio come la proteina PLETHORA (PLT), che si trova in grandi quantità nella nicchia staminale della radice, venga gradualmente diluita in seguito dell’attivazione della divisione cellulare e distribuita nelle cellule indifferenziate di nuova generazione, dove raggiunge livelli minimi di concentrazione”.

Da qui, i ricercatori hanno identificato i network attivi nel differenziamento cellulare e i loro meccanismi di funzionamento: come l’azione inibitoria reciproca di alcune molecole controlli il numero di cellule indifferenziate della radice e come tale processo venga interrotto, a 5 giorni dalla germinazione, da un ormone che favorisce il differenziamento e garantisca una crescita coerente dell’organo.

“Il nostro – conclude Sabatini –  è uno dei pochi modelli dinamici che incorpora l’attività di diversi network genetici in grado di riprodurre in silico la crescita della radice, e potrà essere utilizzato per fare predizioni testabili sperimentalmente in vivo”. 

 

Riferimenti per lo studio sul modello matematico per prevedere il comportamento delle piante:

A self-organized plt/auxin/arr-b network controls the dynamics of root zonation development in arabidopsis thaliana – Elena Salvi, Jaap Rutten, Riccardo Di Mambro, Laura Polverari, Valerio Licursi, Rodolfo Negri, Raffaele Dello Ioio, Sabrina Sabatini & Kirsten Ten Tusscher – Developmental Cell https://doi.org/10.1016/j.devcel.2020.04.004

 

Testo e immagine dell’arabidopsis thaliana dall’Università Sapienza di Roma.

Foto di Naldo Universe

Tumori del seno: un nuovo algoritmo indicherà la cura su misura

Identificato allo IEO, dai ricercatori guidati da Di Fiore e Pece, lo studio è stato sostenuto da Fondazione AIRC.

I ricercatori del Programma di Novel Diagnostics dell’Istituto Europeo di Oncologia (IEO), guidati da Pier Paolo Di Fiore e Salvatore Pece, direttore e vice direttore del Programma e docenti del dipartimento di Oncologia ed Emato-Oncologia dell’Università Statale di Milano, hanno messo a punto e convalidato un nuovo modello di predizione del rischio individuale di metastasi in donne con tumori mammari di tipo luminale, che rappresentano i tre quarti di tutti i tumori al seno.
Il modello sarà quindi una guida per gli oncologi per orientare le scelte terapeutiche paziente per paziente, evitando sia il sovra che il sotto-trattamento nelle terapie post-chirurgiche. Gli studi che hanno portato a questo importante risultato per la cura dei tumori del seno, sostenuti da Fondazione AIRC, saranno presentati al convegno annuale dell’ASCO (American Association of Clinical Oncology), il più importante meeting internazionale di oncologia medica.

Il nuovo modello – spiega Di Fiore – si basa sulla combinazione del predittore genomico (un set di geni che formano una “firma molecolare”) StemPrintER, che noi stessi abbiamo scoperto e validato un anno fa, con due parametri clinici: stato dei linfonodi e dimensione del tumore. In sostanza, abbiamo creato un nuovo modello di rischio, che associa, per la prima volta, dati clinici e dati genomici. Il risultato è stato eccellente: abbiamo testato il modello su oltre 1800 pazienti arruolate allo IEO e abbiamo dimostrato che la sua capacità di stimare il reale rischio di sviluppo di recidiva fino a 10 anni è superiore rispetto ai parametri clinico-patologici comunemente utilizzati nella pratica clinica”.

Il biomarcatore StemPrinter, individuato da IEO, è il primo e tuttora l’unico strumento capace di indicare il grado di “staminalità” presente nel tumore mammario primario, vale a dire il numero e l’aggressività delle cellule staminali del cancro. Queste cellule hanno un ruolo cruciale sia nell’avvio del processo di tumorigenesi che della diffusione metastatica nell’organismo, e sono anche alla base della resistenza alla chemioterapia di ogni tumore del seno. Studi recenti del team dell’IEO hanno inoltre confermato che il grado di staminalità delle cellule determina quell’eterogeneità biologica, clinica, e molecolare del tumore del seno, che ha fino ad ora reso molto difficile prevedere la prognosi e la risposta alla terapia.

“In uno studio condotto in collaborazione con Royal Marsden Hospital e Queen Mary University di Londra e anch’ esso presentato all’ASCO di quest’anno – continua Pece – abbiamo dimostrato che la predizione della prognosi e la conseguente scelta delle terapie per il tumore del seno è più efficace se si basa sulla conoscenza della staminalità delle cellule tumorali . Il nostro modello che integra dati di staminalità e dati clinici si candida quindi a diventare il golden standard per la prognosi del tumore del seno. È un modello duttile, oltreché affidabile: si applica sia alle pazienti con linfonodi negativi, che a quelle con pochi (da uno a 3) linfonodi positivi, che rappresentano il gruppo con il maggior bisogno di una predizione accurata del rischio di recidiva per evitare il sovratrattamento con chemioterapie aggressive non indispensabili, senza per questo trascurare il rischio di sviluppare una recidiva a distanza di anni”. 

“Il nuovo modello può rappresentare uno strumento importante per orientare noi oncologi nella scelta del trattamento adiuvante, che deve tenere in considerazione sia il rischio di recidiva della malattia che i vantaggi e gli svantaggi delle terapie mediche precauzionali”, commenta Marco Colleoni, direttore della Divisione di Senologia Medica e Co-chair dell’International Breast Cancer Study Group.

“I risultati del nostro studio rappresentano un ulteriore passo verso l’obiettivo che perseguiamo da anni: dare a ciascuna paziente la terapia migliore per lei e per la sua malattia – conclude Paolo Veronesi, direttore del Programma di Senologia IEO e professore associato all’Università degli Studi di Milano –. Grazie all’approccio multidisciplinare ed alla stretta interazione tra ricerca e clinica, la medicina personalizzata sta finalmente diventando una realtà anche per il tumore della mammella”.

Testo sull’algoritmo per le cure ai tumori del seno dall’Università Statale di Milano