News
Ad
Ad
Ad
Tag

Science

Browsing

CAMPI FLEGREI: Applicata l’Intelligenza Artificiale per sviluppare un catalogo sismico di alta definizione. Un nuovo studio rivela dettagli inediti sull’attività sismica della Caldera

 

Un team internazionale di scienziati del Dipartimento di Geofisica della Doerr School of Sustainability di Stanford, dell’Osservatorio Vesuviano dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV-OV) e dell’Università degli Studi di Napoli Federico II ha appena pubblicato, sulla rivista scientifica Science, lo studio A clearer view of the current phase of unrest at Campi Flegrei Caldera.

Il lavoro offre una visione più chiara della fase di attività sismica in corso ai Campi Flegrei (unrest). L’area di interesse comprende le zone densamente popolate della periferia occidentale di Napoli e la città di Pozzuoli, dove negli ultimi anni si è registrato un deciso aumento dell’attività sismica, delle emissioni di gas e del sollevamento del suolo.

Localizzazioni dei terremoti contenuti nel nuovo catalogo sismico di alta definizione. Le diverse gradazioni di rosso indicano differenti profondità dei terremoti
Localizzazioni dei terremoti contenuti nel nuovo catalogo sismico di alta definizione.
Le diverse gradazioni di rosso indicano differenti profondità dei terremoti

I ricercatori hanno utilizzato tecniche di intelligenza artificiale (AI) sviluppate presso l’Università di Stanford e applicate ai sismogrammi registrati dall’INGV nell’area dei Campi Flegrei, identificando oltre 50.000 terremoti nel periodo tra il 2022 e la metà del 2025. Il catalogo sismico di alta definizione ha evidenziato un sistema di faglie attive e ha fornito importanti dettagli sull’origine del fenomeno. In dettaglio, l’AI è stata istruita utilizzando il catalogo sismico compilato dall’INGV-OV dal 2000 e si è avvalsa della densa rete sismica potenziata negli anni dall’Ente anche in risposta all’aumento della sismicità.

I risultati hanno mostrato che la quasi totalità degli eventi sismici ha un’origine tettonica, con profondità inferiori ai 4 km e non si riscontrano evidenze sismiche di una migrazione significativa di magma.

È stato chiaramente identificato un sistema di faglie ad anello, che circonda la zona di sollevamento della caldera, estendendosi sia sulla terraferma sia nel Golfo di Napoli. 

“All’interno di tale struttura ad anello la sismicità osservata evidenzia per la prima volta sulla terraferma vicino a Pozzuoli delle faglie specifiche e ben definite, che potrebbero portare a stime più precise della pericolosità e del rischio sismico in questa area”, afferma il Professor Warner Marzocchi dell’Università degli Studi di Napoli Federico II.

L’unica sismicità non puramente tettonica, composta da eventi cosiddetti “ibridi”, è stata osservata a profondità inferiori a un chilometro, vicino al duomo lavico di Accademia.

Questi eventi provengono dall’interazione tra roccia, fluidi e gas durante una fratturaAnalisi più approfondite suggeriscono che i fluidi coinvolti sarebbero di tipo idrotermale”, ha dichiarato la ricercatrice dell’INGV, Anna Tramelli.

Il nuovo sistema di analisi dei segnali sismici, implementato durante la ricerca, è già in funzione.

“Questo sistema, una volta superata la fase di verifica, potrebbe permettere di identificare in tempo quasi reale anche i più piccoli cambiamenti nel comportamento sismico dei Campi Flegrei e, di conseguenza, permettere migliori stime del rischio sismico e vulcanico”, concludono i ricercatori.

Immagine dei Campi Flegrei acquisita da drone. Crediti - Alessandro Fedele, ricercatore INGV.
Campi Flegrei: applicata l’intelligenza artificiale per sviluppare un catalogo sismico di alta definizione; lo studio è stato pubblicato su Science. Immagine dei Campi Flegrei acquisita da drone.
Crediti – Alessandro Fedele, ricercatore INGV

Riferimenti bibliografici:

Xing Tan et al.A clearer view of the current phase of unrest at Campi Flegrei caldera, Science 0, eadw9038, DOI:10.1126/science.adw9038

Roma, 5 settembre 2025
Testo e immagini dall’Ufficio Stampa Rettorato dell’Università degli studi di Napoli Federico II

 

Il “codice a barre” dei cromosomi: una nuova chiave per leggere il genoma umano; dal motivo centromerico alla mappa di centenia

I risultati di una ricerca della Sapienza Università di Roma hanno svelato la struttura organizzata dei centromeri, le regioni centrali dei cromosomi finora ritenute indecifrabili. Pubblicati sulla rivista “Science”, i dati offrono nuovi strumenti per lo studio dei tumori e delle malattie genetiche.

Ogni essere vivente cresce e si riproduce attraverso numerose divisioni delle proprie cellule. Affinché tale processo avvenga correttamente e senza complicazioni, è necessario che prima la cellula copi e organizzi precisamente le istruzioni genetiche che si trovano nel DNA.

Nella trasmissione delle informazioni ha un ruolo importante il centromero, ovvero la parte centrale di ogni cromosoma, costituito da due cromatidi che proprio lì si restringono. Il centromero, conosciuto anche come costrizione primaria, è costituito da DNA altamente ripetuto, cioè da sequenze di nucleotidi che si ripetono una di seguito all’altra molte volte.

In uno studio diretto da Simona Giunta, del Dipartimento di Biologia e Biotecnologie Charles Darwin della Sapienza, il suo gruppo ha analizzato questa regione specifica del cromosoma, che da tempo si credeva costituita da un agglomerato oscuro di DNA. I ricercatori hanno scoperto che in realtà ogni centromero è portatore di un’organizzazione specifica per ogni cromosoma. I risultati, pubblicati sulla rivista “Science”, hanno permesso di indicizzare queste sequenze complesse, aprendo la strada a un confronto preciso tra individui e insorgenza di patologie specifiche.

“Utilizzando nuove tecnologie di sequenziamento e algoritmi computazionali – spiega Simona Giunta, docente presso la Sapienza e direttrice del laboratorio Giunta Lab – siamo riusciti non solo a leggere queste sequenze per la prima volta, ma abbiamo anche scoperto che ogni cromosoma possiede un proprio schema unico, come una sorta di codice a barre, che si dimostra coerente anche osservandolo in persone diverse”.

In particolare, i ricercatori hanno scoperto che il motivo centromerico – una sequenza di DNA originariamente considerata confinata al centromero – si trova anche al di fuori di esso, distribuito in modo conservato e organizzato lungo i bracci dei cromosomi. Come la sintenia che usa la posizione dei geni lungo il cromosoma, la specifica organizzazione di questo motivo, definito “centenia” dai ricercatori, permette di generare codici a barre specifici per ogni cromosoma.

La mappa di centenia umana fornisce uno strumento fondamentale per studiare e confrontare la struttura genomica ad alta risoluzione, comprese di quelle regioni – come i centromeri e altri elementi ripetitivi – che finora erano rimaste in gran parte escluse dalle analisi genomiche classiche.

“Proprio come si può scansionare un codice a barre per ottenere informazioni su un prodotto – specifica Luca Corda, primo autore dell’articolo e dottorando in Genetica e Biologia Molecolare alla Sapienza – sarà in futuro possibile scansionare i codici dei centromeri per conoscerne l’evoluzione e comprenderne il comportamento in patologie specifiche”.

Lo studio si inserisce in un progetto più ampio, sostenuto dalla Fondazione AIRC per la Ricerca sul Cancro e, più recentemente, dal Consiglio Europeo della Ricerca (ERC), volto a indagare il ruolo dei centromeri nel cancro e nelle malattie genetiche. La ricerca nel campo della genetica sta subendo un cambiamento di paradigma: non ci si interessa più solo dei geni, ma anche delle regioni complesse e ripetitive del genoma – come i centromeri – rimasti finora ai margini.

“Queste regioni stanno diventando finalmente esplorabili, con strumenti nuovi e portando nuove domande che saranno al centro della ricerca del futuro”, afferma Simona Giunta. Comprendere i centromeri rappresenta una nuova frontiera per rivelare aspetti ancora inesplorati del nostro patrimonio genetico.

Riferimenti bibliografici:

Luca Corda, Simona Giunta, Chromosome-specific centromeric patterns define the centeny map of the human genome, Science 389, ads3484 (2025), DOI:10.1126/science.ads3484

microscopio Progeria trattamento leucemia acuta linfoblastica Philadelphia-positiva
Foto di Konstantin Kolosov

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Fossili di grandi squali e mammiferi marini raccontano come è cambiato il Mediterraneo dopo la Crisi di Salinità del Messiniano

L’Università di Pisa ha partecipato a uno studio sulle conseguenze del “gigante salino” formatosi oltre cinque milioni di anni fa

Tra 7,2 e 5,3 milioni di anni fa, nell’intervallo di tempo che i geologi chiamano Messiniano, le specie marine del Mediterraneo furono decimate da un aumento vertiginoso di sale nelle acque del mare, con una perdita di biodiversità che riuscì a ricostituirsi solo nel corso di oltre un milione e mezzo di anni.  In uno studio appena pubblicato sulla rivista scientifica Science, un gruppo internazionale di geologi e paleontologi composto da 29 scienziati di 25 università e istituti di ricerca europei è stato in grado di quantificare tale perdita di biodiversità nel Mar Mediterraneo in corrispondenza della Crisi di Salinità del Messiniano e il successivo recupero biotico.

Guidato da Konstantina Agiadi dell’Università di Vienna, tale team di ricerca ha visto la partecipazione dell’Università di Pisa nelle persone del professor Giovanni Bianucci e del ricercatore Alberto Collareta, paleontologi del Dipartimento di Scienze della Terra dell’Università di Pisa.

Sulla base di un estensivo censimento del registro fossile risalente al Miocene Superiore e al Pliocene Inferiore (da 12 a 3,6 milioni di anni fa), il team ha scoperto che i due terzi delle specie marine del Mar Mediterraneo del Pliocene Inferiore era differente da quelle presenti nel bacino precedentemente alla Crisi di Salinità del Messiniano. Solo 86 delle 779 specie endemiche del Mediterraneo (presenti, cioè, esclusivamente in tale bacino) sopravvissero agli sconvolgimenti ambientali conseguenti alla separazione dall’Oceano Atlantico.

In particolare, i due ricercatori dell’Università di Pisa hanno analizzato le evidenze paleontologiche dei popolamenti a squali e mammiferi marini del Mar Mediterraneo a cavallo di questo grande evento geologico.

“Mentre il registro fossile, nel suo complesso, suggerisce un drastico impatto della Crisi di Salinità del Messiniano sulle forme di vita presenti nel Mediterraneo – spiega Alberto Collareta – i fossili di squali offrono delle informazioni diverse e complementari. In particolare, il rinnovamento faunistico che si osserva nel Pliocene Inferiore – con la comparsa nel Mar Mediterraneo di forme moderne come lo squalo bianco (Carcharodon carcharias) e il declino di altri predatori apicali più tipici del Miocene (ad esempio il famoso ‘Megalodon’) – riflette fenomeni evolutivi e turnover faunistici osservabili alla scala globale più che eventi relativi dalla portata regionale. In questo senso, il biota mediterraneo che rinacque dalle ceneri della crisi messiniana fu dunque necessariamente altro rispetto a quello che aveva caratterizzato il bacino nel corso del Miocene”.

“Una dinamica simile si osserva anche nell’evoluzione della fauna a cetacei del Mediterraneo – osserva Giovanni Bianucci – con l’emergere e la rapida diversificazione dei delfini oceanici (famiglia Delphinidae) nel Pliocene Inferiore, come testimoniato da un eccezionale record fossile rinvenuto in Toscana, Piemonte ed Emilia-Romagna. Analogamente a quanto osservato per gli squali, la comparsa di forme moderne coincide con il declino di specie tipicamente mioceniche, come i grandi capodogli macropredatori. Il fatto che anche questo turnover tra i cetacei abbia avuto una portata globale suggerisce che la coincidenza temporale degli eventi non sia casuale: un fenomeno regionale, ma comunque catastrofico, come la Crisi di Salinità Messiniana, potrebbe infatti aver avuto ripercussioni su scala mondiale sugli ecosistemi marini”.

Nella foto: i due ricercatori, a sinistra Giovanni Bianucci, a destra Alberto Collareta
Nella foto: i due ricercatori, a sinistra Giovanni Bianucci, a destra Alberto Collareta

Questo nuovo studio apre a nuove prospettive sulla Crisi di Salinità Messiniana e provvede, per la prima volta, a una quantificazione sinottica delle conseguenze di tale crisi su molti gruppi di organismi marini. Allo stesso tempo, esso fornisce uno stimolo per ulteriori questioni di ricerca: dove si rifugiarono le poche specie endemiche del Mediterraneo miocenico che furono in grado di sopravvivere alla Crisi di Salinità Messiniana? Quale fu l’impatto dei molti altri “giganti salini” che punteggiano la crosta terrestre? Quale sono le lezioni che questo evento può insegnarci nell’attuale contesto di crisi biologica?

La Crisi di Salinità del Messiniano

Da oltre cinquant’anni la comunità scientifica si interroga sulle cause e le conseguenze della Crisi di Salinità del Messiniano, e soprattutto sull’impatto di un evento tanto eccezionale sugli ecosistemi mediterranei. Ipotesi contrastanti si sono confrontate – e talvolta scontrate – nel corso dei decenni: alcuni ricercatori hanno ipotizzato la quasi completa sterilizzazione di un Mar Mediterraneo divenuto eccessivamente salino, mentre altri hanno argomentato a favore della persistenza locale di corpi d’acqua a salinità normale e di ecosistemi francamente marini per tutta la durata della Crisi di Salinità del Messiniano.

Riconosciuto nelle sue proporzioni titaniche nei primi anni ’70 del secolo scorso, questo “gigante salino” si formò in un bacino in via di disseccamento a seguito dell’emersione dei corridoi marini che fino ad allora avevano connesso il Mediterraneo all’Oceano Atlantico nell’area ispano-marocchina garantendo l’afflusso costante di acque marine di origine atlantiche nell’arida regione mediterranea. Tali condizioni estreme si protrassero alcune centinaia di migliaia di anni: il ritorno a condizioni marine normali avvenne soltanto 5,3 milioni di anni fa, all’inizio dell’epoca pliocenica, in conseguenza dell’apertura dello Stretto di Gibilterra e a seguito di una breve fase in cui le acque mediterranee divennero salmastre.

Fossili di grandi squali e mammiferi marini raccontano come è cambiato il Mediterraneo dopo la Crisi di Salinità del Messiniano
Fossili di grandi squali e mammiferi marini raccontano come è cambiato il Mediterraneo dopo la Crisi di Salinità del Messiniano

 

Testo e immagini dal Polo Comunicazione CIDIC – Centro per l’innovazione e la diffusione della cultura dell’Università di Pisa.

Costruire con il DNA: una formula matematica per farlo senza errori

Una ricerca internazionale, a cui ha collaborato un team della Sapienza, ha sviluppato un metodo per individuare la soluzione ottimale e più efficiente per costruire strutture complesse con mattoncini di DNA attraverso un meccanismo di auto-assemblaggio. La scoperta apre a nuove prospettive per la progettazione di nanomateriali e per applicazioni in campi come la fotonica e la nanoelettronica. I risultati sono pubblicati su Science.

Tutti i bambini, avendo tra le mani i mattoncini lego o i pezzi di un puzzle, hanno provato almeno una volta a realizzare una costruzione o a ricomporre l’immagine nascosta nelle tessere.

Riuscire ad assemblare le molecole di DNA, come fossero i mattoncini lego o i pezzi di un puzzle, per realizzare strutture complesse come i cristalli, è l’ultima frontiera della fisica.

Il DNA si presta a essere utilizzato a tale scopo, grazie alla complementarietà delle quattro basi azotate, che lo rende molto versatile e adatto a unirsi in composti. Attraverso un meccanismo detto di ‘auto- assemblaggio’ le molecole stesse, anche in enorme numero, formano una struttura organizzata come conseguenza di interazioni specifiche e locali tra i costituenti, senza azioni esterne.

Tuttavia, riuscire a ottenere e a controllare l’auto-assemblaggio delle particelle non è semplice. Data una determinata struttura, la sfida è riuscire a sintetizzarla in maniera corretta ed efficiente, riducendo il più possibile il numero delle diverse componenti necessarie. Una collaborazione internazionale ha cercato di indagare a fondo il problema in uno studio in uscita su Science. Tra gli esperti coinvolti anche Lorenzo Rovigatti, Francesco Sciortino e John Russo del Dipartimento di Fisica della Sapienza, insieme ai colleghi della Ca’ Foscari, di Columbia e della Arizona State University.

Riprendendo l’esempio precedente, i mattoncini lego e i pezzi di un puzzle sono in realtà due processi alternativi e diversi di costruzione. I primi sono tutti simili tra loro e sono progettati in modo da potersi legare con qualsiasi altro mattoncino per creare infinite forme. I secondi invece sono tutti diversi e si legano solo al loro corrispondente, in una posizione ben precisa, per formare un disegno predefinito.

La scelta degli scienziati sta dunque nel mezzo: non mattoncini tutti uguali per avere infinite strutture, né pezzi tutti diversi per ottenere il risultato voluto, ma il numero minimo di elementi diversi per creare esattamente e solamente la conformazione cercata.

La chiave per arrivare alla soluzione è stata la traduzione di questo problema teorico, e quindi della struttura desiderata, in un insieme di clausole logiche semplici. Queste possono essere poi risolte numericamente, ricavando così una soluzione ottimale ed efficiente per qualsiasi forma.

Per dimostrare la validità del metodo, gli autori hanno deciso di realizzare sperimentalmente l’auto-assemblaggio di un cristallo scelto per le sue proprietà fotoniche su scala nanometrica, , il pirocloro, “un cristallo che non esiste in natura ed era considerato impossibile da realizzare sperimentalmente” – dice John Russo, del Dipartimento di Fisica – Per crearlo sono state utilizzate particelle interamente composte di DNA (in gergo ‘DNA origami’). In questo modo è stato possibile dimostrare che come previsto si forma precisamente la struttura richiesta, in una sorta di puzzle da soli quattro tipi di pezzi che infallibilmente si assembla da solo.

“Il lavoro si basa sull’idea di utilizzare uno strumento matematico chiamato “Soddisfacibilità booleana”, anche noto come SAT, per risolvere il problema di auto-assemblare strutture ordinate a partire da un numero limitato di mattoncini. Il vantaggio di usare il SAT è che, oltre a ottenere una soluzione che assembli la struttura ordinata voluta, permette anche di affinare la soluzione affinché eventuali strutture che competono con quella target vengano sfavorite – dichiara Lorenzo Rovigatti del Dipartimento di Fisica – In questo lavoro applichiamo questa tecnica sofisticata per progettare al computer e poi ottenere in laboratorio un materiale cristallino mai stato assemblato prima, dimostrando chiaramente le potenzialità del nostro metodo, che abbiamo ribattezzato ‘SAT-assembly’.”

Questo approccio innovativo alla formazione spontanea delle strutture offre una nuova prospettiva per la progettazione di nanomateriali, consentendo di costruire strutture composte da miliardi di componenti disposti con assoluta precisione e aprendo la strada ad applicazioni in campi come la fotonica e la nanoelettronica.

 

Riferimenti bibliografici:

Inverse design of a pyrochlore lattice of DNA origami through model-driven experiments

Hao Liu, Michael Matthies, John Russo, Lorenzo Rovigatti, Raghu Pradeep Narayanan, Thong Diep, Daniel McKeen, Oleg Gang, Nicholas Stephanopoulos, Francesco Sciortino, Hao Yan, Flavio Romano, Petr Šulc

Science – doi: 10.1126/science.adl5549  

 

costruire DNA
Un metodo per individuare la soluzione ottimale e più efficiente per costruire strutture complesse con mattoncini di DNA attraverso un meccanismo di auto-assemblaggio. Foto PublicDomainPictures

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

LA PRIMA MAPPA TERMICA DELLA SUPERFICIE DI UN GLOBULO ROSSO

Ricercatori delle università di Barcellona e Padova hanno sviluppato una nuova metodologia di misurazione dell’entropia su dimensioni un milione di volte più piccole di un centimetro

Nel nostro immaginario, l’entropia è spesso associata al disordine e al caos. Eppure, in biologia, essa è strettamente legata all’efficienza energetica e al metabolismo, l’insieme di reazioni chimiche che sostengono la vita.

Ricercatori delle università di Barcellona e Padova – con la partecipazione degli atenei Complutense, Francisco de Vitoria di Madrid e di Göttingen –  hanno sviluppato una nuova rivoluzionaria metodologia per la misurazione della produzione di entropia su dimensioni un milione di volte più piccole di un centimetro: i risultati del lavoro scientifico sono stati pubblicati sulla rivista Science con il titolo “Variance sum rule for entropy production.

Questa produzione è direttamente collegata al flusso di calore attraverso la superficie dei globuli rossi che dissipa energia nel fluido in cui sono immersi. Il risultato ottenuto è naturalmente minuscolo, un milione di miliardi più piccolo di una caloria per secondo – un piatto di pasta equivale a circa 250 calorie-, ma è stato misurato con assoluta precisione.

Dal punto di vista operativo i ricercatori hanno rilevato il flusso di calore derivante dalle forze metaboliche attive all’interno dei globuli rossi osservando lo sfarfallio emergente sulla loro membrana cellulare. Tale sfarfallio è il risultato dell’incessante movimento dei motori molecolari, le molecole che consumano zucchero per ristrutturare le cellule.

«Caratterizzare la produzione di entropia nei sistemi viventi è fondamentale per comprendere l’efficienza dei processi di conversione dell’energia e la salute dei tessuti»,

afferma Felix Ritort, corresponding author dello studio dell’Istituto di Nanoscienza e Nanotecnologia dell’Università di Barcellona.

«Vi è un grandissimo interesse nel quantificare il consumo energetico per capire il funzionamento dei più svariati sistemi fisici, dalla scala planetaria a quella microscopica, o dei sistemi biologici di ogni dimensione, incluse le cellule viventi»,

afferma Marco Baiesi del Dipartimento di Fisica e Astronomia dell’Università di Padova, tra gli autori della ricerca.

Marco Baiesi
Marco Baiesi

Un contributo cruciale alla base teorica e all’analisi dei dati è stato dato da Ivan Di Terlizzi durante il suo dottorato in Fisica a Padova e, successivamente, all’Istituto Max Planck di Dresda.

Gli autori hanno utilizzato approcci sperimentali basati sulla manipolazione ottica, sul rilevamento ottico e sulla microscopia con immagini ultraveloci. Le misure sono state effettuate allo Small Biosystems Lab dell’Università di Barcellona, all’Università di Göttingen, Complutense de Madrid e all’Instituto de Investigación Sanitaria Hospital 12 de Octubre.

Immagine generata dall'intelligenza artificiale con l'evocazione di un globulo rosso che dissipa calore nell'ambiente
La prima mappa termica della superficie di un globulo rosso: una nuova metodologia di misurazione dell’entropia su dimensioni un milione di volte più piccole di un centimetro. Immagine generata dall’intelligenza artificiale con l’evocazione di un globulo rosso che dissipa calore nell’ambiente

Link alla ricerca: https://www.science.org/doi/10.1126/science.adh1823

Titolo: Variance sum rule for entropy production – «Science» – 2024

Autori: I. Di Terlizzi, M. Gironella, D. Herraez-Aguilar, T. Betz, F. Monroy, M. Baiesi, e F. Ritort.

 

Testo e immagini dall’Ufficio Stampa dell’Università di Padova

“LE PIANTE UTILIZZATE DALL’UOMO NON SONO SUFFICIENTEMENTE PROTETTE A LIVELLO GLOBALE”

L’allarme in una ricerca condotta dal UN Environment Programme World Conservation Monitoring Centre (UNEP-WCMC) e dai Royal Botanic Gardens, Kew, in collaborazione con l’Università di Torino e altri partner accademici.

In una ricerca pubblicata oggi, venerdì 19 gennaio, sulla rivista Science, gli scienziati del World Conservation Monitoring Centre del Programma delle Nazioni Unite per l’Ambiente e dei Royal Botanic Gardens, Kew, in collaborazione con l’Università di Torino e altri partner accademici, hanno quantificato per la prima volta la distribuzione globale delle piante utilizzate dall’uomo. L’analisi ha rivelato che le maggiori concentrazioni di piante si trovano ai tropici, “hotspot bioculturali” che dovrebbero essere aree prioritarie per la conservazione ma, ad oggi, sono in gran parte non protette. 

Le piante rendono possibile la vita e hanno permesso all’umanità di svilupparsi e prosperare. Oltre a nutrire gli esseri umani e il bestiame, a fornire medicinali vitali, carburante e materiali per l’abbigliamento e le infrastrutture, la diversità delle piante può fornire soluzioni ai problemi globali attuali e futuri, come la fame, le malattie e i cambiamenti climatici. Il team ha analizzato la distribuzione di 35.687 specie di piante con usi documentati da parte dell’uomo, che coprono 10 categorie, tra cui cibo umano e foraggio per animali, materiali, combustibili e medicinali.

L’analisi ha utilizzato oltre 11 milioni di osservazioni di specie vegetali registrate da botanici di tutto il mondo e algoritmi di apprendimento automatico all’avanguardia per prevedere la distribuzione geografica delle specie vegetali utilizzate e la loro rarità.

La ricerca ha identificato l’America centrale, le Ande tropicali, il Golfo di Guinea, l’Africa meridionale, l’Himalaya, il Sud-Est asiatico e la Nuova Guinea come centri eccezionali di specie vegetali rare e con alta diversità di piante utilizzate dall’uomo.

Nonostante la rete globale di aree protette copra il 16% delle terre emerse e delle acque interne della Terra, i modelli mostrano che c’è una maggiore probabilità che le piante utilizzate dall’uomo – in particolare le specie rare – si trovino al di fuori delle aree protette. Ciò è particolarmente evidente in aree ecologiche delle Americhe, dell’Africa meridionale, del Sud-est asiatico e dell’Australia.

La ricerca ha anche rilevato che un numero sproporzionato di specie vegetali utilizzate è presente in molti territori indigeni dell’America centrale, del Corno d’Africa, dell’Asia meridionale e sudorientale.

Le aree indigene che contengono una diversità vegetale eccezionalmente elevata dovrebbero essere considerate prioritarie, sia per la conservazione della natura che per la protezione delle conoscenze tradizionali. Sebbene i governi di tutto il mondo si siano impegnati a proteggere il 30% della Terra entro il 2030, rimangono ancora degli interrogativi su come le nuove aree protette possano garantire la conservazione a lungo termine della diversità vegetale e dei suoi contributi alle persone.

I risultati evidenziano la necessità di trovare modi per proteggere la biodiversità preservando al contempo la sussistenza, il benessere e le conoscenze tradizionali delle persone. La pianificazione della conservazione deve considerare meglio la diversità vegetale e il suo contributo alle popolazioni nella futura pianificazione della conservazione basata sulle aree, soprattutto nell’ambito dell’ambizioso obiettivo 3 del Kunming-Montreal Global Biodiversity Framework della COP 15 di aumentare le aree protette e conservate per coprire il 30% della terra, delle acque interne e degli oceani del mondo entro il 2030.

“Il risultato di questo lavoro collaborativo – dichiara Tiziana Ulian, docente del Dipartimento di Scienze della Vita e Biologia dei Sistemi dell’Università di Torino e senior research leader del Royal Botanic Gardens, Kew – è un passo importante per comprendere meglio l’enorme diversità delle piante utilizzate dall’uomo, la loro importanza culturale e la distribuzione in tutto il mondo. Proteggendo le aree con un’elevata diversità delle piante possiamo non solo contribuire ad affrontare la crisi globale che affligge la biodiversità, ma anche aiutare a sostenere la transizione verso un futuro sostenibile per l’umanità sul pianeta. Questa alta diversità vegetale può aiutarci a sviluppare Nature-based solutions (NBS) per affrontare sfide globali, come il cambiamento climatico, la sicurezza alimentare. la salute umana e la gestione del rischio di calamità ambientali”.

 

Testo e foto dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

NGC 1851E, NELLA COSTELLAZIONE DELLA COLOMBA, È IL BUCO NERO PIÙ LEGGERO O LA STELLA DI NEUTRONI PIÙ PESANTE?

Un articolo pubblicato oggi su Science ci svela la presenza di un oggetto dalla natura misteriosa all’interno dell’ammasso globulare NGC 1851, visibile nella costellazione della Colomba a oltre 39 mila anni luce dalla Terra. Di cosa si tratta? Un team internazionale di astronomi, guidato da ricercatori dell’Istituto Max Planck per la Radioastronomia di Bonn e a cui partecipano anche ricercatori dell’Istituto Nazionale di Astrofisica (INAF) e dell’Università di Bologna, ha sfruttato la sensibilità delle antenne del radiotelescopio sudafricano MeerKAT per scoprire un oggetto massiccio dalle caratteristiche uniche: è più pesante delle stelle di neutroni più pesanti conosciute e allo stesso tempo è più leggero dei buchi neri più leggeri trovati finora. Altro particolare non di poca rilevanza: l’indagato speciale è in orbita attorno a una pulsar al millisecondo in rapida rotazione. Questa potrebbe essere la prima scoperta del tanto ambito sistema binario radio pulsar – buco nero: una coppia stellare che consentirebbe nuovi test della teoria della relatività generale di Einstein.

Rappresentazione artistica del sistema NGC 1851 partendo dal presupposto che la stella compagna massiccia sia un buco nero. La stella sullo sfondo, la più luminosa, è la sua compagna orbitale, la radio pulsar NGC 1851E. Le due stelle sono separate da 8 milioni di km e ruotano l’una attorno all’altra ogni 7 giorni. Credit: Daniëlle Futselaar (artsource.nl)
Rappresentazione artistica del sistema NGC 1851 partendo dal presupposto che la stella compagna massiccia sia un buco nero. La stella sullo sfondo, la più luminosa, è la sua compagna orbitale, la radio pulsar NGC 1851E. Le due stelle sono separate da 8 milioni di km e ruotano l’una attorno all’altra ogni 7 giorni. Credit: Daniëlle Futselaar (artsource.nl)

Luminose e intermittenti come dei potenti fari cosmici puntati verso la Terra, le pulsar sono stelle di neutroni, ossia i resti compatti (una ventina di chilometri di diametro) ed estremamente densi, derivati da potenti esplosioni di supernova. La teoria mostra che deve esistere una massa massima per una stella di neutroni. Il valore di tale massa massima non è noto con precisione, ma esistono indicazioni sperimentali che almeno fino ad una massa totale pari a circa 2,2 volte la massa del Sole, la stella continua comunque ad essere una stella di neutroni.  D’altro canto, molteplici evidenze osservative indicano che i buchi neri (oggetti così densi e compatti per cui nemmeno la luce può allontanarsi da essi) si formano dal collasso che ha luogo alla fine della evoluzione di stelle molto più massicce di quelle che producono le stelle di neutroni. In questo caso la massa minima osservata finora per il nascente buco nero è circa 5 volte la massa del Sole. Bisogna allora domandarsi quale tipo di oggetto compatto si formi nell’intervallo di masse fra 2,2 e 5 volte la massa del Sole, in quello che i ricercatori chiamano “gap di massa per i buchi neri”: una stella di neutroni estremamente massiccia, un buco nero estremamente leggero o altro? Ad oggi non esiste una risposta chiara.

Nell’ambito delle due collaborazioni internazionali “Transients and Pulsars with MeerKAT” (TRAPUM) e “MeerTime”, gli esperti sono stati in grado prima di rilevare e poi di studiare ripetutamente i deboli impulsi provenienti da una delle stelle dell’ammasso, identificandola come una pulsar radio, un tipo di stella di neutroni che gira molto rapidamente ed emette onde radio nell’Universo come un faro cosmico. Questa pulsar, denominata NGC 1851E (ossia la quinta pulsar nell’ammasso globulare NGC 1851), ruota su se stessa più di 170 volte al secondo, e ogni rotazione produce un impulso ritmico, come il ticchettio di un orologio.

Spiega Ewan Barr, dell’Istituto Max Planck per la Radioastronomia di Bonn e primo autore (assieme alla dottoranda dello stesso istituto Arunima Dutta) dello studio:

“Il ticchettio di questi impulsi è incredibilmente regolare. Osservando come cambiano i tempi dei ticchettii, tramite una tecnica chiamata pulsar timing, siamo stati in grado di effettuare misurazioni estremamente precise del moto orbitale di questo oggetto”.

L’estrema regolarità degli impulsi osservati ha permesso anche una misurazione molto precisa della posizione del sistema, dimostrando – tramite osservazioni col telescopio spaziale Hubble – che l’oggetto in orbita attorno alla pulsar non era una normale stella, bensì un residuo estremamente denso di una stella collassata. Inoltre, il fatto che l’orbita stia progressivamente cambiando l’orientamento rispetto a noi (un effetto chiamato tecnicamente “precessione del periastro” e previsto dalla relatività generale) ha mostrato che la compagna ha una massa che era contemporaneamente più grande di quella di qualsiasi stella di neutroni conosciuta e tuttavia più piccola di quella di qualsiasi buco nero conosciuto, posizionandola esattamente nel gap di massa dei buchi neri.

Le antenne del radiotelescopio MeerKAT, in Sudafrica. Crediti: SARAO
Le antenne del radiotelescopio MeerKAT, in Sudafrica. Crediti: SARAO

Alessandro Ridolfi, primo autore della scoperta di NGC 1851E (conosciuta anche col nome alternativo PSR J0514-4002E), nel 2022, co-autore della pubblicazione su Science, nonché postdoc presso l’INAF di Cagliari, sottolinea:

“Sin dalle prime osservazioni successive alla scoperta, questo sistema binario mostrava caratteristiche peculiari, in particolare per quanto riguarda l’elevata massa della stella compagna. Ulteriori osservazioni hanno evidenziato che si trattava addirittura di un sistema unico, con una stella compagna avente una massa in quella che per ora è la “terra di nessuno” per gli oggetti compatti, ovverosia quell’intervallo di masse per le quali la teoria non è oggi in grado di stabilire se si abbia a che fare con un buco nero leggero o una stella di neutroni pesante”.

Ridolfi è uno dei vincitori del bando “Astrofit-INAF” e lavora alla ricerca di nuove pulsar esotiche ospitate in ammassi globulari.

Potenziale storia della formazione della radiopulsar NGC 1851E e della sua stella compagna. Crediti: Thomas Tauris (Aalborg University / MPIfR)
Potenziale storia della formazione della radiopulsar NGC 1851E e della sua stella compagna. Crediti: Thomas Tauris (Aalborg University / MPIfR)

Cristina Pallanca, ricercatrice al Dipartimento di Fisica e Astronomia “Augusto Righi” dell’Università di Bologna, prosegue:

“Se si rivelerà essere un buco nero, avremo individuato il primo sistema binario composto da una pulsar e un buco nero, una sorta di Santo Graal dell’astronomia. Grazie ad esso avremo un’opportunità senza precedenti per testare con altissima precisione la teoria della relatività generale di Albert Einstein e, di conseguenza, per comprendere meglio le proprietà fisiche dei buchi neri”.

E aggiunge Marta Burgay, un’altra ricercatrice di INAF-Cagliari coinvolta nel progetto:

“Se invece si trattasse di una stella di neutroni, la sua massa elevata imporrà nuovi vincoli alla natura delle forze nucleari, vincoli che non si possono ottenere con nessun esperimento di laboratorio”.

Il sistema si trova nell’ammasso globulare NGC 1851, un denso insieme di vecchie stelle molto più fitte rispetto alle stelle del resto della Galassia. Mario Cadelano, ricercatore al Dipartimento di Fisica e Astronomia “Augusto Righi” dell’Università di Bologna, lo descrive:

“Un sistema binario così non poteva che crearsi in un ambiente altrettanto straordinario: l’ammasso globulare NGC 1851 è un insieme di centinaia di migliaia di stelle mantenute unite dalla loro stessa forza di gravità, formatosi circa 13 miliardi di anni fa, quando l’universo aveva appena 800 mila anni e la nostra Galassia stava attraversando le prime fasi di formazione. All’interno degli ammassi globulari, le stelle interagiscono continuamente durante il corso della loro vita: si scambiano energia, collidono, si uniscono in nuovi sistemi binari e così via. Il nucleo di NGC 1851 è dinamicamente molto attivo, anche più rispetto a quello di altri ammassi globulari, e questo ha favorito la formazione del sistema binario unico nel suo genere che abbiamo scoperto”.

Le regioni centrali di NGC 1851 sono così affollate che le stelle possono interagire tra loro, sconvolgendo le loro orbite e nei casi più estremi scontrandosi. Si ritiene che sia stata una di queste collisioni tra due stelle di neutroni a creare l’oggetto massiccio che ora orbita attorno alla radio pulsar. Tuttavia, prima che venisse creata l’attuale binaria, la radio pulsar deve aver acquisito materiale da un’altra stella in una cosiddetta binaria a raggi X di piccola massa. Un tale processo di “riciclaggio” è necessario per riportare la pulsar alla velocità di rotazione attuale.

La scoperta di questo oggetto misterioso mette in luce le potenzialità degli strumenti utilizzati in questa survey e delle antenne che arriveranno nel futuro. Andrea Possenti, ricercatore anch’egli presso la sede sarda dell’INAF, commenta:

“Questa scoperta è l’apice degli studi finora condotti, grazie al sensibilissimo telescopio MeerKAT, sulle pulsar negli ammassi globulari, un campo di ricerca dove INAF, tramite il gruppo di Cagliari, ricopre dall’inizio un ruolo primario. Ruolo importante sia sul fronte della ricerca di nuove pulsar, 87 quelle scoperte fino ad oggi con il solo radiotelescopio sudafricano, sia ai fini dello studio di quelle note. Il bello è che c’è ancora tanto da scoprire in questi densi sistemi stellari, sia con le osservazioni a MeerKAT, sia, ancor più, con l’avvento del rivoluzionario radiotelescopio SKA. Senza contare – conclude Possenti – che collisioni fra stelle di neutroni come quella ipotizzata per spiegare l’origine di questo sistema potrebbero costituire ulteriori eventi, rari ma di grande interesse, per telescopi per onde gravitazionali, come Virgo, Ligo e il futuro Einstein Telescope”.


 

Per ulteriori informazioni:

L’articolo “A pulsar in a binary with a compact object in the mass gap between neutron stars and black holes”, di  E. Barr, Arunima Dutta, Paulo C. C. Freire, Mario Cadelano, Tasha Gautam, Michael Kramer, Cristina Pallanca, Scott M. Ransom, Alessandro Ridolfi, Benjamin W. Stappers, Thomas M. Tauris, Vivek Venkatraman Krishnan, Norbert Wex, Matthew Bailes, Jan Behrend, Sarah Buchner, Marta Burgay, Weiwei Chen, David J. Champion, C.-H. Rosie Chen, Alessandro Corongiu, Marisa Geyer, Y. P. Men, Prajwal V. Padmanabh, Andrea Possenti, è stato pubblicato sulla rivista Science.

 

 

Testo e immagini dagli Uffici Stampa INAF e Alma Mater Studiorum – Università di Bologna

I MECCANISMI DI RIGENERAZIONE DELLE CELLULE DANNEGGIATE NEL CUORE, DAL PESCE ZEBRA ALL’UOMO?

Scoperti i meccanismi che rigenerano le cellule del cuore nel pesce zebra. Il ruolo di LRRC10 nel decidere se la cellula del muscolo cardiaco si dividerà o proseguirà verso la maturazione.

Lo studio, pubblicato su «Science» dai ricercatori dell’Hubrecht Institute, ha visto la collaborazione del gruppo padovano di Milena Bellin.

cellule cuore pesce zebra
Rigenerazione: le cellule muscolari del cuore del pesce zebra, 60 giorni dopo il danneggiamento. Crediti per la foto: Phong Nguyen. Copyright: Hubrecht Institute.

Le malattie cardiovascolari, quali l’infarto, sono fra le principali cause di morte a livello globale a causa della limitata capacità rigenerativa del cuore. Diversamente dall’uomo, il pesce zebra (zebrafish) ha la straordinaria capacità di guarire da danni a livello cardiaco. I ricercatori del gruppo di Jeroen Bakkers (Hubrecht Institute) hanno impiegato zebrafish per fare luce sulla capacità rigenerativa di questo organismo scoprendo un nuovo meccanismo che agisce da interruttore per spingere le cellule del muscolo cardiaco alla maturazione durante il processo di rigenerazione. Questo meccanismo si è conservato a livello evolutivo, avendo effetti molto simili sulle cellule muscolari cardiache del topo e dell’uomo. Applicare queste scoperte alle cellule del muscolo cardiaco umano potrebbe contribuire allo sviluppo di nuove terapie per contrastare le malattie cardiovascolari.

Si stima che ogni anno 18 milioni di persone muoiano a causa di malattie cardiovascolari nel mondo. Molti di questi decessi sono associati a infarto. Quando ciò avviene, coaguli del sangue bloccano l’apporto di nutrienti e ossigeno a regioni del cuore. Di conseguenza, le cellule muscolari cardiache presenti nella porzione di cuore ostruita muoiono, portando a insufficienza cardiaca. Benché esistano terapie capaci di gestire tali sintomi, non esistono trattamenti capaci di rimpiazzare il tessuto perso con cellule del muscolo cardiaco mature e funzionali, in modo così da curare il paziente.

Diversamente dall’uomo, lo zebrafish ha la capacità di rigenerare il cuore: entro 90 giorni dal danno possono recuperare completamente la funzionalità del cuore. Le cellule muscolari cardiache che sopravvivono al danno si dividono e producono altre cellule. Questa caratteristica unica fornisce al cuore di zebrafish una fonte di nuovo tessuto per rimpiazzare le cellule muscolari cardiache andate perse. Studi precedenti hanno già identificato fattori che potrebbero stimolare la divisione delle cellule del muscolo cardiaco, mai però si è indagato su cosa succede alle cellule muscolari cardiache appena generate.

«Non è chiaro – dice Phong Nguyen dell’Hubrecht Institute e primo autore dello studio – come queste cellule smettano di dividersi e maturino abbastanza da poter contribuire al normale funzionamento del cuore. Ci ha stupito il fatto che nel cuore di zebrafish, il tessuto neoformato maturi naturalmente e si integri al tessuto cardiaco preesistente senza alcun problema».

La regolazione del trasporto del calcio, dentro e fuori le cellule muscolari cardiache, è importante per il controllo della contrazione cardiaca e permette di predire la maturità delle cellule. Per questa ragione i ricercatori hanno sviluppato una tecnica che ha permesso la coltura di grossi lembi di cuore danneggiato di zebrafish al di fuori dell’organismo. Si è così potuto osservare, in tempo reale, come il movimento del calcio all’interno delle cellule del muscolo cardiaco e dopo la divisione delle cellule cambi nel tempo.

«Il trasporto del calcio nelle cellule di nuova divisione all’inizio è apparso molto simile a quello delle cellule muscolari cardiache embrionali, ma nel tempo queste cellule hanno assunto un trasporto del calcio di tipo maturo – continua Nguyen –. Abbiamo scoperto che la “diade” cardiaca, una struttura che facilita il movimento del calcio all’interno delle cellule muscolari cardiache, e nello specifico uno dei suoi componenti, LRRC10, ha un ruolo cruciale nel decidere se la cellula del muscolo cardiaco si dividerà o proseguirà verso la maturazione. Cellule muscolari cardiache che mancano di LRRC10 continuano a dividersi e rimangono immature».

Stabilita l’importanza di LRRC10 nell’arrestare la divisione e avviare la maturazione nelle cellule muscolari cardiache di zebrafish, i ricercatori hanno vagliato se le caratteristiche del pesce potessero essere trasferite nei mammiferi con l’induzione dell’espressione di LRRC10 in cellule del cuore di topo e uomo.

In collaborazione con il gruppo di Milena Bellin – Dipartimento di Biologia, Istituto Veneto di Medicina Molecolare e Leiden University Medical Center  si sono studiati i cardiomiociti umani generati da cellule staminali pluripontenti umane coltivate in laboratorio: le osservazioni sperimentali hanno provato che LRRC10 è importante anche nella maturazione di cellule cardiache umane. Gli esperimenti sono stati condotti al Leiden University Medical Center da Giulia Campostrini, ricercatrice guidata da Milena Bellin e Christine Mummery.

«Questo lavoro si è basato su nostri precedenti studi sulla maturazione dei cardiomiociti: è stato emozionante vedere che il ruolo di LRRC10 sia conservato fra uomo e zebrafish. Sorprendentemente – osserva Milena Bellin – la presenza di LRRC10 ha cambiato le dinamiche del calcio, ha ridotto la divisione cellulare e aumentato il grado di maturazione di queste cellule in modo simile a quanto osservato nel cuore di zebrafish».

«È stato emozionante – chiosa Nguyen – vedere che ciò che abbiamo imparato da zebrafish può essere trasferito all’uomo e ciò apre nuove possibilità per l’uso di LRRC10 nel contesto di nuove terapie per i pazienti».

I risultati dello studio pubblicato mostrano che LRRC10 ha la capacità di guidare la maturazione delle cellule muscolari cardiache attraverso il controllo della loro gestione del calcio. Ciò potrebbe aiutare gli scienziati che tentano di risolvere la mancanza di capacità rigenerativa del cuore di mammifero attraverso il trapianto, all’interno di cuori danneggiati, di cellule muscolari cardiache coltivate in laboratorio. Benché tale potenziale terapia risulti promettente, i risultati hanno mostrato che queste cellule coltivate in laboratorio sono ancora immature e non sono capaci di comunicare adeguatamente con il resto del cuore, portando così a contrazioni anormali chiamate aritmie.

«Anche se servono studi più approfonditi per definire con precisione che grado di maturazione possano assumere queste cellule muscolari cardiache coltivate in laboratorio quando trattate con LRRC10, è possibile che l’aumento nel grado di maturazione vada a migliorare l’integrazione in seguito a trapianto – sottolinea Jeroen Bakkers dell’Hubrecht Institute e ultimo autore dello studio –. I modelli attuali di malattie cardiovascolari sono spesso basati su cellule muscolari cardiache coltivate in laboratorio. Il 90% dei candidati farmaci più promettenti individuati, sempre in laboratorio, non riescono a raggiungere la fase clinica e l’immaturità di queste cellule potrebbe essere uno dei fattori che contribuiscono a questi scarsi tassi di successo. I nostri risultati indicano che LRRC10 potrebbe anche migliorare la predittività di questi modelli».

LRRC10, dunque, potrebbe dare un importante contributo alla generazione di cellule muscolari cardiache coltivate in vitro che rappresentino con maggior precisione le tipiche cellule cardiache adulte, aumentando così le probabilità di sviluppare nuovi trattamenti efficaci con successo contro le malattie cardiovascolari.

Link alla ricerca: http://www.science.org/doi/10.1126/science.abo6718

Titolo: “Interplay between calcium and sarcomeres directs cardiomyocyte maturation during regeneration” – «Science» 2023

Autori: Phong D. Nguyen, Iris Gooijers, Giulia Campostrini, Arie O. Verkerk, Hessel Honkoop, Mara Bouwman, Dennis E. M. de Bakker, Tim Koopmans, Aryan Vink, Gerda E. M. Lamers, Avraham Shakked, Jonas Mars, Aat A. Mulder, Sonja Chocron, Kerstin Bartscherer, Eldad Tzahor, Christine L. Mummery, Teun P. de Boer, Milena Bellin, Jeroen Bakkers

Lo studio è il risultato di una collaborazione tra l’Hubrecht Institute, Leiden University Medical Center, Amsterdam Medical Center, Utrecht Medical Center e il Weizmann Institute. Lo studio è stato finanziato da Dutch Heart Foundation, Dutch CardioVascular Alliance and Stichting Hartekind, ReNEW, e the European Research Council (CoG Mini-HEART).

Testo, video e immagini dall’Ufficio Stampa dell’Università di Padova sulla rigenerazione delle cellule del cuore nel pesce zebra.

BENNU, UN ASTEROIDE DA MANEGGIARE CON CURA

Sulla superficie di Bennu si sprofonda, i massi che la compongono sono completamente slegati e il materiale che lo costituisce è molto simile a quello delle meteoriti carbonacee alterate dall’acqua. Sono questi alcuni dei principali risultati presentati in due articoli sulle riviste Science e Science Advances realizzati con tutti i dati raccolti durante il campionamento della sonda OSIRIS-REx sull’asteroide, avvenuto nel 2020. Nel team che ha condotto le analisi pubblicate su Science partecipa anche Maurizio Pajola, ricercatore dell’Istituto Nazionale di Astrofisica (INAF).

OSIRIS-REx è la missione della NASA che il 20 ottobre 2020 si è posata sulla superficie dell’asteroide Bennu e ne ha prelevato un consistente campione di rocce e polvere, il più grande per massa raccolta dopo le missioni Apollo. Oggi, tutti i risultati ottenuti da questo campionamento sono stati pubblicati in due articoli sulle riviste Science e Science Advances.

Bennu asteroide

Un asteroide di sorprese

Sin dal primo avvicinamento della sonda OSIRIS-REx, nel dicembre 2018, l’asteroide Bennu si è mostrato diverso da quello che gli scienziati del team si aspettavano. La superficie dell’asteroide, infatti, che secondo le previsioni doveva essere liscia e coperta di materiale fine come una distesa di sabbia, era invece disseminata di massi, ed era attiva: Bennu stava lanciando granelli di roccia nello spazio.

La seconda sorpresa, poi, c’è stata non appena la sonda ha trasmesso a Terra le immagini ravvicinate della superficie dell’asteroide scattate durante il campionamento, che mostravano una ampia e densa nube di detriti sollevati dal sito di raccolta. Vista la delicatezza con cui la sonda ha toccato la superficie, gli scienziati sono rimasti spiazzati dall’abbondanza di sassolini sparsi. Non solo: secondo i risultati pubblicati oggi, il processo di raccolta ha creato un cratere di forma ellittica con un semiasse maggiore largo 9 metri.

Cosa è successo durante il campionamento

“La superficie di Bennu ha risposto al contatto con il TAGSAM – ovvero il modulo all’estremità del braccio robotico deputato al campionamento –  come un fluido viscoso, ma con resistenza minima, come se le particelle presenti sulla superficie dell’asteroide avessero coesione tra di loro pari a zero” spiega Maurizio Pajola, ricercatore dell’INAF di Padova e membro italiano del team di OSIRIS-Rex, tra i coautori dell’articolo pubblicato oggi su Science a prima firma di Dante Lauretta, responsabile scientifico della missione.

L’operazione di raccolta del materiale sulla superficie di Bennu è durata 5 secondi e il TAGSAM era largo appena 30 cm. L’enorme cratere generato ha esposto, in parte, gli strati meno superficiali della superficie, che si sono mostrati più scuri, più arrossati e caratterizzati da particolato molto più fine rispetto a quello che si trova in superficie. Infine, gli scienziati hanno notato che l’impatto con il braccio robotico ha causato lo spostamento di un masso del diametro di 1,25 metri di circa 12 metri.

“Le difficoltà per arrivare a questo campionamento sono state estreme. La superficie è solo composta di massi. Ci si aspettava di trovare una zona di almeno 25-50 metri quadrati della superficie dell’asteroide ricche di polvere e prive di rischio. In realtà, di zone con quelle caratteristiche non ce ne sono proprio su Bennu. Ciononostante, sono stati raccolti ben oltre i 60 grammi minimi richiesti dalla NASA”, commenta Pajola. “Il veicolo spaziale ha recuperato circa 250 grammi di materiale. Molto molto di più se pensiamo ai 5 grammi raccolti su Ryugu dalla sonda Hayabusa 2”.

 

Di cos’è fatto Bennu

Dalle analisi effettuate, poi, il materiale che si è alzato dalla superficie e che in parte si è depositato sulla strumentazione di bordo assomiglia al materiale che ritroviamo dentro alle meteoriti carbonacee alterate dall’acqua.

“Bennu è un Near Earth Object di tipo B, e quindi ci aspettavamo che la sua superficie fosse caratterizzata dalla presenza di minerali idrati. Però è anche un oggetto particolarmente scuro, e quindi ricco di composti del carbonio” sottolinea Pajola. “Quel che non ci aspettavamo era che si depositasse abbondante polvere su alcune delle ottiche, e questo ha diminuito un po’ il segnale acquisito dalla strumentazione di bordo. I dati che abbiamo preso quando OSIRIS-REx si è avvicinato e poi allontanato dalla superficie comunque confermano quanto atteso: il materiale era ricco composti organici e minerali idrati. La prova definitiva di questo ce l’avremo quando potremo analizzare i campioni a Terra, anzi: come successo per Hayabusa-2, siamo sicuri che dentro ai grani ci sia molto di più di quel che abbiamo potuto vedere finora”.

Se Osiris-Rex si fosse posato sulla superficie

Il fatto che si sia creato un cratere così grande in seguito al campionamento sull’asteroide è la prima dimostrazione che le particelle che compongono l’esterno di Bennu sono così poco impacchettate e legate tra loro da opporre una resistenza minima alla pressione. Per fare un esempio, se una persona dovesse camminare su Bennu si troverebbe come se calpestasse una distesa di palline di plastica come quelle che si trovano nelle aree di gioco per bambini. Se quindi la sonda non avesse azionato i suoi propulsori per indietreggiare subito dopo aver afferrato polvere e roccia dalla superficie dell’asteroide, sarebbe sprofondata al suo interno.

È possibile che asteroidi come Bennu – solo debolmente tenuti insieme dalla gravità o dalla forza elettrostatica – possano disgregarsi in caso di ingresso nell’atmosfera terrestre e quindi rappresentare un tipo di pericolo diverso rispetto agli asteroidi solidi. La ricerca su questi corpi, comunque, è ancora all’inizio e le domande aperte sono ancora molte. Quel che è certo è che le informazioni precise ricavate dagli scienziati sulla superficie di Bennu possono aiutare gli scienziati a interpretare meglio le osservazioni a distanza di altri asteroidi, il che potrebbe essere utile per progettare future missioni e per sviluppare metodi per proteggere la Terra dalle collisioni con gli asteroidi.

I risultati sono stati pubblicati oggi negli articoli:

Spacecraft sample collection and subsurface excavation of asteroid (101955) Bennu di D.S. Lauretta, C. D. Adam, A. .J. Allen, R.-L. Ballouz, O. S. Barnouin, K. .J.Becker, T. Becker, C.A.Bennett, E. B.Bierhaus, B. .J. Bos, R. D. Burns, H. Campins, Y. Cho, P.R. Christensen, E. C. A. Church, B. E. Clark, H. C.Connolly .Jr.,M. G. Daly, D. N. DellaGiustina, C. Y. Drouetd’Aubigny, J.P. Emery, H. L. Enos, S.FreundKasper, J.B. Garvin, K. Getzandanner,D.R. Golish, V. E. Hamilton, C.W. Hergenrotber, H. H. Kaplan, L. P. Keller, E. .J. Lessac-Chenen, A. .J. Liounis, H. Ma, L. K.McCartby, B. D. Miller, M. C. Moreau, T. Morota, D.S. Nelson, J. O. Nolau, R. Olds, M. Pajola, J. Y. Pelgrift, A. T. Polit, M.A. Ravine, D. C. Reuter, B. Rizk, B. Rozitis, A. .J. Ryan, E. M. Sahr, N.Sakatani, J. A. Seabrook, S. H. Selznick,M.A. Skeen, A. A. Simon, S. Sugita, K. .J.Walsh, M. M.Westermann, C.W. V. Wolner e K.Yumoto (Science)

Near-zero cohesion and loose packing of Bennu’s near subsurface revealed by spacecraft contact di Kevin J. Walsh, Ronald-Louis Ballouz et al. (Science Advances)

 

Testo e foto dall’Ufficio stampa – Struttura per la Comunicazione di Presidenza Istituto Nazionale di Astrofisica – INAF

Biodiversità globale: i numeri per non perderla

Una nuova ricerca, che coinvolge il Dipartimento di Biologia e biotecnologie Charles Darwin della Sapienza, rivela che per arrestare la crisi della biodiversità sono necessarie misure di conservazione nel 44% della superficie terrestre, pari a 64 milioni di km2. Più di 1.3 milioni di km2 rischiano infatti di essere distrutti da interventi umani entro il 2030. Lo studio è stato pubblicato sulla rivista Science

biodiversità globale
Foto di Maria e Fernando Cabral

Per fermare la crisi globale della biodiversità sono necessari sforzi ambiziosi, in particolare è fondamentale proteggere le aree ad alto valore conservazionistico e forte rischio di declino.

Un team di ricerca internazionale, che coinvolge Moreno Di Marco del Dipartimento di Biologia e biotecnologie Charles Darwin della Sapienza, ha utilizzato algoritmi geospaziali avanzati per mappare l’area ottimale per la conservazione delle specie e degli ecosistemi terrestri di tutto il mondo. I ricercatori hanno anche quantificato la superficie terrestre a rischio a causa delle attività umane di modifica degli habitat, sfruttando scenari di uso del suolo.

Lo studio, pubblicato sulla prestigiosa rivista Science, è stato coordinato da James R. Allan dell’Università di Amsterdam ed è nato dalla collaborazione della Sapienza con l’Università di Amsterdam, l’Università del Queensland, l’organizzazione The Nature Conservancy (TNC), l’organizzazione United Nations Development Programme (UNDP), l’Università di Cambridge, la BirdLife International, l’Università della Tasmania, la Rights and Resources Initiative (RRI), l’Università del Kent, l’Università di Melbourne e l’Università del Delaware.

Dai risultati di questa ricerca si evince che per arrestare la crisi della biodiversità sarebbe necessario conservare un’area di 64 milioni di km2, che corrisponde al 44 % della superficie terrestre. Inoltre, i modelli mostrano che più di 1.3 milioni di km2 di questa superficie terrestre – un’area più estesa del Sud Africa – rischiano di essere distrutti entro il 2030 dalle attività antropiche, con conseguenze devastanti per la fauna selvatica.

Considerando che sono 1.8 miliardi le persone che vivono nelle zone identificate, risultano fondamentali le azioni di conservazione che promuovono l’autonomia, l’autodeterminazione e la leadership ambientale di queste popolazioni. A tal fine, gli strumenti utili spaziano, in base al contesto locale, dalla responsabilizzazione delle popolazioni indigene, alle norme che limitano la deforestazione, alle aree protette.

Alla luce del fatto che diversi paesi, sotto la guida delle Nazioni Unite, stanno attualmente negoziando nuovi obiettivi di conservazione della natura, questo lavoro avrà importanti implicazioni politiche. Infatti, il piano d’azione post-2020 della Convenzione sulla Diversità Biologica (CDB) – un trattato internazionale adottato nel 1992 al fine di tutelare la biodiversità – entrerà in vigore nel corso dell’anno. Ciò stabilirà l’agenda della conservazione per il prossimo decennio e le nazioni dovranno riportare i risultati ottenuti rispetto ai nuovi obiettivi del 2030.

“A oggi, questa ricerca rappresenta – spiega Moreno Di Marco, coautore dello studio e coordinatore del gruppo di ricerca “Biodiversity and Global Change” della Sapienza – l’analisi più esaustiva delle esigenze di conservazione della biodiversità a scala globale e dimostra che l’espansione delle aree protette è una misura necessaria ma non sufficiente a invertire il declino della biodiversità. Le aree protette devono, quindi, essere affiancate a politiche di pianificazione sostenibile dell’uso del suolo, al riconoscimento del ruolo guida delle popolazioni indigene, a meccanismi di trasferimento fiscale verso i paesi in via di sviluppo e ricchi di biodiversità, e al controllo delle attività industriali in aree importanti per la biodiversità”.

Sebbene più di un decennio fa le nazioni avessero puntato a conservare almeno il 17% della superficie terrestre attraverso aree protette e altri approcci spaziali, dal 2020 è stato chiaro che ciò non sarebbe bastato ad arrestare il declino della biodiversità e scongiurarne la crisi, anche a causa del mancato raggiungimento di altri obiettivi.

“La nostra analisi mostra – conclude Moreno Di Marco – che il rischio per la biodiversità derivante dalla perdita di habitat in aree importanti per la conservazione può ancora essere ridotto in modo significativo (addirittura di sette volte!), se si attuano oggi politiche sostenibili di uso del territorio. Ma i governi non possono continuare a perseguire una strategia di sviluppo economico di tipo ‘business as usual’”.

Riferimenti:
The minimum land area requiring conservation attention to safeguard biodiversity – James R. Allan, Hugh P. Possingham, Scott C. Atkinson, Anthony Waldron, Moreno Di Marco, Stuart H. M. Butchart, Vanessa M. Adams, W. Daniel Kissling, Thomas Worsdell, Chris Sandbrook, Gwili Gibbon, Kundan Kumar, Piyush Mehta, Martine Maron, Brooke A. Williams, Kendall R. Jones, Brendan A. Wintle, April E. Reside, James E. M. Watson – Science (2022) https://doi.org/10.1126/science.abl9127

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma