News
Ad
Ad
Ad
Author

ScientifiCult

Browsing

Un collettivo di ricerca italiano per una riflessione costruttiva sul tema della carne coltivata a supporto di un processo decisionale ragionato

Una discussione interdisciplinare sul tema dell’agricoltura cellulare diventa una nota critica revisionata tra pari: pubblicati sulla rivista One Earth 10 spunti che, a partire dal caso specifico italiano, vengono proposti ai decisori politici e agli esperti del settore.

Quello della carne coltivata è oggi un argomento polarizzante nel discorso politico mondiale. L’Italia è stato il primo Paese ad approvare una legge che vieta produzione e vendita di prodotti ottenuti tramite agricoltura cellulare: da qui l’urgenza, percepita dalle ricercatrici e dai ricercatori che studiano il tema, di impostare una riflessione che possa contribuire a guidare i decisori politici, e tutte le parti interessate, a intraprendere percorsi di valutazione ragionati, fondati su evidenza scientifica e caratterizzati da un approccio interdisciplinare.

Politecnico di TorinoUniversità di Scienze Gastronomiche di Pollenzo e Università di Torino, insieme all’Università di Roma Tor Vergata, all’Università di Trento, a The Good Food Institute Europe e all’Istituto di scienze delle produzioni alimentari, si pongono in prima fila nell’affrontare una sfida ben precisa: promuovere un sostegno bipartisan alla ricerca scientifica, che permetta a questa di verificare se siano plausibili la sostenibilità e la praticabilità dell’agricoltura cellulare, per poi lasciare alle parti politiche le decisioni in materia di policy. È fondamentale sensibilizzare la coscienza collettiva sull’importanza di garantire ricerca libera e rispettata a priori, tenuta ben distinta dalle scelte regolamentari, necessarie ma attinenti a un dominio diverso in una democrazia che ha tra i propri valori il progresso della conoscenza.

Le ricercatrici e i ricercatori coinvolti nel progetto – 19 in tutto – hanno quindi elaborato dieci spunti confluiti in una nota critica revisionata tra pari pubblicata oggi su One Earth, la rivista dell’editore scientifico Cell Press che si occupa specificatamente di sostenibilità. Dal titolo “Cultivated meat beyond bans: Ten remarks from the Italian case toward a reasoned decision-making process” l’articolo – ad accesso libero e gratuito – vede nel ruolo di autori corrispondenti Michele Antonio Fino, professore di diritto all’Università di Scienze Gastronomiche di Pollenzo, Alessandro Bertero, professore di biotecnologie all’Università di Torino, e Diana Massai, professoressa di bioingegneria al Politecnico di Torino. Hanno con loro partecipato alla stesura del testo esperti in biologia delle cellule staminali e dei muscoli, medicina rigenerativa e ingegneria dei tessuti, bioingegneria, ingegneria industriale, tecnologie e sicurezza alimentare, diritto comparato, filosofia etica, semiotica, psicologia e percezione del consumatore, nonché comunicazione scientifica.

L’attenzione delle ricercatrici e dei ricercatori si è concentrata in primo luogo sulla libertà della ricerca, necessaria all’innovazione. Come garanzia della libertà serve un uso corretto del linguaggio per riferirsi al tema: termini quali “coltivato” o “carne coltivata” – che riportano all’origine biologica delle cellule e al metodo di produzione – non sono equivalenti a “artificiale” o “carne sintetica”. Altrettanto fondamentale è la salvaguardia dell’integrità delle informazioni trasmesse, il discorso pubblico deve infatti diffidare di tutte quelle scorciatoie linguistico-concettuali usate per descrivere i prodotti dell’agricoltura cellulare e che rischiano di compromettere la capacità degli individui di formarsi una propria opinione sulla base dei dati.

L’agricoltura cellulare ha un potenziale importante, in un mondo che si trova oggi ad affrontare sfide alimentari e ambientali non più rimandabili, con la previsione di una crescita della popolazione che raggiungerà tra i 9 e gli 11 miliardi entro il 2050. Ed è pertanto irresponsabile minare la fiducia dei consumatori nella valutazione dei nuovi alimenti, mettendo in discussione le autorità competenti in materia, qual è l’Autorità Europea per la Sicurezza Alimentare (EFSA).

Nel testo si evidenzia quindi l’importanza di fornire consistente sostegno alla ricerca pubblica allo scopo di mitigare i rischi di iniquità associati ai brevetti privati e ai potenziali monopoli. Gli autori e le autrici si rivolgono ai decisori politici per richiedere una stabilità normativa che possa sostenere gli sforzi della ricerca e il potenziale trasferimento tecnologico in tema di nuovi alimenti. Non manca, infine, un riferimento alla libertà individuale nelle scelte alimentari: una volta appurata la sicurezza e approvata la produzione, la libertà di compiere scelte alimentari non deve essere infatti limitata da alcuna maggioranza ma lasciata al singolo.

“Negli ultimi anni, in diversi paesi è emersa una linea politica contraria alla carne coltivata non fondata sui risultati di una ricerca scientifica compiuta – commentano Alessandro BerteroMichele Antonio Fino e Diana Massai – La situazione creatasi in Italia, con la conseguente crisi di conoscenza acuita da decisioni politiche basate su informazioni come minimo incomplete, ha ispirato la nascita di un collettivo di ricerca fortemente interdisciplinare. La posizione che ne è scaturita è un appello argomentato a riportare il sapere scientifico e la ricerca al centro del dibattito su un tema cruciale com’è quello della agricoltura cellulare. In quanto settima economia mondiale, l’Italia ha la responsabilità di contribuire in modo attivo e consapevole al progresso della conoscenza, prima che venga svolta qualsiasi valutazione su tecnologie capaci di influire sul futuro alimentare globale”.

Torino, 20 dicembre 2024

il primo hamburger di carne coltivata (2013) a Londra, prodotto dall'Università di Maastricht. Fotogramma World Economic Forum estratto da video YouTube (7:53), CC BY 3.0
il primo hamburger di carne coltivata (2013) a Londra, prodotto dall’Università di Maastricht. Fotogramma World Economic Forum estratto da video YouTube (7:53), CC BY 3.0

Testo dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

FONDO ITALIANO PER LA SCIENZA: AL DIPARTIMENTO DI FISICA UN DOPPIO FINANZIAMENTO PER STUDIARE I COSTITUENTI ELEMENTARI DELLA MATERIA, AL PROGETTO FLAME DI SILVIA FERRARIO RAVASIO E ALLO STUDIO DELLA TEORIA DEI CAMPI CON MARCO MEINERI; I FINANZIAMENTI ARRIVERANNO NEI PROSSIMI 3 ANNI

Dal MUR oltre 2,5 milioni di euro a due progetti di ricerca UniTo per promuovere lo sviluppo della ricerca fondamentale

Importante risultato nella ricerca per il Dipartimento di Fisica dell’Università di Torino, a cui vanno due dei cinque Starting Grant messi a bando dal Fondo Italiano per la Scienza (MUR), per il Settore – PE2 – Fundamental Costituents of Matter. L’obiettivo principale del Fondo è quello di promuovere lo sviluppo della ricerca fondamentale secondo le modalità consolidate a livello europeo sul modello dell’European Research Council (ERC). Questo prestigioso riconoscimento giunge grazie al lavoro della dottoressa Silvia Ferrario Ravasio, e del dottor Marco Meineri, che hanno ottenuto un finanziamento rispettivamente di 1.325.026,79 milioni di euro e 1.325.504,44 milioni di euro per i prossimi 3 anni.

La dott.ssa Ferrario Ravasio, attualmente al CERN,  riceve il contributo grazie al progetto “FLAME – Fixed-order and Logarithmic Accuracy in Monte Carlo Events”. Il progetto è dedicato alla fisica delle particelle. Grazie agli acceleratori di particelle come il Large Hadron Collider (LHC), è possibile testare la nostra conoscenza a energie e precisioni molto elevate. Lo studio e la comprensione del bosone di Higgs, la particella che fornisce una spiegazione per l’origine della massa di tutte le altre particelle, rimane un pilastro della fisica del LHC, così come una precisa determinazione delle proprietà delle particelle elementari che compongono il Modello Standard, la teoria che racchiude l’attuale conoscenza delle interazioni fondamentali.

L’obiettivo del progetto è aumentare l’accuratezza delle predizioni teoriche per processi chiave misurati al LHC, così da avere uno strumento interpretativo accurato e affidabile per tradurre l’enorme mole di dati misurati in conoscenza delle interazioni fondamentali tra particelle. L’LHC consente di esplorare le forze fondamentali che governano la natura. I generatori di eventi Monte Carlo (MC) sono lo strumento principale per stabilire la connessione quantitativa tra gli esperimenti di collisione e il Modello Standard, il quadro teorico che racchiude la nostra comprensione delle interazioni tra particelle fondamentali. L’obiettivo di FLAME è produrre le previsioni teoriche più precise per i processi di collisione all’interno di MC flessibili, per una migliore descrizione teorica di qualsiasi osservabile.

“Nei prossimi due decenni – dichiara Silvia Ferrario Ravasio – le misure di LHC raggiungeranno un’energia e una precisione senza precedenti, per svelare la natura del bosone di Higgs e trovare potenziali indizi di nuovi scenari fisici. FLAME fornirà la svolta urgentemente necessaria per sviluppare nuovi GPMC formalmente e praticamente accurati, in linea con i requisiti sperimentali dei futuri programmi di fisica dell’LHC e dei suoi successori”.

Questo obiettivo sarà raggiunto utilizzando la risommazione logaritmica per combinare GPMC, che ben modellano fisica a basse scale, con calcoli ad ordine fisso, solitamente atti a descrivere processi molto energetici. Il progetto FLAME rappresenta dunque una potente opportunità per spingere i confini della nostra conoscenza della fisica delle particelle e sfruttare tutto il potenziale della dinamica multi-scala negli esperimenti di collisione.

Il dottor Marco Meineri accede al finanziamento invece con il progetto “New frontiers for the bootstrap program: from entanglement to renormalization group flows”, dedicato allo studio delle teorie di campo quantistiche fortemente interagenti. La teoria dei campi è il più sofisticato linguaggio a disposizione in fisica per descrivere le interazioni fondamentali. Sorprendentemente, sono descritti da teorie di campo anche fenomeni macroscopici in cui un enorme numero di costituenti elementari si comporta collettivamente, quali la magnetizzazione spontanea di un metallo, o la transizione dell’elio liquido verso lo stato superfluido. Il prezzo da pagare per un modello teorico così potente e flessibile è che spesso non è facile estrarre predizioni esplicite da esso. Se i costituenti elementari interagiscono tra loro con forze intense, i metodi di approssimazione a nostra disposizione diventano inefficaci.

“Tuttavia – dichiara Marco Meineri – anche se non sappiamo calcolare la risposta esatta, qualche volta sappiamo escludere alcune risposte sbagliate. Infatti, i processi descritti dalle teorie di campo devono soddisfare condizioni di auto-consistenza, e verificarle è più semplice che fare predizioni esatte. A volte, i vincoli sono così stringenti da isolare una sola possibilità. Questo approccio viene chiamato “bootstrap”. Finora, il bootstrap è stato applicato con grande successo alle cosiddette funzioni di correlazione, che descrivono la risposta di un sistema a piccole sollecitazioni”.

L’obiettivo del progetto di ricerca del dott. Meineri è quello di estendere questo paradigma a nuove osservabili, che dipendono dalle proprietà di intere regioni di spazio invece che di singoli punti. Il prototipo di queste osservabili è la quantità di entanglement tra due regioni diverse di spazio. L’entanglement è una proprietà fondamentale delle teorie quantistiche, e implica che il risultato di un esperimento in una certa regione sia influenzato da cosa avviene in una regione diversa, pur senza un’azione diretta. Maggiore l’entanglement, maggiore l’incertezza associata a una conoscenza imprecisa dello stato del sistema. Il calcolo della cosiddetta entropia dovuta all’entanglement è particolarmente arduo: Il bootstrap potrebbe consentire di determinarne limiti universali.

Il rettorato dell'Università degli Studi di Torino.
Fondo Italiano per la Scienza: finanziamenti al progetto FLAME di Silvia Ferrario Ravasio e allo studio della teoria dei campi con Marco Meineri. In foto, il rettorato dell’Università degli Studi di Torino. Foto Unitomaster, CC BY-SA 3.0

Testo dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

CA’ FOSCARI, PROGETTO RARA FACTORY FRA LE 4 START UP PREMIATE AL MOTOR VALLEY ACCELERATOR EXPO
AL VIA A VENEZIA LA RICERCA PER LA GENERAZIONE SINTETICA DELLE TERRE RARE

Il progetto ottiene un finanziamento di 400 mila euro, le attività saranno sviluppate nei laboratori di Marghera Venezia al VEGA Parco Scientifico  Tecnologico

I ricercatori dello spin off studiano materiali innovativi e sostenibili combinando fisica della materia, teoria delle reti e intelligenza artificiale per sostituire le ‘terre rare’ con composti puliti

19 dicembre 2024

VENEZIA – RARA Factory, lo spin off dell’Università Ca’ Foscari Venezia che sviluppa materiali innovativi e sostenibili combinando fisica della materia, teoria delle reti e intelligenza artificiale, è tra le quattro startup selezionate e finanziate da Motor Valley Accelerator, la principale piattaforma di Open Innovation in Italia dedicata all’innovazione nei settori Mobility ed Automotive.

L’annuncio è avvenuto nel corso del Motor Valley Accelerator Expo svoltosi a Fiorano Modenese, nel cuore della Motor Valley dell’Emilia-Romagna; un appuntamento nel quale si sono radunati startup e dipartimenti di R&D ed innovazione delle principali aziende del mondo nel settore Mobility ed Automotive.

Il progetto RARA Factory è coordinato dai docenti del Dipartimento di Scienze Molecolari e Nanosistemi Stefano Bonetti e Guido Caldarelli, dal prof. Michele Bugliesi del Dipartimento di Scienze Ambientali, Informatica e Statistica e da Stefano Micelli, docente della Venice School of Management.

Il team di ricerca studia lo sviluppo di un algoritmo per la generazione sintetica delle terre rare che fanno parte di un più ampio gruppo di “materiali rari” o “materiali critici”, per esempio nichel o cobalto, che sono alla base di tutti i dispositivi elettronici di ultima generazione, come batterie ricaricabili, motori elettrici, schermi TV e LCD.

L’obiettivo di Rara Factory è infatti quello di offrire una soluzione completamente nuova al problema. L’idea non è di trovare terre rare o materiali rari, riciclandoli o cercando nuovi giacimenti, ma di sostituirli completamente con composti puliti e abbondanti di prestazioni uguali o superiori.

Stefano Bonettidocente di Ingegneria Fisica a Ca’ Foscari: “La scorsa settimana abbiamo partecipato come RARA Factory all’Expo 2024 del Motor Valley Accelerator a Modena, un evento di punta per l’innovazione tecnologica nel settore automobilistico, dove i materiali sono cruciali. L’Expo ha offerto un’opportunità esclusiva per connettersi con innovatori che stanno ridefinendo il panorama della mobilità. Come RARA Factory siamo state una delle quattro startup innovative premiate nel 2024 con un investimento di accelerazione di 400mila euro, che servirà ad avviare le prime attività nei nostri laboratori a Marghera. Abbiamo firmato accordi di collaborazione con diverse importanti aziende del settore, estremamente interessate nell’usare la nostra tecnologia per sostituire materiali critici nei loro prodotti. È entusiasmante vedere come la ricerca di base che stiamo portando avanti potrà avere un impatto su scala così ampia”.

Progetto RARA Factory, foto di gruppo

Motor Valley Accelerator nasce da un’iniziativa congiunta del network nazionale di CDP Venture Capital Sgr, UniCredit, e Fondazione Modena, gestito da Plug and Play, anche in veste di investitore, e CRIT. In quattro anni di attività ha contribuito a rafforzare l’ecosistema dell’industria automotive finanziando complessivamente 28 startup. Grazie alla collaborazione con le aziende partner (STMicroelectronics, Ferrari, Agrati, Dallara, Sabelt, OMR, Gruppo Hera e UnipolSai Assicurazioni) che sono state anche protagoniste nelle fasi di selezione, sono stati avviati oltre 30 Proof of Concept di cui una parte si sono evoluti in progetti avanzati verso l’implementazione.

Testo e foto dall’Ufficio Comunicazione e Promozione di Ateneo Università Ca’ Foscari Venezia

Ricercatori dell’Università di Milano-Bicocca scoprono una nuova emoglobina grazie alla tecnologia più avanzata: è l’Emoglobina Monza

Si chiama Emoglobina Monza ed è una nuova variante di emoglobina instabile associata ad anemia emolitica acuta in età pediatrica: è stata identificata alla Fondazione IRCCS San Gerardo dei Tintori di Monza e studiata grazie all’intelligenza artificiale e ad altre tecniche avanzate.

Milano, 19 dicembre 2024 – Una nuova variante emoglobinica, denominata “Emoglobina Monza”, è stata individuata da un gruppo di ricercatori dell’Università di Milano-Bicocca. Questa variante, causata da una duplicazione di 23 aminoacidi nel gene dell’emoglobina (HBB), comporta instabilità della proteina, provocando episodi di anemia emolitica acuta, soprattutto in occasione di episodi febbrili. La scoperta, pubblicata sulla rivista Med di Cell Press, apre il campo a nuove prospettive per lo studio di queste rare patologie grazie all’utilizzo di tecniche di Intelligenza artificiale.

Il caso clinico che ha portato alla scoperta è stato quello di una bambina di origine cinese che, a seguito di un episodio febbrile, ha sviluppato una grave anemia emolitica, condizione patologica caratterizzata da una distruzione accelerata dei globuli rossi, a un ritmo superiore alla capacità del midollo osseo di produrli. Le conseguenze della patologia possono essere gravi, specialmente in età pediatrica quando gli episodi acuti possono compromettere seriamente lo stato di salute dei piccoli pazienti.

«Esistono varianti emoglobiniche, note come “emoglobine instabili”, che tendono a essere degradate (ovvero distrutte) sotto stress fisici, come gli episodi febbrili, scatenando così crisi emolitiche. A causarle generalmente sono alterazioni puntiformi nella sequenza amminoacidica dell’emoglobina, che modifica la stabilità e la funzionalità della proteina stessa», spiega Carlo Gambacorti-Passerini, direttore del reparto di Ematologia della Fondazione IRCCS San Gerardo dei Tintori di Monza e professore presso l’Università di Milano-Bicocca, che ha coordinato il progetto di ricerca.

La piccola paziente è stata seguita presso la Fondazione IRCCS San Gerardo dei Tintori di Monza dalla pediatra Paola Corti e dal tecnico Amedeo Messina, che hanno realizzato che l’anemia era dovuta a una variante anomala di emoglobina con un comportamento instabile in situazioni di stress. Indagini successive hanno rivelato che anche la madre e i due fratelli della bambina possedevano la stessa variante e manifestavano episodi simili nel corso di episodi febbrili. Un’analisi genetica specifica ha mostrato che la variante non solo era inedita, ma era anche caratterizzata da una duplicazione molto lunga (23 aminoacidi) del gene che codifica la catena beta dell’Emoglobina (HBB), una caratteristica mai osservata prima in altre emoglobine instabili.

Le duplicazioni lunghe nel gene HBB sono molto rare e sono state sempre associate a un’altra malattia, la beta-talassemia. Infatti, si è sempre ritenuto che le lunghe duplicazioni comportino un’alterata interazione tra le due catene che compongono l’emoglobina, Beta e Alfa. Il dottor Ivan Civettini, ematologo, ora dottorando presso l’IRCCS Ospedale San Raffaele, e la dottoressa Arianna Zappaterra, medico presso la divisione di Ematologia della Fondazione IRCCS San Gerardo dei Tintori di Monza, si sono quindi chiesti come una mutazione di tale portata potesse comunque consentire all’emoglobina di mantenere una funzionalità normale, almeno in condizioni fisiologiche. 

«La struttura della variante emoglobinica è stata ricreata utilizzando tecniche di modeling tridimensionale e intelligenza artificiale (reti neurali), recentemente premiate con il Nobel per la chimica», precisa Ivan Civettini. «In condizioni normali, il legame tra le due catene dell’emoglobina è preservato e la duplicazione si presenta come una lunga protrusione che sbatte un po’ come una banderuola nel vento, al di fuori della struttura proteica dell’emoglobina. Inoltre abbiamo osservato che questa mutazione non compromette il centro attivo dell’emoglobina, dove avviene il legame con ossigeno e ferro. In sintesi, in condizioni normali, l’emoglobina Monza resta stabile e il legame preservato tra le catene dell’emoglobina non causa beta-talassemia».

Che cosa avviene dunque nel sangue durante l’episodio febbrile? Per ricreare questa condizione sono state utilizzate ulteriori tecniche computazionali avanzate, note come “dinamica molecolare”. È stato ricreato un fluido con la stessa “salinità” del sangue umano, dove è stata inserita l’emoglobina normale e l’emoglobina Monza e che è stato portato alla temperatura di 38°C, come durante un episodio febbrile. Risultato? L’Emoglobina Monza si degrada più velocemente di quella normale, perdendo il contatto con l’atomo di ferro. Questi esperimenti sono stati eseguiti in collaborazione col professor Alfonso Zambon dell’Università di Modena e Reggio Emilia.

«La scoperta offre nuovi spunti per comprendere meglio varianti rare di emoglobina, ma che diverranno sempre più frequenti in Italia con l’aumento di etnie diverse da quella caucasica», aggiunge Carlo Gambacorti-Passerini. «L’uso di tecniche computazionali moderne e l’ausilio dell’intelligenza artificiale hanno reso questo tipo di studi più rapido ed economico rispetto a metodi tradizionali come, per esempio, la cristallografia a raggi X. Un’ulteriore prova dell’importanza della collaborazione tra diverse istituzioni nella medicina moderna».

 

Testo e immagini dall’Ufficio Stampa dell’Università di Milano-Bicocca

JWST OSSERVA UN ANTICHISSIMO BUCO NERO SUPERMASSICCIO DORMIENTE, A ‘RIPOSO’ DOPO UN’ABBUFFATA COSMICA, NELLA GALASSIA GN-1001830

È uno dei più grandi buchi neri supermassicci non attivi mai osservati nell’universo primordiale e il primo individuato durante l’epoca della reionizzazione. La scoperta, pubblicata sulla rivista Nature, è stata possibile grazie alle rilevazioni del telescopio spaziale James Webb. Allo studio hanno partecipato anche INAF, Scuola Normale Superiore di Pisa e Sapienza Università di Roma.

JWST buco nero dormiente GN-1001830 Illustrazione artistica che rappresenta l'aspetto potenziale del buco nero supermassiccio scoperto dal team di ricerca durante la sua fase di intensa attività super-Eddington. Crediti: Jiarong Gu
Illustrazione artistica che rappresenta l’aspetto potenziale del buco nero supermassiccio scoperto dal team di ricerca durante la sua fase di intensa attività super-Eddington. Crediti: Jiarong Gu

Anche i buchi neri schiacciano un sonnellino tra una mangiata e l’altra. Un team internazionale di scienziati, guidato dall’Università di Cambridge, ha scoperto un antichissimo buco nero supermassiccio “dormiente” in una galassia compatta, relativamente quiescente e che vediamo come era quasi 13 miliardi di anni fa. La galassia è GN-1001830. Il buco nero, descritto in un articolo pubblicato oggi sulla rivista Nature, ha una massa pari a 400 milioni di volte quella del Sole e risale a meno di 800 milioni di anni dopo il Big Bang, rendendolo uno degli oggetti più antichi e massicci mai rilevati.

Questo mastodontico oggetto è inoltre il primo buco nero supermassiccio non attivo, in termini di accrescimento di materia, osservato durante l’epoca della reionizzazione, una fase di transizione nell’universo primordiale durante la quale il gas intergalattico è stato ionizzato dalla radiazione delle prime sorgenti cosmiche. Probabilmente rappresenta solo la punta dell’iceberg di una intera popolazione di buchi neri “a riposo” ancora da osservare in questa epoca lontana. La scoperta, a cui partecipano ricercatrici e ricercatori anche dell’Istituto Nazionale di Astrofisica (INAF), della Scuola Normale Superiore di Pisa e della Sapienza Università di Roma, si basa sui dati raccolti telescopio spaziale James Webb (JWST), nell’ambito del programma JADES (JWST Advanced Extragalactic Survey).

In che senso il buco nero è “dormiente”? Grazie a questi dati, il gruppo di ricerca ha stabilito che, nonostante la sua dimensione colossale, questo buco nero sta accrescendo la materia circostante a un ritmo molto basso a differenza di quelli di massa simile osservati nella stessa epoca (i cosiddetti quasar) – circa 100 volte inferiore al limite teorico massimo – rendendolo praticamente inattivo.

JWST buco nero dormiente GN-1001830 Immagine in falsi colori ottenuta dal telescopio spaziale JWST, che mostra una piccola frazione del campo GOODS-North. La galassia evidenziata nel riquadro ospita un antichissimo buco nero supermassiccio 'dormiente'. Crediti: JADES Collaboration
Immagine in falsi colori ottenuta dal telescopio spaziale JWST, che mostra una piccola frazione del campo GOODS-North. La galassia evidenziata nel riquadro ospita un antichissimo buco nero supermassiccio ‘dormiente’. Crediti: JADES Collaboration

Un’altra peculiarità di questo buco nero ad alto redshift (ossia collocato nell’universo primordiale) è il suo rapporto con la galassia ospite: la sua massa rappresenta il 40 per cento della massa stellare totale, un valore mille volte superiore a quello dei buchi neri normalmente osservati nell’universo vicino. Alessandro Trinca, ricercatore post-doc oggi in forza all’Università degli studi dell’Insubria ma già post-doc presso l’INAF di Roma per un anno, spiega:

“Questo squilibrio suggerisce che il buco nero abbia avuto una fase di crescita rapidissima, sottraendo gas alla formazione stellare della galassia. Ha rubato tutto il gas che aveva a disposizione prima di diventare dormiente lasciando la componente stellare a bocca asciutta”.

Alessandro Trinca, ricercatore post-doc presso l’Università degli studi dell’Insubria
Alessandro Trinca, ricercatore post-doc presso l’Università degli studi dell’Insubria

Rosa Valiante, ricercatrice dell’INAF di Roma coinvolta nel team internazionale e coautrice dell’articolo, aggiunge:

“Comprendere la natura dei buchi neri è da sempre un argomento che affascina l’immaginario collettivo: sono oggetti apparentemente misteriosi che mettono alla prova ‘famose’ teorie scientifiche come quelle di Einstein e Hawking. La necessità di osservare e capire i buchi neri, da quando si formano a quando diventano massicci fino a miliardi di volte il nostro Sole, spinge non solo la ricerca scientifica a progredire, ma anche l’avanzamento tecnologico”.

Rosa Valiante, ricercatrice presso l’INAF di Roma
Rosa Valiante, ricercatrice presso l’INAF di Roma

I buchi neri supermassicci così antichi, come quello descritto nell’articolo su Nature, rappresentano un mistero in astrofisica. La rapidità con cui questi oggetti sono cresciuti nelle prime fasi della storia dell’Universo sfida i modelli tradizionali, che non sono in grado di spiegare la formazione di buchi neri di tale portata. In condizioni normali, i buchi neri accrescono materia fino a un limite teorico, chiamato “limite di Eddington”, oltre il quale la pressione della radiazione generata dall’accrescimento contrasta ulteriori flussi di materiale verso il buco nero. La scoperta di questo buco nero primordiale supporta l’ipotesi che fasi brevi ma intense di accrescimento dette “super-Eddington” siano essenziali per spiegare l’esistenza di questi “giganti cosmici” nell’universo primordiale. Si tratta di fasi durante le quali i buchi neri riuscirebbero a inglobare materia a un ritmo molto superiore, sfuggendo temporaneamente a questa limitazione, intervallate da periodi di dormienza.

“Se la crescita avvenisse a un ritmo inferiore al limite di Eddington, il buco nero dovrebbe accrescere il gas in modo continuativo nel tempo per sperare di raggiungere la massa osservata. Sarebbe quindi molto improbabile osservarlo in una fase dormiente”, spiega Raffaella Schneider, professoressa del Dipartimento di Fisica della Sapienza.

Raffaella Schneider, professoressa del Dipartimento di Fisica della Sapienza
Raffaella Schneider, professoressa del Dipartimento di Fisica della Sapienza

Gli scienziati ipotizzano che buchi neri simili siano molto più comuni di quanto si pensi, ma oggetti in un tale stato dormiente emettono pochissima luce, il che li rende particolarmente difficili da individuare, persino con strumenti estremamente avanzati come il telescopio spaziale Webb. E allora come scovarli? Sebbene non possano essere osservati direttamente, la loro presenza viene svelata dal bagliore di un disco di accrescimento che si forma intorno a loro. Con il JWST, telescopio delle agenzie spaziali americana (NASA), europea (ESA) e canadese (CSA) progettato per osservare oggetti estremamente poco luminosi e distanti, sarà possibile esplorare nuove frontiere nello studio delle prime strutture galattiche.

Stefano Carniani, ricercatore della Scuola Normale Superiore di Pisa e membro del team JADES commenta:

“Questa scoperta apre un nuovo capitolo nello studio dei buchi neri distanti. Grazie alle  immagini del James Webb, potremo indagare le proprietà dei buchi neri dormienti, rimasti finora invisibili. Queste osservazioni offrono i pezzi mancanti per completare il puzzle della formazione e dell’evoluzione delle galassie nell’universo primordiale”.

Stefano Carniani, ricercatore presso la Scuola Normale Superiore di Pisa
Stefano Carniani, ricercatore presso la Scuola Normale Superiore di Pisa

La scoperta rappresenta solo l’inizio di una nuova fase di indagine. Il JWST sarà ora utilizzato per individuare altri buchi neri dormienti simili, contribuendo a svelare nuovi misteri sull’evoluzione delle strutture cosmiche nell’universo primordiale.Le osservazioni utilizzate in questo lavoro sono state ottenute nell’ambito della collaborazione JADES tra i team di sviluppo degli strumenti Near-Infrared Camera (NIRCam) e Near-Infrared Spectrograph (NIRSpec), con un contributo anche dal team statunitense del Mid-Infrared Instrument (MIRI).

JWST buco nero dormiente GN-1001830 Un’immagine in tre colori del nucleo galattico attivo e della galassia ospite JADES GN 1146115. L’immagine è stata creata con diversi filtri (rosso F444W, verde F277W e blu F115W) utilizzando gli strumenti dal James Webb Space Telescope NIRCam e NIRSpec in modalità multi-oggetto, come parte del programma JADES (JWST Advanced Extragalactic Survey). La galassia si trova a un redshift di 6.68, che corrisponde a un’epoca di meno di 800 milioni di anni dopo il Big Bang. Crediti: I. Juodzbalis et al. / Nature (2024)
Un’immagine in tre colori del nucleo galattico attivo e della galassia ospite JADES GN 1146115. L’immagine è stata creata con diversi filtri (rosso F444W, verde F277W e blu F115W) utilizzando gli strumenti dal James Webb Space Telescope NIRCam e NIRSpec in modalità multi-oggetto, come parte del programma JADES (JWST Advanced Extragalactic Survey). La galassia si trova a un redshift di 6.68, che corrisponde a un’epoca di meno di 800 milioni di anni dopo il Big Bang. Crediti: I. Juodzbalis et al. / Nature (2024)

 

Riferimenti bibliografici:

L’articolo “A dormant, overmassive black hole in the early Universe”, di Ignas Juodžbalis, Roberto Maiolino, William M. Baker, Sandro Tacchella, Jan Scholtz, Francesco D’Eugenio, Raffaella Schneider, Alessandro Trinca, Rosa Valiante, Christa DeCoursey, Mirko Curti, Stefano Carniani, Jacopo Chevallard, Anna de Graaff, Santiago Arribas, Jake S. Bennett, Martin A. Bourne, Andrew J. Bunker, Stephane Charlot, Brian Jiang, Sophie Koudmani, Michele Perna, Brant Robertson, Debora Sijacki, Hannah Ubler, Christina C. Williams, Chris Willott, Joris Witstok, è stato pubblicato sulla rivista Nature.

Testo e immagini dagli Uffici Stampa INAF, Scuola Normale Superiore Pisa, Ufficio Stampa e Comunicazione Sapienza Università di Roma

ALL’UNIVERSITÀ DI TORINO 1,8 MILIONI DI EURO PER RIVOLUZIONARE LE TERAPIE TUMORALI ANTI-ANGIOGENESI DEL PROGETTO COOLISH

COOLISH, progetto di ricerca interdisciplinare del Dipartimento di Oncologia dell’Università di Torino e del Candiolo Cancer Institute-IRCCS-FPO, ha ottenuto un importante finanziamento di 1,8 milioni di euro dal Fondo Italiano per le Scienze Applicate (FISA), il programma del Ministero dello Sviluppo Economico istituito con la legge di bilancio 2022, che ha l’obiettivo di innalzare il livello di attrazione, competitività e innovazione dell’Italia, elevando la capacità di fare ricerca.

Il progetto COOLISH ha lo scopo di ottimizzare la scoperta di molecole bioattive in ambito oncologico attraverso il superamento degli attuali limiti presenti nelle colture cellulari bidimensionali e dei modelli tridimensionali, poco efficaci nel riprodurre il microambiente tumorale. L’obiettivo è sviluppare una piattaforma basata su organoidi vascolarizzati derivati da pazienti con tumori di difficile trattamento, come l’adenocarcinoma duttale pancreatico, il carcinoma polmonare non a piccole cellule e il melanoma metastatico, noti per essere refrattari o scarsamente responsivi alle attuali terapie anti-angiogeniche. Questa progetto consentirà di testare un’ampia libreria di molecole, già approvate alla sperimentazione umana dalle agenzie regolatorie, per identificare composti in grado di bloccare la crescita degli organoidi tumorali attraverso il blocco dell’angiogenesi, ossia il processo di formazione di formazione di nuovi vasi sanguigni.

“I farmaci anti-angiogenetici – spiega il Prof. Federico Bussolino, Direttore del laboratorio di Oncologia vascolare al Candiolo Cancer Institute – sono fondamentali nella lotta contro il cancro perché bloccano la formazione di nuovi vasi sanguigni, impedendo al tumore di crescere e diffondersi. Agiscono in modo mirato e possono essere combinati con altre terapie per aumentarne l’efficacia. Tuttavia le molecole anti-angiogenetiche attualmente disponibili non sono efficaci in tutti i tumori, che per altro richiedono la vascolarizzazione per la loro progressioneLa presenza di un team multidisciplinare supportato da un finanziamento importante quale FISA 2022 permetterà a COOLISH di effettuare nei prossimi quattro anni una Ricerca ad alto profilo diretta a innovare questi trattamenti, offrendo di riflesso nuove speranze ai pazienti”.

COOLISH è una piattaforma multidisciplinare sviluppata dal Prof. Federico Bussolino del Candiolo Cancer Institute-IRCCS-FPO, dal Prof. Luca Primo del Dipartimento di Oncologia, dalla Prof.ssa Laura Anfossi del Dipartimento di Chimica e del Prof. Marco L. Lolli del Dipartimento di Scienza e Tecnologia del Farmaco.

tumori infantili RNA
Foto di RyanMcGuire

 

Testo dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

Individuato un nuovo potenziale biomarcatore della SLA: GDF15, la proteina che riduce l’appetito
Uno studio internazionale, coordinato da Sapienza Università di Roma, ha dimostrato il coinvolgimento della citochina GDF15, nota per causare la riduzione dell’appetito, nella progressione della SLA. Il lavoro, pubblicato sulla rivista Brain Behavior and Immunity, suggerisce un nuovo potenziale biomarcatore e bersaglio terapeutico per il trattamento della malattia.

 

La sclerosi laterale amiotrofica (SLA) è una malattia multifattoriale caratterizzata dalla degenerazione progressiva dei motoneuroni e dalla paralisi muscolare. Nonostante i trattamenti attualmente utilizzati, i pazienti sopravvivono solo 3-5 anni dopo la diagnosi iniziale.

La perdita di peso è un’importante caratteristica clinica, al momento della diagnosi, delle persone affette da SLA. Con una prevalenza stimata del 56%-62%, la perdita di peso è definita come un rilevante e indipendente fattore prognostico. Diversi studi hanno riportato che il decorso della malattia è sfavorevole quando i pazienti perdono peso rapidamente o hanno un indice di massa corporea basso al momento della diagnosi.

Lo studio internazionale, coordinato dalla Sapienza, che ha visto la partecipazione dei dipartimenti di Fisiologia e Farmacologia, di Chimica e Tecnologie del Farmaco, di Neuroscienze Umane e dell’Università di Amsterdam, ha dimostrato che la citochina GDF15 è coinvolta nelle disfunzioni metaboliche che caratterizzano la patologia.

Utilizzando un modello murino della patologia e campioni di pazienti affetti da SLA, i ricercatori hanno osservato che GDF15 è altamente espresso nel sangue periferico e in campioni di tessuto umano a livello della corteccia cerebrale motoria, nel midollo spinale e nel tronco encefalico.

In particolare, lo studio si è focalizzato sul ruolo del recettore GFRAL, presente nei neuroni di una regione specifica del sistema nervoso centrale, e cioè l’area postrema e il nucleo del tratto solitario. I ricercatori hanno mostrato che silenziando l’espressione del GFRAL solo in queste regioni provocava un rallentamento della perdita di peso e di tessuto adiposo, il miglioramento della funzione motoria e una maggiore sopravvivenza nei topi.

I risultati dello studio evidenziano un coinvolgimento dell’asse GDF15-GFRAL nella modulazione delle alterazioni metaboliche alla base della perdita di peso e della progressione della malattia nella SLA. La ricerca mette in luce l’importanza di aumentare l’attenzione sull’aspetto nutrizionale e sui cambiamenti metabolici nei pazienti per anticipare la diagnosi della malattia e per sviluppare interventi terapeutici innovativi.

“Questo studio contribuisce ad aumentare la nostra comprensione dei meccanismi alla base della sclerosi laterale amiotrofica – commenta Cristina Limatola del Dipartimento di Fisiologia e Farmacologia della Sapienza. Sappiamo infatti che la SLA non è più definibile come una patologia del motoneurone, perchè numerose alterazioni sono state descritte a carico della componente gliale e del sistema immunitario prima che si manifestino sintomi nei pazienti e prima che sia misurabile un danno neurodegenerativo. La nostra scoperta del coinvolgimento della citochina GDF15 nella perdita di peso che precede la manifestazione dei sintomi della SLA conferma l’importanza di un approccio olistico per una diagnosi precoce della malattia e l’identificazione di nuovi bersagli terapeutici”.

 

Riferimenti bibliografici:

Cocozza G., Busdraghi L. M., Chece G., Menini A., Ceccanti M., Libonati L., Cambieri C., Fiorentino F., Rotili D., Scavizzi F., Raspa M., Aronica E., Inghilleri M., Garofalo S., Limatola C., “GDF15-GFRAL signaling drives weight loss and lipid metabolism in mouse model of amyotrophic lateral sclerosis”, Brain, Behavior, and Immunity (2025) DOI: https://doi.org/10.1016/j.bbi.2024.12.010

microscopio cellule invecchiamento
Individuato un nuovo potenziale biomarcatore della SLA: GDF15, la proteina che riduce l’appetito; lo studio su Brain, Behavior, and Immunity. Foto PublicDomainPictures 

 

Testo e immagine dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

L’INATTESO BRILLAMENTO NEL GETTO DI M87 OSSERVATO DALLE ONDE RADIO AI RAGGI GAMMA

Curva di luce del brillamento a raggi gamma (in basso) e raccolta di immagini quasi-simulatneee del getto di M87 (in alto) a varie scale ottenute in radio e raggi X durante la campagna del 2018. Lo strumento, la lunghezza d'onda di osservazione e la scala sono mostrati in alto a sinistra di ogni immagine. Crediti: EHT Collaboration, Fermi-LAT Collaboration, H.E.S.S. Collaboration, MAGIC Collaboration, VERITAS Collaboration, EAVN Collaboration
Curva di luce del brillamento a raggi gamma (in basso) e raccolta di immagini quasi-simulatneee del getto di M87 (in alto) a varie scale ottenute in radio e raggi X durante la campagna del 2018. Lo strumento, la lunghezza d’onda di osservazione e la scala sono mostrati in alto a sinistra di ogni immagine. Crediti: EHT Collaboration, Fermi-LAT Collaboration, H.E.S.S. Collaboration, MAGIC Collaboration, VERITAS Collaboration, EAVN Collaboration

È il primo episodio registrato dal 2010. I dati sono stati raccolti dalla collaborazione Event Horizon Telescope (EHT) nel corso di una campagna osservativa a diverse lunghezze d’onda del 2018 sfruttando numerosi telescopi in orbita come Fermi, HST, NuSTAR, Chandra, Swift della NASA, insieme ai tre più grandi telescopi Cherenkov sulla Terra: H.E.S.S., MAGIC e VERITAS.

Gli osservatori e i telescopi che hanno partecipato alla campagna multibanda del 2018 per la rilevazione del brillamento di raggi gamma ad alte energie dal buco nero M87*. Crediti: EHT Collaboration, Fermi-LAT Collaboration, H.E.S.S. Collaboration, MAGIC Collaboration, VERITAS Collaboration, EAVN Collaboration
Gli osservatori e i telescopi che hanno partecipato alla campagna multibanda del 2018 per la rilevazione del brillamento di raggi gamma ad alte energie dal buco nero M87*. Crediti: EHT Collaboration, Fermi-LAT Collaboration, H.E.S.S. Collaboration, MAGIC Collaboration, VERITAS Collaboration, EAVN Collaboration

La collaborazione scientifica internazionale Event Horizon Telescope (EHT), che nel 2019 aveva pubblicato la prima “foto” di un buco nero, quello supermassiccio al centro della galassia Messier 87 (denominato M87*), ha recentemente osservato e studiato a diverse lunghezze d’onda uno spettacolare brillamento (flare in inglese) proveniente dal potente getto relativistico al centro della stessa galassia, la più luminosa dell’ammasso della Vergine. Lo studio, coordinato dal gruppo di ricerca EHT-MWL che include anche l’Università degli studi di Trieste, l’Istituto Nazionale di Astrofisica (INAF), l’Istituto Nazionale di Fisica Nucleare (INFN) e l’Agenzia Spaziale Italiana (ASI), presenta i dati della seconda campagna osservativa di EHT realizzata nell’aprile del 2018 che ha coinvolto oltre 25 telescopi terrestri e in orbita. Nello studio gli autori riportano la prima osservazione in oltre un decennio di un brillamento di raggi gamma ad altissime energie – fino a migliaia di miliardi di elettronvolt – da M87* dopo aver ottenuto quasi in simultanea gli spettri della galassia con il più ampio intervallo di lunghezze d’onda finora raccolti. L’articolo è stato pubblicato sulla rivista Astronomy & Astrophysics.

“Siamo stati fortunati a rilevare un brillamento di raggi gamma da M87* durante la campagna multi-lunghezza d’onda dell’Event Horizon Telescope. Questo è il primo episodio di brillamento di raggi gamma in questa sorgente dal 2010. Le osservazioni, comprese quelle eseguite con un’infrastruttura più sensibile nel 2021 e 2022, così come quelle pianificate per i prossimi anni, ci offriranno ulteriori approfondimenti e un’incredibile opportunità per investigare la fisica attorno al buco nero supermassiccio M87*, spiegando la connessione tra il disco di accrescimento e il getto emesso, nonché l’origine e i meccanismi responsabili dell’emissione di fotoni di raggi gamma”, commenta Giacomo Principe, responsabile del progetto, ricercatore dell’Università degli studi di Trieste, associato INAF e INFN.

Il brillamento energetico, durato circa tre giorni, ha rivelato che l’emissione era sbilanciata verso energie più elevate di quelle tipiche emesse dal buco nero di M87.

“Insieme alle osservazioni sub-millimetriche dell’EHT, i nuovi dati raccolti in molteplici bande di radiazione offrono un’opportunità unica per comprendere le proprietà della regione di emissione di raggi gamma, collegarla a potenziali cambiamenti nel getto di M87 e consentire test più sensibili sulla relatività generale”, sottolinea Principe.

Spingendo materiale ad altissima energia al di fuori della galassia ospite, il getto relativistico esaminato dai ricercatori e dalle ricercatrici ha un’estensione sorprendente arrivando a dimensioni che superano quelle dell’orizzonte degli eventi del buco nero per decine di milioni di volte: come dire la differenza che c’è in termini di dimensioni tra un batterio e la più grande balenottera azzurra conosciuta.

Tra i telescopi coinvolti nella campagna troviamo Fermi (con lo strumento LAT), NuSTAR, Chandra e Swift della NASA, e i tre più grandi apparati di telescopi IACT (Imaging Atmospheric Cherenkov Telescope) per astronomia a raggi gamma di altissima energia da terra (H.E.S.S., MAGIC e VERITAS), con i quali è stato possibile osservare e studiare le caratteristiche di durata ed emissione del brillamento ad alta energia.

Elisabetta Cavazzuti, responsabile del programma Fermi per l’ASI, racconta: “Fermi-LAT ha rivelato un aumento notevole di flusso nello stesso periodo degli altri osservatori contribuendo a cercare di identificare la zona di emissione dei raggi gamma durante questi aumenti di luminosità. M87 è un laboratorio che ci dimostra ancora una volta l’importanza di avere osservazioni coordinate a più lunghezze d’onda e anche ben campionate per caratterizzare pienamente la variabilità spettrale della sorgente, variabilità che probabilmente si estende su diverse scale temporali, con una visione il più possibile completa attraverso tutto lo spettro elettromagnetico”.

Dati di elevata qualità sono stati poi raccolti nella banda dei raggi X da Chandra e NuSTAR. Le osservazioni radio VLBA (Very Long Baseline Array), per le quali sono state coinvolte anche le stazioni radioastronomiche dell’INAF, presentano un chiaro cambiamento, su base annuale, dell’angolo di posizione del getto entro pochi milliarcosecondi dal nucleo della galassia.

Principe continua: “In particolare, questi risultati offrono la prima possibilità in assoluto di identificare il punto in cui vengono accelerate le particelle che causano il brillamento, il che potrebbe potenzialmente risolvere un dibattito di lunga data sull’origine dei raggi cosmici (particelle ad altissima energia provenienti dallo spazio) rilevati sulla Terra”.

I dati pubblicati nell’articolo mostrano anche una variazione significativa nell’angolo di posizione dell’asimmetria dell’anello (il cosiddetto “orizzonte degli eventi” del buco nero), così come nella posizione del getto, rivelando connessioni tra queste strutture su scale dimensionali molto diverse. Il ricercatore spiega:

“Nella prima immagine durante la compagna osservativa del 2018 si era visto che questo anello non era omogeneo, presentava quindi delle asimmetrie (cioè delle zone più brillanti). Le successive osservazioni condotte nel 2018 e legate a questa pubblicazione scientifica hanno confermato i dati evidenziando però che l’angolo di posizione dell’asimmetria era cambiato”.

“Come e dove le particelle vengono accelerate nei getti del buco nero supermassiccio è un mistero di lunga data. Per la prima volta possiamo combinare l’imaging diretto delle regioni vicine all’orizzonte degli eventi di un buco nero durante i brillamenti di raggi gamma derivanti da eventi di accelerazione delle particelle, e possiamo testare le teorie sulle origini dei brillamenti stessi”, dice Sera Markoff, professoressa presso l’Università di Amsterdam e co-autrice dello studio.

Giacomo Principe conclude: “Queste osservazioni possono far luce su alcuni principali quesiti dell’astrofisica tuttora ancora irrisolti: come sono originati i potenti getti relativistici che vengono osservati in alcune galassie? Dove vengono accelerate le particelle responsabili dell’emissione dei raggi gamma? Quale fenomeno le accelera fino a energie del TeV (migliaia di miliardi di elettronvolt)? Qual è l’origine dei raggi cosmici?”


 

Riferimenti bibliografici:

L’articolo “Broadband Multi-wavelength Properties of M87 during the 2018 EHT Campaign including a Very High Energy Flaring Episode”, di Event Horizon Telescope – Multi-wavelength science working group, Event Horizon Telescope Collaboration, Fermi Large Area Telescope Collaboration, H.E.S.S. Collaboration, MAGIC Collaboration, VERITAS Collaboration, EAVN Collaboration, è stato pubblicato sulla rivista Astronomy & Astrophysics.

Testo, video e immagini dall’Ufficio Stampa Istituto Nazionale di Astrofisica – INAF

Sotto la superficie di Io non c’è un oceano di magma liquido, ma un mantello solido

Un nuovo studio pubblicato su Nature, basato sui dati di gravità raccolti dalla sonda Juno della NASA durante dei sorvoli della luna Io di Giove esclude la presenza di un oceano di magma sotto la sua superficie

Sotto la superficie di Io, il satellite Galileiano più vicino a Giove, non c’è un oceano di magma liquido come si era pensato fino ad oggi, ma un mantello solido. A rivelarlo è uno studio pubblicato su Nature realizzato anche grazie al lavoro di diversi ricercatori della Sapienza Università di Roma e dell’Università di Bologna.

La ricerca, coordinata da Ryan Park del Jet Propulsion Laboratory dalla NASA, ha sfruttato i dati collezionati dalla sonda Juno della NASA durante due recenti sorvoli ravvicinati della luna insieme ai dati storici della missione Galileo, la sonda della NASA che tra il 1995 e il 2003 ha esplorato il sistema di Giove.

“La combinazione dei dati acquisiti da Juno con quelli collezionati dalla sonda Galileo oltre 20 anni fa – spiega Daniele Durante, ricercatore presso il Dipartimento di Ingegneria Meccanica e Aerospaziale – ha permesso di migliorare la stima della risposta mareale di Io, che fornisce indicazioni dirette della deformabilità della struttura interna della luna.”

Io è un satellite unico nel sistema di Giove grazie alla sua intensa attività vulcanica, che lo rende l’oggetto geologicamente più attivo del sistema solare. Per decenni si è creduto che l’enorme attrazione gravitazionale di Giove fosse sufficiente a creare un oceano di magma sotto la sua superficie, che alimentasse i suoi vulcani. Le misure di induzione magnetica condotte dalla sonda Galileo avevano infatti suggerito la presenza di un oceano di magma sotto la superficie di questa luna.

Questo scenario è stato però rivisto a seguito delle nuove osservazioni realizzate da Juno, la sonda che dal 2016 sta esplorando Giove e, più recentemente, le sue lune. Juno ha sorvolato per due volte Io a circa 1.500 chilometri di quota, raccogliendo dati del campo gravitazionale della luna molto accurati. I risultati dell’analisi mostrano una risposta gravitazionale della luna alle forze di marea piuttosto modesta.

“La risposta della luna alle forze di marea esercitate da Giove è risultata piuttosto bassa – afferma Luciano Iess, professore presso il Dipartimento di Ingegneria Meccanica e Aerospaziale – indicazione dell’assenza di un oceano di magma vicino alla superficie e, piuttosto, della presenza di un mantello solido profondo al suo interno”.

Lo studio è stato pubblicato su Nature con il titolo “Io’s tidal response precludes a shallow magma ocean”. Per Sapienza Università di Roma hanno partecipato Daniele Durante e Luciano Iess, in collaborazione con i colleghi dell’Università di Bologna, Luis Gomez Casajus, Marco Zannoni, Andrea Magnanini e Paolo Tortora. Le attività di ricerca sono state realizzate nell’ambito di un accordo finanziato dall’Agenzia Spaziale Italiana.

Struttura interna di Io. La nuova misura della deformazione mareale suggerisce che la luna non abbia un oceano globale di magma vicino la superficie ma è coerente con la presenza di un mantello più solido (sfumature di verde), con una quantità significativa di materiale fuso (in giallo e arancione) che ricopre un nucleo liquido (in rosso/nero). Illustrazione di Sofia Shen (JPL/Caltech).
Struttura interna di Io. La nuova misura della deformazione mareale suggerisce che la luna non abbia un oceano globale di magma vicino la superficie ma è coerente con la presenza di un mantello più solido (sfumature di verde), con una quantità significativa di materiale fuso (in giallo e arancione) che ricopre un nucleo liquido (in rosso/nero). Illustrazione di Sofia Shen (JPL/Caltech).

Riferimenti bibliografici:

Park, R.S., Jacobson, R.A., Gomez Casajus, L. et al. Io’s tidal response precludes a shallow magma ocean, Nature (2024), DOI: https://doi.org/10.1038/s41586-024-08442-5

Testo e immagine dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

PROGETTO CEFALEE: Tecnologia, creatività e innovazione didattica

Pazienti-attori e utilizzo della Camera Immersiva del Centro di simulazione per migliorare le cure ai pazienti

  • Come rendere più efficienti le cure per il paziente affetto da cefalea?
  • Come abbattere i tempi di attesa e i costi della sanità pubblica generati da percorsi non appropriati?

Giovedì 12 Dicembre 2024 – Un progetto di avanguardia di simulazione medica avanzata, nato dalla sinergia tra Corso di Laurea in Medicine and Surgery e l’AOU San Luigi Gonzaga, fornirà risposte innovative a queste domande, avvalendosi di “pazienti simulati”, attori appositamente formati a simulare gli aspetti clinici, comunicativi e psicologici di una malattia in modo realistico e la tecnologia sofisticata della Camera Immersiva del Centro di Simulazione del Polo Didattico Universitario dell’Ospedale San Luigi Gonzaga.

I dati 

La cefalea è un fenomeno che riguarda circa il 50% della popolazione mondiale, ne soffre il 25% degli italianiin particolare la popolazione femminile e il 70% delle persone la sperimenta almeno una volta nella vita, mentre circa il 5% soffre di una forma cronica. Terza causa di disabilità a livello mondiale, la cefalea è stata riconosciuta in Italia nel 2020 una “malattia sociale”.

Per quanto riguarda l’aspetto economicouno studio italiano ha calcolato costi diretti annuali pro capite di 1482 euro, cinque volte maggiori nella forma cronica rispetto a quella episodica.

Da una analisi condotta in collaborazione con il centro di Epidemiologia dell’ASL TO3 si è visto come in Piemonte la cefalea è uno dei primi motivi di accesso in pronto soccorso: il numero di richieste in emergenza per cefalea è di circa 5000 casi all’anno su tutto il territorio piemontese, ma solo per il 6% di questi risulta necessario un ricovero ospedaliero. Il restante 94% è costituito da casi che potrebbero evitare l’accesso in pronto soccorso, alleggerendo gli ospedali e trovando una risposta più efficace e opportuna in altre sedi del Ssn.

Il Progetto Cefalee, il “paziente simulato” e il game nella Camera immersiva

Per ridurre l’accesso in pronto soccorso dei pazienti con cefalea e gestire sul territorio la maggior parte dei casi, diminuendo i tempi di attesa per i pazienti e i costi per la sanità pubblica, è importante che medici e studenti in medicina e infermieristica imparino a conoscere meglio un sintomo che risulta essere il più diffuso in ambito medico.

Il Progetto Cefalee, frutto della collaborazione tra il Corso di Laurea MedInTodell’Università di Torino, il centro di simulazione MedSim San Luigi Center e l’AOU San Luigi Gonzaga, ha come obiettivo principale la formazione del personale sanitario, e degli studenti, sulle cefalee.

Attraverso la simulazione – spiega Marinella ClericoResponsabile Patologie Neurologiche Specialistiche AOU San Luigi e professore associato dell’Università degli Studi di Torino – si potranno affrontare casi semplici e complessi, utilizzando differenti strategie, fra cui il ‘paziente simulato’ e la Camera Immersiva del Centro di Simulazione del Polo Didattico Universitario, per imparare a gestire meglio un sintomo, la cefalea, comune a numerosi contesti patologici: il mal di testa può essere infatti una manifestazione clinica banale, che passa spontaneamente, ma può essere anche spia di una malattia infettiva o di una patologia oncologica”.

Il corso insegna come trattare il sintomo cefalea in tutti i servizi a cui il paziente si può rivolgere e di cui può aver bisogno: il pronto soccorso, l’ambulatorio del medico di medicina generale, l’ambulatorio specialistico, la sala operatoria.

In ciascuno di questi ambienti, i partecipanti dovranno valutare la gravità del sintomo presentato da un paziente simulato, un attore, appositamente formato, che simula gli aspetti clinici, comunicativi e psicologici della malattia in modo realistico per facilitare l’apprendimento delle corrette strategie di intervento, migliorando l’interazione dei partecipanti con l’ambiente scenario rappresentato in ogni situazione.

Si tratta di un ulteriore passo avanti nello sviluppo di percorsi di avanguardia – commenta David Lembo, Presidente del Corso di Laurea in Medicine and Surgery dell’Università degli Studi di Torino– dove tecnologia, innovazione didattica e ricerca scientifica si incontrano per migliorare ulteriormente la formazione di chi opera ogni giorno nei reparti del nostro ospedale e degli studenti dei nostri corsi di laurea, concorrendo a migliorare l’esito delle cure al paziente. Questo è lo spirito di un moderno Ospedale d’insegnamento, quale è il San Luigi”.”

Nella Camera immersiva, ultima tappa del percorso formativo, il corso diventa un game: sulle pareti vengono proiettate tre caselle interattive. A seconda di quella scelta, il corsista inizia a trattare un paziente più o meno grave, stimolato dalle opzioni possibili che compaiono sulle pareti della stanza. Fra queste, video o audio interviste ai “pazienti simulati” aiutano nell’anamnesi e immagini diagnostiche (tac, encefalogramma e liquor), anche queste proiettate, conducono i corsisti a prendere decisioni e arrivare a una diagnosi. Al termine del percorso si ottiene un punteggio. Se questo non è sufficiente si ripete il percorso, con l’ovvio vantaggio di poter tentare soluzioni senza mettere a rischio l’esito delle cure su un paziente vero.

Con questo progetto – sottolinea Davide Minniti, Direttore Generale AOU San Luigi Gonzaga – si consolida ulteriormente la collaborazione fra università e ospedale, grazie a un percorso formativo di altissima qualità a disposizione non solo degli studenti ma anche dell’aggiornamento professionale continuo dei clinici del San Luigi Gonzaga. Sì tratta di una concreta occasione di arricchimento professionale che fa crescere l’orgoglio e il senso di appartenenza a questa Azienda sanitaria”.

Il nostro Servizio sanitario nazionale – commenta Matteo Marnati, Assessore all’Innovazione e Ricerca della Regione Piemonte– è fra i più inclusivi e fra i miglior al mondo dal punto di vista delle competenze professionali che offre. La sua universalità è una complessità che abbiamo la responsabilità di gestire e di conservare. Su questo molto può fare l’innovazione tecnologica: sono sotto gli occhi di tutti le conquiste più recenti della medicina grazie all’intelligenza artificiale, ed è solo l’inizio. Il modello formativo innovativo che si presenta oggi qui al Polo didattico universitario internazionale del San Luigi Gonzaga si può considerare una delle eccellenze a livello europeo, e il nostro orizzonte deve necessariamente essere europeo. Stiamo costruendo dopo il covid un nuovo sistema in cui l’innovazione è centrale, e su questo il Piemonte insieme alla Lombardia è all’avanguardia in Italia”.

Avviare un corso per studenti e operatori sanitari che siano in grado di utilizzare pazienti ‘simulati’ all’interno della Camera Immersiva del Centro di Simulazione del Polo Didattico Universitario dell’AOU è particolarmente importante – ha dichiarato Federico Riboldi, Assessore alla Sanità della Regione Piemonte – perché dà il via a innovative azioni che, ne sono certo, sapranno migliorare la gestione, il trattamento e i percorsi clinici dei pazienti affetti da cefalea. Inoltre la Regione Piemonte ha ottenuto un finanziamento di oltre 800 mila euro dal Ministero della Salute per il progetto “Validazione di un nuovo percorso di salute per pazienti affetti da cefalea primaria cronica in Regione Piemonte” che vede la partecipazione di ben dodici Aziende Sanitarie Regionali, tra cui proprio il San Luigi di Orbassano. Un progetto che vedrà il momento finale con la presentazione del prossimo 19 dicembre a Torino”.

La Camera Immersiva è un ambiente di simulazione avanzata, in grado di trasformare lo spazio in un’altra realtà, reale o immaginaria, con cui si può interagire grazie a speciali proiettori laser che trasformano le sue pareti in schermi touch interattivi. La camera immersiva del Polo Didattico universitario dell’AOU San Luigi Gonzaga può ricreare scenari molto vari e diversi fra loro perché è dotata di tecnologie come Rumble Floor per generare vibrazioni nel pavimento, erogatori di oltre 400 odori diversi e di fumi, simulatori di eventi atmosferici come il vento, e un raffinato sistema sonoro che permette di riprodurre rumori ambientali. 

Testo e foto dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino