News
Ad
Ad
Ad
Author

ScientifiCult

Browsing

UN NUOVO MODELLO PER COMPRENDERE LE ORIGINI DELL’UNIVERSO – Superare il paradigma teorico inflazionario che è troppo “addomesticabile”: pubblicato su «Physical Review Research Letters» il lavoro del team internazionale di ricerca di cui fa parte l’Università di Padova

Un team di scienziati, tra cui Daniele Bertacca e Sabino Matarrese del Dipartimento di Fisica e Astronomia G. Galilei dell’Università di Padova, in collaborazione con i colleghi Raúl Jiménez dell’Università di Barcellona e Angelo Ricciardone dell’Università di Pisa, ha pubblicato su «Physical Review Research Letters» un articolo dal titolo “Inflation without an inflaton” in cui si propone una nuova teoria sull’origine del nostro Universo. La nuova visione teorica introduce un cambiamento radicale sulla comprensione dei primissimi istanti di vita dell’Universo, senza fare affidamento su alcuni elementi speculativi tradizionalmente ipotizzati nella teoria standard dell’Inflazione.

Svelare il mistero della nascita dell’Universo

Per decenni i cosmologi hanno lavorato adottando il paradigma dell’Inflazione, un modello che suggerisce come l’Universo si sia espanso in modo incredibilmente rapido preparando il terreno per tutto ciò che osserviamo oggi. Il paradigma inflazionario è in grado di spiegare perché il nostro universo sia così omogeneo e isotropo e, allo stesso tempo, perché contenga strutture disomogenee, come galassie e ammassi di galassie.

Ma c’è un problema: questa teoria include troppi parametri “liberi”, ovvero parametri “regolabili”, che possono essere modificati a piacimento. Nella scienza troppa flessibilità può essere problematica perché rende difficile capire se un modello adottato stia veramente prevedendo qualcosa o se si stia semplicemente adattando, a posteriori, ai dati osservati.

Il team internazionale di ricerca ha proposto un nuovo modello in cui l’Universo primordiale non ha bisogno di nessuno di questi parametri arbitrari, ma di una sola scala di energia che determina tutte le predizioni osservabili. I ricercatori partono da uno stato cosmico ben consolidato noto come spazio-tempo di de Sitter. Quest’ultimo è un modello geometrico di Universo dominato dall’energia del vuoto che si espande accelerando: uno spazio-tempo che si espande in modo accelerato in ogni punto, come un palloncino che si gonfia sempre più velocemente.

Il ruolo delle onde gravitazionali

Il nuovo modello non si basa su ipotetici campi o particelle come, ad esempio, il campo chiamato “inflatone”. Piuttosto suggerisce che le naturali oscillazioni quantistiche dello spazio-tempo stesso sotto forma di onde gravitazionali quantistiche (“gravitoni”) siano state sufficienti a innescare le minuscole fluttuazioni di densità che alla fine hanno dato origine a galassie, stelle e pianeti.

Queste increspature gravitazionali evolvono in modo non lineare, il che significa che interagiscono e costruiscono complessità nel tempo, portando a previsioni verificabili che i ricercatori possono oggi analizzare, vagliare e confrontare con i dati misurati da esperimenti terrestri e dallo spazio.

«Comprendere l’origine dell’Universo non è solo una ricerca filosofica, ci aiuta a rispondere a domande fondamentali su chi siamo e da dove proviene tutto. Questa nuova proposta fornisce un quadro essenziale ma potente: offre previsioni chiare che le future osservazioni, come la misurazione dell’ampiezza delle onde gravitazionali primordiali e lo studio statistico della struttura cosmica, potranno eventualmente confermare o confutare – dicono gli autori della nuova teoria pubblicata -. Non solo, questo nuovo approccio dimostra che non sono necessari ulteriori ingredienti speculativi per spiegare il cosmo, ma solo di una profonda comprensione della gravità e della fisica quantistica. Questo modello potrebbe segnare un nuovo capitolo nel modo in cui pensiamo alla nascita dell’Universo».

Daniele Bertacca, Raul Jimenez, Sabino Matarrese e Angelo Ricciardone, Inflation without an inflaton” – «Physical Review Research Letters» 2025, link alla ricerca: https://journals.aps.org/prresearch/abstract/10.1103/vfny-pgc2

Padova, 22 luglio 2025

foto di cielo stellato
Un nuovo modello per comprendere le origini dell’universo e superare il paradigma teorico inflazionario; lo studio è pubblicato su Physical Review Research Letters. Foto di Hans 

Testo e foto dall’Ufficio Stampa dell’Università di Padova

Una ricerca di Milano-Bicocca rivela che gli sport d’invasione potenziano le capacità d’attenzione

Sono gli sport d’invasione, come il basket, a potenziare le abilità attentive, in particolare quelle basate sulle caratteristiche visive. Una strategia cognitiva che, se opportunamente allenata, può fare la differenza, non solo nello sport.

 

Milano, 21 luglio 2025 – Distinguere rapidamente le maglie degli avversari da quelle dei propri compagni è molto importante negli sport d’invasione, come ad esempio il basket, dove le squadre condividono lo stesso spazio di gioco. Questa è una abilità  cognitiva che si può allenare. A rilevarlo è uno studio, guidato da un team di ricercatori di Milano-Bicocca, che ha dimostrato come l’attenzione selettiva, in particolare basata su caratteristiche visive, sia migliore negli atleti che praticano sport d’invasione.

Queste abilità rappresentano un elemento fondamentale in ogni disciplina sportiva, influenzando le performance e la capacità di adattamento degli atleti. Tuttavia, fino ad ora, pochi studi avevano indagato come la tipologia di sport praticato potesse affinare specifiche componenti dell’attenzione selettiva.

Per colmare questa lacuna, un team di ricercatori – Luisa Girelli, Simona Perrone, Simone Mattavelli e Marco Petilli (Università di Milano-Bicocca), Luca Bovolon (Università di Chieti e Pescara) e Carlotta Lega (Università di Pavia) – ha condotto lo studio dal titolo “Playing sports to shape attention: enhanced feature-based selective attention in invasion sports players”, appena pubblicato sulla rivista “Psychology of Sport and Exercise”.

I ricercatori hanno proposto agli atleti due esperimenti per capire come le richieste cognitive di diversi sport – in particolare gli sport d’invasione rispetto a quelli non d’ invasione (tipicamente quelli dove una rete divide il campo e le squadre non condividono lo spazio di gioco) – influenzano due sottocomponenti dell’attenzione selettiva: l’attenzione basata sulle caratteristiche visive (Feature-based Attention, FBA) e quella spaziale (Spatial-based Attention, SBA)

«Nel primo esperimento, 20 atleti di basket (sport d’invasione) e 20 partecipanti di controllo, equamente suddivisi per sesso, hanno completato due compiti: uno di ricerca visiva per valutare l’FBA e uno per misurare la SBA», spiega Luca Bovolon, uno degli autori dello studio. «I risultati hanno evidenziato che gli atleti di sport di invasione mostrano una maggiore capacità di attenzione basata sulle caratteristiche visive, mentre non sono state riscontrate differenze significative nel compito che valuta l’attenzione spaziale.»

Questi dati suggeriscono che l’allenamento in sport di invasione potenzia specificamente l’FBA, senza influenzare l’attenzione spaziale generale.

Per approfondire se questo effetto fosse strettamente legato al tipo di sport, è stato replicato lo studio con 22 giocatrici di pallavolo (sport non d’invasione) e 23 partecipanti di controllo. I risultati non hanno mostrato differenze di gruppo nelle misure attentive, rafforzando l’ipotesi che le richieste cognitive proprie degli sport di invasione modellano e affinano le capacità di attenzione selettiva, in particolare l’FBA.

«Praticare sport in modo intensivo è uno dei migliori allenamenti per le nostre funzioni cognitive», conclude Luisa Girelli, docente di Neuropsicologia e neuroscienze cognitive dell’Università di Milano-Bicocca e autrice dello studio. «Gli sport d’invasione vincono sugli altri per un effetto specifico sull’attenzione selettiva basata su caratteristiche visive»

il basket, uno degli sport d'invasione
Foto di Schorsch

Testo dall’Ufficio stampa Università di Milano-Bicocca.

L’Italia al centro della rivoluzione tecnologica, con l’Alleanza Quantistica Italiana

L’intesa nazionale, che coinvolge otto atenei e centri di ricerca, nasce per promuovere le eccellenze italiane nel campo delle tecnologie quantistiche, grazie a un ecosistema coeso, capace di competere a livello internazionale, in linea con la nuova Strategia Italiana per le Scienze e Tecnologie Quantistiche.

 

L’Italia protagonista della rivoluzione quantistica. È la visione da cui prende vita l’Alleanza Quantistica Italiana (AQI), un’intesa nazionale che riunisce università e istituti di ricerca, industrie e istituzioni pubbliche per creare un ecosistema unitario e coeso, capace di competere a livello internazionale e promuovere l’eccellenza italiana nel campo delle tecnologie quantistiche.
L’Alleanza, che si muove in linea con la nuova Strategia Italiana per le Scienze e Tecnologie Quantistiche, coinvolge al momento otto partner: Università di Bologna, CINECA, INRIM – Istituto Nazionale di Ricerca Metrologica, Università di Padova, INAF – Istituto Nazionale di Astrofisica, INFN – Istituto Nazionale di Fisica Nucleare, Università di Pavia e Politecnico di Milano.
Altri soggetti hanno manifestato interesse per l’iniziativa e l’Associazione sta già raccogliendo nuove adesioni da tutte le istituzioni rilevanti, in modo da ampliare l’Alleanza e avere una voce comune nel costruire l’ecosistema futuro.
Quello della quantistica è un settore di frontiera e in rapido sviluppo, che promette di dare vita a nuove tecnologie strategiche, con impatti potenzialmente rivoluzionari in campo industriale ed economico, nel settore della formazione e per lo sviluppo sociale. Si parla di innovazioni come computer quantistici, comunicazioni quantistiche sicure e sensoristica quantistica di precisione, reti quantistiche e applicazioni nel mondo quantistico dell’intelligenza artificiale.
In questa prospettiva, l’Alleanza Quantistica Italiana nasce per promuovere le eccellenze nazionali nel campo delle tecnologie quantistiche, integrando mondo accademico, scientifico, industriale e istituzionale in un’unica visione strategica. L’obiettivo è evitare la frammentazione delle risorse, superare le inefficienze operative e garantire che l’Italia possa contribuire come attore di primo piano alla nascita delle tecnologie quantistiche più avanzate al mondo.
A pochi giorni dall’annuncio della nuova Strategia Europea e della prima Strategia Italiana per le Scienze e Tecnologie Quantistiche, l’Alleanza Quantistica Italiana si posiziona come attore centrale. Un soggetto aperto al contributo di tutte le accademie, enti di ricerca e attori del settore privato che, con le loro competenze ed eccellenze, vogliano contribuire al panorama italiano in maniera integrata, creando sinergie strategiche per lo sviluppo di progetti, la formazione delle competenze e la promozione del trasferimento tecnologico.
Testo dall’Ufficio Stampa Istituto Nazionale di Astrofisica –  INAF

Alla Federico II un nuovo algoritmo quantistico grazie al computer ‘Partenope’; per performance senza precedenti nell’esecuzione di un Quantum Gaussian Sampling – QGS

Intervenire contemporaneamente sull’ottimizzazione delle singole operazioni logiche e della configurazione dei processori quantistici per migliorare l’implementazione degli algoritmi. Questo l’approccio che ha consentito al gruppo di ricerca del Centro di Computazione Quantistica Superconduttiva dell’Università degli Studi di Napoli Federico II di ottenere performance senza precedenti nell’esecuzione di un Quantum Gaussian Sampling – QGS (Campionamento Quantistico Gaussiano), una tipologia di algoritmo quantistico utilizzato per simulare distribuzioni di probabilità con applicazioni potenziali in una vasta gamma di settori di frontiera, come il Quantum Machine Learning, la Crittografia e la Finanza Quantistiche. Maturato nell’ambito di una collaborazione tra Università Federico II, Intesa San Paolo e la startup G2Q, il risultato è stato reso possibile grazie all’utilizzo di ‘Partenope’, il computer quantistico superconduttivo a 25 qubit ospitato presso la Federico II e finanziato dall’ICSC – Centro Nazionale di Ricerca in High performance Computing, Big Data and Quantum Computing, piattaforma che mira a promuovere lo sviluppo di soluzioni hardware e software per il calcolo quantistico e la creazione di una filiera italiana dedicata a queste tecnologie.

Insieme a consolidate e riconosciute competenze in elettronica quantistica superconduttiva, il Centro di Computazione Quantistica Superconduttiva della Federico II si avvale oggi di un sistema unico in Italia e competitivo a livello internazionale, di cui fanno parte, oltre a ‘Partenope’, vari criostati ed elettronica di misura per il controllo e la lettura di qubit. Un’infrastruttura interamente progettata sulla base di criteri di modularità e integrabilità, in grado di garantire, a differenza delle soluzioni cloud disponibili sul mercato, una risposta immediata alle esigenze di innovazione attraverso la possibilità di controllo e intervento su ogni componente del calcolatore sia a livello hardware che software.

“L’attuale scenario del calcolo quantistico”, spiega Francesco Tafuri, responsabile del Centro di Computazione Quantistica Superconduttiva della Federico II e ricercatore dello Spoke 10 ‘Quantum Computing’ del Centro Nazionale ICSC, “è contraddistinto da computer ancora soggetti a errori e limiti architetturali. Affidarsi quindi a sistemi chiusi, definiti ‘black box’, può essere estremamente limitante e penalizzante, poiché l’inaccessibilità all’hardware impedisce aggiornamenti flessibili e limita le performance algoritmiche, condizionate dalla configurazione dei processori. La filosofia progettuale adottata dal nostro gruppo per la realizzazione di ‘Partnenope’ fornisce al contrario la possibilità di avere controllo su ogni componente modulare del computer quantistico e quindi di esplorare insieme ad aziende e ricercatori soluzioni algoritmiche che permettono di sfruttare al meglio la macchina quantistica messa a disposizione.”

L’estrema flessibilità, accompagnata all’elevata affidabilità raggiunta da ‘Partenope’ grazie a processi di calibrazione del processore basati su standard internazionali e alla riduzione dei livelli di rumore ottenuta mediante la messa a punto di un complesso sistema di misura, ha perciò determinato la scelta del Centro di Computazione Quantistica Superconduttiva della Federico II come piattaforma per l’implementazione e ottimizzazione dell’algoritmo QGS sviluppato da Intesa Sanpaolo e G2Q. La collaborazione risultante è così riuscita a perfezionare l’implementazione dell’algoritmo da un punto di vista sia hardware che software, aprendo la strada ad esecuzioni più efficaci ed efficienti per questa tipologia di calcoli.

“Il progetto”, specifica Davide Corbelletto, team leader del Quantum Competence Center di Intesa Sanpaolo, “nasce da un’esigenza di Intesa Sanpaolo, che aveva già tentato di eseguire algoritmi analoghi al QGS su altre tipologie di elaboratori quantistici, scontrandosi tuttavia con alcuni vincoli a livello macchina, sulle quali non era fino a oggi stato possibile intervenire direttamente. Un problema che ha trovato soluzione proprio grazie alla profonda comprensione dei meccanismi di funzionamento del processore ‘Partenope’ e alle competenze di ottimizzazione algoritmica dei ricercatori della Federico II e di G2Q Computing, che hanno consentito non solo di generare le distribuzioni normali attese, ma soprattutto di controllarne i parametri caratteristici. Un risultato che assume una particolare rilevanza per la Finanza Quantistica, la quale si propone di affrontare più rapidamente e con maggiore accuratezza problemi potenzialmente molto complessi, quali il credit risk modeling o il derivative pricing, e che dimostra come la collaborazione tra settore pubblico e privato rappresenti un valore aggiunto per l’innovazione e lo sviluppo di soluzioni concrete in ambito quantistico in grado di tradursi in un vantaggio competitivo per gli attori del Sistema Paese.”

Con questo ultimo risultato, il Centro di Computazione Quantistica Superconduttiva dell’Università degli Studi dell’Università Federico II di Napoli si conferma quindi come hub strategico dell’ecosistema quantistico italiano e come esempio di successo del modello d’innovazione perseguito e promosso dal Centro Nazionale ICSC nell’ambito del PNRR. Un modello d’innovazione che, grazie alla disponibilità di una risorsa come ‘Partenope’, poggia sulla collaborazione pubblico-privato e sulla formazione di figure professionali specializzate in grado di contribuire allo sviluppo del calcolo quantistico e alla crescita di una filiera nazionale dedicata a questa tecnologia di frontiera.

I GRUPPI DI RICERCA

Il gruppo Quantum Computing Napoli (QCN) della Federico II è un riconosciuto hub internazionale nello studio dei processi fondamentali di trasporto in sistemi superconduttivi, come l’effetto Josephson, il cuore dei qubit realizzati con questo paradigma ingegneristico. Dal 2019, a seguito delle prime misure di qubit superconduttivi in Italia, il gruppo ha raggiunto risultati notevoli nell’ambito della caratterizzazione di dispositivi superconduttivi quantistici e della creazione di nuove componenti hardware, entrando a pieno titolo nel network europeo di computazione quantistica. Il gruppo di lavoro conta fino a 20 membri coinvolti nelle varie attività di ricerca. Lavorano agli esperimenti su caratterizzazione e implementazione di algoritmi quantistici: i dottorandi Carlo Cosenza, Alessandro Sarno, Viviana Stasino, e personale di staff Halima Giovanna Ahmad, Davide Massarotti e Francesco Tafuri.

G2Q Computing è una startup deep-tech italiana specializzata nello sviluppo di algoritmi innovativi che permettono di sfruttare computer quantistici NISQ per problemi di Ottimizzazione e di Machine Learning. L’azienda progetta anche architetture in grado di parallelizzare il calcolo tra macchine classiche e quantistiche, integrando tecniche di riduzione del rumore.

Coordinato da Davide Corbelletto, il Quantum Competence Center dell’Area di Governo Chief Data, AI and Technology del Gruppo Intesa Sanpaolo è impegnato sin dal 2020 nella ricerca industriale relativa alle possibili applicazioni delle tecnologie quantistiche ai servizi finanziari. In particolare, uno dei principali scopi del centro di competenza è quello di valutare ed esplorare il potenziale vantaggio che il quantum computing promette di offrire tanto in termini di velocità di risoluzione dei problemi, quanto di accuratezza delle soluzioni trovate.

Nel progetto con la Federico II, G2Q Computing e Intesa Sanpaolo hanno contribuito alla progettazione dell’algoritmo QGS, dedicando particolare attenzione alla sua robustezza e affidabilità su hardware reale. Il gruppo di lavoro è composto da 10 membri e a questa attività hanno partecipato Clément Besoin, Mehdi El Bakraoui, Leonardo Chhabra, Valeria Zaffaroni, Francesca Cibrario e Giacomo Ranieri.

 

 

Testo e immagini dall’Ufficio comunicazione di Ateneo dell’Università di Pisa

Elettronica impiantabile e riassorbibile per la medicina di precisione: lo stato dell’arte e sfide future (anche in campo non medico)
Su Nature Reviews Electrical Engineering un articolo del team di microelettronica del Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa
I sistemi elettronici bioriassorbibili impiantabili, costituiti da dispositivi miniaturizzati che rilevano, elaborano e rispondono a segnali del corpo stanno rivoluzionando la medicina di precisione nella direzione di un approccio sempre più personalizzato, sostenibile, non invasivo ed ecocompatibile.
Su Nature Reviews Electrical Engineering un articolo a firma del gruppo di ricerca del Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa guidato da Giuseppe Barillaro, da anni impegnato nella ricerca sui sensori per la medicina del futuro, fa il punto sullo stato dell’arte. In particolare, il lavoro traccia gli scenari applicativi di questi sistemi in medicina, sottolineando come potrebbero arrivare a rivoluzionare l’assistenza sanitaria grazie alla combinazione di funzionalità, biocompatibilità e sostenibilità ambientale.
Oltre a Giuseppe Barillaro, sono autori dell’articolo Martina Corsi, Elena Bellotti e Salvatore Surdo.
“Questi sistemi – afferma Barillaro, docente di elettronica al Dipartimento di Ingegneria dell’Informazione – forniscono un monitoraggio in tempo reale dei parametri vitali, dei marcatori biochimici e degli indicatori specifici di una patologia all’interno del corpo e trasmettono dati in modalità wireless che consentono interventi tempestivi e personalizzati. Realizzati con materiali biodegradabili, i dispositivi si dissolvono in sicurezza dopo aver completato la loro funzione, eliminando la necessità di rimozione chirurgica e riducendo le complicanze. Questi fattori posizionano l’elettronica bioriassorbibile all’avanguardia delle tecnologie sostenibili ed ecocompatibili per la medicina personalizzata”.
“Negli ultimi 15 anni – continua Barillaro – i progressi nella scienza dei materiali, nelle tecnologie di microfabbricazione e nell’ingegneria dei dispositivi hanno notevolmente ampliato la funzionalità e la versatilità dei sistemi elettronici bioriassorbibili impiantabili. Le innovazioni chiave includono lo sviluppo di sensori bioriassorbibili per il monitoraggio di pH, glucosio, lattato e altri biomarcatoristimolatori elettrici transitori che promuovono la guarigione delle ferite e la rigenerazione dei tessuti; fonti di energia in grado di ricavare energia dai movimenti naturali del corpo.”
Nell’articolo, gli autori passano in rassegna le funzioni essenziali dei sistemi elettronici bioriassorbibili, dalla rilevazione e l’elaborazione delle informazioni alla raccolta di energia e alla comunicazione wireless, in termini di componenti, materiali, tecniche di fabbricazione e strategie di integrazione.
“Affrontiamo anche le principali sfide tecnologiche – prosegue Barillaro – come la biocompatibilità dei materiali, la stabilità dei dispositivi, l’affidabilità dei dati, la degradazione controllata e l’efficienza energetica, che rappresentano i principali ostacoli all’applicazione clinica”.
Biocompatibilità e biodegradabilità sono infatti i punti cruciali di questa tecnologia. Sebbene i materiali bioriassorbibili siano progettati per degradarsi senza danneggiare i tessuti circostanti, gli effetti dei sottoprodotti di degradazione sui tessuti devono essere attentamente valutati, soprattutto a lungo termine, così come deve essere valutato l’impatto sull’ambiente dei lettori esterni e unità di trasmissione che interagiscono con i sensori. Da questo punto di vista, nell’immediato futuro, l’utilizzo di sensori con circuiti elettronici alimentati dall’esterno e la realizzazione dei lettori esterni con materiali riciclabili o parzialmente biodegradabili, potrebbero costituire ulteriori passi avanti. Infine, futuri sistemi bioriassorbibili completamente impiantabili potrebbero eliminare i rifiuti medici, poiché tutti i componenti, inclusi sensori, alimentazione e trasmissione dati, verrebbero riassorbiti in modo sicuro all’interno del corpo, segnando un passo importante verso una tecnologia medica sostenibile e senza sprechi.
“È necessario affrontare anche considerazioni etiche – conclude Barillaro – in particolare quelle relative alla riservatezza dei dati e all’autonomia del paziente. La capacità dei dispositivi indossabili e impiantabili di raccogliere dati sanitari in modo continuativo solleva importanti interrogativi su come queste informazioni vengano gestite e protette, e richiede una solida normativa per la protezione dei dati.”
il team di Giuseppe Barillaro
il team di Giuseppe Barillaro, autore del nuovo studio sull’Elettronica impiantabile e riassorbibile
L’articolo si chiude tracciando uno scenario applicativo dei dispositivi bioriassorbibili che va oltre il sistema sanitario, per esempio nei settori del monitoraggio ambientale, della tecnologia indossabile e dell’elettronica di consumo, dove questi sistemi potrebbero contribuire alla riduzione dei rifiuti elettronici e alla creazione di prodotti più sostenibili.
L’elettronica bioriassorbibile, sottolineano gli autori, potrebbe rivoluzionare l’assistenza sanitaria, rendendola più accessibile al paziente e più sostenibile, ma questo richiede una continua collaborazione interdisciplinare, innovazione responsabile, adeguamento normativo e disponibilità di finanziamenti. Affrontare queste sfide potrebbe rendere i sistemi bioriassorbibili una tecnologia chiave dei trattamenti medici di prossima generazione e un modello per la tecnologia sostenibile in altri settori.

Riferimenti bibliografici: 

Corsi, M., Bellotti, E., Surdo, S. et al. Implantable bioresorbable electronic systems for sustainable precision medicine, Nat Rev Electr Eng (2025), DOI: https://doi.org/10.1038/s44287-025-00190-6

 

Testo e foto dall’Ufficio comunicazione di Ateneo dell’Università di Pisa

Sotto la superficie: l’energia solare nel mondo subacqueo con le celle solari a perovskite

Una ricerca pubblicata sulla rivista Energy & Environmental Materials ha dimostrato che le celle solari a perovskite possono funzionare in modo efficiente anche in ambiente acquatico, aprendo la strada a tecnologie energetiche innovative per l’uso subacqueoLo studio è frutto della collaborazione tra due Istituti di ricerca del CNR, l’Università degli studi di Roma Tor Vergata e la società BeDimensional SpA.

L’energia solare potrebbe presto trovare una nuova e sorprendente applicazione: il fondo del mare. Una ricerca pubblicata sulla rivista Energy & Environmental Materials ha, infatti, dimostrato che le celle solari a perovskite possono funzionare in modo efficiente anche in ambiente acquatico, aprendo la strada a tecnologie energetiche innovative per l’uso subacqueo.

Lo studio è frutto della collaborazione tra il Consiglio nazionale delle ricerche – coinvolto con l’Istituto di struttura della materia (CNR-ISM) e l’Istituto per i processi chimico-fisici (CNR-IPCF) –   l’università di Roma Tor Vergata e la società BeDimensional SpA, leader nella produzione di materiali bidimensionali.

Sotto i 50 metri di profondità, solo la luce blu-verde riesce a penetrare efficacemente: le celle solari a perovskite, già note per la loro efficienza e versatilità, si sono dimostrate particolarmente adatte a sfruttare questa luce residua. I test condotti con una specifica perovskite di composizione FAPbBr₃, hanno mostrato prestazioni sorprendenti: immerse nei primi centimetri d’acqua, queste celle producono più energia rispetto a quando sono esposte all’aria.

“Merito delle caratteristiche ottiche dell’acqua e del suo effetto rinfrescante, che migliora l’efficienza del dispositivo”, spiega Jessica Barichello, ricercatrice del CNR-ISM che ha coordinato lo studio. “Un ulteriore test di durata ha verificato anche l’aspetto ambientale: grazie all’efficace incapsulamento, basato su un adesivo polimerico idrofobico sviluppato da BeDimensional, dopo 10 giorni di immersione in acqua salata, le celle solari hanno rilasciato quantità minime di piombo, ben al di sotto dei limiti imposti per l’acqua potabile”.

“Grazie alla collaborazione con il CNR-ISM e BeDimensional e alla tecnologia disponibile nel nostro laboratorio Chose, abbiamo validato l’intero processo per l’applicazione del materiale fotovoltaico in perovskite in ambienti subacquei dove vengono sfruttate efficacemente le sue proprietà. Una nuova sperimentazione per noi – commenta Fabio Matteocci, professore associato del dipartimento di Ingegneria elettronica dell’università di Roma Tor Vergata –  dal momento che il nostro studio parte dallo sviluppo di nuovi dispositivi fotovoltaici semitrasparenti tramite processi industriali facilmente scalabili per applicazione su edifici”.

Oggi troviamo pannelli solari su tetti, serre, edifici, persino nello spazio, ma l’ambiente marino è ancora una frontiera poco esplorata.

“Questo lavoro pionieristico non solo mostra che le perovskiti possono operare anche in condizioni umide, ma apre nuove possibilità per l’utilizzo sostenibile dello spazio subacqueo, sempre più impiegato in attività come l’agricoltura marina, l’invecchiamento del vino e altre applicazioni innovative”, conclude Barichello.

Roma, 16 luglio 2025

Perovskite nella foto di Andrew Silver, USGS (https://library.usgs.gov/photo/#/item/51dc1900e4b0f81004b77ee6), in pubblico dominio

Riferimenti bibliografici:

Jessica Barichello, Peyman Amiri, Sebastiano Bellani, Cosimo Anichini, Marilena Isabella Zappia, Luca Gabatel, Paolo Mariani, Farshad Jafarzadeh, Francesco Bonaccorso, Francesca Brunetti, Matthias Auf der Maur, Giuseppe Calogero, Aldo Di Carlo, Fabio Matteocci, Beneath the Surface: Investigating Perovskite Solar Cells Under Water, Energy & Environmental Materials e70069, DOI: https://doi.org/10.1002/eem2.70069 – https://onlinelibrary.wiley.com/doi/10.1002/eem2.70069

 

Testo dagli Uffici Stampa dell’Università degli Studi di Roma Tor Vergata e del Consiglio Nazionale delle Ricerche

PSR J1023+0038, TRA GLI ALTI E BASSI DI UNA PULSAR: IL SEGRETO È NELLA SUA POLARIZZAZIONE

Un team internazionale guidato dall’Istituto Nazionale di Astrofisica ha misurato per la prima volta la polarizzazione della luce emessa da una pulsar al millisecondo transizionale in tre diverse bande dello spettro elettromagnetico. Lo studio, pubblicato su The Astrophysical Journal Letters, indica che l’emissione è dominata dal vento di particelle prodotto della pulsar e non dalla materia che la pulsar stessa sta risucchiando alla sua stella compagna.

Rappresentazione artistica delle regioni centrali del sistema PSR J1023+0038, che mostra la pulsar, il disco di accrescimento interno e il vento della pulsar. Crediti: Marco Maria Messa (Università di Milano e INAF) e Maria Cristina Baglio (INAF)
Rappresentazione artistica delle regioni centrali del sistema PSR J1023+0038, che mostra la pulsar, il disco di accrescimento interno e il vento della pulsar. Crediti: Marco Maria Messa (Università di Milano e INAF) e Maria Cristina Baglio (INAF)

Un team internazionale, guidato dall’Istituto Nazionale di Astrofisica (INAF), ha individuato nuove prove su come le pulsar al millisecondo transizionali, una particolare classe di resti stellari, interagiscono con la materia circostante. Il risultato, pubblicato su The Astrophysical Journal Letters, è stato ottenuto grazie a osservazioni effettuate con l’Imaging X-ray Polarimetry Explorer (IXPE) della NASA, il Very Large Telescope (VLT) dell’European Southern Observatory (ESO) in Cile e il Karl G. Jansky Very Large Array (VLA) nel New Mexico: si tratta di una delle prime campagne osservative di polarimetria multi-banda mai realizzate su una sorgente binaria a raggi X, coprendo simultaneamente le bande X, ottica e radio.

La missione spaziale IXPE in preparazione prima del lancio. Crediti: NASA
La missione spaziale IXPE in preparazione prima del lancio. Crediti: NASA

La sorgente analizzata è PSR J1023+0038, una cosiddetta pulsar al millisecondo transizionale. Questi oggetti sono particolarmente interessanti perché alternano fasi in cui si comportano come pulsar “canoniche” – ovvero stelle di neutroni isolate che ruotano su sé stesse centinaia di volte in un secondo, emettendo fasci di luce pulsata – a fasi in cui attraggono e accumulano materia da una stella compagna vicina, formando un disco di accrescimento visibile nei raggi X.

“Le pulsar al millisecondo transizionali sono laboratori cosmici che ci aiutano a capire come le stelle di neutroni evolvono nei sistemi binari”, spiega Maria Cristina Baglio, ricercatrice INAF e prima autrice dello studio. “J1023 è una sorgente particolarmente preziosa di dati perché transita chiaramente tra il suo stato attivo, in cui si nutre della stella compagna, e uno stato più dormiente, in cui si comporta come una pulsar standard emettendo onde radio rilevabili. Durante le osservazioni, la pulsar era in una fase attiva a bassa luminosità, caratterizzata da rapidi cambiamenti tra diversi livelli di luminosità in raggi X”.

Maria Cristina Baglio
Maria Cristina Baglio

In questo studio, per la prima volta, si è misurata simultaneamente la polarizzazione della luce emessa da questa sorgente in tre bande dello spettro elettromagnetico: raggi X (con IXPE), luce visibile (con il VLT) e onde radio (con il VLA). In particolare, IXPE ha rilevato un livello di polarizzazione nei raggi X di circa il 12%, il più elevato mai osservato finora in un sistema binario come quello di J1023. Nella banda ottica, la sorgente mostra una polarizzazione più bassa (circa 1%), ma con un angolo perfettamente allineato a quello della radiazione X, suggerendo una comune origine fisica. Nelle onde radio, invece, è stato fissato un limite massimo di polarizzazione di circa il 2%.

“Questa osservazione, data la bassa intensità del flusso X, è stata estremamente impegnativa, ma la sensibilità di IXPE ci ha permesso di rilevare e misurare con sicurezza questo notevole allineamento tra la polarizzazione ottica e quella nei raggi X”, afferma Alessandro Di Marco, ricercatore INAF e co-autore del lavoro. “Questo studio rappresenta un modo ingegnoso per testare scenari teorici grazie a osservazioni polarimetriche su più lunghezze d’onda”.

I risultati confermano una previsione teorica pubblicata nel 2023 da Maria Cristina Baglio e Francesco Coti Zelati, ricercatore presso l’Istituto di scienze spaziali di Barcellona, Spagna e co-autore dello studio, secondo cui l’emissione polarizzata osservata sarebbe generata dall’interazione tra il vento della pulsar e la materia del disco di accrescimento. La forte polarizzazione nei raggi X prevista, tra il 10 e il 15%, è stata effettivamente rilevata, confermando il modello teorico. Si tratta di un’indicazione chiara che le pulsar al millisecondo transizionali sono alimentate principalmente dalla rotazione e dal vento relativistico della pulsar, piuttosto che dal solo accrescimento di materia dalla stella compagna.

Capire cosa alimenta davvero queste stelle ultra-compatte, che alternano due nature profondamente diverse, rappresenta un passo fondamentale per decifrare il comportamento della materia e dell’energia in condizioni estreme. Questo studio porta la comunità scientifica un passo più vicino a comprendere meccanismi universali che regolano fenomeni come i getti dei buchi neri e le nebulose da vento di pulsar.

Riferimenti bibliografici:

L’articolo “Polarized multiwavelength emission from pulsar wind – accretion disk interaction in a transitional millisecond pulsar”, di M. C. Baglio, F. C. Zelati, A. Di Marco, F. La Monaca, A. Papitto, A. K. Hughes, S. Campana, D. M. Russell, D. F. Torres, F. Carotenuto, S. Covino, D. De Martino, S. Giarratana, S. E. Motta, K. Alabarta, P. D’Avanzo, G. Illiano, M. M. Messa, A. M. Zanon e N. Rea, è stato pubblicato online sulla rivista Astrophysical Journal Letters.

Testo e immagini dall’Ufficio Stampa Istituto Nazionale di Astrofisica – INAF.

Combattere le metastasi del tumore al colon-retto: dimostrato il ruolo dell’alleanza tra macrofagi e le cellule “natural killer”

In uno studio condotto alla Sapienza Università di Roma, un gruppo di ricercatori ha dimostrato il ruolo chiave dell’alleanza tra macrofagi e cellule “natural killer” per contrastare la crescita delle metastasi. I risultati, pubblicati sul “Journal of Clinical Investigation” aprono la strada a nuove terapie per il tumore al colon-retto

Il cancro del colon-retto (CRC) è la seconda causa di morte per tumore al mondo. Nonostante sia divenuto molto più curabile negli ultimi anni, le terapie non sono ancora efficaci in tutti i pazienti. L’ancora elevato tasso di mortalità per questo tipo di tumore è dovuto soprattutto alla capacità di diffondersi in altre parti del corpo, facendo insorgere metastasi in una rilevante frazione di pazienti.

In questo contesto, le cellule “natural killer” (NK) sono un tipo di globuli bianchi appartenenti al sistema immunitario innato, che possono aiutare a contrastare la diffusione del tumore. Il loro nome deriva proprio dalla capacità di riconoscere e distruggere spontaneamente le cellule tumorali e inibire la formazione di metastasi. Nonostante ciò, rimane ancora poco chiaro il comportamento delle cellule “natural killer” a metastasi già formate, in particolare nel fegato.

In una ricerca sostenuta dalla Fondazione AIRC per la ricerca sul cancro, l’immunologo Giovanni Bernardini e colleghi hanno studiato il ruolo specifico delle cellule NK nell’ambiente metastatico, per comprendere come proteggerne e preservarne meglio le capacità anti-tumorali. Coordinata dal Dipartimento di Medicina Molecolare della “Sapienza”, la ricerca è avvenuta in collaborazione con diversi gruppi nazionali e internazionali. I risultati, pubblicati sul Journal of Clinical Investigation, hanno mostrato un meccanismo naturale di difesa che può aiutare a rallentare la crescita delle metastasi epatiche.

In particolare il gruppo guidato da Bernardini, professore di Immunologia presso “Sapienza”, ha dimostrato che non tutte le metastasi al fegato sono uguali. Alcuni tipi formano dei microambienti in cui l’attività delle cellule NK è potenziata, grazie alla presenza di molecole in grado di promuovere la persistenza di queste cellule e la loro capacità di attaccare il tumore.

Nello studio i ricercatori hanno analizzato metastasi epatiche ottenute sia da topi sia da biopsie di pazienti, trovando in entrambi i casi che un tipo specifico di macrofagi, i cosiddetti “spazzini” del sistema immunitario, è in grado di insegnare alle cellule “natural killer” come attivarsi correttamente e attaccare le cellule tumorali.

“Per fare ciò – spiega Giovanni Bernardini – i macrofagi producono due chemochine. Si tratta di particolari proteine, chiamate CXCL9 e CXCL10, che, come dei messaggeri chimici, attirano le cellule NK all’interno delle metastasi e creano un ambiente che permette a queste cellule di attivarsi”.

Alcuni risultati raccolti evidenziano la notevole importanza delle chemochine CXCL9 e CXCL10. In particolare, in topi con un deficit del recettore CXCR3, che permette di “sentire” gli effetti di queste due proteine, si osserva una inibizione delle cellule “natural killer” e la successiva accelerazione della crescita delle metastasi.

Come CXCR3 rende possibile l’attivazione delle proteine e delle cellule NK nelle metastasi
Combattere le metastasi del tumore al colon-retto: dimostrato il ruolo dell’alleanza tra macrofagi e le cellule “natural killer”. Nell’immagine, come CXCR3 rende possibile l’attivazione delle proteine e delle cellule NK nelle metastasi

Nel complesso i dati pubblicati dimostrano che una corretta cooperazione tra macrofagi e cellule “natural killer” è fondamentale per attivare una risposta immunitaria in grado di limitare la diffusione del tumore del colon-retto, aprendo nuove prospettive terapeutiche basate sul potenziamento di questo network.

Riferimenti bibliografici:

Russo, C. D’Aquino, C. Di Censo, M. Laffranchi, L. Tomaipitinca, V. Licursi, S. Garofalo, J. Promeuschel, G. Peruzzi, F. Sozio, A. Kaffke, C. Garlanda, U. Panzer, C. Limatola, C.A.J. Vosshenrich, S. Sozzani, G. Sciumè, A. Santoni, G. Bernardini, Cxcr3 promotes protection from colorectal cancer liver metastasis by driving NK cell infiltration and plasticity, Journal of Clinical Investigation, 2025;135(11):e184036, DOI: https://doi.org/10.1172/JCI184036

 

Testo e immagine dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

L’1% DEGLI INVESTIMENTI NELL’EOLICO OFFSHORE POTREBBE RIPRISTINARE MILIONI DI ETTARI DI VITA MARINA – Team internazionale di ricercatori, tra cui Laura Airoldi dell’Università di Padova, ha pubblicato su «BioScience» uno studio che evidenzia i potenziali benefici dell’energia eolica per piante, animali e società

I parchi eolici offshore non solo forniscono energia pulita, ma possono anche svolgere un ruolo fondamentale nel ripristino degli ecosistemi vulnerabili, sia sopra che sotto la superficie del mare. Questo include habitat dei fondali marini, barriere coralline, praterie di fanerogame marine e zone umide costiere: ecosistemi essenziali per la biodiversità, le popolazioni ittiche e la resilienza climatica.

Contribuire con solo l’1% degli investimenti globali nei progetti eolici offshore entro il 2050 sarebbe sufficiente per il ripristino su larga scala della natura marina: a rivelarlo è lo studio internazionale dal titolo Financing marine restoration through offshore wind investments, pubblicato sulla rivista scientifica «BioScience» a cui ha preso parte Laura Airoldi, docente di Ecologia dell’Università di Padova nella Stazione idrobiologica “Umberto d’Ancona” di Chioggia (di cui è responsabile) e afferente al Centro Nazionale di Biodiversità finanziato dal PNRR.

La ricerca, coordinata dall’Istituto Reale Neerlandese per la Ricerca Marina (Royal Netherlands Institute for Sea Research, il centro oceanografico nazionale dei Paesi Bassi) nell’ambito del programma The Rich North Sea, un’iniziativa delle ONG olandesi Natuur & Milieu (Natura & Ambiente) e North Sea Foundation, arriva in un momento critico: gli obiettivi ambientali globali stanno diventando irraggiungibili – come quello dell’ONU di ripristinare il 30% degli ecosistemi degradati entro il 2030 – a causa della mancanza di finanziamenti e di politiche mirate.

I ricercatori hanno evidenziato che sarebbe sufficiente destinare solo l’1% degli investimenti globali nell’eolico offshore da qui al 2050 per finanziare il ripristino di milioni di chilometri quadrati di ecosistemi marini, come barriere coralline, mangrovie, praterie sottomarine e scogliere di ostriche.

«Il ripristino degli ecosistemi marini non avvantaggia solo piante e animali, ma anche le persone. Mari e coste in buona salute assorbono carbonio, proteggono le rive e sostengono le popolazioni ittiche. Secondo lo studio, ogni dollaro investito nel ripristino degli ecosistemi può generare tra 2 e 12 dollari in benefici per la società», spiega Laura Airoldi, coautrice del lavoro e docente dell’Ateneo patavino. «Questo è particolarmente rilevante in vista della crescita esponenziale prevista del settore eolico offshore: dai 56 gigawatt del 2021 si passerà, secondo le stime, a 2.000 gigawatt entro il 2050».

«L’eolico offshore ha un’opportunità unica: non solo sostenere la transizione energetica, ma anche diventare la prima industria marina a contribuire in modo netto e positivo al ripristino su larga scala degli ecosistemi», aggiunge Christiaan van Sluis (The Rich North Sea), autore principale dello studio. «Integrando fin da ora requisiti strategici per la biodiversità nei processi di autorizzazione e assegnazione delle gare, possiamo invertire la perdita di biodiversità con solo una frazione dell’investimento complessivo».

Laura Airoldi
L’1% degli investimenti nell’eolico offshore potrebbe ripristinare milioni di ettari di vita marina; i benefici dell’energia eolica per piante, animali e società. In foto, Laura Airoldi

Con questo lavoro gli autori esortano i governi a rendere il ripristino marino un requisito standard nella normativa sull’eolico offshore: ciò includerebbe l’obbligo di destinare una percentuale fissa degli investimenti dei progetti alla biodiversità marina attraverso condizioni di licenza o criteri non basati sul prezzo nelle gare d’appalto. Con l’espansione accelerata del settore, il ripristino della natura dovrebbe essere integrato in modo strutturale nelle politiche.

Riferimenti bibliografici:

Christiaan J van Sluis, Eline van Onselen, Laura Airoldi, Carlos M Duarte, Helena F M W van Rijswick, Tjisse van der Heide, Renate A Olie, Marjolein Kelder, Tjeerd J Bouma, Financing marine restoration through offshore wind investments – «BioScience» – 2025, link: https://academic.oup.com/bioscience/advance-article/doi/10.1093/biosci/biaf092/8185302

Testo e foto dall’Ufficio Stampa dell’Università di Padova

Proteine da un fossile di rinoceronte risalente a 21-24 milioni di anni fa rivoluzionano gli studi evoluzionistici

Una ricerca internazionale pubblicata su Nature ha recuperato sequenze proteiche da un fossile di rinoceronte segnando una svolta nella ricostruzione dell’evoluzione delle specie estinte

Uno studio innovativo che sarà pubblicato in “Nature” annuncia il recupero di sequenze proteiche da un fossile di rinoceronte risalente a 21-24 milioni di anni fa, spingendo indietro di milioni di anni i confini della ricerca sulle proteine antiche. Questo risultato senza precedenti apre una nuova frontiera per la paleoproteomica, promettendo di svelare segreti dell’evoluzione risalenti a tempi remoti, ben oltre la portata del DNA antico.

Un nuovo studio, pubblicato sulla prestigiosa rivista “Nature” il 9 luglio 2025, descrive l’estrazione e il sequenziamento di antiche proteine dello smalto da un dente di rinoceronte fossilizzato risalente a 21-24 milioni di anni fa, risalente al Miocene inferiore.

Questa straordinaria impresa, ottenuta a partire da un fossile rinvenuto nell’Alto Artico canadese, estende di ben dieci volte la scala temporale delle sequenze proteiche recuperabili e informative sull’evoluzione rispetto al più antico DNA conosciuto.

Questa ricerca segna un momento cruciale per la paleoproteomica, lo studio delle proteine antiche. Sebbene proteine antiche siano state trovate in fossili del Miocene medio-superiore (circa gli ultimi 10 milioni di anni), l’ottenimento di sequenze sufficientemente dettagliate per ricostruzioni robuste delle relazioni evolutive era precedentemente limitato a campioni non più vecchi di 4 milioni di anni. Questo nuovo studio amplia significativamente tale finestra temporale, dimostrando lo straordinario potenziale delle proteine di persistere su vaste scale temporali geologiche nelle giuste condizioni.

Lo studio, coordinato dal Globe Institute dell’Università di Copenaghen, ha ricostruito sequenze proteiche dallo smalto dentale di un rinoceronte vissuto nell’attuale Artico canadese durante il Miocene inferiore. Grazie alla stabilità dello smalto e alle condizioni ambientali estreme del cratere di Haughton — freddo costante e permafrost — le proteine sono risultate sorprendentemente ben conservate. Queste sequenze proteiche antiche hanno permesso di collocare con precisione evolutiva il rinoceronte all’interno del suo albero genealogico, e suggeriscono che la divergenza tra le sottofamiglie Elasmotheriinae e Rhinocerotinae sia avvenuta durante l’Oligocene (34–22 milioni di anni fa), più recentemente di quanto ipotizzato in precedenza.

Il progetto è stato guidato dal Dott. Ryan Sinclair Paterson e diretto dal Prof. Enrico Cappellini dell’Università di Copenaghen. All’interno di questo progetto, l’apporto del Dott. Gabriele Scorrano (Università di Tor Vergata), del Prof. Raffaele Sardella (Dipartimento di Scienze della Terra, Sapienza Università di Roma) e del Dott. Luca Bellucci (Museo di Geologia e Paleontologia dell’Università di Firenze) è stato fondamentale: hanno fornito e analizzato un esemplare di dente di rinoceronte di circa 400.000 anni fa, proveniente dal sito archeo-paleontologico di Fontana Ranuccio (Lazio, provincia di Frosinone).

La ricerca vede coinvolte anche due ricercatrici dell’Università di Torino: Meaghan Mackie, dottoranda del Dipartimento di Scienze della Vita e Biologia dei Sistemi di UniTo e dell’University College Dublin, e la sua supervisor, la Prof.ssa Beatrice Demarchi, docente ordinaria presso l’Ateneo torinese ed esperta di biomolecole antiche.

 

In questo sito, insieme a una ricca fauna, sono stati rinvenuti alcuni tra i più antichi reperti del genere Homo in Italia. Il reperto ha funzionato da riferimento intermedio tra i campioni più recenti (esemplari medievali) e quello molto più antico analizzato in questo studio, offrendo un confronto diretto sulla conservazione proteica nel tempo.

Il contributo del team dell’Università di Torino è stato cruciale per la validazione dei dati e l’interpretazione dei processi di diagenesi proteica. “Abbiamo calcolato – spiega la Prof.ssa Beatrice Demarchi – che la bassa temperatura ha reso l’età termica del campione equivalente a quella di un reperto dieci volte più giovane in un luogo con temperatura media di 10°C, il che significa che le proteine erano significativamente meno danneggiate rispetto a quelle che si trovano in luoghi della stessa età geologica ma con clima più caldo”.

“È stato sorprendente”, commenta Meaghan Mackie. Il primo campione che ho analizzato pensavo non contenesse nulla, perché troppo antico! Sono rimasta a fissare lo schermo del computer per un minuto”. Questo risultato apre nuove prospettive per la ricerca evolutiva e la paleoproteomica perché permette di ricostruire la storia evolutiva di specie estinte da milioni di anni, ben oltre i limiti del DNA e, in prospettiva, potrebbe riaccendere le speranze per lo studio della biologia di specie dell’era Mesozoica. Indagini future su fossili della Formazione di Haughton e di altri contesti simili potrebbero far emergere ulteriori tracce di questa straordinaria conservazione biomolecolare.

“Si profila una nuova fase per la biologia evolutiva – aggiunge la Prof.ssa Demarchi – in cui le proteine antiche diventano preziosi testimoni della storia più remota della vita sulla Terra. Per l’Università di Torino, questo risultato conferma il ruolo di primo piano nell’ambito della paleobiologia molecolare internazionale”.

Vista del Cratere di Haughton sull'isola di Devon, Nunavut (Canada). Le condizioni aride e fredde del "deserto polare" hanno contribuito a preservare l'antico fossile di rinoceronte qui rinvenuto, comprese tracce di proteine originali risalenti a oltre 20 milioni di anni fa. Il terreno modellato in primo piano indica la presenza di permafrost. Crediti per la foto: Martin Lipman
Vista del Cratere di Haughton sull’isola di Devon, Nunavut (Canada). Le condizioni aride e fredde del “deserto polare” hanno contribuito a preservare l’antico fossile di rinoceronte qui rinvenuto, comprese tracce di proteine originali risalenti a oltre 20 milioni di anni fa. Il terreno modellato in primo piano indica la presenza di permafrost. Crediti per la foto: Martin Lipman

Riferimenti bibliografici:

Paterson, R. S., Mackie, M., Capobianco, A., Heckeberg, N. S., Fraser, D., Demarchi, B., Munir, F., Patramanis, I., Ramos-Madrigal, J., Liu, S., Ramsøe, A. D., Dickinson, M. R., Baldreki, C., Gilbert, M., Sardella, R., Bellucci, L., Scorrano, G., Leonardi, M., Manica, A., Racimo, F., Willerslev, E., Penkman, K. E. H., Olsen, J. V., MacPhee, R. D. E., Rybczynski, N., Höhna, S., Cappellini, E., Phylogenetically informative proteins from an Early Miocene rhinocerotid. Nature (2025), DOI: https://doi.org/10.1038/s41586-025-09231-4

 

Testi dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma e dalla Sezione Comunicazione Digitale e Media Relations, Area Comunicazione dell’Università di Torino