Ad
Ad
Ad
Tag

astrofisica

Browsing

Andromeda a 6.6 GHz: un’immagine unica della galassia sorella della Via Lattea 

galassia di Andromeda immagine
Image credits, Radio:WSRT/R. Braun (https://www.astron.nl/); Microwave:SRT/S.Fatigoni et al. (http://www.srt.inaf.it/); Infrared:NASA/Spitzer/K. Gordon (https://www.spitzer.caltech.edu/); Visible: Robert Gendler (http://www.robgendlerastropics.com/); Ultraviolet: NASA/GALEX (http://www.galex.caltech.edu/); X-ray: ESA/XMM/W. Pietsch (https://www.cosmos.esa.int/web/xmm-newton)

L’immagine ottenuta a tale frequenza, oltre a essere senza precedenti, ha permesso di definire nel dettaglio la morfologia della galassia e in particolare di individuare le regioni dove nascono le nuove stelle.

galassia di Andromeda immagine
Image credits, Radio:WSRT/R. Braun (https://www.astron.nl/); Microwave:SRT/S.Fatigoni et al. (http://www.srt.inaf.it/); Infrared:NASA/Spitzer/K. Gordon (https://www.spitzer.caltech.edu/); Visible: Robert Gendler (http://www.robgendlerastropics.com/); Ultraviolet: NASA/GALEX (http://www.galex.caltech.edu/); X-ray: ESA/XMM/W. Pietsch (https://www.cosmos.esa.int/web/xmm-newton)

I risultati dello studio, frutto della collaborazione fra la Sapienza e l’lstituto Nazionale di Astrofisica sono stati pubblicati sulla rivista Astronomy & Astrophysics.

Andromeda è una delle galassie più studiate di tutti i tempi e probabilmente anche la più conosciuta al grande pubblico per la sua prossimità e somiglianza con la nostra galassia, la Via Lattea. Infatti, una conoscenza della natura dei processi fisici che avvengono al suo interno permetterebbe di capire meglio cosa avviene nella nostra galassia, come se la guardassimo dall’esterno.

Paradossalmente, proprio ciò che finora ha ostacolato una osservazione approfondita di Andromeda nelle microonde è la sua stessa conformazione. Infatti, a causa delle sua prossimità alla Via Lattea questa ha una dimensione angolare di diversi gradi in cielo, il che la mette fuori dalla portata degli interferometri costituiti da schiere di antenne di piccola taglia. Per poter osservare Andromeda a frequenze di 6.6 GHz e superiori è indispensabile disporre di un unico radiotelescopio a disco singolo dotato di una grande area efficace.

Oggi, una collaborazione scientifica fra la Sapienza Università di Roma e l’Istituto Nazionale di Astrofisica – INAF, ha permesso di ottenere con il Sardinia Radio Telescope una immagine della galassia di Andromeda completamente nuova, a 6.6 GHz, una frequenza mai sondata prima d’ora.

L’ottima risoluzione angolare del telescopio ha permesso di definire nel dettaglio la morfologia e di ampliare così le conoscenze finora disponibili su questa galassia.

I risultati dello studio, realizzato con la partecipazione anche di numerosi enti e università internazionali come la University of British Columbia, l’Instituto de Radioastronomia y Astrofisica – UNAM in Messico, l’Instituto de Astrofisica de Canarias, l’Infrared Processing Analysis Center – IPAC in California, sono stati pubblicati sulla rivista Astronomy & Astrophysics. 

A questa frequenza (6.6 GHz) l’emissione della galassia è vicina al suo minimo, complicando la possibilità di ottenere una immagine così definita. Nonostante ciò, grazie alle 66 ore di osservazione con il Sardinia Radio Telescope e a un consistente lavoro di elaborazione dei dati, i ricercatori sono riusciti a mappare la galassia con alta sensibilità.

“Il Sardinia Radio Telescope è una grande antenna a disco singolo in grado di operare ad alte frequenze radio – sottolinea Matteo Murgia dell’INAF di Cagliari- e di produrre dati di elevatissima importanza scientifica e immagini di assoluta qualità”.

 “Combinando questa nuova immagine con quelle precedentemente acquisite – aggiunge Elia Battistelli del Dipartimento di Fisica della Sapienza e coordinatore dello studio – abbiamo fatto significativi passi in avanti nel chiarire la natura della emissione di microonde di Andromeda, distinguendo i processi fisici che avvengono in diverse regioni della galassia”

Andromeda galassia immagine

“In particolare siamo riusciti a determinare la frazione di emissione dovuta ai processi termici legati alle prime fasi della formazione di nuove stelle, e la frazione di segnale radio imputabile ai meccanismi non-termici dovuti a raggi cosmici che spiraleggiano nel campo magnetico presente nel mezzo interstellare” concludono Federico Radiconi del Dipartimento di Fisica della Sapienza e Sofia Fatigoni della Università della British Columbia.

Andromeda galassia immagine

Con i dati ottenuti, per i ricercatori è stato possibile così stimare il ritmo di formazione stellare di Andromeda e produrre una mappa dettagliata che ha messo in evidenza il disco della galassia come regione d’elezione per la nascita di nuove stelle.

Per ottenere questa immagine unica di Andromeda il team ha sviluppato e implementato dei software ad hoc che hanno permesso, tra le altre cose, di testare nuovi algoritmi per la identificazione di sorgenti a più bassa emissione nel campo di vista attorno ad Andromeda, il più vasto mai esaminato a una frequenza di 6.6 GHz: in questo modo i ricercatori hanno estratto dalla mappa un catalogo di circa un centinaio di sorgenti puntiformi, ovvero stelle, galassie e altri oggetti, sullo sfondo di Andromeda.

Andromeda galassia immagine

Riferimenti:

Study of the thermal and non-thermal emission components in M31: the Sardinia Radio Telescope view at 6.6 GHz – S. Fatigoni, F. Radiconi, E.S. Battistelli, M. Murgia, E. Carretti, P. Castangia, R. Concu, P. de Bernardis, J. Fritz, R. Genova-Santos, F. Govoni, F. Guidi, L. Lamagna, S. Masi, A. Melis, R. Paladini, F.M. Perez-Toledo, F. Piacentini, S. Poppi, R. Rebolo, J.A. Rubino-Martin, G. Surcis, A. Tarchi, V. Vacca – Astronomy & Astrophysics 2021

 

Testo e foto dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Futuro Remoto 2020 – XXXIV edizione – Pianeta, tra cambiamenti epocali e sfide globali

La ricerca scientifica e tecnologica rappresenta un punto cardine con cui preservare e migliorare il benessere dell’uomo, degli animali e dell’ambiente. Il suo ruolo indiscusso non è sempre in connessione con i cittadini, a discapito di un sapere scientifico che dovrebbe essere accessibile a tutti, soprattutto in un momento storico nel quale le informazioni scorrono in maniera disordinata e rapida, distorcendo spesso la realtà. Quest’anno più di qualsiasi altro ci ha dimostrato uno degli effetti dei cambiamenti che il Pianeta Terra sta subendo, ovvero la pandemia da Covid-19, un fenomeno altamente ripetibile in futuro.

Mostra Missione Antartide alla XXXIV edizione di Futuro Remoto

Futuro Remoto, giunto alla XXXIV edizione, ha come filo conduttore quello di creare una rete di conoscenze tra scienza e pubblico, con più di 300 eventi in programma, tra mostre, rubriche speciali ed incontri internazionali in streaming per discutere dei cambiamenti climatici, della salute del Pianeta e della pandemia da Covid-19. Il festival è promosso da Città della Scienza di Napoli, con il sostegno della Regione Campania, la co-organizzazione delle sette Università della Campania e la collaborazione dell’Istituto Nazionale di Astrofisica-Inaf, del Consiglio Nazionale delle Ricerche-CNR, del Programma Nazionale di Ricerca in Antartide, dell’Ambasciata italiana in Messico, del consolato Generale Usa di Napoli e dell’Unione Industriali di Napoli.

Futuro Remoto XXXIV edizione
La locandina della XXXIV edizione di Futuro Remoto

 

L’evento inaugurale tenutosi il 20 Novembre ha dato inizio, a pieno ritmo, al festival con una diretta tenuta da Riccardo Villari, Presidente Fondazione IDIS – Città della Scienza, che introduce il saluto del Ministro MIUR Gaetano Manfredi e di Valeria Fascione, assessore alla ricerca, innovazione e startup della Regione Campania, i quali ricordano lo spirito di Futuro Remoto come luogo dove far crescere la cultura nella collettività con l’incontro tra scienza e pubblico.

 

Città della Scienza propone da anni il festival come una realtà che possa trasferire il sapere e la conoscenza scientifica ai cittadini, creando una vetrina per la ricerca, affinché si abbia una maggiore consapevolezza sulla salute dell’uomo e, in questo caso, del Pianeta Terra.

È seguito il talk introdotto da Luigi Nicolais – Coordinatore CTS Fondazione IDIS – Città della Scienza – e moderato da Luca Carra – direttore di Scienzainrete – in cui sono intervenuti illustri studiosi. Da Piero Genovesi, zoologo, ecologo specializzato in biodiversità a Filippo Giorgi, fisico e climatologo parte del Gruppo intergovernativo sul cambiamento climatico (IPPC). Sono intervenuti poi Roberto Danovaro, ecologo e biologo marino presidente della Stazione zoologica Anton Dohrn, Patrizia Caraveo, astrofisica la quale mette in risalto il tema dell’inquinamento luminoso, e Paolo Vineis, medico epidemiologo e docente all’Imperial College di Londra in salute globale. Egli risponde al tema dell’emergenza ambientale come fattore influente sulla salute dell’uomo insieme alle diseguaglianze sociali.

Al termine dell’inaugurazione, sono intervenuti i rettori delle Università della Campania insieme a Marcella Marconi – Direttore Osservatorio Astronomico di Capodimonte, Luisa Franzese – Ufficio scolastico regionale per la Campania e Massimo Inguscio – Presidente CNR.

 

La settimana successiva è iniziata ancor più a pieno ritmo, con nomi noti al grande pubblico, come Ilaria Capua. La virologa di fama mondiale per gli studi sull’influenza aviaria e i dibattiti riguardo la scienza open-source, ha partecipato alla live moderata da Luca Carra, discutendo su approcci atti a migliorare le metodiche con cui affrontare eventi tra cui quelli pandemici. Durante il talk si sono proposti temi contenuti del suo libro “Salute circolare: una rivoluzione necessaria”, come l’importanza dell’interdisciplinarietà nella ricerca scientifica utile a creare equilibri nuovi e virtuosi rendendola più sostenibile e convergente. Il concetto di salute è da considerare come un punto di connessione tra uomo, animali ed ambiente e le conoscenze trasversali virando l’approccio verticale alla complessità dei problemi.

Nel pomeriggio di Lunedì 23 è seguito un talk di approfondimento a ricordi dei 40 anni dal terremoto dell’Irpinia-Lucania, uno dei più forti che si ricordino in Italia. Giorgio Della Via a moderare insieme a Maddalena De Lucia, addetta alla divulgazione presso l’Osservatorio vesuviano, hanno introdotto gli argomenti trattati ed i relatori, i quali si sono tutti trovati a vivere in prima persona il fenomeno sismico ed in un secondo momento a studiarlo. Mario Castellano, dirigente tecnologo dell’Osservatorio Vesuviano sezione Napoli dell’ INGV, Girolamo Milano, ricercatore geofisico dell’Osservatorio Vesuviano e Giuliana Alessio, ricercatore presso l’Istituto nazionale di Geofisica e Vulcanologia, hanno raccontato il tipo di sisma, come fu studiato, le cause e gli aspetti tecnici del terremoto dell’Irpinia. La rete sismica del Meridione era composta da una serie di stazioni il cui numero fu ampliato sul territorio per aumentare le informazioni da raccogliere ed analizzare meglio il fenomeno anche ai finiti studi successivi riguardo la dinamica sismica. Il terremoto del 1980 è stato un momenti di svolta per capire i meccanismi alla base e per confermare, il termini di prevenzione, l’aspetto edile come unica chiave per limitare i danni.

 

Nella mattina di Martedì 24 si è tenuta una live molto interessante, dal titolo “Istruzione, Ricerca e Medicina in Africa” durante la quale sono intervenuti Pasquale Maffia, professore associato in immunologia presso l’Università degli Studi di Napoli Federico II, Mayowa Ojo Owolabi, Preside della Facoltà di Medicina di Ibadan in Nigeria, Ntobeko Ntusi, Preside della Facoltà di Medicina presso l’Università di Cape Town e Wilson Mandala Oda, Professore alla Malawi University of Science and Technology e al College of Medicina dell’Università del Malawi. Si è discusso sul tema pandemia da Covid-19 in Africa, su come è stata affrontata e sul suo andamento in associazione ad un approccio più precario riguardo le campagna di vaccinazione, oltre all’importanza dell’istruzione e dell’università nella risoluzione di problematiche sanitarie, ricerca scientifica e medicina.

Per giovedì 26 gli appuntamenti sono stati tanti, tra cui alle ore 15:00 un talk dal titolo “+Innovation +Green +Future. Tecnologie digitali e processi Industriali Virtuosi di sostenibilità ambientale”. Luigi Nicolais introduce Riccardo Villari, Presidente della Fondazione IDIS, Valeria Fascione, assessore alla ricerca, innovazione e startup della Regione Campania e Maurizio Manfellotto, presidente Unioni Industriali Napoli, i quali hanno riflettuto sul tema della sostenibilità con un richiamo all’assetto politico e sociale che la gestisce.

Il primo intervento è stato di Reimung Neugebauer, Presidente del Fraunhofer – Gesellschaft, la più grande organizzazione di ricerca applicata in Europa. Illustrata la diffusione dei centri in Europa ed in Italia, tra cui con l’Università degli studi di Napoli Federico II, e l’aspetto strategico ed economico del “Fraunhofer model”. Si è sottolineato come sia fondamentale realizzare la sostenibilità e mirare a creare strategie innovative per raggiungere quest’obiettivo, coinvolgendo le industrie.

A seguire Pietro Palatino, Presidente di MediTech Competence Centre I4.0, che ha richiamato il concetto di economia circolare applicata all’industria. Sono intervenuti anche Marco Zigon, Presidente di GETRA, azienda che appartiene alla filiera di produzione e distribuzione dell’energia elettrica; Massimo Moschini, Presidente e Amministratore Delegato Laminazione Sottile e Maria Cristina Piovesana, Vicepresidente Confindustria per l’Ambiente, la Sostenibilità e la Cultura.

Nel pomeriggio di Giovedì 26, un altro appuntamento ha visto come protagonista Barbara Gallavotti, biologa ed autrice di programmi come SuperQuark e Ulisse. La giornalista scientifica ha discusso la paura che l’uomo ha di non poter controllare la scienza, insieme a Giulio Sandini, bioingegnere dell’IIT, a Claudio Franceschi, immunologo dell’Istituto di Scienze Neurologiche di Bologna, a Maurizio Mori, professore di bioetica presso l’Università di Torino e a Gennaro Carillo, filosofo dell’Università SuorOrsola Benincasa di Napoli.

Nella live del titolo “Da Frankenstein al futuro”, la Gallavotti ha raccontato di Mary Shelley e di Frankestein, un corpo che da vita alla paura che la scienza non sia sotto il controllo dell’uomo. Nel talk si è affrontato in maniera interdisciplinare come queste paure siano traslate alla nostra epoca ed al futuro, toccando punto come l’aspettativa di vita, la trasmissione della vita umana ed il non adattamento dell’uomo al mondo.

A cornice dei vari eventi, Venerdì 20, Domenica 22, Lunedì 23, Mercoledì 25 e Sabato 28 il pirata Barbascura X ha tenuto live con ospiti importanti, tutte visionabili sul suo canale Twitch o su YouTube.

Tanti altri eventi si sono articolati in rubriche speciali, mostre virtuali, laboratori virtuali e talk, disponibili sulla pagina Facebook o sul canale YouTube.

Lidar e rifugio, foto dalla mostra Missione Antartide alla XXXIV edizione di Futuro Remoto. Foto copyright B. Healey, ESA, IPEV, PNRA

 

Si ringrazia Futuro Remoto – Città della Scienza per le foto.

ASTROFISICI SCOPRONO CHE IL “MODELLO UNIFICATO”

DELLE GALASSIE ATTIVE NON È COMPLETAMENTE VERIFICATO 

I risultati del lavoro del team internazionale guidato dal prof. Francesco Massaro di UniTo rilanciano l’eterno dibattito tra Mendel e Darwin per le radio galassie e gli oggetti di tipo BL Lac

La galassia attiva Hercules A: foto Hubble Telescope sovrapposta all’immagine radio del Very Large Array (VLA). Foto Credits: NASA, ESA, S. Baum and C. O’Dea (RIT), R. Perley and W. Cotton (NRAO/AUI/NSF), and the Hubble Heritage Team (STScI/AURA)  – http://www.spacetelescope.org/images/opo1247a/, CC BY 3.0

Un gruppo internazionale di astrofisici italiani guidato dal Prof. Francesco Massaro del Dipartimento di Fisica dell’Università degli Studi di Torino, associato sia all’Istituto Nazionale di Astrofisica che all’Istituto Nazionale di Fisica Nucleare, ha dimostrato – in un articolo pubblicato dalla rivista internazionale Astrophysical Journal Letters  che le previsioni del modello unificato delle galassie attive, per una particolare classe di sorgenti conosciute come oggetti di tipo BL Lac, non sono verificate.

Immagine ottica di BL Lac PKS 2155-304. Foto di Rfalomo – [1], in pubblico dominio
Nel nostro Universo esistono galassie denominate “attive” perché presentano un nucleo almeno cento volte più brillante dei miliardi di stelle che le costituiscono. Per oltre 30 anni, gli astrofisici avevano pensato che le differenze osservate tra le diverse classi di galassie attive fossero da imputare, in prevalenza, a un solo unico parametro: l’orientazione della struttura interna rispetto alla linea di vista. In accordo con quello che viene definito il modello unificato, tutte le galassie attive sarebbero “geneticamente” simili e l’angolo rispetto alla linea di vista l’unico parametro che le fa apparire diverse.

“Se il modello unificato è, almeno all’ordine zero, corretto – spiega il Prof. Massaro –, l’ambiente su grande scala dove la galassia attiva si trova è una proprietà che non dipende da come la si guarda. Quindi oggetti che possono apparire con diverse proprietà osservate perché semplicemente visti con una diversa inclinazione, se intrinsecamente uguali, dovranno risiedere in un ambiente che ha le stesse caratteristiche”.

Questo è proprio il caso delle radio galassie di tipo FRI, considerate sorgenti intrinsecamente uguali agli oggetti di tipo BL Lac. I loro getti di plasma si espandono ben al di fuori della loro galassia ospite su scale dei milioni di anni luce. In accordo con il modello unificato si è sempre pensato che una radio galassia di tipo FRI il cui getto puntasse in direzione della Terra corrispondesse a una sorgente classificabile come BL Lac. Il Prof. Massaro e il suo team internazionale hanno invece mostrato che l’ambiente in cui risiedono BL Lac e radio galassie FRI è estremamente diverso e pertanto le due classi di sorgenti non sono assimilabili.

“Ma il lavoro non è finito qui – aggiunge il Dott. Alessandro Capetti dell’Osservatorio Astrofisico di Torino anch’egli autore dell’articolo – il nostro studio ci ha anche permesso di dimostrare che gli oggetti di tipo BL Lac sembrano essere intrinsecamente simili a una classe differente di radio galassie, estremamente compatte, i cui getti non sono così estesi da essere visti in banda radio su scale ben al di fuori della galassia ospite”.

“Siamo estremamente soddisfatti dei risultati ottenuti e continueremo su questa linea di ricerca – continua il Prof. Massaro –, stiamo infatti cercando di dare una risposta definitiva al quesito sulle proprietà osservate nelle radio sorgenti e alla loro evoluzione, se dipendano dall’ambiente su grande scale in cui nascono, vivono e muoiono oppure se parametri intrinseci, come l’angolo rispetto alla linea di vista, siano sufficienti a caratterizzarle. Un po’ come il dibattito tra Darwin e Mendel visto in ambito astrofisico dove al momento le opinioni del primo sembrano prevalere”.

Hanno contribuito all’analisi e alla stesura del lavoro il Dott. R. D. Baldi dell’Istituto di Radio Astronomia, il Dott. R. Campana dell’Osservatorio di Astrofisica e Scienza dello Spazio di Bologna e il Dott. I. Pillitteri dell’Osservatorio Astronomico di Palermo, tutte sedi dell’Istituto Nazionale di Astrofisica, e infine il Dott. A. Paggi, dell’Università degli studi di Torino e il Dott. A. Tramacere dell’Università di Ginevra. La ricerca, portata avanti in questi anni, è stata finanziata dalla Compagnia di San Paolo e dal Consorzio Interuniversitario per la fisica Spaziale (CIFS) ed è stata realizzata nell’ambito del finanziamento relativo ai “Dipartimenti di Eccellenza 2018 – 2022” del MIUR (L. 232/2016) ricevuto dal Dipartimento di Fisica dell’Università degli studi di Torino.


Testo e immagini dall’Ufficio Stampa dell’Università degli Studi di Torino

Articolo a cura di Silvia Giomi e Piero Paduano

L’Universo in cui viviamo ci è in gran parte ignoto. La materia di cui siamo fatti noi, i pianeti, le stelle e tutti gli oggetti che osserviamo – e quindi conosciamo – ne costituisce meno del 5%. La restante parte dell’Universo è energia oscura (70%) e materia oscura (25%). Quest’ultima è detta “oscura” poiché, non emettendo radiazione elettromagnetica, rimane invisibile ai nostri strumenti, ma la sua presenza si rivela per via degli effetti gravitazionali osservati.

La ricerca delle particelle di materia oscura è una sfida che coinvolge da anni la comunità scientifica che si cimenta in esperimenti di osservazione diretta (in laboratori sotterranei come CERN, LNGS) e indiretta (nello spazio).

Tra i metodi indiretti vi è quello che sfrutta il fenomeno della superradianza dei buchi neri, esplorato approfonditamente nell’articolo Black hole superradiant instability from ultralight spin-2 fields, pubblicato sulla rivista Physical Review Letters.

Tale metodo è estremamente interessante anche perché si inserisce nel contesto della LGQ (Loop Quantum Gravity), teoria che cerca di unificare la meccanica quantistica e la relatività generale.

Abbiamo il piacere e l’onore di parlarne con il professor Paolo Pani, associato in Fisica Teorica presso il Dipartimento di Fisica della Sapienza Università di Roma, tra i protagonisti dello studio.

instabilità per superradianza Paolo Pani buchi neri materia oscura
Il buco nero supermassiccio nel nucleo della galassia ellittica Messier 87 nella costellazione della Vergine. Si tratta della prima foto diretta di un buco nero, realizzata dal progetto internazionale Event Horizon Telescope. Foto modificata Event Horizon TelescopeCC BY 4.0

 

In cosa consiste l’instabilità per superradianza, e in che modo la sfruttate per la vostra indagine?

La superradianza è un fenomeno che avviene in molti sistemi fisici quando un’onda riflessa da un oggetto viene amplificata a scapito dell’energia dell’oggetto stesso. Questo avviene anche per un buco nero, che può amplificare le onde elettromagnetiche o gravitazionali che “sbattono” su di esso. L’energia in eccesso viene presa dalla velocità di rotazione dell’oggetto, che diminuisce.

L’instabilità per superradianza è un fenomeno collegato: se le particelle del campo elettromagnetico (fotoni) o del campo gravitazionale (gravitoni) avessero una seppur minuscola massa, la radiazione amplificata per superradianza rimarrebbe intrappolata vicino al buco nero, generando un effetto a cascata che rallenta il buco nero fino quasi a fermare completamente la sua rotazione.

In questo caso l’energia in eccesso viene emessa in onde gravitazionali la cui frequenza è direttamente collegata all’ipotetica massa del campo. Se queste particelle ultraleggere esistessero, quindi, non dovremmo osservare buchi neri rotanti e ciascun buco nero si comporterebbe come un “faro” di onde gravitazionali.

 

Il fenomeno della superradianza ha qualche connessione con la radiazione di Hawking?

Sì, si può dire che la superradianza è la controparte “classica” della radiazione di Hawking, che è invece un effetto “quantistico”. La superradianza richiede che il buco nero ruoti, mentre nel caso della radiazione di Hawking il buco nero può rimanere statico. In questo caso la radiazione viene emessa spontaneamente, a scapito della massa del buco nero.

 

Può spiegarci quali sono i vantaggi di aver esteso il fenomeno al caso di campo tensoriale rispetto allo scalare e al vettoriale?

Il caso di campo tensoriale è strettamente collegato ad alcune teorie che prevedono una massa minuscola per il gravitone, una proprietà che potrebbe risolvere il problema della costante cosmologica e dell’energia oscura responsabile dell’espansione accelerata dell’universo.

Inoltre, campi tensoriali ultraleggeri sono ottimi candidati per spiegare la materia oscura che sembra permeare il cosmo ma che finora non si è riusciti a misurare in laboratorio. Il nostro studio mostra che i segnali di onde gravitazionali presenti e futuri permettono di ricercare queste particelle anche quando la loro massa è troppo piccola per essere vista in esperimenti terrestri, come negli acceleratori di particelle.

 

I vostri risultati sono condizionati dalla scelta della metrica di Kerr?

Nella teoria della gravitazione di Einstein, la relatività generale, la metrica di Kerr è l’unica possibile per descrivere un buco nero astrofisico. Nelle teorie che menzionavo sopra, tuttavia, possono esistere altre soluzioni che descrivono buchi neri differenti.

Nel nostro studio abbiamo fatto l’ipotesi standard che i buchi neri siano descritti dalla metrica di Kerr. Scelte differenti renderebbero i calcoli più laboriosi ma ci aspettiamo che non modifichino sostanzialmente il risultato: in presenza di campi ultraleggeri tutti i buchi neri rotanti sono instabili per superradianza ed emettono onde gravitazionali.

 

Quali porte si stanno aprendo e/o quali si stanno chiudendo sulla ricerca della materia oscura?

Il problema della materia oscura è che sappiamo davvero poco su di essa, e quindi svariate speculazioni teoriche sono possibili. Nel corso dei decessi alcuni modelli teorici sono divenuti più popolari di altri, ma l’ultima parola ce l’ha sempre l’esperimento: finché non scopriremo tracce di materia oscura oltre quelle ben note, non sarà possibile distinguere diversi modelli.

Gli esperimenti attuali atti a ricercare uno dei candidati più promettenti (le cosidette WIMPS, weakly interacting massive particles) hanno raggiunto precisioni tali che possono quasi escludere questa ipotesi. Un altro candidato molto promettente sono gli assioni, che sono appunto particelle ultraleggere che producono l’instabilita’ di superradianza dei buchi neri.

Penso che la risposta al problema della materia oscura arriverà da esperimenti innovativi, o magari proprio dai buchi neri, tramite segnali inaspettati di onde gravitazionali.

 

 

Riferimenti allo studio su instabilità per superradianza, buchi neri, materia oscura:

Black Hole Superradiant Instability from Ultralight Spin-2 Fields – Richard Brito, Sara Grillo, and Paolo Pani – Phys. Rev. Lett. 124, 211101 – Published 27 May 2020 DOI:https://doi.org/10.1103/PhysRevLett.124.211101

WFIRST (Wide Field InfraRed Survey Telescope) – da poco ribattezzato Roman Telescope in onore dell’astronoma statunitense Nancy Grace Roman, affettuosamente chiamata “la mamma di Hubble” – è un progetto NASA designato ad indagare su alcuni grandi misteri dell’Universo come la materia e l’energia oscura e per cercare nuovi mondi in orbita attorno ad altre stelle della nostra galassia.

ScientifiCult ha l’onore di poter intervistare il dott. Valerio Bozza, ricercatore presso l’Università degli Studi di Salerno e attualmente impegnato a collaborare con la NASA per la realizzazione del Telescopio Roman.

Valerio Bozza
Il dott. Valerio Bozza

Può raccontarci i momenti della Sua carriera professionale che ricorda con più piacere?

In vent’anni di ricerca ho avuto la fortuna di vivere tante soddisfazioni e di lavorare con le persone che hanno scritto i libri su cui ho studiato. Certamente, partecipare alle discussioni nello studio di Gabriele Veneziano al CERN con i cosmologi più importanti del mondo e poter assistere alla nascita di idee geniali su quella lavagna è stata un’esperienza formativa fondamentale. Quando ho avuto il mio primo invito a relazionare ad un workshop all’American Institute of Mathematics sul gravitational lensing di buchi neri e ho ricevuto i complimenti di Ezra T. Newman, ho capito che potevo davvero dire la mia anche io.

Ricordo ancora le notti di osservazioni allo European Southern Observatory a La Silla in Cile, sotto il cielo più bello del pianeta. Ricordo l’invito al Collège de France a Parigi da parte di Antoine Layberie per un seminario, che poi ho scoperto di dover tenere in francese! Poi non ci dimentichiamo la notizia della vittoria al concorso da ricercatore, che mi ha raggiunto mentre ero in Brasile per un altro workshop sulle perturbazioni cosmologiche. Infine, ricordo con una certa malinconia le notti e i giorni di lavoro all’Osservatorio Astronomico UNISA per mettere su un programma di ricerca competitivo. Tutto è finito con la copertina di Nature sulla scoperta del pianeta KELT-9b, il più caldo mai visto, e la distruzione dell’Osservatorio nel febbraio 2019, una ferita ancora aperta.

Adesso, però, è ora di concentrarsi sullo sviluppo del nuovo telescopio spaziale WFIRST della NASA, che il 20 maggio scorso è stato rinominato Nancy Grace Roman Space Telescope (o semplicemente “Roman”, in breve), in onore della astronoma che ha contribuito alla nascita dei primi telescopi spaziali della NASA.

Infine, ricordo con una certa malinconia le notti e i giorni di lavoro all’Osservatorio Astronomico UNISA con il Prof. Gaetano Scarpetta, per mettere su un programma di ricerca competitivo.

Ci sono degli aggiornamenti sulla data del lancio di Roman?

Il lancio del telescopio Roman era programmato per il 2025, ma diverse vicende hanno giocato contro in questi ultimi anni: il ritardo nel lancio del JWST, lo shutdown del governo americano ad inizio 2019 e soprattutto l’epidemia di COVID-19, che sta provocando ritardi su tutte le scadenze nella tabella di marcia. A questo punto, direi che uno slittamento all’anno successivo possa essere plausibile. Tuttavia, l’interesse verso questa missione sta continuando a crescere sia dentro che fuori l’ambito accademico, mettendola al riparo da eventuali tagli di budget.


Roman viene spesso paragonato al telescopio spaziale Hubble. Quali sono le differenze e le somiglianze? E con il JWST?

Si tratta di tre telescopi spaziali che spesso vengono citati insieme, ma sono tutti e tre profondamente diversi: Hubble opera nella banda del visibile e nell’ultravioletto, mentre non è molto sensibile all’infrarosso. Al contrario, sia JWST che Roman opereranno nel vicino infrarosso. JWST avrà un campo di vista molto più piccolo anche di Hubble, perché il suo scopo è fornirci immagini con dettagli mai visti prima di sistemi stellari e planetari in formazione. Roman, invece, avrà un campo di vista cento volte più grande di Hubble, perché il suo scopo è quello di scandagliare aree di cielo molto grandi alla ricerca di galassie o fenomeni transienti. La grande novità è che Roman condurrà queste survey a grande campo con una risoluzione di 0.1 secondi d’arco, simile a quella di Hubble! Quindi, avremo la possibilità di condurre la scienza di Hubble su enormi aree di cielo contemporaneamente. JWST, invece, condurrà osservazioni con un dettaglio molto migliore di Hubble e di Roman, ma su un singolo oggetto in un’area molto limitata.

Roman telescope Valerio Bozza
Immagine 3D del veicolo spaziale Roman (luglio 2018). Immagine NASA (WFIRST Project and Dominic Benford), adattata, in pubblico dominio


Quali sono i target scientifici della missione e come vengono raggiunti?

A differenza di Hubble e JWST, Roman avrà poco spazio per richieste estemporanee di osservazioni. Sarà un telescopio essenzialmente dedicato a due programmi principali: una survey delle galassie lontane e una survey del centro della nostra Galassia. La prima survey effettuerà delle immagini di tutto il cielo alla ricerca di galassie deboli e lontane. Queste immagini consentiranno di capire meglio la distribuzione della materia nel nostro Universo, fissare le tappe dell’espansione cosmologica e chiarire i meccanismi alla base dell’espansione accelerata, scoperta venti anni fa attraverso lo studio delle supernovae Ia. I cosmologi si aspettano che Roman possa fornirci risposte fondamentali sulla natura della cosiddetta Dark Energy, che è stata ipotizzata per spiegare l’accelerazione del nostro Universo, ma la cui natura è del tutto sconosciuta.

Il secondo programma osservativo è una survey delle affollatissime regioni centrali della nostra galassia. Monitorando miliardi di stelle, ci aspettiamo che, almeno per una frazione di queste, la loro luce verrà amplificata da effetti temporanei di microlensing dovuti a stelle che attraversano la linea di vista. Il microlensing è un’amplificazione dovuta al ben noto effetto “lente gravitazionale” previsto dalla relatività generale di Einstein. Se la stella che fa da lente è anche accompagnata da un pianeta, l’amplificazione riporterà delle “anomalie” che potranno essere utilizzate per studiare e censire i sistemi planetari nella nostra galassia. Roman sarà così sensibile da rivelare anche pianeti piccoli come Marte o Mercurio!

microlensing
Il fenomeno del microlensing: la sorgente (in alto) appare più brillante quando una stella lente passa lungo la linea di vista. Se la lente è accompagnata da un pianeta, la luminosità mostra anche una breve anomalia. Credits: © ESA


Quali differenze tra le caratteristiche dei pianeti extrasolari che andrà a scoprire
Roman e quelle dei pianeti che ha osservato Kepler e che osserva TESS?

Il metodo del microlensing, utilizzato da Roman, è in grado di scoprire pianeti in orbite medio-larghe intorno alle rispettive stelle. Al contrario, sia Kepler che TESS, utilizzano il metodo dei transiti, in cui si misura l’eclisse parziale prodotta dal pianeta che oscura parte della sua stella. Questi due satelliti, quindi, hanno scoperto tipicamente pianeti molto vicini alle rispettive stelle.

Ipotizzando di osservare una copia del Sistema Solare, Kepler e TESS potrebbero vedere Mercurio o Venere, nel caso di un buon allineamento. Roman, invece, avrebbe ottime probabilità di rivelare tutti i pianeti da Marte a Nettuno.

Un’altra differenza è che Roman scoprirà pianeti distribuiti lungo tutta la linea di vista fino al centro della Galassia, consentendo un’indagine molto più ampia della distribuzione dei pianeti di quanto si possa fare con altri metodi, tipicamente limitati al vicinato del Sole. Purtroppo, però, i pianeti scoperti col microlensing non si prestano ad indagini approfondite, poiché, una volta terminato l’effetto di amplificazione, i pianeti tornano ad essere inosservabili e sono perduti per sempre.

In definitiva, la conoscenza dei pianeti nella nostra Galassia passa per il confronto tra diversi metodi di indagine complementari. Ognuno ci aiuta a comprendere una parte di un puzzle che si rivela sempre più complesso, mano mano che scopriamo mondi sempre più sorprendenti.

 

Nancy Grace Roman, in una foto NASA del 2015, in pubblico dominio

I buchi neri come fari sulla materia oscura

Una nuova luce sulla strada della ricerca della materia ultraleggera dell’Universo arriva dai buchi neri. È quanto suggerisce lo studio del Dipartimento di Fisica della Sapienza pubblicato sulla rivista Physical Review Letters

buchi neri materia oscura
Il buco nero supermassiccio nel nucleo della galassia ellittica Messier 87 nella costellazione della Vergine. Si tratta della prima foto diretta di un buco nero, realizzata dal progetto internazionale Event Horizon Telescope. Foto modificata Event Horizon Telescope, CC BY 4.0

Le osservazioni sulla cosiddetta materia oscura del nostro Universo sono sempre più numerose e significative, ma sono ancora tante le incognite in questo affascinante campo della fisica moderna.

La particella elementare massiccia più leggera conosciuta in natura è il neutrino, con una massa qualche milione di volte più piccola di quella di un elettrone. Alcuni modelli di materia oscura hanno però suggerito l’esistenza di particelle elementari anche molto più leggere, le cui masse che possono essere miliardi di volte più piccole di quella di un neutrino.

Rilevare queste sfuggenti particelle è impossibile sulla Terra, a causa delle loro debolissime interazioni con la materia “conosciuta”, cosiddetta ordinaria.

In un nuovo lavoro recentemente pubblicato sulla rivista Physical Review Letters, il team di ricercatori coordinato da Paolo Pani del Dipartimento di Fisica della Sapienza, ha identificato nei buchi neri un metodo innovativo per la ricerca di questa materia oscura ultraleggera.

I buchi neri possono amplificare radiazione in un certo range di frequenze generando un sorprendente effetto chiamato superradianza. Finora la superradianza e il suo segnale emesso in onde gravitazionali sono stati studiati solo per una certa famiglia di particelle con proprietà simili al fotone, per riprodurre onde elettromagnetiche, qui, per la prima volta sono stati applicati a particelle con proprietà simili al gravitone, trasformando i buchi neri in veri e propri “fari di onde gravitazionali”.

Secondo i ricercatori, se tali particelle esistono in natura e hanno una massa minuscola, potenzialmente qualsiasi buco nero nell’universo potrebbe emettere periodicamente onde gravitazionali a una data frequenza (direttamente correlata alla massa delle particelle di materia oscura), analogamente a uno strumento musicale che ripete sempre la stessa singola nota con cadenza regolare.

“Cercando questo segnale – commenta Paolo Pani – i rivelatori di onde gravitazionali come LIGO e Virgo (e la futura missione spaziale LISA, supportata da ESA e NASA) cercheranno la materia oscura ultraleggera in un nuovo regime, finora praticamente inesplorato. E forse, dopo tutto, la risposta al problema della materia oscura verrà proprio dai buchi neri”.

Lo studio è parte del progetto Marie Skłodowska Curie “FunGraW” (PI: Richard Brito) e del progetto ERC DarkGRA (PI: Paolo Pani) entrambi ospitati presso il Dipartimento di Fisica della Sapienza.

 

Riferimenti:

Black Hole Superradiant Instability from Ultralight Spin-2 Fields – Richard Brito, Sara Grillo, and Paolo Pani – Phys. Rev. Lett. 124, 211101 – Published 27 May 2020 DOI:https://doi.org/10.1103/PhysRevLett.124.211101

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Accostare la parola “marea” alla Geologia può lasciare perplessi in prima battuta, scavando nella memoria difficilmente si recupera un ricordo che le vede accomunate. Un termine notoriamente associato al movimento di masse liquide e la scienza che studia le masse rocciose: in che modo sono legati?

A partire dalla metà del ventesimo secolo, la teoria della tettonica a placche è entrata a far parte stabilmente del pensiero scientifico: da allora gli esperti dibattono sui processi che governano il moto dei blocchi tettonici. Postulata e dimostrata la teoria della deriva dei continenti, gli scienziati hanno ricercato le sue cause nella struttura interna della Terra ed in particolare nei moti convettivi del mantello superiore, che determinano l’allontanamento o la collisione delle placche.

Secondo i dati raccolti, però, i movimenti relativi dei blocchi non sono governati esclusivamente dalla dinamica del mantello: esiste una componente orizzontale regolata da un processo diverso. Da ricercare fuori e non dentro il pianeta. Ecco che entrano in gioco le “maree solide”, movimenti di blocchi di litosfera dipendenti dai moti solari e lunari con lungo periodo di oscillazione (maggiore di un anno).

Lo studio “Tidal modulation of plate motions” di Davide Zaccagnino (Università Sapienza di Roma), Francesco Vespe (Agenzia Spaziale Italiana) e Carlo Doglioni (Università Sapienza di Roma e INGV) pubblicato su Earth Science Reviews fornisce dati a sostegno di questa teoria, facendo uso di misurazioni satellitari registrate in uno spazio temporale di più di venti anni.

La sezione di Terra oggetto di studio è la litosfera, l’insieme della crosta terrestre e della parte superiore del mantello. Il suo comportamento – se sottoposta a sforzo – è di tipo rigido, a differenza della sottostante astenosfera più fluida e facilmente deformabile. La separazione tra queste due masse è garantita dalla low velocity zone (LVZ), una fascia a basse velocità delle onde sismiche sulla quale la litosfera scorre con poca frizione.

 

maree solide Carlo Doglioni
La struttura della terra: 1) crosta, 2) mantello, 3) nucleo (esterno liquido e interno solido), 4) litosfera, 5) astenosfera. Immagine USGS, vettoriale di Anasofiapaixao, pubblico dominio

La ricerca ha analizzato la distanza relativa di una serie coppie di stazioni GNSS (Global Navigation Satellite Systems) collocate su placche differenti (9) ed una coppia di controllo sulla stessa placca. Lo studio si è focalizzato sui moti ciclici del Sole e della Luna con oscillazioni comprese tra uno e 18,61 anni. Cicli più brevi e quindi più frequenti vengono mascherati da effetti climatici sull’atmosfera e sul sottosuolo (influenzando ad esempio pressione dei fluidi). Inoltre, i cataloghi delle misurazioni satellitari hanno a disposizione dati degli ultimi 15-20 anni.

Il professor Carlo Doglioni ha quindi risposto per noi ad alcune domande relative a questo ultimo, importante studio.

Professor Doglioni, ci sono teorie e/o ricerche riguardo oscillazioni astronomiche con periodo maggiore? Che cataloghi e misurazioni vengono usati in quel caso?

Lo studio pubblicato è un tassello importante di un percorso di ricerca iniziato circa 30 anni fa, quando si è iniziato a vedere che le placche (cioè i frammenti della litosfera, il guscio esterno della Terra) non si muovono a caso, ma seguono un flusso primario, descritto da quello che abbiamo definito ‘equatore tettonico’, che fa un angolo di circa 30° rispetto all’equatore geografico.

Guarda caso, la proiezione del passaggio della Luna sulla Terra descrive un angolo molto simile. Poi però negli anni sono state documentate delle profonde asimmetrie della tettonica in funzione della polarità geografica, per esempio le differenze tra le catene montuose legate a subduzioni verso ‘est’ o verso ‘ovest’.

Infine è stato documentato come il guscio litosferico, circa 100 km di spessore, abbia un ritardo verso ‘ovest’ di alcuni centimetri l’anno rispetto al mantello sottostante. Quindi la tettonica delle placche è polarizzata. Queste osservazioni cruciali sono state in larga parte ignorate o liquidate come effetti secondari della sola dinamica interna di raffreddamento della Terra.

Ora abbiamo invece una prova sperimentale che le maree solide – e quindi le forze astronomiche – hanno invece un effetto cruciale sulla dinamica delle placche, in particolare quelle che hanno frequenze compatibili con le alte viscosità del mantello terrestre. L’equatore tettonico, per esempio, sembra avere una inclinazione controllata dalla precessione dell’asse di rotazione terrestre, cioè circa 26.000 anni.

Quindi sì, dovrebbero esserci effetti importanti anche con frequenze con periodi più lunghi a quelli delle nutazioni (18.6 anni). In questo caso però non ci sono cataloghi né sismici, né geodetici che ci possano aiutare, se non i dati geologici di lungo periodo.

maree solide Carlo Doglioni
Immagine di Arek Socha

Lo studio conferma inoltre la teoria secondo cui l’attività sismica ha un legame con il movimento relativo di Sole e Luna. Che impatto ha questa relazione sullo studio dei terremoti, in particolare sui cataloghi degli eventi sismici passati e sul monitoraggio delle aree attive? Potranno esserci (o esistono già) studi in “tempo reale” (geologicamente parlando) dell’effetto sui diversi tipi di faglia?

La gravità rimane sempre uno dei segreti più straordinari della natura e i suoi effetti sono in parte ancora da scoprire. Basti pensare che pur avendo il Sole il 99% della massa di tutto il sistema solare, il baricentro del sistema solare oscilla continuamente per effetto della massa rimanente inferiore all’1% di cui Giove fa la parte del leone. Le forze mareali, inoltre, vanno con il cubo della distanza, e questo spiega perché la Luna, pur essendo infinitamente più piccola, ha un effetto mareale circa doppio rispetto al Sole.

La tettonica delle placche e quindi la sismicità esistono però perché il mantello terrestre può convettere, e questo è possibile perché la temperatura e la composizione interna della Terra determinano viscosità che permettono questa mobilità. Tuttavia, la domanda è se i moti convettivi sono l’unico motore attivo oppure se esiste un’altra forza che li mette in movimento.

La componente orizzontale della marea solida ora è il candidato ideale per far scivolare la litosfera sul mantello sottostante, per farla sprofondare nelle zone di subduzione o permettere la risalita per isostasia del mantello al di sotto delle dorsali oceaniche che si formano dove i gradienti di viscosità determinano velocità diverse tra le placche a parità di effetto mareale. In sostanza la convezione mantellica viene polarizzata e attivata dalla componente orizzontale della marea solida; una componente che sposta avanti e indietro il suolo di 10-20 cm a ogni passaggio è la miglior candidata a pompare il sistema tettonico.

Vediamo infatti una certa correlazione con la sismicità in funzione dei periodi in cui la componente orizzontale è maggiore. Tuttavia, la sismicità è la liberazione di gradienti di pressione che si formano nei decenni, se non millenni, e la rottura che provoca il terremoto si attua nel momento in cui le rocce non sono più in grado di accumulare energia; viene dunque raggiunta la soglia critica e si attivano le faglie che producono i terremoti.

La faglia di Sant’Andrea. Foto di Ikluft, CC BY-SA 4.0

In sostanza, la correlazione tra maree e terremoti è più subdola, nel senso che c’è una frequenza maggiore di terremoti quando le placche vanno un po’ più veloci, ma i terremoti avvengono anche quando le placche si muovono più lentamente, qualora lo stato limite o condizione critica siano stati raggiunti. La componente orizzontale fornisce l’energia al sistema, mentre la componente verticale della marea modifica e modula continuamente, ogni secondo, la gravità terrestre, alzando e ribassando la litosfera e quindi anche la superficie terrestre di 30-40 cm, e quindi modificando anche il peso delle rocce: questa oscillazione favorisce o sfavorisce i terremoti in funzione della loro natura.

Per esempio, i terremoti estensionali avvengono più frequentemente durante le fasi di bassa marea (quando cioè la gravità terrestre è massima), mentre i terremoti compressivi avvengono più spesso durante le fasi di alta marea perché con una leggera diminuzione della forza di gravità si facilita lo scorrimento contrazionale.

In sostanza, la componente orizzontale carica il sistema, mentre quella verticale può essere il grilletto che innesca i terremoti, ma questi possono avvenire indipendentemente dalla marea quando la ‘misura è colma’. La Terra esercita delle maree solide che innalzano il suolo lunare di circa 10 metri, e la sismicità lunare ha una ciclicità mensile concentrata nell’emisfero rivolto verso la Terra.

La Luna non ha una tettonica delle placche perché evidentemente non ha temperature interne sufficientemente alte da determinare basse viscosità che permettano la convezione e inoltre si trova in tidal-locking, cioè guarda la Terra sempre con la stessa faccia, quindi manca la rotazione del corpo celeste come per il nostro pianeta. Quindi sì, c’è un controllo gravitazionale fondamentale sulla sismicità, ma questo non significa che ora siamo in grado di prevedere i terremoti.

Sismogramma all’Osservatorio di Weston, Massachussetts. Foto di Z22, CC BY-SA 3.0

Abbiamo però una chiave di lettura che ci permetterà di approfondire quei settori delle geoscienze che ci possono dare informazioni deterministiche sull’evoluzione delle aree a maggiore pericolosità sismica: dalla geodesia alla geochimica dei fluidi, dalla statistica all’intelligenza artificiale, discipline che ci permettono di riconoscere dei transienti o anomalie che preludono l’attivazione delle faglie, o meglio il rilascio dell’energia accumulata nei volumi adiacenti alle faglie stesse che sono dei piani passivi di rilascio e canalizzazione di una parte di questa energia.

Che impatto può avere questa ricerca sullo studio degli hotspot, ad esempio quello delle Hawaii? Può aiutare a definire la profondità di origine del magma che alimenta l’apparato vulcanico? Può aiutare a determinare la dinamica dello spostamento dell’hotspot stesso (se lo spostamento esiste)?

Uno studio relativamente recente – grazie alla tecnica sismologica delle receiver functions – ha permesso di ricostruire la profondità a circa 130 km della camera magmatica sotto le Hawaii: questo significa che sì, gli hotspot pacifici sono alimentati da magma che proviene appunto da quel livello sotto la litosfera che si chiama canale a bassa velocità (low-velocity zone, LVZ) che costituisce la parte alta dell’astenosfera che va da circa 100 a 410 km di profondità.

I magmi delle Hawaii inoltre, sulla base dei dati petrologici sappiamo che si sono formati a una temperatura di circa 1500°C, a conferma del dato sismologico, e sono quindi relativamente superficiali, non provenienti cioè dal limite nucleo-mantello a 2900 km, come alcuni ricercatori avevano ipotizzato. Le Hawaii, come varie altre catene magmatiche, ci documentano che la litosfera si muove rispetto all’astenosfera e questo dato ci permette di calcolare la deriva della litosfera verso ‘ovest’ rispetto al mantello.

Carta batimetrica delle isole Hawaii. Immagine USGS in pubblico dominio; credits per Barry W. Eakins, Joel E. Robinson, Japan Marine Science e Technology Center: Toshiya Kanamatsu, Jiro Naka, University of Hawai’i: John R. Smith, Tokyo Institute of Technology: Eiichi Takahashi, e Monterey Bay Aquarium Research Institute: David A. Clague – Bathymetry image PDF, tratta dalla pubblicazione USGS Geologic Investigations Series Map I-2809: Hawaii’s Volcanoes Revealed

Vi sono anche altri tipi di catene magmatiche che venivano etichettate come hotspot, in particolare posizionate sulle dorsali oceaniche come l’Islanda, le Azzorre, Ascencion, ma è stato dimostrato dalle ricerche di scienziati italiani come Enrico Bonatti e Marco Ligi che in realtà sono zone dove il mantello fonde a una temperatura più bassa per il maggiore contenuto di fluidi, a cominciare dall’acqua stessa. Sono chiamati appunto wetspot o punti bagnati e hanno quindi un’origine e una composizione diversa rispetto agli hotspot come le Hawaii. Lo spostamento degli hotspot e wetspot è documentato, ma ha natura e significato geodinamico diverso. Nessun punto o margine di placca sulla Terra è fisso, tutto si muove, a velocità diverse, rispetto al mantello sottostante.

Quali campi altri di ricerca potranno beneficiare delle conclusioni di questo studio?

Il nostro auspicio (con Davide Zaccagnino e Francesco Vespe, coautori della ricerca, ma anche di numerosi altri colleghi che nel corso degli anni hanno contribuito in modo fondamentale a queste ricerche) è che questa scoperta sia l’inizio di un percorso che ci permetterà di capire sempre meglio non solo la sismicità, ma anche i meccanismi fondamentali di funzionamento della Terra e le sue interazioni con la dinamica planetaria e, perché no, anche dell’origine ed evoluzione della vita.

maree solide Carlo Doglioni
Immagine di malith d karunarathne

 

Riferimenti:

Tidal modulation of plate motions – Davide Zaccagnino, Francesco Vespe, Carlo Doglioni – Earth Science Reviews https://doi.org/10.1016/j.earscirev.2020.103179

Cominciamo dando qualche dato fisico del secondo pianeta del sistema solare: Venere.

12103 km e 12742 km. Sono, rispettivamente, i valori dei diametri di Venere e Terra: come vedete, molto simili, ma le somiglianze terminano qua. L’asse di rotazione del pianeta è inclinato di 177°, ciò rende la rotazione di Venere retrograda: su Venere vedremmo sorgere il Sole a Ovest e tramontare ad Est! La rotazione del pianeta su se stesso è molto lenta: il giorno sidereo dura ben 243 giorni terrestri, ma, per via del moto retrogrado, il giorno solare è più corto: 117 giorni terrestri. Il periodo siderale (l’anno venusiano) conta 225 giorni terrestri. Su Venere è interessante anche riportare il valore di un altro dato, il periodo sinodico, ovvero il tempo che impiega il pianeta a ritornare nella stessa posizione rispetto al Sole per noi che lo osserviamo dalla Terra. Esso è di 584 giorni.

Un pianeta osservato da sempre

E proprio i 584 giorni del periodo sinodico di Venere li ritroviamo nel Codice di Dresda, uno dei documenti astronomici più importanti dell’antica civiltà Maya. Osservatori meticolosi del cielo, i Maya avevano calcolato con estrema precisione il moto celeste del pianeta; per loro Venere era una divinità di grande importanza, giocando un ruolo importante nelle vite materiali e spirituali: ad essa offrivano notevoli sacrifici. Anche per i Mexica, altro popolo mesoamericano, questo pianeta aveva un ruolo centralissimo: la leggenda narra che il potente Quetzalcoatl si buttò in una pira, divenendo parte del cielo e una divinità, Venere come stella del mattino, appunto. Nel Mar Mediterraneo, Venere era invece spesso associato ad una divinità femminile, Afrodite per gli antichi Greci, Venere per i Romani; il simbolo astronomico del pianeta è anche quello utilizzato per il sesso femminile; spesso lo si intende come una stilizzazione della mano della dea che regge uno specchio anche se non sarebbe quella la sua vera origine.

Venere è il pianeta più vicino alla Terra, dunque ben visibile nel nostro cielo. È perciò naturale che fosse un punto di riferimento importante per i popoli antichi. Per via della sua vicinanza al Sole, Venere si rende visibile in alcuni periodi dell’anno solo dopo il tramonto e in altri poco prima dell’alba. Questa dualità la ritroviamo presso i popoli antichi, che attribuirono due divinità differenti alle due apparizioni di Venere sin quando i pitagorici arrivarono a capire che le due manifestazioni erano riconducibili allo stesso oggetto celeste. Per esempio, secondo i Mexica, Quetzalcoatl era Venere mattutino, mentre il fratello Xolotl impersonificava Venere della sera. Similmente, presso i latini vi erano Lucifero e Vespero.

Il transito di Venere

Il fatto che Venere sia un pianeta interno dà origine a due fenomeni ben visibili dalla Terra:

  • Venere, come la Luna, ha le fasi. Lo sapeva bene Galileo Galilei, che fu il primo ad osservarle nel 1610.
  • Possiamo ammirarne il transito, ossia il passaggio del disco nero di Venere sulla superficie del Sole.

I transiti di Venere avvengono a coppie, distanziati di 8 anni; ogni coppia si ripresenta a intervalli di 121,5 e 105,5 anni (l’ultimo fu il 6 giugno del 2012 e il prossimo sarà l’11 dicembre 2117). Il grande astronomo Edmund Halley, nel 1691, calcolò le epoche dei successivi 29 transiti di Mercurio e Venere, sino al 2004. Purtroppo, il primo transito di Venere, secondo i suoi calcoli, sarebbe stato nel 1761, quando Halley avrebbe avuto quasi 105 anni… immaginate il suo dispiacere per non poter assistere all’evento!

Perché era così importante il transito di Venere? Secondo il metodo sviluppato da Halley stesso, osservando tale evento da due luoghi diversi (e possibilmente piuttosto distanti), si poteva determinare la distanza Terra-Sole.

Venere
Il transito di Venere nel 2004. Foto di Jan Herold/Klingon, CC BY-SA 3.0

Quando finalmente arrivò il tanto atteso transito, il 6 giugno 1761, le principali nazioni europee organizzarono importanti spedizioni scientifiche per l’osservazione. Fu un’impresa ardua: qualcuno perse la vita nel lungo viaggio in nave per via di naufragi o della guerra tra Francia e Inghilterra, qualcun altro rimase disperso e chi arrivò incolume a destinazione ebbe magari la sfortuna di trovare un cielo nuvoloso.

Alla fine, solo 120 astronomi riuscirono nell’impresa e poterono svolgere il calcolo di Halley, in maniera piuttosto imprecisa, trovando un valore compreso tra 123 e 157 milioni di km (il valore oggi accettato è pari a 149.57 milioni di km).

Un inferno affascinante

Venere
Cratere da impatto nella Lavinia Planitia di Venere. I colori non corrispondono a quelli reali. Foto NASA/JPL, in pubblico dominio

Ma com’è questo pianeta? La definizione più appropriata è “un inferno”. La temperatura media è di 460° C, l’atmosfera è “pesante” (la pressione è quella che potremmo sperimentare a 1000 m sott’acqua), tossica (il 96% è anidride carbonica) e corrosiva (sono presenti nuvole di anidride solforosa che generano piogge acide). La presenza di una spessa coltre di nubi che riflette la luce del Sole rende il pianeta molto brillante, ma ostacola l’osservazione della superficie. Solo nel 1990, con la sonda NASA Magellano, fu possibile vedere attraverso le dense nubi per scoprire un mondo per lo più pianeggiante, con pochissimi crateri da impatto e con più di 1500 vulcani.

L’esplorazione spaziale di Venere cominciò, però, molto prima. La Russia dedicò un intero programma al pianeta, cominciando nel 1961 con la sonda Venera 1. Per alcune delle sedici missioni Venera, era previsto anche un lander, ma, per via delle condizioni estreme del pianeta, la permanenza sul suolo venusiano fu molto breve. Fu il lander della Venera 13 a battere il record di durata, con ben 127 minuti!

Venere
Dalla Terra, Venere è sempre il più brillante dei pianeti del sistema solare. Foto Brocken Inaglory, CC BY-SA 3.0

Video a cura di Inter Nos: Silvia Giomi e Marco Merico

Mercurio è un pianeta che vanta diversi primati.

Dal 2006, anno in cui Plutone è stato declassato a pianeta nano, Mercurio è diventato il pianeta più piccolo del sistema solare. I suoi 4878 km di diametro sono del diametro terrestre. Essendo poi il più interno, è anche il più veloce a ruotare attorno al Sole: Mercurio completa l’intera orbita in appena 88 giorni terrestri. Ha proprio le ali ai piedi, come si suol dire! Difatti, questa locuzione si riferisce ai sandali alati del dio Mercurio, il messaggero degli dei, e il simbolo astronomico del pianeta altro non è che una stilizzazione del caduceo, il bastone del dio.

La velocità orbitale di Mercurio, cioè la velocità di rotazione attorno al proprio asse, è, invece, molto bassa: impiega ben 58 giorni terrestri a compiere un giro completo su se stesso (giorno sidereo), ma tra un’alba e la successiva (giorno solare) passano ben 176 giorni terrestri. Per essere più precisi, Mercurio compie 3 rotazioni ogni due rivoluzioni; si dice che è in risonanza 3:2. Quindi, su Mercurio il Sole sorge in un dato anno e tramonta nel successivo!

L’orbita più eccentrica del sistema solare è la sua: il valore di 0.205 è ben 15 volte l’eccentricità dell’orbita del nostro pianeta. L’eccentricità misura quanto l’orbita è “schiacciata”. Un’eccentricità così elevata porta ad una grande differenza tra la distanza del punto dell’orbita più vicino al Sole (perielio) e di quello più lontano (afelio) del pianeta. Il primo dista circa 0.30 AU dalla nostra stella, mentre il secondo circa 0.46 AU. Per via di un’orbita parecchio eccentrica e della risonanza 3:2, su Mercurio potremmo assistere ad un fenomeno curioso: il Sole sorge, si innalza nel cielo, poi ecco che ritorna un poco indietro per proseguire, infine, la sua strada verso il tramonto.

Mercurio ha anche una spaventosa escursione termica tra giorno e notte: per via della rotazione quasi sincrona con il Sole e della totale mancanza di atmosfera, si passa da un minimo notturno di -180° C ad un massimo di oltre 420° C.

La precessione del perielio dell’orbita mercuriana ha il valore più elevato del sistema solare. Troppo elevato, secondo i calcoli della fisica classica. Per anni si è cercata una spiegazione, arrivando addirittura a ipotizzare la presenza di un pianeta ancora più piccolo e interno a Mercurio che fu battezzato Vulcano. Era il 1859. Bisogna aspettare il 1916 e la teoria della relatività generale di Einstein per risolvere l’enigma. Da allora il pianeta Vulcano esiste solo nella saga fantascientifica Star Trek.

Lo sapevate, inoltre che Mercurio ha anche la coda? Proprio come le comete! È l’unico pianeta in cui è stata individuata una sorta di coda cometaria che si forma per surface sputtering, un processo a cui concorre la vicinanza del Sole e la bassissima attrazione gravitazionale del piccolo pianeta.

Infine, l’ultimo record che indichiamo, è la presenza di un grosso nucleo (che occupa il 40% del volume dell’intero pianeta), che si suppone essere il più ferroso del sistema solare. La scoperta di un nucleo così massiccio si deve alla Mariner 10 della NASA, la prima missione spaziale a visitare Mercurio nel 1974, che scoprì un campo magnetico piuttosto intenso per le ridotte dimensioni del pianeta.

Il Polo Nord di Mercurio, coi crateri dove non arriva mai la luce solare. Foto NASA in pubblico dominio

Nel 2004 fu il turno di MESSENGER, sempre della NASA, che raggiunse Mercurio nel 2008. MESSENGER verificò la presenza di ghiaccio d’acqua ai poli, sul fondo di alcuni crateri in cui non arriva mai la luce solare.

La sonda rimase in orbita sino al 2011, terminando la missione con uno schianto sul pianeta che lasciò un piccolo cratere sulla superficie . Mercurio non se la prese troppo a male per il nuovo cratere, dato che era già pesantemente butterato dall’impatto dei meteoriti che via via sono caduti sul pianeta. I crateri più grandi prendono il nome di bacini. Tra questi, spicca il bacino Caloris, che con i suoi 1500 km di diametro potrebbe contenere tranquillamente tutta l’Italia.

Immagine di Mercurio dalla sonda MESSENGER (2008). Foto NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington NASA/JPL, ritoccata da jjron, in pubblico dominio

A fine 2018 è partita la missione ESA Bepi Colombo, nome scelto in onore del fisico padovano Giuseppe Colombo, il primo a trovare la risonanza 3:2 tra periodo orbitale e di rotazione. Quattro degli undici strumenti a bordo hanno principal investigator italiani. Bepi Colombo entrerà nell’orbita mercuriana tra 7 anni per scoprire nuove e interessanti caratteristiche di questo bizzarro pianeta.

Mercurio
Il cratere Abedin. Foto NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington, pubblico dominio

Video a cura di Inter Nos: Silvia Giomi e Marco Merico