News
Ad
Ad
Ad
Tag

Science Advances

Browsing

IL CICLO MESTRUALE E LA LUNA: UNA SINCRONIZZAZIONE SEMPRE PIÙ RARA

L’Università di Padova partecipa allo studio internazionale che rivela la perdita della sincronia con la Luna a causa dell’inquinamento luminoso

 

Molte specie animali sincronizzano il loro comportamento riproduttivo con una determinata fase del ciclo lunare per aumentare il successo nella procreazione. Negli esseri umani, l’influenza della luna sul comportamento riproduttivo rimane controversa, sebbene il ciclo mestruale abbia un periodo molto prossimo a quello dei cicli lunari.

È già stato dimostrato come i cicli mestruali femminili si sincronizzino in maniera intermittente con i cicli di luminanza (che descrivono la quantità di luce lunare visibile nel corso del mese, che varia dalla luminanza minima del Novilunio alla luminanza massima del Plenilunio) e/o gravitazionali della luna (l’influenza gravitazionale della Luna sulla Terra che provoca le maree).

Con l’avanzare dell’età e l’esposizione alla luce artificiale notturna, i cicli mestruali tendono ad accorciarsi e la sincronia con la luna si perde. Nello studio appena pubblicato sulla rivista «Science Advances» e che vede tra gli autori Sara Montagnese e Alberto Ferlin, del Dipartimento di Medicina dell’Università di Padova e Rodolfo Costa del Dipartimento di Scienze Biomediche dell’Università di Padova, i ricercatori hanno dimostrato come i cicli mestruali di 176 donne che ne avessero registrato l’inizio per almeno due anni fossero sincronizzati con il ciclo lunare in modo molto evidente fino al 2010, anno dell’introduzione massiva di illuminazione a LED in Europa, che si è aggiunta all’utilizzo diffuso di smartphone.

Con l’aumento cospicuo dell’inquinamento luminoso, dal 2010 in poi, tale sincronizzazione si osserva prevalentemente nel mese di gennaio, quando le forze gravitazionali esercitate dal sistema Sole-Terra-Luna sono più forti. Di questo i ricercatori hanno trovato conferma anche analizzando l’andamento temporale di ricerche internet pertinenti (ad esempio “dolore mestruale”) con Google Trends, uno strumento che consente di valutare l’interesse nel tempo e in diverse regioni per specifici argomenti.

«Sembra quindi probabile che la crescente esposizione notturna alla luce artificiale interferisca con la sincronizzazione con i cicli lunari di luminanza – spiega Sara Montagnese –. Complessivamente, la sincronizzazione tra il ciclo mestruale femminile e i cicli lunari è quindi ridotta rispetto al passato e rimane rilevabile prevalentemente nei periodi in cui le forze gravitazionali nel sistema Sole-Terra-Luna sono più intense».

La luce artificiale non solo “oscura” la luce naturale della luna, ma tende anche ad accorciare la durata del ciclo mestruale, collegata all’età e alla fertilità femminile: i risultati appena pubblicati potrebbero avere implicazioni importanti non solo per la fisiologia e il comportamento, ma anche per la fertilità e soprattutto la nota riduzione della stessa nel mondo occidentale.

Sara Montagnese, autrice dello studio su ciclo mestruale e la luna, pubblicato su Science Advances
Sara Montagnese, autrice dello studio su ciclo mestruale e la luna, pubblicato su Science Advances

Riferimenti bibliografici:

Charlotte Helfrich-Förster et al., Synchronization of women’s menstruation with the Moon has decreased but remains detectable when gravitational pull is strong, Sci. Adv. 11, eadw4096 (2025), DOI: 10.1126/sciadv.adw4096

 

Testo e immagini dall’Ufficio Stampa dell’Università di Padova

Prebunking: il debunking preventivo sulle elezioni può contribuire a ricostruire la fiducia nel processo elettorale 

Comunque la si pensi, viviamo tempi interessanti ma certo non facili: i conflitti sembrano aumentare sanguinosi non solo tra Stati, ma anche all’interno degli stessi. Comunque la si veda, si diceva, perché poi sulle macerie della fiducia, dei principi condivisi e della coesistenza sociale qualcuno in ogni caso dovrà governare.

A rischio è pure l’integrità del processo elettorale, uno degli elementi alla base dell’alternanza, dei principi democratici e della convivenza nella società civile. È successo con le elezioni negli Stati Uniti del 2020 e quelle del 2022 in Brasile: in entrambi i casi, a seguito della sconfitta, è stato messo in discussione il processo elettorale stesso, con la diffusione di accuse di frode elettorale contro i vincitori. Un problema che appare più attuale che mai, con la prospettiva delle elezioni prossime venture.

Un nuovo articolo, pubblicato sulla rivista Science Advances, parte proprio dai due suddetti eventi paralleli, mostrando meccanismi efficaci nel combattere la disinformazione e nel ripristinare la fiducia nel processo elettorale stesso.

In tal senso, la ricerca ha preso in esame due approcci diversi, entrambi accomunati dal fornire comunque informazioni corrette:

  • prebunking, ovvero la condivisione di informazioni fattuali prima del verificarsi dei fenomeni di disinformazione;
  • le correzioni da fonti credibili, sulla base della situazione di riferimento, ovvero quando vengono da chi appartiene al proprio punto di vista e parla contro i propri interessi particolari.

Entrambi gli approcci, pur partendo da meccanismi psicologici differenti, si sono dimostrati efficaci nel contrastare le affermazioni false.

Differentemente dal debunking, che avviene dopo la campagna di disinformazione e che ha dimostrato avere un’efficacia limitata, il prebunking agisce prima e informa brevemente delle cospirazioni circolanti. Una sorta di vaccino contro le stesse. Una particolare forma di prebunking, denominata inoculazione (incidentalmente, un termine abusato da chi sparge disinformazione, con tutt’altro valore) mette ad esempio in guardia preventivamente, rispetto a determinati problemi o tecniche retoriche.

Nel caso delle correzioni da fonti credibili, la campagna di disinformazione è già avvenuta: in casi del genere, chi magari è della stessa fazione politica e parla contro i propri interessi, può più facilmente convincere a non seguire il leader del proprio gruppo, in difesa dell’integrità del processo elettorale.

Lo studio non è andato ad esaminare questi approcci in relazione ad altri fattori demografici. A parere di chi scrive, sarebbe stato interessante vedere i risultati, ad esempio, rispetto a chi ha alle spalle studi di diritto o altre materie correlate, quando la disinformazione in ambito elettorale tocca temi sui quali c’è una competenza acquisita. D’altra parte – come spiegato da Brendan J. Nyhan alla stampa – in letteratura ci sono studi che ci mostrano come in questi casi ci possano essere sorprese.

Gli autori della ricerca su Science Advances hanno quindi effettuato tre studi per mettere alla prova i risultati di prebunking e correzioni da fonti credibili da un punto di vista quantitativo.
Il primo studio ha riguardato 2.643 persone in prospettiva delle elezioni Midterm del 2022 e ha impiegato i due approcci. Il secondo studio si è similmente svolto in Brasile, coinvolgendo 2.949 persone dopo le elezioni del 2022.
In questi due contesti, nei quali la fiducia nel processo elettorale è stata messa in discussione anche con campagne di disinformazione, entrambi gli approcci hanno mostrato di funzionare, ma in particolare il prebunking, che ha prodotto risultati apparentemente duraturi.

Un terzo studio ha coinvolto 2.030 persone e ha voluto verificare – negli Stati Uniti – come funzionasse un messaggio di avviso che condivideva le cospirazioni. Messi a confronto, il prebunking senza esposizione alle cospirazioni ha dimostrato di funzionare meglio, probabilmente perché l’esposizione alle cospirazioni potrebbe aver introdotto dello scetticismo rispetto agli elementi fattuali mostrati in seguito. Il prebunking con esposizione alle cospirazioni ha però migliorato il discernimento tra affermazioni vere e false. Fondamentale sembra invece essere il contenuto fattuale fornito contro la disinformazione, piuttosto che il messaggio di avviso. Entrambe le tattiche hanno funzionato meglio con chi era maggiormente disinformato.

Una delle autrici della ricerca, Natalia Bueno, ha commentato che entrambi gli approcci si sono rivelati promettenti, essendo pratici, efficienti e scalabili, oltre che poco costosi.

In tutta onestà, per quanto siano passati solo pochissimi anni dagli eventi oggetto della ricerca, sembrano essere passate ere geologiche nell’attuale politica statunitense e si potrebbe far fatica ad essere così ottimisti. Questo anche in considerazione del fatto che il secondo degli strumenti in oggetto, quello delle correzioni da fonti credibili, è stato ampiamente utilizzato negli anni successivi al 2020 e pure durante le ultime presidenziali. Vero è che tra i due strumenti sarebbe stato quello dai risultati meno duraturi.
Oppure si tratta semplicemente di una questione meramente quantitativa, di forze in campo e di peso di questi elementi nelle decisioni.

Prebunking: come il debunking preventivo sulle elezioni può contribuire a ricostruire la fiducia nel processo elettorale. Immagini dall’attacco del 6 Gennaio 2021 a Capitol Hill. Foto Flickr di Tyler Merbler, CC BY 2.0

Riferimenti bibliografici:

John M. Carey, Brian Fogarty, Marília Gehrke, Brendan Nyhan, Jason Reifler, Prebunking and credible source corrections increase election credibility: Evidence from the US and Brazil, Science Advances, DOI: 10.1126/sciadv.adv3758

La strada dell’immunoterapia per combattere il tumore alla mammella

I risultati di uno studio condotto dal CNR-IEOS e dall’Università Federico II di Napoli hanno individuato nei linfociti T regolatori (Treg) – un particolare tipo di cellule del sistema immunitario – un bersaglio da colpire per consentire al nostro organismo di riattivare la risposta antitumorale e distruggere il carcinoma mammario. I risultati della ricerca, sostenuta da Fondazione AIRC per la ricerca sul cancro, sono stati pubblicati sulla rivista Science Advances.

 

I dati di uno studio svolto congiuntamente da ricercatori dell’Istituto per l’endocrinologia e l’oncologia sperimentale del Consiglio nazionale delle ricerche (CNR-IEOS) e dell’Università Federico II di Napoli aggiungono un importante tassello alla comprensione delle complesse interazioni tra il sistema immunitario e il tumore alla mammellaaprendo la strada allo sviluppo di nuove strategie per la prognosi e la cura di questa patologia.

Il gruppo è stato coordinato da Veronica De Rosa, immunologa del CNR-IEOS, in collaborazione con Francesca di Rella dell’Istituto Nazionale Tumori Fondazione Pascale, Antonio Pezone e Irene Cantone, afferenti rispettivamente al Dipartimento di Biologia e al Dipartimento di Medicina Molecolare e Biotecnologie Mediche dell’ateneo federiciano. I ricercatori hanno scoperto il ruolo prognostico di un particolare tipo di cellule del sistema immunitario nel carcinoma mammario, noti come linfociti T regolatori (in breve, Treg). Tali cellule sono presenti ad alte concentrazioni sia nei tumori primari sia nel sangue delle donne con una prognosi più sfavorevole, e sono inoltre associate allo sviluppo di microambienti tumorali particolarmente aggressivi. In condizioni normali i linfociti Treg sono deputati al controllo delle risposte immunitarie dell’organismo, mantenendone l’equilibrio; ma in questi tipi di cancro possono essere un bersaglio importante di cura: se eliminate selettivamente, infatti, il carcinoma mammario può essere distrutto in maniera efficace.

I risultati, pubblicati sulla rivista Science Advances, sono emersi nel corso di uno studio iniziato nel 2016 grazie al sostegno ottenuto nell’ambito del bando TRIDEO cofinanziato da Fondazione AIRC per la ricerca su cancro e da Fondazione Cariplo. Spiega Veronica De Rosa (CNR-IEOS):

“I linfociti Treg svolgono un ruolo cruciale nel decorso dei tumori e in particolar modo del carcinoma mammario. Essi, infatti, limitano la risposta immunitaria antitumorale attraverso l’espressione di molecole di superficie inibitorie, note con il nome di checkpoint. Ciò in pratica favorisce la progressione e la successiva metastatizzazione del tumore. Tuttavia, se i linfociti Treg sono bloccati, soprattutto nelle fasi iniziali della malattia, ciò potrebbe permettere al sistema immunitario di riattivarsi per distruggere il tumore. Questo è proprio il principio su cui si basa l’immunoterapia, che molto spesso ha proprio i linfociti Treg quale bersaglio terapeutico”.

La messa a punto di una strategia basata sull’eliminazione delle cellule Treg al fine di indurre o incrementare la risposta immunitaria antitumorale è, tuttavia, particolarmente complessa.

“Numerose sperimentazioni cliniche in corso perseguono questo obiettivo. Tuttavia, i linfociti Treg non sono tutti uguali. Proprio la loro eterogeneità rende difficile identificare marcatori specifici con cui discriminare le Treg presenti nel sangue, importanti per mantenere una corretta funzione immunitaria, da quelle presenti all’interno del tumore e che gli consentono di crescere”, aggiunge la ricercatrice.

“Il nostro gruppo di ricerca ha dimostrato che i tumori primari di donne affette da carcinoma mammario ormono-positivo presentano una maggiore quantità di linfociti Treg che esprimono una variante della proteina FOXP3 (FOXP3E2). Misurando la loro frequenza nel sangue con la tecnica della biopsia liquida, siamo stati in grado di predire la prognosi delle pazienti già al momento della diagnosi”.

Lo studio è stato possibile grazie al contributo di Francesca di Rella, oncologa presso l’Istituto Nazionale Tumori Fondazione Pascale, e di Antonello Accurso, chirurgo oncologo dell’Università Federico II di Napoli: negli ultimi cinque anni in entrambi i centri sono state arruolate nello studio clinico pazienti con carcinoma mammario in fase precoce, prima che iniziassero la terapia.

Inoltre, l’analisi computazionale di una banca dati nota come The Cancer Genome Atlas (TCGA) su circa mille pazienti è stata condotta da Antonio Pezone, patologo molecolare, e da Irene Cantone, genetista. Le loro analisi hanno confermato che misurando i linfociti Treg che esprimono FOXP3E2 all’interno del tessuto tumorale è possibile anticipare fino a vent’anni sia la prognosi sia le possibili ricadute non solo nelle donne con carcinoma mammario (di tutti i sottotipi), ma anche in pazienti affetti da carcinoma papillare renale, carcinoma a cellule squamose della cervice e adenocarcinoma polmonare.

I risultati ottenuti, se confermati in studi clinici più ampi, potrebbero permettere di sviluppare nuovi marcatori prognostici e predittivi e di individuare bersagli terapeutici altamente specifici, con l’obiettivo di migliorare la vita delle persone malate di cancro.

Mutazioni BRCA
La strada dell’immunoterapia per combattere il tumore alla mammella, lo studio pubblicato su Science Advances. Foto di RyanMcGuire

 

Testo dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

Un nuovo approccio fotonico alla manipolazione della casualità nei computer quantistici
Un gruppo di ricercatori guidati dal Quantum Lab group della Sapienza Università di Roma ha sviluppato nuove configurazioni per la manipolazione delle variabili casuali in computer quantistici fotonici. I risultati, contenuti in due paper di recente pubblicazione, sono stati ottenuti nell’ambito di ICSC – Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing e dei progetti europei “PHOQUSING – PHotonic QUantum SamplING Machine” e “QU-BOSS”.

Sfruttare le caratteristiche dei computer quantistici, come quella di rappresentare ed elaborare contemporaneamente stati di informazioni diversi grazie ai qubit, per riuscire a generare in maniera più efficace serie di numeri casuali costituisce un requisito fondamentale per avere delle applicazioni vantaggiose nei contesti di simulazione computazionale di sistemi fisici come nella crittografia. Questo è quanto sostenuto in due studi svolti nell’ambito di ICSC – Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing e dei progetti europei “PHOQUSING – PHotonic QUantum SamplING Machine” e “QU-BOSS” dal gruppo Quantum Lab della Sapienza Università di Roma, in collaborazione con l’International Iberian Nanotechnology Labs (INL) e l’Istituto di Fotonica e Nanotecnologie – Consiglio Nazionale delle Ricerche (IFN-CNR). I risultati dei due lavori, apparsi di recente sulle prestigiose riviste scientifiche Nature Photonics e Science Advances, dimostrano come una piattaforma quantistica di tipo fotonico adeguatamente progettata e controllata sia in grado di implementare l’algoritmo della Bernoulli Factory. Quest’ultimo è un noto algoritmo utilizzato per la generazione di serie di variabili casuali, definendo così una nuova tecnica per la manipolazione delle variabili aleatorie che utilizza la meccanica quantistica chiamata “quantum-to-quantum Bernoulli Factory”.

Un nuovo approccio fotonico alla manipolazione della casualità nei computer quantistici; due studi su Nature Photonics e Science Advances. Gallery

Facendo ricorso all’esempio della serie di risultati derivanti dal lancio di una moneta, l’algoritmo Bernoulli factory, che svolge un ruolo centrale nell’integrazione numerica e nei metodi Monte Carlo utilizzati nei calcoli probabilistici, consente, a partire da una distribuzione di probabilità di lanci nota utilizzata in input, di generare come output lanci di moneta con una diversa distribuzione.

“Se abbiamo per esempio come obiettivo quello di creare una nuova moneta che mostri testa con una probabilità diversa da quella nota rivelata dai lanci effettuati”, spiega Fabio Sciarrino, responsabile del Quantum Lab group della Sapienza e responsabile della piattaforma fotonica per lo Spoke 10 ‘Quantum Computing’ di ICSC, “ l’algoritmo della Bernoulli factory ci permette astutamente di lanciare la moneta originale più volte e di sfruttare i vari risultati per simulare i lanci di una nuova moneta con la distribuzione di probabilità desiderata. Nel quadro della meccanica quantistica, questo procedimento è stato tradotto codificando le distribuzioni di probabilità come stati quantistici sia in input che in output. Da qui il nome ‘quantum-to-quantum Bernoulli factory’.

Le caratteristiche uniche delle Bernoulli factory hanno quindi spinto la collaborazione tra i gruppi di ricerca autori dei due studi a esplorare vari metodi per implementare queste ‘fabbriche di casualità’ realizzando piattaforme ottiche all’interno delle quali, modificando la configurazione dei circuiti, è stato possibile far evolvere nella maniera voluta la dinamica dei fotoni e degli stati di informazione quantistica di cui sono portatori. Dato il comportamento statistico che li caratterizza, l’evoluzione dei fotoni all’interno di questi dispositivi riesce perciò a generare più efficacemente una distribuzione di risultati casuale rispetto a quanto possa fare una simulazione effettuata da un computer classico.

“Al fine di implementare gli algoritmi Bernoulli factory”, prosegue Sciarrino, “abbiamo sviluppato due piattaforme che manipolano distinti gradi di libertà degli stati a singolo fotone. La prima, sviluppata in collaborazione con INL e IFN-CNR e che ha portato alla pubblicazione dell’articolo su Nature Photonics, lavora con i cosiddetti qubit codificati nel cammino, in cui l’informazione è scritta nel percorso di ciascun fotone. Ciò è stata reso possibile grazie all’elevato controllo e precisione ottenibile nella programmazione dei circuiti fotonici integrati in vetro realizzati da CNR-IFN, la riproducibilità dei quali è garantita dai sistemi automatizzati adottati, che agevolano l’utilizzo di questi dispositivi anche per l’implementazione di algoritmi con complessità maggiori. Nella seconda piattaforma, sviluppata in collaborazione con INL, i qubit sono invece codificati negli stati di polarizzazione di singoli fotoni. Con entrambe le piattaforme siamo stati in grado dimostrare tutti i passaggi necessari per realizzare genuini algoritmi di Bernoulli Factory quantistiche.”

Questi progressi rappresentano passi in avanti significativi nell’ambito di ricerca volto a comprendere come elaborare l’informazione sfruttando le proprietà quantistiche della luce. Le quantum-to-quantum Bernoulli Factories rappresentano inoltre un’ulteriore prova a favore dei vantaggi che i dispositivi quantistici possono garantire rispetto ai loro omologhi classici. Sfruttando le proprietà uniche della luce quantistica, i ricercatori potranno infatti ricercare nuove possibilità per un calcolo efficiente e una sofisticata manipolazione delle variabili casuali, aprendo la strada ad applicazioni innovative in vari campi, dalla crittografia, al calcolo e alla simulazione.

“Da un lato, l’architettura utilizzata per la codifica su percorso dei qubit, che vengono manipolati attraverso dispositivi di ottica integrata, rappresenta la soluzione ideale per l’implementazione delle Bernoulli Factories nel contesto della computazione quantistica, potendo per esempio essere impiegata come componente di un hardware fotonico quantistico più complesso” commenta Francesco Hoch, post-doc e primo autore dell’articolo su Nature Photonics. “Dall’altro lato, la seconda piattaforma che opera sugli stati di polarizzazione dei fotoni, realizzata attraverso elementi ottici che operano sia in aria che in fibra, risulta particolarmente adatta per interfacciare il dispositivo con le reti quantistiche e, più in generale, con i complessi protocolli di comunicazione e crittografia quantistica esistenti”, conclude Giovanni Rodari, dottorando e primo autore dell’articolo su Science Advances.

APPROFONDIMENTI:
Quantum Lab – Dipartimento di Fisica, Sapienza
www.quantumlab.itICSC – Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing
https://www.supercomputing-icsc.it/en/icsc-home/F. Hoch, et al., Modular quantum-to-quantum Bernoulli factory in an integrated photonic processor, Nature Photonics (2024).
https://www.nature.com/articles/s41566-024-01526-8G. Rodari, et al. Polarization-encoded photonic quantum-to-quantum Bernoulli factory based on a quantum dot source, Science Advances 10, 30 (2024).
https://www.science.org/doi/10.1126/sciadv.ado6244

Testo e foto dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma e dall’Ufficio Comunicazione ICSC – Centro Nazionale di Ricerca in HPC, Big Data e Quantum Computing

Somiglianze e differenze interculturali fra musica e linguaggio parlato

Uno studio internazionale che ha coinvolto ricercatori di 46 paesi, fra cui un team della Sapienza Università di Roma, ha analizzato le relazioni tra parole, canzoni e musica strumentale nelle varie culture del globo. I risultati, pubblicati su Science Advances, suggeriscono una maggiore regolarità della musica rispetto alla lingua parlata, legata alla formazione di legami sociali attraverso l’esecuzione collettiva.

Nonostante musica e linguaggio siano presenti in ogni società umana, fino ad oggi le somiglianze e le differenze tra lingua parlata, canzoni e composizioni strumentali non erano state oggetto di un confronto analitico.

Un nuovo studio internazionale che ha coinvolto 75 ricercatori provenienti da 46 paesi, fra cui un team della Sapienza Università di Roma, ha analizzato le relazioni tra parole, canzoni e musica strumentale nelle varie culture del globo, portando alla luce come, salvo rare eccezioni, i ritmi delle canzoni e delle melodie strumentali siano più lenti di quelli del parlato, mentre le frequenze della musica sono più alte e più stabili.

Secondo lo studio pubblicato su Science Advances, questa differenza potrebbe avere una spiegazione di natura sociale: la maggiore regolarità del canto favorisce la sincronizzazione e attraverso di essa i legami sociali, per esempio attraverso l’esecuzione corale in grandi gruppi. L’intento finale è quello di fare luce sull’evoluzione culturale e biologica di due sistemi tipicamente umani, il linguaggio e la musica.

Attingendo alle reti accademiche per una portata globale sono stati reclutati ricercatori in Asia, Africa, America, Europa e Oceania per cantare, eseguire brani strumentali, recitare testi e descrivere canzoni, fornendo campioni audio da analizzare per caratteristiche quali intonazione, timbro e ritmo. Le lingue dei partecipanti, includevano italiano, fiammingo, yoruba, mandarino, hindi, ebraico, arabo, ucraino, russo, balinese, cherokee, kannada, spagnolo, aynu, per un totale di 55 rappresentate.

Nel team della Sapienza Andrea Ravignani ha suonato il suo sassofono tenore e ha cantato in italiano, mentre Yannick Jadoul ha suonato il piano e cantato in fiammingo.

“È sorprendente vedere ricercatori delle scienze sociali, umane e naturali lavorare insieme su un obiettivo comune, ciascuno fornendo un pezzo del puzzle in base alle proprie competenze” commenta Andrea Ravignani.

Gli estratti audio raccolti sono stati analizzati digitalmente, ottenendo conferma di alcune ipotesi precedentemente formulate: rispetto al parlato, il canto utilizza una tonalità più alta e più stabile e un ritmo più lento mentre i due linguaggi si equivalgono in termini di intervalli tra tonalità diverse e brillantezza del timbro.

“Questa ricerca mostra il potenziale dell’unione tra i metodi computazionali avanzati per l’analisi acustica, una delle mie aree di ricerca, e le insostituibili conoscenze delle discipline umanistiche e delle scienze sociali” spiega Yannick Jadoul.

 

Riferimenti bibliografici: 

Yuto Ozaki, Adam Tierney et al., Globally, songs and instrumental melodies are slower and higher and use more stable pitches than speech: A Registered Report, Science Advances, DOI: 10.1126/sciadv.adm9797

musica linguaggio parlato
Somiglianze e differenze interculturali fra musica e linguaggio parlato al centro di un nuovo studio su Science Advances. Foto di Lee Murry

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

LINGUAGGIO DELLA MAMMA E CERVELLO DEI NEONATI

Dallo studio dell’Università di Padova pubblicato su Science Advances si evince che il cervello del neonato sembra essere strutturato per ricordare e rispondere in modo diverso alla lingua che ha ascoltato già prima della nascita. Questa risposta “forte” indica una sorta di “privilegio” linguistico che modella le prime fasi dell’apprendimento del linguaggio.

Sappiamo per esperienza che è molto più facile imparare una lingua da bambini che da adulti e lo studio delle cosiddette “finestre di opportunità” dimostra che i primi mesi e anni di sviluppo sono fondamentali per l’acquisizione del linguaggio. Imparare una seconda lingua da adulti è molto più difficile, inoltre l’acquisizione del linguaggio inizia già durante il periodo di gravidanza durante il quale il feto può sentire il suono che si propaga – benché distorto – all’ interno del grembo materno. I bambini, quindi, hanno già avuto una certa esposizione alla lingua parlata dalla loro mamma anche prima di nascere.

Nello studio dal titolo Prenatal experience with language shapes the brain pubblicato su Science Advances i ricercatori hanno indagato quanto il cervello dei neonati sia influenzato da questa precedente esposizione al linguaggio.

«Ci siamo chiesti – affermano gli autori della ricerca – come cambia l’attività del cervello dei neonati dopo aver sentito delle frasi nella loro lingua o in altre lingue e abbiamo ipotizzato che questi cambiamenti siano la base neurale dell’apprendimento della lingua madre. Siamo quindi passati a misurare l’attività neurale dei neonati mentre ascoltavano frasi in francese, la loro lingua madre, così come in spagnolo e inglese, due lingue sconosciute. Tutto questo mediante l’elettroencefalografia, una tecnica standard di misurazione dell’attività neuronale. Il nostro studio mostra che l’attività neuronale è più complessa dopo l’esposizione alla lingua materna e conserva una memoria delle risposte neuronali date in passato. Infatti, queste risposte diventano più frequenti».

Per misurare questa forma di complessità nel dominio temporale abbiamo utilizzato una tecnica chiamata Detrended Fluctuation Analysis (DFA) che aiuta a capire quanto bene un sistema “ricorda” ciò che è successo prima e lo fa misurando quanto un processo sia simile a sé stesso a diverse scale di tempo. Possiamo chiamare auto-similare un processo in cui piccole variazioni si ripresentano allo stesso modo anche su scale temporali più lunghe (come quando una melodia si ripete in modo riconoscibile); all’opposto processi completamente aleatori (come i numeri generati dal lancio di un dado) non mostrano nessun tipo di regolarità, o memoria, e quindi hanno una complessità minore nella loro struttura temporale.

Il risultato principale della DFA è un numero α, chiamato “esponente di Hurst”: è questo α a contenere la chiave della “memoria” del segnale neuronale. Più grande è α per un segnale, più le esperienze passate influenzano ciò che accade dopo il che corrisponde a processi. Più grande è α per un segnale, più le esperienze passate influenzano ciò che accade dopo il che corrisponde a processi neuronali più complessi.

«Abbiamo scoperto che quando a un neonato viene fatto ascoltare il linguaggio a cui è stato esposto durante la gravidanza, la sua attività cerebrale mostra un picco di α, cosa che non accade quando invece la lingua è diversa. Questo fatto – dice Judit Gervain del Dipartimento di Psicologia dello Sviluppo e della Socializzazione dell’Università di Padova – indica che nel cervello dei neonati, l’esposizione alla lingua materna innesca processi cerebrali di natura complessa, dinamiche neuronali che probabilmente sono associate all’elaborazione e apprendimento della lingua. Questi processi sono molto meno forti quando i neonati sentono un’altra lingua, e possiamo concludere che siano stati generati ed evoluti durante lo sviluppo prenatale. In altre parole, il cervello del neonato sembra essere strutturato per ricordare e rispondere in modo diverso alla lingua che ha ascoltato già prima della nascita e questa maggiore risposta indica una sorta di “privilegio” linguistico che modella le prime fasi dell’apprendimento del linguaggio. Si tratta di una rivelazione – conclude la professoressa Gervain – che mette in luce la straordinaria capacità di adattamento del cervello, soprattutto in relazione con la grande complessità del linguaggio umano».

Judit Gervain
Judit Gervain, del Dipartimento di Psicologia dello Sviluppo e della Socializzazione dell’Università di Padova

Link alla ricerca: https://www.science.org/doi/10.1126/sciadv.adj3524

Titolo: “Prenatal experience with language shapes the brain” Science Advances 2023

Autori: Benedetta Mariani, Giorgio Nicoletti, Giacomo Barzon, Maria Clemencia Ortiz Barajas, Mohinish Shukla, Ramón Guevara, Samir Simon Suweis, Judit Gervain.

Testo e foto dall’Ufficio Stampa dell’Università di Padova sullo studio circa linguaggio della mamma e  cervello dei neonati.

Fisica quantistica: ora è possibile certificare le proprietà dei dispositivi ottici integrati programmabili

Un team di ricerca internazionale ha identificato nuove tecniche per quantificare le risorse computazionali fornite dalla meccanica quantistica nei dispositivi ottici.  Gli esperimenti, condotti presso il gruppo Quantum Lab del Dipartimento della Sapienza di Roma, hanno coinvolto anche l’Istituto di fotonica e nanotecnologie del Cnr. I risultati, pubblicati sulla rivista Science Advances, serviranno a implementare le future applicazioni nei campi della metrologia, crittografia e della computazione.

Foto del chip integrato, insieme all'elettronica di controllo. Speciali stati quantistici della luce, ovvero stati a singolo fotone, vengono inviati nel chip e manipolati attraverso le guide d'onda, in modo da certificare le proprietà quantistiche considerando porzioni sempre più grandi del chip
Foto del chip integrato, insieme all’elettronica di controllo. Speciali stati quantistici della luce, ovvero stati a singolo fotone, vengono inviati nel chip e manipolati attraverso le guide d’onda, in modo da certificare le proprietà quantistiche considerando porzioni sempre più grandi del chip

Man mano che i nuovi dispositivi quantistici crescono in dimensioni e complessità, risulta fondamentale sviluppare metodi affidabili per certificare e individuare le risorse quantistiche che forniscono un effettivo vantaggio computazionale, al fine di delineare il modo migliore di utilizzarle.

In un nuovo studio, pubblicato sulla rivista Science Advances è stato mostrato proprio come certificare le varie proprietà quantistiche di dispositivi fotonici integrati di crescente complessità.

Il risultato è frutto di una collaborazione scientifica di lunga data nel campo della certificazione quantistica tra la Sapienza di Roma, l’Istituto di fotonica e nanotecnologie del Consiglio nazionale delle ricerche di Milano (Cnr-Ifn), il Politecnico di Milano e il Laboratorio Internazionale di Nanotecnologia iberica (INL).

I circuiti ottici integrati programmabili sono tra le principali piattaforme candidate per l’elaborazione dell’informazione quantistica basata sui qubits. Essi infatti consentono da un lato di effettuare esperimenti finalizzati a verificare le proprietà fondamentali della meccanica quantistica, dall’altro di implementare i dispositivi per future applicazioni nel campo della metrologia, crittografia e della computazione.

Team Quantum Lab della Sapienza Università di Roma
Team Quantum Lab della Sapienza Università di Roma

Gli esperimenti, guidati da Fabio Sciarrino della Sapienza e condotti presso il gruppo Quantum Lab dell’Ateneo, hanno certificato la presenza di caratteristiche quantistiche autentiche come la contestualità e la coerenza in un circuito ottico integrato programmabile.

La metodologia seguita è stata quella sviluppata dal team teorico guidato da Ernesto Galvão dell’INL in Portogallo.

“L’utilizzo di un chip fotonico completamente integrato e programmabile migliora la precisione e la coerenza del processo di caratterizzazione, offrendo il potenziale per l’implementazione di questi dispositivi in applicazioni pratiche”, commenta il Dott. Roberto Osellame, direttore di ricerca presso CNR-IFN.

“Il nostro lavoro – aggiunge Taira Giordani, ricercatrice presso la Sapienza e membro del team Quantum Lab – è la prima applicazione sperimentale di tale tecnica per quantificare le risorse computazionali fornite dalla meccanica quantistica nei dispositivi ottici”.

Le tecniche sviluppate hanno permesso però di verificare anche il vantaggio quantistico in applicazioni pratiche come il quantum imaging. I sistemi di imaging, grazie a determinate correlazioni quantistiche, permettono di ottenere una risoluzione che supera i limiti dell’ottica classica, trovando applicazione in diversi campi della metrologia e dei sensori.

“I nostri risultati – conclude Fabio Sciarrino, capogruppo del Quantum Lab della Sapienza – motivano la ricerca per nuove tecniche per lo studio delle risorse non classiche. Ci aspettiamo che questo lavoro stimolerà la ricerca sulla futura certificazione di dispositivi ottici che sfruttano stati quantistici della luce sempre più complessi”.

Questa linea di ricerca è supportata dal National Quantum Science and Technology Institute (NQSTI), il finanziamento italiano per la ricerca fondamentale sulle tecnologie quantistiche, dall’ERC Advanced Grant QU-BOSS, dal progetto Horizon Europe FoQaCiA e dalla FCT – Fundação para a Ciência e a Tecnologia del Portogallo.

Rappresentazione del chip fotonico integrato programmabile utilizzato utilizzato nel lavoro. Le guide d'onda vengono create mediante la scrittura laser a femtosecondo sul vetro. Le operazioni del circuito sono controllate applicando correnti su vari resistori disposti sulla superficie del chip
ora è possibile certificare le proprietà dei dispositivi ottici integrati programmabili. Rappresentazione del chip fotonico integrato programmabile utilizzato utilizzato nel lavoro. Le guide d’onda vengono create mediante la scrittura laser a femtosecondo sul vetro. Le operazioni del circuito sono controllate applicando correnti su vari resistori disposti sulla superficie del chip

Riferimenti bibliografici:

Experimental certification of contextuality, coherence, and dimension in a programmable universal photonic processor – Giordani T, Wagner R, Esposito C, Camillini A, Hoch F, Carvacho G, Pentangelo C, Ceccarelli F, Piacentini S, Crespi A, Spagnolo N, Osellame R, Galvão EF, Sciarrino F. – Sci Adv. 2023. doi: 10.1126/sciadv.adj4249

 

Testo e immagini dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

A NOVE MESI I BAMBINI IMPARANO LA GRAMMATICA DALLA PROSODIA, CIO LA MELODIA DEL PARLATO

Pubblicato su Science Advances lo studio congiunto dei ricercatori delle Università di Padova e Barcellona che rivela come i bambini siano in grado di iniziare a imparare la grammatica della lingua molto prima di quanto si pensasse finora, già a nove mesi, e lo fanno prestando attenzione alla prosodia, cioè la melodia del linguaggio.

Il linguaggio umano ha un’incredibile forza espressiva. Ciò è dovuto alla nostra abilità di pronunciare frasi lunghe e complesse in cui le parole che sono correlate insieme possono essere talvolta molto distanti tra loro. Ad esempio comprendiamo benissimo che nella frase “Lei dorme bene”, “Lei” è il soggetto di “dorme”, ma è altrettanto vero che capiamo lo stesso legame nella frase “Lei, che non beve caffè, dorme bene” in cui le parole “Lei” e “dorme” sono separate da altre.

Gli adulti sono esperti con la lingua perciò non ci sorprende affatto che possano facilmente capire e produrre frasi come queste. Ma come funziona per i bambini molto piccoli, quelli che stanno appena imparando la lingua? Come fa il loro cervello a trovare le regolarità tra parole che sono separate da altre in una frase? Dato che ci sono infinite possibili parole che potrebbero star bene insieme, sembra un compito davvero arduo quello di tenere traccia di tutte le possibilità.

Fino ad ora i ricercatori pensavano che i bambini fossero in grado di imparare le relazioni tra parole distanti soltanto dopo il primo anno di età, cioè dopo aver iniziato a parlare. Un recente studio dal titolo “Prosodic cues enhance infants’ sensitivity to nonadjacent regularities”, pubblicato sulla rivista «Science Advances», dimostra invece che i bambini sono in grado di imparare queste relazioni già a nove mesi.

La ricerca, condotta da Ruth de Diego Balaguer e Ferran Pons dell’Istituto di Neuroscienze dell’Università di Barcellona, in collaborazione con Anna Martinez-Alvarez e Judit Gervain, dell’Università di Padova e del CNRS di Parigi, mostra come il cervello sia già sensibile a queste regolarità all’età di 9 mesi. La pubblicazione suggerisce che i bambini siano in grado di risolvere questo compito principalmente ascoltando molto attentamente la prosodia, cioè la melodia del linguaggio. Attraverso le osservazioni del loro comportamento e monitorando le risposte cerebrali i ricercatori hanno notato che quando le parole, tra loro dipendenti, venivano pronunciate con una tonalità più alta – marcate cioè con l’intonazione – i bambini riuscivano a capire meglio le dipendenze tra le parole distanti.

«Lo studio suggerisce – dice Judit Gervain del Dipartimento di Psicologia dello Sviluppo e della Socializzazione dell’Università di Padova – che i bambini siano in grado di iniziare a imparare la grammatica della lingua molto prima di quanto si pensasse finora, e che lo fanno prestando attenzione alla sonorità del linguaggio.

Judit Gervain
Judit Gervain

Gli autori hanno esaminato la sensibilità di bambini di 9 mesi alle dipendenze non adiacenti, quindi alle dipendenze come quella tra il soggetto “I bambini” e il verbo “giocano” in una frase come “I bambini della vicina di mia nonna giocano nel giardino”, dove il soggetto e il verbo sono separati da altre parole. Invece di usare una vera lingua, i ricercatori hanno creato una lingua inventatacomposta di sequenze trisillabiche secondo la struttura AXB, in cui le sillabe A e B predicevano l’uno l’altro, mentre X variava ogni volta, per esempio “petabu” oppure “pegobu”. Non solo, hanno modulato la stessa lingua inventata in due varianti: la prima in cui le sillabe contenenti le dipendenze avevano una modulazione più acuta (intonata), l’altra in cui l’intonazione era identica in tutte le sillabe (monotona).

Per misurare le risposte in modo non invasivo, i ricercatori hanno impiegato la spettroscopia nel vicino infrarosso (near-infrared spectroscopy – NIRS). Questa tecnica analizza il modo in cui la luce infrarossa viene riflessa, che dipende dai cambiamenti nel consumo di ossigeno nel flusso sanguigno, per rilevare quali aree cerebrali rispondono alle diverse condizioni sperimentali.

Quando ai bambini veniva presentato un linguaggio monotono, cioè senza alcuna modulazione dell’intonazione, il loro cervello dimostrava un livello ridotto di apprendimento della dipendenza non adiacente. Quando invece la stessa frase veniva proposta nella lingua intonata, in particolare con una tonalità più alta che evidenziava le sillabe A e B collegate tra loro, le risposte neurali indicavano che i bambini erano in grado di imparare le dipendenze.

Questa selettività di recepimento delle dipendenze, attraverso la melodia, permette ai bambini piccoli di imparare la lingua in modo efficiente già prima del loro primo compleanno e che già, in tenerissima età, sono dotati di potenti meccanismi di apprendimento.

Questo studio indica che se una rudimentale sensibilità alle regolarità non-adiacenti potrebbe essere presente già a 9 mesi, un apprendimento robusto e affidabile può essere raggiunto a questa età solo quando sono presenti informazioni melodiche che aiutano il cervello dei bambini a rilevare le parole che costituiscono una dipendenza non-adiacente.

Questi risultati gettano luce sulla comprensione del ruolo della prosodia nell’acquisizione del linguaggio e forniscono evidenza dell’impatto cruciale che hanno i cambiamenti anche sottili di intonazione nel processamento di informazioni statistiche nei bambini molto piccoli.

grammatica linguaggio nove mesi bambino
A nove mesi i bambini imparano la grammatica dalla prosodia. Foto di Lisa Runnels

Link alla ricercahttps://www.science.org/doi/10.1126/sciadv.ade4083

Titolo: “Prosodic cues enhance infants’ sensitivity to nonadjacent regularities” – «Science Advances» 2023

Autori: Anna Martinez-Alvarez, Judit Gervain, Elena Koulaguina, Ferran Pons, Ruth de Diego-Balaguer

Testo e immagini (ove non indicato diversamente) dall’Ufficio Stampa dell’Università di Padova sullo studio congiunto che dimostra come a nove mesi i bambini imparino la grammatica dalla prosodia.

STUDIO VIMM-UNIVERSITÀ DI PADOVA SVELA NUOVI PASSI NELLA SCOPERTA DEI MECCANISMI DI TOSSICITÀ ALLA BASE DELLA MALATTIA DI KENNEDY 

Pubblicato su Science Advances il lavoro di ricerca coordinato dalla Prof.ssa Maria Pennuto (VIMM e Università di Padova) sulla malattia di Kennedy dovuta ad una mutazione del recettore degli androgeni che causa la perdita dei neuroni che permettono i movimenti volontari.

Nuovi passi nella scoperta dei meccanismi di tossicità alla base della malattia di Kennedy
Nuovi passi nella scoperta dei meccanismi di tossicità alla base della malattia di Kennedy

Recenti ricerche hanno rivelato che un individuo ogni sei persone è affetto da una malattia neurodegenerativa: una larga famiglia di disordini del sistema nervoso, che nelle forme più classiche si manifestano nell’adulto, sono progressive e con un decorso più o meno lento, ma inesorabile.

Parliamo di condizioni quali la malattia di Alzheimer, la malattia di Parkinson, le malattie del motoneurone e la malattia di Huntington. Tali malattie hanno manifestazioni cliniche diverse, che vanno da alterazioni cognitive a disturbi psichiatrici e problemi motori, e ciò risulta dal funzionamento alterato e dalla perdita di tipi diversi di neuroni nel cervello e nel midollo spinale.

Sebbene clinicamente diverse, le malattie neurodegenerative condividono diversi aspetti, tra cui quelle di essere patologie che si manifestano dopo i 40 o 50 anni di età nelle forme più canoniche, e di essere caratterizzate dall’accumulo di fibre tossiche di proteine dentro e fuori dai neuroni. Per di più sono accomunate da morte dei neuroni associata con infiammazione o attivazione dei processi di degenerazione che portano il neurone all’autodistruzione.

Nella maggior parte dei casi tali patologie sono sporadiche e non associate a mutazioni su geni specifici. In alcuni casi, queste patologie sono associate a mutazioni su geni diversi. Ed è proprio studiando tali forme genetiche che possiamo investigare i processi patologici che avvengono nei neuroni.

Nasce da qui lo studio coordinato dalla Prof.ssa Maria Pennuto – VIMM e Università di Padova – e condotto dalle ricercatrici Diana Piol e Laura Tosatto, che si è concentrato sullo studio della malattia di Kennedy, anche nota come atrofia muscolare spinale e bulbare (SBMA), causata dall’espansione di un tratto di poliglutammine nel gene che codifica il recettore degli androgeni.

Nello studio “Antagonistic effect of cyclin-dependent kinases and a calcium dependent phosphatase on polyglutamine-expanded androgen receptor toxic gain-of-function”, pubblicato su “Science Advances” si indaga sulla mutazione del recettore degli androgeni che causa la perdita di quei neuroni che ci permettono di effettuare tutti i movimenti volontari, dall’uso dei muscoli facciali alla deglutizione al muovere le gambe e le braccia.

I pazienti infatti sono via via costretti ad utilizzare supporti per camminare fino all’uso di sedie a rotelle a causa dell’affaticamento e dell’incapacità di muoversi. Studiando come il recettore degli androgeni funziona in condizioni normali e nella malattia, il gruppo di ricerca diretto dalla Prof.ssa Maria Pennuto ha dimostrato che la proteina mutata viene modificata da fattori cellulari, che aggiungono dei gruppi chimici o li tolgono. Tali modifiche avvengono sul recettore mutato in maniera più forte rispetto al recettore normale. Il gruppo di ricerca ha identificato i fattori responsabili di tali modifiche chimiche e quelli che le rimuovono. Se farmacologicamente o geneticamente si riduce l’attività di questi fattori, si assiste ad un miglioramento della funzionalità del recettore, dimostrando quindi la rilevanza di queste scoperte nel contesto della malattia di Kennedy. La ricerca condotta dal gruppo di Padova è stata effettuata in collaborazione con altri laboratori situati in Italia e all’estero.

Scopo dello studio è l’identificazione di nuovi target molecolari e l’ampliamento delle conoscenze nell’ambito delle malattie neurodegenerative.

“Questo studio ci ha permesso di chiarire che il recettore mutato va incontro alle stesse modifiche del recettore normale. Ciò che davvero cambia è l’entità di tali modifiche, che sono più forti nel caso del recettore mutato” Ha sottolineato Maria Pennuto, coordinatrice del progetto di ricerca. “E questo si traduce in un funzionamento non ottimale del recettore che quindi non riesce a compiere le funzioni che normalmente esegue nei neuroni e nelle cellule muscolari. L’identificazione dei fattori responsabili di tali modifiche potrà aiutare al raggiungimento di una migliore comprensione dei processi patologici che avvengono nel paziente, e in futuro porterà alla individuazione di nuovi bersagli terapeutici”.

Maria Pennuto
Maria Pennuto

Il progetto di ricerca della prof.ssa Maria Pennuto sulla malattia di Kennedy è iniziato nel 2013, quando ha ricevuto un finanziamento di oltre 500.000 euro da parte della Provincia Autonoma di Trento, nell’ambito del programma per le carriere dell’Istituto Telethon-Dulbecco (DTI), che le ha permesso di creare un gruppo di ricerca indipendente per lo studio di questa patologia.

MARIA PENNUTO

Maria Pennuto si è laureata con lode in Scienze Biologiche nel 1996 presso l’Università “La Sapienza” di Roma. Nel 2000 ha ottenuto il diploma di dottore di ricerca in “Biologia cellulare (Cellulare e Molecolare)” (XIII ciclo) presso l’Università degli Studi di Milano. Dal 2001 al 2004, ha svolto un post-dottorato nel laboratorio del Dr Lawrence Wrabetz (San Raffaele, Milano), dove ha investigato i meccanismi molecolari alla base della malattia della mielina periferica Charcot-Marie-Tooth tipo 1B. Nel 2005 si è recata presso il National Institute of Neurological Disorders and Stroke (National Institutes of Health, NIH, Bethesda, MD) negli USA, dove ha svolto attività di ricerca come visiting post-dottorato presso il laboratorio del Dr Kenneth Fischbeck, investigando i meccanismi molecolari alla base delle malattie del motoneurone. Nel 2008 ha ottenuto la posizione di Staff Scientist presso il Dipartimento di Neurologia della University of Pennsylvania (UPenn, Philadelphia, PA USA), dove ha continuato la propria attività di ricerca sulle malattie neurodegenerative.

Nel 2009 la Dr Pennuto è rientrata in Italia con una posizione di ricercatore indipendente presso il Dipartimento di “Neuroscience and Brain Technologies” dell’Istituto Italiano di Tecnologia di Genova. Qui ha diretto l’unità di ricerca sulle basi molecolari delle malattie neuromuscolari degenerative quali SBMA e SLA. Nel 2013 ha vinto il premio alla carriera Dulbecco Telethon (DTI) e ha ottenuto una posizione di Ricercatore di tipo B presso il Centro di Biologia Integrata dell’Università di Trento. Nel 2017 Maria ha ottenuto una posizione di Professore Associato presso l’Università degli Studi di Padova. A partire dal 2018 è vicedirettrice e capo unità presso l’Istituto Veneto di Medicina Molecolare (VIMM), Padova.

Testo e immagini dagli Uffici Stampa Istituto Veneto di Medicina Molecolare (VIMM) e Università degli Studi di Padova sui nuovi passi nella scoperta dei meccanismi di tossicità alla base della malattia di Kennedy.

LOFAR “FOTOGRAFA” IL GIGANTESCO BAGLIORE RADIO ATTORNO A UN AMMASSO DI GALASSIE, ABELL 2255

I dati sono stati raccolti durante 18 notti osservative con le migliaia di antenne che formano il radiotelescopio LOFAR.  L’origine dell’emissione radio attorno ad Abell 2255 sembra sia legata all’enorme energia rilasciata durante il processo di formazione dell’ammasso stesso. L’emissione sarebbe grande almeno 16 milioni di anni luce.

Sfruttando la potenza del radiotelescopio europeo Low Frequency Array (LOFAR), la più estesa rete al mondo attualmente operativa per osservazioni radioastronomiche a bassa frequenza, un team europeo di astronomi in Italia, Olanda e Germania ha osservato l’enorme emissione di onde radio diffusa intorno all’ammasso di galassie Abell 2255. Per 18 notti, le sensibili  antenne LOFAR hanno “ascoltato” un’area di cielo delle dimensioni apparenti di quattro lune piene, distante circa un miliardo di anni luce dalla Terra (in direzione della costellazione del Dragone). Per la prima volta gli astronomi hanno studiato un ammasso di galassie con osservazioni così profonde. Gli astrofisici, coordinati da Andrea Botteon, dell’Osservatorio di Leida, nei Paesi Bassi, recentemente trasferito al Dipartimento di Fisica e Astronomia “Augusto Righi” dell’Università di Bologna in qualità di assegnista di ricerca e associato presso l’INAF di Bologna, hanno pubblicato oggi i dati delle loro osservazioni sulla rivista Science Advances.

Abell 2255 LOFAR "fotografa" il gigantesco bagliore radio attorno all'ammasso di galassie Abell 2255
Immagine composita dell’ammasso di galassie Abell 2255. In blu sono evidenziati i dati a raggi X di ROSAT, che mostrano il gas caldo tra le galassie. In arancione e viola sono descritti i dati radio di LOFAR, che mostrano particelle in rapido movimento nei campi magnetici dell’ammasso. Il bagliore viola è l’emissione radio che circonda l’intero cluster. L’immagine ottica di sfondo è stata scattata con l’SDSS. L’immagine composita misura circa 18 milioni per 18 milioni di anni luce, e il campo visivo copre una regione del cielo corrispondente a circa quattro lune piene. Crediti: ROSAT/LOFAR/SDSS/Botteon et al., immagine creata da Frits Sweijen

Oggetti molto interessanti per gli astrofisici, gli ammassi di galassie si trovano nelle regioni più dense dell’Universo e contengono da centinaia a migliaia di galassie. Il volume tra le galassie è permeato da un gas estremamente rarefatto di particelle ad alta energia mescolate a campi magnetici. La loro origine è ancora avvolta da molti interrogativi: da dove vengono le particelle più energetiche in questo gas? E come interagiscono con i campi magnetici degli ammassi?

“Abbiamo scoperto che Abell 2255 è avvolto da un debole bagliore di emissione radio che incorpora migliaia di galassie presenti nell’ammasso e si estende su grandi scale come mai fino ad ora osservato, ovvero almeno 16 milioni di anni luce”, afferma Botteon, autore principale dello studio. “Questa emissione è generata da particelle ad alta energia che si muovono a velocità prossime a quella della luce in deboli campi magnetici – un milione di volte più deboli del campo terrestre – che riempiono l’intero volume dell’ammasso, anche nelle sue regioni più periferiche”.

Il ricercatore spiega, che “è la prima volta che abbiamo informazioni dettagliate sulla distribuzione e le proprietà di questi componenti su così vaste estensioni e che possiamo studiare i processi fisici che si verificano a grandi distanze dal centro dell’ammasso, nelle regioni più rarefatte dell’Universo. Riteniamo che l’origine dell’emissione radio in Abell 2255 sia legata all’enorme energia rilasciata durante il processo di formazione dell’ammasso”.

Le immagini ottenute dal gruppo di ricerca sono 25 volte più nitide e hanno un rumore 60 volte inferiore rispetto ai dati ottenuti in passato con altri strumenti. Nel corso degli ultimi due anni, il team ha dovuto sviluppare nuove e avanzate tecniche di analisi per elaborare il grande volume di dati.

“La sfida dell’analisi delle osservazioni di Abell 2255 – aggiunge Botteon – sta nel fatto che è la prima volta che osserviamo un oggetto esteso così a lungo (le osservazioni LOFAR tipicamente durano 8 ore). Questo richiede da un lato di correggere le distorsioni introdotte dalla ionosfera terrestre distribuite in un’area di cielo molto grande e dall’altro di ricostruire l’emissione diffusa e debole dell’ammasso con molta attenzione. Dato che le nostre osservazioni si spingono fino a frequenza molto bassa (50 MHz), dove le distorsioni della ionosfera si manifestano in maniera più evidente, le tecniche che abbiamo sviluppato hanno dovuto risolvere questi problemi in condizioni particolarmente complesse. Queste tecniche però hanno dato i loro frutti: l’immagine di Abell 2255 che abbiamo ottenuto a 50 MHz è l’immagine più profonda mai realizzata finora a questa frequenza”.

“Teoricamente credevamo che le regioni nelle periferie degli ammassi di galassie fossero molto attive e che la turbolenza e gli shock generati in questi ambienti potessero accelerare le particelle ad altissima energia e amplificare i campi magnetici locali. Grazie alle nostre osservazioni, ora siamo in grado di studiare questi processi in territori inesplorati”,

sottolinea Gianfranco Brunetti, dell’INAF di Bologna, il quale da alcuni anni guida a livello internazionale le ricerche LOFAR nell’ambito degli ammassi di galassie ed è coordinatore nazionale della collaborazione LOFAR.

Svelare le proprietà di regioni inesplorate delle strutture su larga scala del nostro Universo è l’obiettivo dei prossimi anni per gli astronomi che operano in questo campo. Per tale motivo, i ricercatori utilizzeranno LOFAR 2.0 e il futuro radiotelescopio SKA (così come altri strumenti) per andare oltre gli ammassi stessi, tracciando la rete di filamenti che collega gli ammassi di galassie nell’Universo: la famosa ragnatela cosmica.


 

Per ulteriori informazioni:

L’INAF ha aderito all’International LOFAR Telescope nel 2018. Con oltre 25 mila antenne raggruppate in 51 stazioni distribuite in 7 stati europei, il Low Frequency Array (LOFAR), gestito da ASTRON, è la più estesa rete per osservazioni radioastronomiche in bassa frequenza attualmente operativa. Con la firma del contratto per la realizzazione di una nuova stazione presso Medicina, in provincia di Bologna, LOFAR diventerà ancora più esteso e aumenteranno di conseguenza le sue capacità osservative. L’INAF guida un consorzio nazionale, di cui fa parte anche il dipartimento di fisica dell’Università di Torino, e parteciperà allo sviluppo della nuova generazione di dispositivi elettronici che equipaggeranno questo radiotelescopio diffuso sul territorio europeo. Il consorzio ha l’obiettivo di fornire agli scienziati italiani le condizioni per l’accesso e l’analisi dei dati di LOFAR, massimizzando l’impatto scientifico della ricerca. L’INAF gestisce, inoltre, l’infrastruttura computazionale nazionale per l’analisi dei dati LOFAR, distribuita in tre siti: Bologna, Trieste e Catania.

 

L’articolo “Magnetic fields and relativistic electrons fill entire galaxy cluster”, di Andrea Botteon,  Reinout J. van Weeren, Gianfranco Brunetti, Franco Vazza, Timothy W. Shimwell, Marcus Brüggen, Huub J. A. Röttgering, Francesco de Gasperin, Hiroki Akamatsu, Annalisa Bonafede, Rossella Cassano, Virginia Cuciti, Daniele Dallacasa, Gabriella Di Gennaro, Fabio Gastaldello, è stato pubblicato sulla rivista Science Advances.

Testo, video e foto dall’Ufficio stampa – Struttura per la Comunicazione Istituto Nazionale di Astrofisica (INAF)