News
Ad
Ad
Ad
Tag

Università di Napoli Federico II

Browsing

La strada dell’immunoterapia per combattere il tumore alla mammella

I risultati di uno studio condotto dal CNR-IEOS e dall’Università Federico II di Napoli hanno individuato nei linfociti T regolatori (Treg) – un particolare tipo di cellule del sistema immunitario – un bersaglio da colpire per consentire al nostro organismo di riattivare la risposta antitumorale e distruggere il carcinoma mammario. I risultati della ricerca, sostenuta da Fondazione AIRC per la ricerca sul cancro, sono stati pubblicati sulla rivista Science Advances.

 

I dati di uno studio svolto congiuntamente da ricercatori dell’Istituto per l’endocrinologia e l’oncologia sperimentale del Consiglio nazionale delle ricerche (CNR-IEOS) e dell’Università Federico II di Napoli aggiungono un importante tassello alla comprensione delle complesse interazioni tra il sistema immunitario e il tumore alla mammellaaprendo la strada allo sviluppo di nuove strategie per la prognosi e la cura di questa patologia.

Il gruppo è stato coordinato da Veronica De Rosa, immunologa del CNR-IEOS, in collaborazione con Francesca di Rella dell’Istituto Nazionale Tumori Fondazione Pascale, Antonio Pezone e Irene Cantone, afferenti rispettivamente al Dipartimento di Biologia e al Dipartimento di Medicina Molecolare e Biotecnologie Mediche dell’ateneo federiciano. I ricercatori hanno scoperto il ruolo prognostico di un particolare tipo di cellule del sistema immunitario nel carcinoma mammario, noti come linfociti T regolatori (in breve, Treg). Tali cellule sono presenti ad alte concentrazioni sia nei tumori primari sia nel sangue delle donne con una prognosi più sfavorevole, e sono inoltre associate allo sviluppo di microambienti tumorali particolarmente aggressivi. In condizioni normali i linfociti Treg sono deputati al controllo delle risposte immunitarie dell’organismo, mantenendone l’equilibrio; ma in questi tipi di cancro possono essere un bersaglio importante di cura: se eliminate selettivamente, infatti, il carcinoma mammario può essere distrutto in maniera efficace.

I risultati, pubblicati sulla rivista Science Advances, sono emersi nel corso di uno studio iniziato nel 2016 grazie al sostegno ottenuto nell’ambito del bando TRIDEO cofinanziato da Fondazione AIRC per la ricerca su cancro e da Fondazione Cariplo. Spiega Veronica De Rosa (CNR-IEOS):

“I linfociti Treg svolgono un ruolo cruciale nel decorso dei tumori e in particolar modo del carcinoma mammario. Essi, infatti, limitano la risposta immunitaria antitumorale attraverso l’espressione di molecole di superficie inibitorie, note con il nome di checkpoint. Ciò in pratica favorisce la progressione e la successiva metastatizzazione del tumore. Tuttavia, se i linfociti Treg sono bloccati, soprattutto nelle fasi iniziali della malattia, ciò potrebbe permettere al sistema immunitario di riattivarsi per distruggere il tumore. Questo è proprio il principio su cui si basa l’immunoterapia, che molto spesso ha proprio i linfociti Treg quale bersaglio terapeutico”.

La messa a punto di una strategia basata sull’eliminazione delle cellule Treg al fine di indurre o incrementare la risposta immunitaria antitumorale è, tuttavia, particolarmente complessa.

“Numerose sperimentazioni cliniche in corso perseguono questo obiettivo. Tuttavia, i linfociti Treg non sono tutti uguali. Proprio la loro eterogeneità rende difficile identificare marcatori specifici con cui discriminare le Treg presenti nel sangue, importanti per mantenere una corretta funzione immunitaria, da quelle presenti all’interno del tumore e che gli consentono di crescere”, aggiunge la ricercatrice.

“Il nostro gruppo di ricerca ha dimostrato che i tumori primari di donne affette da carcinoma mammario ormono-positivo presentano una maggiore quantità di linfociti Treg che esprimono una variante della proteina FOXP3 (FOXP3E2). Misurando la loro frequenza nel sangue con la tecnica della biopsia liquida, siamo stati in grado di predire la prognosi delle pazienti già al momento della diagnosi”.

Lo studio è stato possibile grazie al contributo di Francesca di Rella, oncologa presso l’Istituto Nazionale Tumori Fondazione Pascale, e di Antonello Accurso, chirurgo oncologo dell’Università Federico II di Napoli: negli ultimi cinque anni in entrambi i centri sono state arruolate nello studio clinico pazienti con carcinoma mammario in fase precoce, prima che iniziassero la terapia.

Inoltre, l’analisi computazionale di una banca dati nota come The Cancer Genome Atlas (TCGA) su circa mille pazienti è stata condotta da Antonio Pezone, patologo molecolare, e da Irene Cantone, genetista. Le loro analisi hanno confermato che misurando i linfociti Treg che esprimono FOXP3E2 all’interno del tessuto tumorale è possibile anticipare fino a vent’anni sia la prognosi sia le possibili ricadute non solo nelle donne con carcinoma mammario (di tutti i sottotipi), ma anche in pazienti affetti da carcinoma papillare renale, carcinoma a cellule squamose della cervice e adenocarcinoma polmonare.

I risultati ottenuti, se confermati in studi clinici più ampi, potrebbero permettere di sviluppare nuovi marcatori prognostici e predittivi e di individuare bersagli terapeutici altamente specifici, con l’obiettivo di migliorare la vita delle persone malate di cancro.

Mutazioni BRCA
La strada dell’immunoterapia per combattere il tumore alla mammella, lo studio pubblicato su Science Advances. Foto di RyanMcGuire

 

Testo dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

TERREMOTI | Lo studio sul ruolo delle acque accumulate negli acquiferi carsici offre nuovi spunti per l’analisi dell’attività sismica di un team di ricercatori di INGV, UNIPD, FEDERICO II e Acquedotto Pugliese ha investigato le relazioni tra effetti idrologici e processi crostali che rivelano le caratteristiche meccaniche delle rocce di faglia responsabili dei terremoti in Appennino

Uno studio recentemente pubblicato sulla rivista scientifica ‘Nature Communications’, intitolato “Non-linear elasticity, earthquake triggering and seasonal hydrological forcing along the Irpinia fault, Southern Italy” fornisce approfondimenti innovativi sui processi che collegano la variazione stagionale delle masse d’acqua, l’elasticità delle rocce crostali e l’attività sismica in Irpinia.

La ricerca, condotta nell’ambito del progetto multidisciplinare Pianeta Dinamico-MYBURP (Modulation of hYdrology on stress BUildup on the IRPinia Fault), è stata realizzata da un team di ricercatori dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV), dell’Università degli Studi di Padova, dell’Università degli Studi di Napoli Federico II e della società Acquedotto Pugliese.

“Il nostro studio ha rivelato come gli effetti idrologici influenzino le caratteristiche meccaniche del sistema di faglie in Irpinia e la distribuzione temporale della sua sismicità”, spiega Nicola D’Agostino, ricercatore dell’INGV e coordinatore del team di ricerca. “Per scoprirlo, abbiamo analizzato le variazioni stagionali di velocità delle onde sismiche nella crosta terrestre e le serie temporali di deformazione provenienti da una rete avanzata di stazioni sismiche e GNSS dell’Irpinia Near Fault Observatory e della Rete GNSS RING”.

 Analisi della sensitività (β) delle variazioni di velocità delle onde sismiche (δv/v) in funzione della deformazione orizzontale (strain). δv/v è stato misurato attraverso l'analisi temporale delle variazioni del rumore sismico ambientale mentre la deformazione è stata calcolata attraverso i dati delle stazioni della rete GNSS RING. β è un parametro significativo per definire la non-linearità delle proprietà elastiche della crosta terrestre e delle modalità di accumulo e rilascio della deformazione sismica nelle zone di faglia. In a) e b) sono mostrati i valori di δv/v e deformazione in funzione della fase annuale (a) e della velocità di deformazione (b). In c-h sono mostrate le variazioni di δv/v e deformazione per singole annualità
Analisi della sensitività (β) delle variazioni di velocità delle onde sismiche (δv/v) in funzione della deformazione orizzontale (strain). δv/v è stato misurato attraverso l’analisi temporale delle variazioni del rumore sismico ambientale mentre la deformazione è stata calcolata attraverso i dati delle stazioni della rete GNSS RING. β è un parametro significativo per definire la non-linearità delle proprietà elastiche della crosta terrestre e delle modalità di accumulo e rilascio della deformazione sismica nelle zone di faglia. In a) e b) sono mostrati i valori di δv/v e deformazione in funzione della fase annuale (a) e della velocità di deformazione (b). In c-h sono mostrate le variazioni di δv/v e deformazione per singole annualità

I ricercatori hanno infatti scoperto che la ricarica idrologica degli acquiferi carsici dell’Appennino genera deformazioni naturali che modulano la velocità delle onde sismiche e la sismicità locale. Attraverso una tecnica innovativa di analisi del rumore sismico ambientale è stato possibile misurare le variazioni stagionali di velocità delle onde sismiche che attraversano la crosta terrestre e confrontarle con le misure di deformazione crostale indotte dagli effetti idrologici.

“Queste due informazioni ci hanno permesso di misurare le variazioni di velocità delle onde sismiche in funzione della deformazione crostale, parametro importante per quantificare la non-linearità delle proprietà elastiche delle rocce”, sottolinea Stefania Tarantino, assegnista di ricerca dell’INGV e prima autrice dell’articolo.

Piero Poli, Professore dell’Università degli Studi di Padova e coautore dell’articolo aggiunge, infatti, che “osservazioni di laboratorio mostrano come le proprietà elastiche varino in funzione dello stato di deformazione dei materiali (elasticità non-lineare), con significative implicazioni sulle caratteristiche meccaniche con cui le rocce di faglia rispondono all’accumulo di deformazione che precede i terremoti. La sensitività osservata è risultata simile ai valori misurati in laboratorio, confermando la validità dell’approccio scientifico adottato.

“Le nostre osservazioni mostrano inoltre un aumento degli eventi sismici di bassa magnitudo (M < 3.7) in primavera-estate, quando il carico idrologico è maggiore, suggerendo che l’elasticità non-lineare possa giocare un ruolo chiave non solo nei fenomeni sismici minori, ma anche nella preparazione di terremoti di grande magnitudo, come quello che colpì l’Irpinia nel 1980″, sottolinea Aldo Zollo, Professore dell’Università degli Studi di Napoli Federico II e coautore dell’articolo.

Gaetano Festa, Professore dell’Università degli Studi di Napoli Federico II e coautore dell’articolo, aggiunge che “l’area geografica oggetto dello studio è oggi monitorata da un’infrastruttura multiparametrica avanzata denominata ‘Irpinia Near Fault Observatory’ e costituita da stazioni sismiche, geodetiche e geochimiche, nonché da un sistema di rilevamento sismico mediante fibra ottica (DAS), gestiti dall’INGV e dall’Università Federico II“.

Aspetto importante del lavoro è stata la sinergia con la società Acquedotto Pugliese, importante infrastruttura pubblica di approvvigionamento idrico-potabile della regione Puglia e gestore della Sorgente Sanità di Caposele, che ha fornito dati indispensabili per la comprensione della relazione tra effetti idrologici e processi crostali. “Siamo particolarmente soddisfatti di aver offerto il nostro contribuito alla realizzazione dello studio. Un contributo reso possibile dall’approfondita conoscenza della materia e dalla vasta esperienza sul campo, come testimoniato, tra l’altro, nel corso del convegno sul tema, organizzato con INGV nel nostro palazzo nel maggio scorso”, dichiara Domenico Laforgia, presidente di Acquedotto Pugliese.

I risultati di questo studio offrono nuove prospettive per comprendere e monitorare sempre meglio i processi di accumulo e rilascio della deformazione sismica, con l’obiettivo di migliorare le tecniche di mitigazione del rischio sismico.

a) Distribuzione dell'intensità della deformazione tettonica (scala cromatica e vettori di velocità) misurati dalle stazioni GNSS della rete RING. Le aree in verde mostrano la distribuzione degli acquiferi carsici responsabili delle deformazioni idrologiche osservate. b) sismicità nell'area irpina, segmenti attivati e meccanismo focale del terremoto Ms 6.9 del 23 novembre 1980. c) Serie temporali delle osservabili usate nello studio: portate della sorgente di Caposele (blu), variazioni di velocità δv/v (verde) e di spostamento alle stazioni MCRV e CAFE (in rosso). Osservare la stretta correlazione tra effetti idrologici, variazioni di velocità e di spostamento alla stazione MCRV (posta in prossimità degli acquiferi carsici) e la mancanza di correlazione a CAFE (posta in posizione più distante). d) rappresentazione schematica delle deformazioni idrologiche e loro relazione con le fasi di ricarica degli acquiferi carsici
a) Distribuzione dell’intensità della deformazione tettonica (scala cromatica e vettori di velocità) misurati dalle stazioni GNSS della rete RING. Le aree in verde mostrano la distribuzione degli acquiferi carsici responsabili delle deformazioni idrologiche osservate. b) sismicità nell’area irpina, segmenti attivati e meccanismo focale del terremoto Ms 6.9 del 23 novembre 1980. c) Serie temporali delle osservabili usate nello studio: portate della sorgente di Caposele (blu), variazioni di velocità δv/v (verde) e di spostamento alle stazioni MCRV e CAFE (in rosso). Osservare la stretta correlazione tra effetti idrologici, variazioni di velocità e di spostamento alla stazione MCRV (posta in prossimità degli acquiferi carsici) e la mancanza di correlazione a CAFE (posta in posizione più distante). d) rappresentazione schematica delle deformazioni idrologiche e loro relazione con le fasi di ricarica degli acquiferi carsici

Riferimenti bibliografici: 

Tarantino, S., Poli, P., D’Agostino, N. et al. Non-linear elasticity, earthquake triggering and seasonal hydrological forcing along the Irpinia fault, Southern Italy, Nat Commun 15, 9821 (2024), DOI: https://doi.org/10.1038/s41467-024-54094-4

Link utili:

Istituto Nazionale di Geofisica e Vulcanologia (INGV)

Università degli Studi di Padova

Università degli Studi di Napoli Federico II

Acquedotto Pugliese

Progetto Pianeta Dinamico-MYBURP

Irpinia Near Fault Observatory

Rete GNSS RING

 

 

Testo e immagini dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

Sviluppato il più grande database di genomi microbici da alimenti, curatedFoodMetagenomicData: servirà per migliorarne qualità, sicurezza e sostenibilità; lo studio europeo del progetto MASTER è stato realizzato anche con il Dipartimento di Agraria della Federico II. Pubblicato ieri sulla rivista Cell.

Uno studio guidato anche dal Dipartimento di Agraria dell’Università degli Studi di Napoli Federico II ha sviluppato un database fondamentale per la caratterizzazione degli alimenti da dati metagenomici, aprendo nuovi scenari per migliorare la qualità, la sicurezza e la sostenibilità degli alimenti.

Il database più vasto di metagenomi da alimenti è stato sviluppato dal progetto MASTER, finanziato dall’Unione Europa. Il relativo articolo scientifico intitolato “Unexplored microbial diversity from 2,500 food metagenomes and links with the human microbiome” è stato pubblicato il 29 agosto 2024 sulla rivista Cell.

Sviluppato il più grande database di genomi microbici da alimenti, curatedFoodMetagenomicData

La risorsa curatedFoodMetagenomicData (cFMD) rappresenta un database fondamentale per lo studio dei metagenomi (il termine che definisce il materiale genomico proveniente da tutti i microrganismi presenti in un ambiente) derivati dagli alimenti. Uno strumento che permetterà di affrontare sfide globali come lo spreco alimentare e la resistenza antimicrobica, aumentando al contempo la sicurezza alimentare attraverso lo studio dei microrganismi che caratterizzano un ambiente.

Il professore Danilo Ercolini, Direttore del Dipartimento di Agraria dell’Università degli Studi di Napoli Federico II dichiara: “La disponibilità di un database così vasto, comprendente metagenomi e genomi da alimenti, rappresenterà una risorsa molto importante per studiare la presenza e il ruolo dei microrganismi negli alimenti e nei processi di lavorazione degli alimenti, con l’obiettivo finale di migliorarne la qualità, la sicurezza e la sostenibilità.” Il prof. Edoardo Pasolli dello stesso Dipartimento aggiunge: “cFMD sarà la base per lo sviluppo di database metagenomici da alimenti ancora più completi, che potranno essere integrati con particolari tipologie di alimenti o aree geografiche ancora poco rappresentante.”

Il coordinatore del progetto MASTER, il professore Paul Cotter (Teagasc, Irlanda) afferma: “cFMD è un grande database di dati metagenomici alimentari, rappresentativo di 15 categorie di alimenti provenienti da 50 paesi. cFMD contiene dati relativi a 3,600 specie microbiche diverse, di cui 290 sono specie nuove. È disponibile gratuitamente per poter essere utilizzato per studi sul microbioma e per applicazioni nell’industria alimentare. Ad esempio, per studiare la componente microbica lungo l’intera catena alimentare, studiare la diffusione di geni di resistenza agli antibiotici, rilevare microrganismi indesiderati e investigare la possibile trasmissione di microrganismi all’uomo. La disponibilità di cFMD rappresenta un importante sviluppo verso un futuro in cui il sequenziamento metagenomico potrebbe sostituire la microbiologia classica come strumento più accurato e rapido per il tracciamento dei microrganismi lungo la catena alimentare.”

Il professore Nicola Segata dell’Università di Trento aggiunge: “Questa risorsa è fondamentale anche per comprendere come il microbioma alimentare potrebbe influenzare la salute umana, poiché alcuni dei microrganismi che introduciamo con la dieta potrebbero diventare membri stabili del nostro microbioma. Abbiamo scoperto che le specie microbiche associate agli alimenti compongono circa il 3% del microbioma intestinale nella popolazione adulta, suggerendo che alcuni dei nostri microrganismi intestinali potrebbero essere acquisiti direttamente dal cibo, o che storicamente, le popolazioni umane abbiano ottenuto questi microbi dagli alimenti e poi questi microbi si siano adattati per diventare parte del microbioma umano. Gli alimenti sono quindi cruciali per la nostra salute anche per i microrganismi che forniscono al nostro microbioma.”

I microrganismi presenti negli alimenti possono avere sia un impatto positivo sulla produzione alimentare, come nel caso della produzione di formaggi e bevande alcoliche, sia un impatto negativo, come nel caso del deterioramento o delle malattie di origine alimentare. Fino a poco tempo fa, l’analisi di questi microrganismi si basava principalmente su approcci tradizionali. L’applicazione di metodi basati sul sequenziamento del DNA ha il potenziale di trasformare le analisi alimentari, consentendo analisi rapide e simultanee di tutti i microrganismi in parallelo, inclusi quelli difficili da coltivare.

Il database rappresenta un grande risultato per la ricerca sul microbioma negli alimenti. È stato reso possibile grazie al sequenziamento di circa 2000 campioni raccolti in aziende alimentari in tutta Europa, che aggiunti a collezioni globali esistenti ha portato l’analisi complessiva a 2500. La risorsa, ad accesso libero, faciliterà lo studio dei microrganismi alimentari a livello globale su larga scala, sia in ambito accademico che industriale.

 

Il Progetto MASTER

MASTER, acronimo di “Microbiome Applications for Sustainable food systems through Technologies and EnteRprise”, è un progetto finanziato dall’Unione Europea nell’ambito di Horizon 2020. Iniziato a gennaio 2019, ha visto il coinvolgimento di 29 partner con l’obiettivo di caratterizzare i microbiomi in diversi ambienti alimentari e non alimentari utilizzando tecnologie di sequenziamento innovative. Lo studio è stato guidato da team dell’Università di Napoli Federico II e dell’Università di Trento (Italia), in collaborazione con Teagasc (Irlanda), Consiglio Superiore di Ricerca Scientifica e Università di León (Spagna), MATIS (Islanda) e FFoQSI (Austria), in aggiunta a molti altri partner.

 

Riferimenti bibliografici:

Carlino et al., “Unexplored microbial diversity from 2,500 food metagenomes and links with the human microbiome”, Cell, DOI: 10.1016/j.cell.2024.07.039

 

Testo e immagini dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

L’obiettivo dello Studio di Esposizione nella Popolazione Suscettibile – SPES, è valutare la relazione tra inquinanti ambientali (Metalli pesanti, IPA, PCB, Diossine, ecc) e salute in Campania. Microbioma, ambiente e salute: la nuova frontiera del benessere. Il microbioma è interprete fondamentale nell’interazione ambiente-salute e costituisce un ulteriore parametro nello sviluppo di modelli di valutazione del rischio.

Lo dimostra uno studio condotto dal Dipartimento di Agraria dell’Università degli Studi di Napoli Federico II e dall’Istituto Zooprofilattico Sperimentale del Mezzogiorno e pubblicato sulla rivista internazionale Nature Communications.

 

Il corpo umano è abitato da miliardi di batteri che costituiscono una inesauribile fonte di potenziali attività per il nostro organismo.

In particolare, il microbioma intestinale viene a contatto, metabolizza e trasforma tutta una serie di composti chimici che possono avere diverse origini (ad esempio nutrienti, farmaci, contaminanti ambientali). Tuttavia, il modo in cui i microrganismi intestinali rispondono all’esposizione all’inquinamento ambientale è stato ancora poco esplorato.

La Campania è stata destinataria di attenzioni particolari negli ultimi 15 anni per le vicende legate alla “Terra dei Fuochi” e all’inquinamento ambientale relativo a particolari aree della Regione.

Per tale problematica la Regione Campania ha promosso e finanziato, nel corso degli anni, diversi interventi, tra cui il Piano Integrato Campania Trasparente (https://www.campaniatrasparente.it),  uno studio innovativo e pionieristico che prevede il monitoraggio dei suoli, delle acque, dei prodotti agro-alimentari ed il biomonitoraggio sulla popolazione residente mediante la conduzione dello Studio di Esposizione nella Popolazione Suscettibile (SPES – http://spes.campaniatrasparente.it).

L’obiettivo di SPES, promosso dall’Istituto Zooprofilattico Sperimentale del Mezzogiorno in collaborazione con l’IRCCS G. Pascale di Napoli, è valutare la relazione tra inquinanti ambientali (Metalli pesanti, IPA, PCB, Diossine, ecc) e salute in Campania, misurando in maniera sistematica i biomarcatori di esposizione, di effetto o danno nei fluidi biologici, al fine di verificare eventuali differenze di rischio e/o di salute fra residenti nelle diverse aree territoriali campane.

In uno studio recentemente pubblicato sulla rivista internazionale Nature Communications (https://rdcu.be/dI6BG), viene preso in considerazione un sottogruppo di 359 soggetti della coorte SPESper valutare l’impatto dell’esposizione all’inquinamento sulla composizione del microbioma intestinale e sulle sue potenziali funzioni.

La ricerca, condotta dal Dipartimento di Agraria dell’Università degli Studi di Napoli Federico II e dall’Istituto Zooprofilattico Sperimentale del Mezzogiorno, evidenzia come in soggetti provenienti da aree a diverso impatto ambientale si osservi un diverso incremento nell’intestino dei geni microbici legati alla degradazione e/o alla resistenza agli inquinanti.

In particolare, l’esposizione ai metalli pesanti promuove anche nel microbioma intestinale lo sviluppo di antibiotico-resistenza. Infatti, in letteratura, è riportato che la resistenza ai metalli e quella agli antibiotici sono fenomeni spesso correlati, in quanto i geni coinvolti sono gli stessi o sono localizzati in punti vicini del genoma microbico.

Questo studio rappresenta una ulteriore evidenza dell’affascinante processo di co-evoluzione del microbioma intestinale con l’uomo. I nostri microrganismi si adattano alle condizioni ambientali a cui siamo esposti e i contaminanti ambientali spingono le nostre popolazioni microbiche ad attrezzarsi per degradarli. Sarebbe interessante sfruttare queste capacità dei microrganismi per promuovere meccanismi di adattamento dell’uomo a situazioni di rischio ambientaleDanilo Ercolini, Direttore del Dipartimento di Agraria e Responsabile Scientifico della Task Force di Ateneo per gli Studi sul Microbioma dell’Università degli Studi di Napoli Federico II.

Lo studio del microbioma rappresenta un innovativo approccio nell’ambito delle correlazioni ambiente, cibo, salute. L’alterazione di questi batteri, che costituiscono il 3% del corpo umano, risulta responsabile di varie malattie tra cui obesità, patologie croniche degenerative e immunitarie. Studiare i fattori che influenzano la composizione di oltre 10.000 specie di batteri che ospitiamo, ci porta a sviluppare nuove strategie di profilassi e terapeutiche dichiara il Direttore Generale dell’Istituto Zooprofilattico Sperimentale del Mezzogiorno, Antonio Limone.

Lo studio è stato svolto nell’ambito del progetto Linking environmental pollution and gut microbiota in individuals living in contaminated settlements, finanziato dal Ministero della Salute (Ricerca Finalizzata 2016 – Linea Giovani Ricercatori – GR-2016-02362975), la cui responsabile scientifico è Francesca De Filippis, ora professore associato di Microbiologia al Dipartimento di Agraria.

 

Testo e immagini dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

Un nuovo approccio terapeutico per i pazienti affetti da iperplasia surrenalica congenita

L’approccio terapeutico è in grado di impedire l’eccessiva produzione di ormoni androgeni surrenalici alla base dell’insorgenza della malattia. I risultati dello studio internazionale, a cui hanno preso le università Sapienza di Roma e Federico II di Napoli, sono stati pubblicati sul New England Journal of Medicine.

L’iperplasia surrenalica congenita (CAH) è una malattia rara dovuta a una mutazione genetica che provoca la carenza dell’enzima 21-idrossilasi e compromette la sintesi del cortisolo, un ormone fondamentale per le normali funzioni fisiologiche. L’organismo tenta inutilmente di compensare tale carenza e come conseguenza innesca una eccessiva produzione di ormoni androgeni surrenalici, scatenando ulteriori complicanze. Attualmente i pazienti vengono trattati con dosi sopra-fisiologiche di glucocorticoidi che possono causare gravi effetti collaterali come aumento di peso, diabete, malattie cardiovascolari, infertilità e osteoporosi.

Una nuova possibilità si inserisce nel paradigma di trattamento di questa malattia con i risultati della fase 3 di sperimentazione del Crinecerfont, un composto in grado di offrire benefici significativi per pazienti adulti e bambini. I risultati dello studio, pubblicati sul New England Journal of Medicine e presentati durante l’ultima edizione di ENDO, il più importante convegno internazionale riguardante l’endocrinologia, hanno visto il contributo di più di cinquanta centri di ricerca dislocati in dieci paesi, fra cui le università Sapienza di Roma e Federico II di Napoli.

Il nuovo approccio terapeutico è in grado di tenere sotto controllo la produzione di androgeni surrenali senza dover ricorrere a dosi eccessive e dannose di glucocorticoidi.

In particolare è stato visto che tra i 176 pazienti adulti partecipanti allo studio, il gruppo a cui è stato somministrata una terapia a base di Crinecerfont ha mostrato una riduzione del 27,3% nella dose di glucocorticoidi rispetto al 10,3% del gruppo a cui è stato fornito il placebo; mentre il 63% dei partecipanti ha raggiunto dosi ormonali fisiologiche nonostante la malattia (a fronte del 18% del placebo). Gli eventi avversi più comuni sono stati affaticamento, mal di testa, febbre e vomito, ma si sono verificati in modo episodico e simile nei due gruppi.

“Il controllo della malattia è un equilibrio difficile tra le complicazioni dell’eccesso di androgeni, i problemi di crescita e sviluppo, i problemi riproduttivi maschili e femminili, e altri problemi legati all’esposizione cronica con troppi glucocorticoidi a cui sono esposti gli oltre 4000 malati attualmente presenti in Italia”

spiega Andrea Isidori del Dipartimento di Medicina Sperimentale della Sapienza.

Andrea M. Isidori
Andrea M. Isidori

“Questo risultato è stato possibile anche grazie alla collaborazione tra centri di endocrinologia pediatrica e dell’adulto, nell’ambito dei percorsi indicati dall’Europa all’interno dei Reference Network (ENDO-ERN) per le malattie rare di cui le Aziende Ospedaliero-Universitarie fanno parte e all’impegno degli Atenei nella Terza Missione.”

“Crinecerfont potrebbe rivoluzionare la gestione dell’iperplasia surrenalica congenita, riducendo significativamente la dose necessaria di glucocorticoidi, e quindi limitando gli effetti collaterali a lungo termine”

aggiunge Rosario Pivonello del Dipartimento di Medicina e Chirurgia della Federico II.

Rosario Pivonello
Rosario Pivonello

Riferimenti bibliografici:

Phase 3 Trial of Crinecerfont in Adult Congenital Adrenal Hyperplasia – Richard J. Auchus, Oksana Hamidi, Rosario Pivonello, Irina Bancos, Gianni Russo, Selma F. Witchel, Andrea M. Isidori et al. – The New England Journal of Medicine – DOI: 10.1056/NEJMoa2404656

 

Testo e immagini dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

 

CON L’ECOGRAFIA POLMONARE,  SOTTO CONTROLLO IL RESPIRO DEI NEONATI

La Federico II con il professore Francesco Raimondi e la dottoressa Letizia Capasso nel team internazionale di ricerca individua nella tecnica non-invasiva lo strumento per garantire ai neonati una terapia su misura.

L’ecografia polmonare nei neonati pretermine, a poche ore di vita, permette di capire subito se il piccolo avrà bisogno della somministrazione di surfattante (sostanza naturale prodotta nel polmone, carente nei neonati prematuri, che impedisce il collasso degli alveoli), della terapia intensiva neonatale o solo di un monitoraggio che gli permetterà di stare accanto alla mamma.

Nasce da un accordo internazionale di collaborazione fra l’Università Degli Studi di Napoli Federico II, l’Università di Padova, l’Università francese Paris-Saclay, e altri atenei stranieri lo studio multicentrico internazionale Quantitative Lung Ultrasonography to guide surfactant therapy in late preterm and term neonates, pubblicato sulla rivista «JAMA Network Open», che ha fornito la possibilità di guidare con l’ecografia polmonare la somministrazione di surfattante nei neonati pretermine e a termine.

L’accordo di collaborazione internazionale è nato per promuovere progetti congiunti di ricerca clinica e translazionale nel campo della neonatologia rivolta in particolare ai giovani medici. Lo studio è un progetto altamente innovativo e di grande valore in termini di sanità pubblica che ha utilizzato l’ecografia polmonare quantitativa in 157 neonati valutati ad un’età media di 3 ore di vita.

L’eco polmonare è una tecnica non-invasiva, applicabile al letto del paziente (point-of-care), non gravata dall’utilizzo di radiazioni ionizzanti delle radiografie e facile da imparare: la sua implementazione, perciò, ha permesso un’assistenza neonatale più personalizzata oltre ai vantaggi suddetti.

Daniele De Luca
Daniele De Luca

Lo studio è stato coordinato da un gruppo di studio delle Università Paris Saclay e Stanford diretto dal professore Daniele De Luca, che ha messo a punto l’ecografia polmonare quantitativa in collaborazione con il professore Francesco Raimondi e la dottoressa Letizia Capasso dell’Università di Napoli. I neonatologi padovani della terapia intensiva neonatale dell’Azienda Ospedale-Università di Padova (professore Eugenio Baraldi e dottor Luca Bonadies) da tempo hanno introdotto questa metodica in reparto e hanno contribuito alla realizzazione dello studio.

“Lo studio di JAMA Network Open continua una linea di ricerca cominciata a Napoli oltre 10 anni fa – dice il prof Francesco Raimondi direttore della Terapia Intensiva Neonatale dell’Università Federico II – che ha permesso di ridurre il numero di radiografie al neonato e con esse il carico, a volte pesante, di radiazioni ionizzanti. L’ecografia polmonare arriva così nelle mani del clinico che la usa come estensione dell’esame obiettivo. Essa consente una rapida diagnosi di condizioni potenzialmente mortali come lo pneumotorace iperteso e permette anche un tempestivo allarme nei centri nascita di primo livello che non sono dotati delle sofisticate attrezzature della Neonatologia moderna.

 L’applicazione dell’ecografia alla patologia respiratoria, che è il problema principale della Neonatologia, è un successo della ricerca clinica italiana che i colleghi di tutto il mondo ci riconoscono volentieri”.

Francesco Raimondi
Francesco Raimondi

“Con l’ecografia è stato possibile capire a pochissime ore di vita se il neonato andrà incontro ad insufficienza respiratoria grave o no, quindi se avrà bisogno di essere trasferito in terapia intensiva neonatale, magari a chilometri di distanza, o se potrà restare vicino alla mamma o nell’ospedale di nascita con un supporto respiratorio minore – spiega il prof Eugenio Baraldi, direttore del dipartimento di Salute della Donna e del Bambino dell’Università di Padova -. I vantaggi sono molteplici sia sul piano medico, che logistico e familiare. Prima di questo studio la decisione di somministrare il surfattante per via endotracheale veniva presa in base alla necessità di ossigeno; ora invece la decisione clinica può essere presa affiancando l’ecografia del polmone che permette una valutazione più specifica e sensibile. Oggi l’ecografia polmonare quantitativa fornisce informazioni più precise rispetto ad una radiografia tradizionale del torace e viene utilizzata oltre che nei neonati anche nei bambini con problemi respiratori come la bronchiolite e la polmonite”.

Eugenio Baraldi
Eugenio Baraldi

Link allo studio:

https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2819064

ecografia polmonare neonati surfattante Foto

Testo e foto dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

Al CERN SHiP – Search for Hidden Particles è il nuovo esperimento che cercherà le particelle ‘nascoste’: autorizzata la realizzazione dell’infrastruttura che lo ospiterà. 15 i Paesi coinvolti. Il federiciano Giovanni De Lellis è il responsabile italiano del progetto. Ruolo chiave della Federico II tra i fondatori.

Cercherà le particelle nascoste e studierà le proprietà dei neutrini per spiegare fenomeni del mondo sub-nucleare ancora sconosciuti. Lo farà attraverso una nuova infrastruttura che verrà costruita al CERN, che ne ha approvato la realizzazione. È SHiP – Search for Hidden Particles l’esperimento che vede impegnati ben 15 Paesi. Responsabile italiano del progetto è il fisico federiciano Giovanni De Lellis. L’Università Federico II è tra i fondatori del progetto ed ha una rappresentanza molto ampia di scienziati che vi prendono parte.

Disegno schematico dell’esperimento SHiP - Search for Hidden Particles
Disegno schematico dell’esperimento SHiP – Search for Hidden Particles

Il CERN ha approvato la costruzione di una nuova infrastruttura nell’Area Nord per ospitare l’esperimento SHiP (Search for Hidden Particles), una collaborazione internazionale che coinvolge 15 diversi Paesi. Lo scopo dell’esperimento è cercare particelle che interagiscono molto debolmente con la materia ordinaria, cosiddette particelle del settore nascosto, e studiare le proprietà dei neutrini, le particelle meno studiate tra quelle conosciute. Questi studi mirano a spiegare fenomeni che il Modello Standard delle particelle e interazioni fondamentali, ossia la teoria fisica che descrive il mondo sub-nucleare, non riesce a spiegare. Tra questi fenomeni c’è l’esistenza della materia oscura, la massa piccolissima dei neutrini e l’asimmetria barionica dell’Universo.

Link al progetto: http://ship.web.cern.ch/

L’approvazione di SHiP apre una nuova frontiera nell’investigazione dei problemi fondamentali ancora aperti nella Fisica delle particelle“,

dichiara Giovanni De Lellis, responsabile italiano del progetto, docente presso il Dipartimento di Fisica dell’Università Federico II.

SHiP, infatti, sarà l’esperimento alla cosiddetta frontiera dell’intensità, studiando le particelle prodotte da un numero di collisioni mai raggiunto prima, con la potenzialità di scoprirne nuove e spiegare così fenomeni ancora ignoti, come l’esistenza della materia oscura”.

il professore Giovanni De Lellis al CERN: la strumentazione SHiP
il professore Giovanni De Lellis al CERN: la strumentazione SHiP

L’esperimento sfrutterà i fasci di protoni ad alta intensità del Super Proton Synchrotron (SPS) del CERN. L’idea alla base del progetto è che le particelle che possono spiegare questi fenomeni ancora irrisolti siano così rare che non sia stato ancora possibile produrle in numero sufficiente da essere osservate. Di qui la necessità di far collidere un numero enorme di particelle, dalla cui interazione possono avere origine le rarissime particelle che il progetto mira a osservare, misurando i prodotti del loro decadimento o della loro interazione con il rivelatore.

“L’Università degli Studi di Napoli Federico II ha un ruolo chiave nell’esperimento perché è stata tra i fondatori del progetto nel 2014 insieme ad altri 5 Istituti incluso il CERN“,

spiega De Lellis. Nel 2016, la partecipazione federiciana si è estesa anche ai Dipartimenti di Ingegneria dell’Ateneo. Hanno infatti collaborato alla progettazione dell’esperimento docenti e ricercatori dei cinque Dipartimenti di Ingegneria oltre a quelli del Dipartimento di Fisica.

“Abbiamo colto le sfide tecnologiche di un progetto di frontiera del CERN, in un contesto interdisciplinare”,

spiega Andrea Prota, Direttore del Dipartimento di Strutture per l’Ingegneria e l’Architettura, direttamente coinvolto con il suo gruppo di ricerca nella progettazione di una grossa struttura a vuoto dove le particelle nascoste dovrebbero decadere.

“L’Ingegneria napoletana contribuirà alla definizione delle specifiche del progetto e alla realizzazione del complesso apparato”.

Nei prossimi anni gli scienziati completeranno le ultime fasi della progettazione e inizieranno la costruzione dell’apparato che prevede di iniziare a prendere dati nel 2031. L’apparato si svilupperà per circa 100 m in una sala sperimentale dell’Area Nord del CERN.  

Per la prima volta un esperimento approvato dal CERN vede la partecipazione di una compagine federiciana così ampia“, conclude De Lellis. “L’approvazione di questo progetto è anche frutto del lavoro della Task Force di Ateneo SHiP-Fed, creata nel 2020 per raccogliere i saperi federiciani intorno al progetto, coagulando l’interesse e la partecipazione di dieci Dipartimenti.”

La Collaborazione SHiP in uno dei primi incontri tenutosi a Napoli, 9-11 Febbraio 2015. Foto di Fons Rademakers
La Collaborazione SHiP in uno dei primi incontri tenutosi a Napoli, 9-11 Febbraio 2015. Foto di Fons Rademakers

Testo e foto dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

Osservati per la prima volta neutrini prodotti da una collisione di particelle. Pubblicati i primi dati dell’esperimento SND@LHC che coinvolge 180 scienziati di 14 Paesi del mondo coordinati dal professore Giovanni De Lellis della Federico II.

Osservati per la prima volta neutrini muonici di alta energia, emessi a seguito di collisione tra protoni all’interno del Large Hadron Collider. Immagine dal CERN

Sfruttare il Large Hadron Collider del CERN come sorgente per lo studio di neutrini, particelle elementari elusive, caratterizzate da una scarsissima interazione con la materia, emessi a seguito delle collisioni tra protoni all’interno del super acceleratore. Questo l’obiettivo della collaborazione internazionale SND@LHC, che coinvolge 180 scienziati di 14 Paesi del mondo coordinati dal professore Giovanni De Lellis dell’Università degli Studi di Napoli Federico II. Dopo aver portato a termine la realizzazione del proprio apparato sperimentale nel marzo dello scorso anno, le ricercatrici e i ricercatori di SND@LHC, insieme ai colleghi della collaborazione FASER, altro esperimento al CERN che studia neutrini, hanno pubblicato sulla rivista Physical Review Letters, i primi risultati dell’analisi dei dati acquisiti nel corso del 2022, da cui emerge la prima osservazione di neutrini muonici di alta energia prodotti da LHC. Oltre ad aprire una nuova finestra utile a indagare le proprietà dei neutrini, la misura, la prima del suo genere, rappresenta un’importante successo tecnologico, confermando la capacità del sistema di rivelazione adottato da SND@LHC di individuare particelle tanto elusive. Il risultato è stato indicato come “Editors’s suggestions” da Physical Review Letters.

Approvato nel marzo del 2021, l’esperimento Scattering and Neutrino Detector (SND@LHC) è stato installato a 480 metri dall’esperimento ATLAS in un in un tunnel in disuso che collega LHC all’SPS e ha come scopo l’individuazione e lo studio dell’elevato numero di neutrini di tutti e tre i sapori (elettronico, muonico e tauonico) che un collisore come LHC è in grado di produrre, finora sfuggiti a un’osservazione diretta a causa della loro bassa probabilità di interazione e della loro traiettoria parallela all’asse di collisione, che rende questi neutrini “invisibili” agli altri esperimenti di LHC.

“Gli esperimenti a LHC hanno sinora associato la presenza di neutrini alla rivelazione di energia mancante nella ricostruzione dei prodotti delle interazioni”, spiega il responsabile Giovanni De LellisOrdinario di Fisica Sperimentale all’Ateneo federiciano . “SND@LHC è stato progettato con l’obiettivo di rivelare queste particelle, di grande interesse per la fisica in quanto caratterizzate da energie molto elevate e non ancora esplorate, estendendo il potenziale scientifico degli altri esperimenti di LHC”.

Il professor Giovanni De Lellis al CERN
Il professor Giovanni De Lellis al CERN

SND@LHC presenta dimensioni ridotte rispetto alle altre tipologie di esperimenti dedicati allo studio dei neutrini attualmente in corso. Esso è costituito da due regioni. In quella più a monte ci sono lastre di tungsteno, per un peso complessivo di circa 800 kg, intervallate da film di emulsioni nucleari, in grado rivelare con estrema precisione l’interazione dei neutrini, e da sistemi traccianti elettronici basati su fibre scintillanti per la misura dell’instante in cui avvengono gli eventi di interazione e della loro energia elettromagnetica. La regione più a valle dell’apparato è invece dotata di un calorimetro adronico e un sistema di riconoscimento dei muoni.

“Il motivo che ha consentito la realizzazione di un apparato sperimentale di dimensioni contenute è legato all’elevato numero di collisioni di LHC, che si traducono in un altrettanto elevato flusso di neutrini nella direzione in avanti. L’ingente numero di neutrini, insieme alle loro alte energie, alla cui crescita corrisponde una maggiore probabilità di interazione, rendono possibile la loro rivelazione anche con apparati più compatti di quelli oggi impiegati nell’indagine sui neutrini grazie anche alla relativa vicinanza dell’apparato alla sorgente”, prosegue il professor De Lellis.

Grazie alle sue caratteristiche, SND@LHC è stato in grado isolare gli eventi dovuti all’interazione tra l’apparato sperimentale e i neutrini prodotti dall’acceleratore nel vasto campione di dati acquisiti nel 2022, costituito da diversi miliardi di muoni che attraversano l’apparato. SND@LHC ha osservato 8 eventi candidati interazioni di neutrino muonico, con una significatività statistica superiore a quella necessaria in fisica per confermare un’osservazione.

“Con questi primi risultati dell’analisi dei dati raccolti nel 2022, l’esperimento SND@LHC ha aperto una nuova frontiera nello studio dei neutrini e nella ricerca di materia oscura”, aggiunge Giovanni De Lellis. “Abbiamo osservato neutrini dal collider con una significatività superiore alle 5 sigma. Alla luce del fatto che una buona parte dei neutrini è originata dai decadimenti di quark pesanti, essi costituiscono un modo unico per studiare la produzione di questi quark, inaccessibile ad altri esperimenti. Queste misure sono anche rilevanti per predire il flusso di neutrini di altissime energie prodotti nei raggi cosmici, sicché l’esperimento fa da ponte tra la fisica degli acceleratori e quella delle astro-particelle”.

L’Università Federico II svolge un ruolo centrale all’interno della collaborazione insieme all’Istituto di Fisica Nucleare.

“Questo è il primo risultato pubblicato: l’indagine proseguirà con lo studio di neutrini muonici a più alta statistica e con la rivelazione di neutrini elettronici e del tau, nonché con la ricerca di materia oscura, grazie alle caratteristiche uniche dell’apparato sperimentale. Il coinvolgimento di gruppi di ricerca multidisciplinari della Federico II è anche il frutto del lavoro della Task Force d’Ateneo SHiP-Fed in cui sono coinvolti dieci Dipartimenti. Questo risultato apre una nuova era, quella della fisica dei neutrini da collisore di particelle, un nuovo filone di ricerca a cui contribuiscono i saperi federiciani in modo trasversale”, conclude De Lellis.

 

Riferimenti bibliografici:

R. Albanese et al. (SND@LHC Collaboration), Phys. Rev. Lett. 131, 031802 (19 Luglio 2023)

 

Testo e foto dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

 

Tumori pediatrici, identificati i fattori genetici che predispongono al neuroblastoma

Colpisce bambini e adolescenti fino ai 15 anni. Circa 15.000 ogni anno nel mondo, 130 in Italia. Il Neuroblastoma è un tumore maligno che ha origine dai neuroblasti, cellule presenti nel sistema nervoso simpatico ed è considerato la prima causa di morte e la terza neoplasia per frequenza dopo le leucemie e i tumori cerebrali dell’infanzia.

Tumori pediatrici: identificati i fattori genetici che predispongono al neuroblastoma
Tumori pediatrici: identificati i fattori genetici che predispongono al neuroblastoma che colpisce bambini e adolescenti fino ai 15 anni. Da sinistra, Ferdinando Bonfiglio, Achille Iolascon e Mario Capasso

Oggi, grazie ad una promettente scoperta dei ricercatori napoletani, c’è una speranza in più per la diagnosi precoce e la cura di una delle malattie rare più temibili. Gli studiosi, guidati da Mario Capasso e Achille Iolascon, Principal Investigator del CEINGE e rispettivamente, professore associato e ordinario di Genetica Medica dell’Università degli Studi di Napoli Federico II, hanno infatti identificato i fattori genetici che predispongono al neuroblastoma. E lo hanno fatto investigando su un bagaglio di dati tra i più ampi mai utilizzati al mondo.

«Abbiamo analizzato il DNA di quasi 700 bambini affetti da neuroblastoma e più di 800 controlli mediante sequenziamento avanzato, una tecnica innovativa che riesce a decodificare tutti i geni finora conosciuti in modo affidabile e veloce -spiega il professor Capasso – Questa è la più alta casistica mai studiata fin ad oggi grazie alla quale abbiamo scoperto che il 12% dei bambini con neuroblastoma ha almeno una mutazione genetica ereditata che aumenta il rischio di sviluppare un tumore».

La realizzazione di questo lavoro scientifico è stata resa possibile grazie ad analisi computazionali avanzate del team di esperti del prof. Capasso che lavorano nella facility di Bioinformatica per Next Generation Sequencing del CEINGE. In particolare, si tratta di indagini condotte dall’esperto bioinformatico Ferdinando Bonfiglio, primo autore del lavoro.

«Con predisposizione genetica ci si riferisce alla maggiore probabilità, rispetto alla media, che un bambino ha di sviluppare un tumore – chiarisce Iolascon –. Quindi i risultati di questa ricerca hanno rilevanti implicazioni cliniche; infatti sono utili a migliorare la diagnosi redendola sempre più precoce e certa e a migliorare la gestione clinica del paziente indirizzando il medico verso l’utilizzo di trattamenti personalizzati».

I risultati della ricerca, finanziata dalla OPEN Onlus, Fondazione Italiana per la Lotta al Neuroblastoma e Fondazione AIRC per la Ricerca sul Cancro, sono stati pubblicati su una autorevole rivista scientifica, eBioMedicine del gruppo editoriale “The Lancet”. Inoltre, tutti i dati genetici sono stati resi disponibili in un database online che altri studiosi potranno liberamente consultare per sviluppare nuove ricerche.

E non è tutto. Lo studio ha investito anche altre patologie, come l’autismo. «Un altro dato interessante che emerso da questa ricerca è che alcune delle mutazioni trovate in questi bambini sono associate anche allo sviluppo di malattie del neurosviluppo, ad esempio i disturbi dello spettro autistico. I risultati raggiunti sono utili anche a meglio comprendere i meccanismi molecolari che sono alla base dello sviluppo di malattie non oncologiche», conclude Mario Capasso.

https://www.thelancet.com/journals/ebiom/article/PIIS2352-3964(22)00577-1/fulltext

Da sinistra, Ferdinando Bonfiglio, Mario Capasso e Achille Iolascon

Testo e foto dall’Ufficio Stampa Università Federico II di Napoli

I computer quantistici potranno “ragionare” più velocemente dei calcolatori classici. È quanto dimostrato dal team di ricerca federiciano coordinato dal professore Giovanni Acampora, del Dipartimento di Fisica ‘Ettore Pancini’ dell’Università Federico II, che ha realizzato un algoritmo quantistico in grado di eseguire i cosiddetti motori inferenziali, le componenti principali di alcune metodologie di intelligenza artificiale, sfruttando meno risorse computazionali dei calcolatori elettronici.

I computer quantistici potranno “ragionare” più velocemente dei calcolatori classici. Quantum Computing e Intelligenza artificiale: il professor Giovanni Acampora con Roberto Schiattarella e Autilia Vitiello

Lo studio, condotto con il dottorando Roberto Schiattarella e la dottoressa Autilia Vitiello, intitolato “On the Implementation of Fuzzy Inference Engines on Quantum Computers”, è stato pubblicato sulla prestigiosa rivista IEEE Transactions on Fuzzy Systems.

Oltre al vantaggio computazionale, l’algoritmo offre un ulteriore vantaggio: esso consente di programmare computer quantistici usando l’approccio linguistico tipico del ragionamento umano, semplificando l’interazione con questi strumenti particolarmente complessi da gestire.

Il risultato raggiunto da Acampora, Schiattarella e Vitiello potrà avere importanti ripercussioni nella progettazione dei metodi di intelligenza artificiale del futuro che dovranno avere significative capacità di elaborazione e una estrema semplicità di programmazione per poter gestire la sempre crescente quantità di dati messa a disposizione dalla interconnessione e dalla interazione di diversi sistemi collegati tra loro dalle moderne tecnologie di comunicazione cablati come la fibra ottica, e quelle per dispositivi mobili come 5G e 6G.

I motori inferenziali sono algoritmi che simulano le modalità con cui la mente umana trae delle conclusioni logiche attraverso il ragionamento e sono usati in molte applicazioni dell’intelligenza artificiale riguardanti diverse sfere del quotidiano come, ad esempio, sistemi di diagnosi medica, sistemi di controllo industriale, automotive, e sistemi di automazione e di supporto alle decisioni in genere. I motori inferenziali su cui si basa lo studio condotto da Acampora, Schiattarella e Vitiello sono quelli che utilizzano le cosiddette regole linguistiche fuzzy. Tali regole implementano uno schema di ragionamento in grado di creare un legame tra le variabili di ingresso e quelle di uscita di un sistema, usando un approccio di tipo linguistico, cioè usando espressioni testuali tipiche del pensiero umano. Questo è reso possibile dall’utilizzo della fuzzy logic, uno strumento matematico in grado di modellare il ragionamento umano e abilitare il calcolo basato su parole e costrutti del linguaggio naturale. Seppur ampiamente utilizzate in diverse tipologie di sistemi, i motori inferenziali possono soffrire di una significativa problematica computazionale: il numero di regole che modellano il comportamento di un sistema può crescere esponenzialmente con il numero di variabili di ingresso del sistema stesso rendendo il motore inferenziale poco efficiente nel trarre conclusioni logiche. Di conseguenza c’è la forte necessità di pensare a metodi di calcolo inferenziale in grado di valutare le regole in maniera efficiente anche al crescere del numero delle variabili di ingresso.

I computer quantistici, strumenti di calcolo che sfruttano principi della meccanica quantistica come superposition, entanglement e interferenza, possono rappresentare una possibile soluzione al suddetto problema. Infatti, questi innovativi strumenti informatici abilitano un parallelismo massivo nel calcolo che, come dimostrato dal gruppo del professor Acampora, offre le potenzialità per il raggiungimento di un vantaggio di tipo esponenziale nella esecuzione dei motori inferenziali. Ciò significa che, anche in presenza di sistemi di grandi dimensioni, i motori inferenziali quantistici potranno essere eseguiti efficientemente, ovvero con un tempo di esecuzione inferiore rispetto ai motori inferenziali eseguiti sui classici calcolatori elettronici.

Il risultato raggiunto dal professor Acampora e dal suo gruppo arriva a seguito di numerosi riconoscimenti e premi internazionali ottenuti per i risultati ottenuti nell’ambito della attività di ricerca svolte nell’area della intelligenza artificiale quantistica. Tra tali riconoscimenti si evidenziano il 2019 Canada-Italy Innovation Award ottenuto dal professore Acampora e rilasciato dalla ambasciata canadese in Italia, il Best Paper Award@Fuzz-IEEE 2021 conseguito dal profesore Acampora e dalla dottoressa Vitiello, l’IEEE Computer Society Award on Emerging Technologies ottenuto dal professore Acampora e dalla dottoressa Vitiello, e il 2022 IEEE CIS Graduate Student Research Grant conseguito da Roberto Schiattarella e che gli consentirà di testare il motore inferenziale quantistico sui sistemi di controllo degli acceleratori di particelle del CERN di Ginevra.

 

Testo e foto dall’Ufficio Stampa Università Federico II di Napoli sui computer quantistici che potranno “ragionare” più velocemente dei calcolatori classici.