News
Ad
Ad
Ad
Tag

U.S.A.

Browsing

Prebunking: il debunking preventivo sulle elezioni può contribuire a ricostruire la fiducia nel processo elettorale 

Comunque la si pensi, viviamo tempi interessanti ma certo non facili: i conflitti sembrano aumentare sanguinosi non solo tra Stati, ma anche all’interno degli stessi. Comunque la si veda, si diceva, perché poi sulle macerie della fiducia, dei principi condivisi e della coesistenza sociale qualcuno in ogni caso dovrà governare.

A rischio è pure l’integrità del processo elettorale, uno degli elementi alla base dell’alternanza, dei principi democratici e della convivenza nella società civile. È successo con le elezioni negli Stati Uniti del 2020 e quelle del 2022 in Brasile: in entrambi i casi, a seguito della sconfitta, è stato messo in discussione il processo elettorale stesso, con la diffusione di accuse di frode elettorale contro i vincitori. Un problema che appare più attuale che mai, con la prospettiva delle elezioni prossime venture.

Un nuovo articolo, pubblicato sulla rivista Science Advances, parte proprio dai due suddetti eventi paralleli, mostrando meccanismi efficaci nel combattere la disinformazione e nel ripristinare la fiducia nel processo elettorale stesso.

In tal senso, la ricerca ha preso in esame due approcci diversi, entrambi accomunati dal fornire comunque informazioni corrette:

  • prebunking, ovvero la condivisione di informazioni fattuali prima del verificarsi dei fenomeni di disinformazione;
  • le correzioni da fonti credibili, sulla base della situazione di riferimento, ovvero quando vengono da chi appartiene al proprio punto di vista e parla contro i propri interessi particolari.

Entrambi gli approcci, pur partendo da meccanismi psicologici differenti, si sono dimostrati efficaci nel contrastare le affermazioni false.

Differentemente dal debunking, che avviene dopo la campagna di disinformazione e che ha dimostrato avere un’efficacia limitata, il prebunking agisce prima e informa brevemente delle cospirazioni circolanti. Una sorta di vaccino contro le stesse. Una particolare forma di prebunking, denominata inoculazione (incidentalmente, un termine abusato da chi sparge disinformazione, con tutt’altro valore) mette ad esempio in guardia preventivamente, rispetto a determinati problemi o tecniche retoriche.

Nel caso delle correzioni da fonti credibili, la campagna di disinformazione è già avvenuta: in casi del genere, chi magari è della stessa fazione politica e parla contro i propri interessi, può più facilmente convincere a non seguire il leader del proprio gruppo, in difesa dell’integrità del processo elettorale.

Lo studio non è andato ad esaminare questi approcci in relazione ad altri fattori demografici. A parere di chi scrive, sarebbe stato interessante vedere i risultati, ad esempio, rispetto a chi ha alle spalle studi di diritto o altre materie correlate, quando la disinformazione in ambito elettorale tocca temi sui quali c’è una competenza acquisita. D’altra parte – come spiegato da Brendan J. Nyhan alla stampa – in letteratura ci sono studi che ci mostrano come in questi casi ci possano essere sorprese.

Gli autori della ricerca su Science Advances hanno quindi effettuato tre studi per mettere alla prova i risultati di prebunking e correzioni da fonti credibili da un punto di vista quantitativo.
Il primo studio ha riguardato 2.643 persone in prospettiva delle elezioni Midterm del 2022 e ha impiegato i due approcci. Il secondo studio si è similmente svolto in Brasile, coinvolgendo 2.949 persone dopo le elezioni del 2022.
In questi due contesti, nei quali la fiducia nel processo elettorale è stata messa in discussione anche con campagne di disinformazione, entrambi gli approcci hanno mostrato di funzionare, ma in particolare il prebunking, che ha prodotto risultati apparentemente duraturi.

Un terzo studio ha coinvolto 2.030 persone e ha voluto verificare – negli Stati Uniti – come funzionasse un messaggio di avviso che condivideva le cospirazioni. Messi a confronto, il prebunking senza esposizione alle cospirazioni ha dimostrato di funzionare meglio, probabilmente perché l’esposizione alle cospirazioni potrebbe aver introdotto dello scetticismo rispetto agli elementi fattuali mostrati in seguito. Il prebunking con esposizione alle cospirazioni ha però migliorato il discernimento tra affermazioni vere e false. Fondamentale sembra invece essere il contenuto fattuale fornito contro la disinformazione, piuttosto che il messaggio di avviso. Entrambe le tattiche hanno funzionato meglio con chi era maggiormente disinformato.

Una delle autrici della ricerca, Natalia Bueno, ha commentato che entrambi gli approcci si sono rivelati promettenti, essendo pratici, efficienti e scalabili, oltre che poco costosi.

In tutta onestà, per quanto siano passati solo pochissimi anni dagli eventi oggetto della ricerca, sembrano essere passate ere geologiche nell’attuale politica statunitense e si potrebbe far fatica ad essere così ottimisti. Questo anche in considerazione del fatto che il secondo degli strumenti in oggetto, quello delle correzioni da fonti credibili, è stato ampiamente utilizzato negli anni successivi al 2020 e pure durante le ultime presidenziali. Vero è che tra i due strumenti sarebbe stato quello dai risultati meno duraturi.
Oppure si tratta semplicemente di una questione meramente quantitativa, di forze in campo e di peso di questi elementi nelle decisioni.

Prebunking: come il debunking preventivo sulle elezioni può contribuire a ricostruire la fiducia nel processo elettorale. Immagini dall’attacco del 6 Gennaio 2021 a Capitol Hill. Foto Flickr di Tyler Merbler, CC BY 2.0

Riferimenti bibliografici:

John M. Carey, Brian Fogarty, Marília Gehrke, Brendan Nyhan, Jason Reifler, Prebunking and credible source corrections increase election credibility: Evidence from the US and Brazil, Science Advances, DOI: 10.1126/sciadv.adv3758

FARMACI ONCOLOGICI: PERCHÉ EUROPA E STATI UNITI D’AMERICA PRENDONO DECISIONI DIVERSE? 

Uno studio dell’Università di Torino evidenzia le discrepanze tra le due principali agenzie regolatorie nell’approvazione dei medicinali per il cancro.

 

L’Università di Torino ha pubblicato sulla prestigiosa rivista Lancet Oncology uno studio intitolato Differences in the on-label cancer indications of medicinal products between Europe and the USA, che mette a confronto le decisioni della Food and Drug Administration (FDA) e della European Medicines Agency (EMA) nell’approvazione dei farmaci oncologici.

La sicurezza dei medicinali è garantita da un’attenta analisi dei dati da parte delle Agenzie Regolatorie. Solo dopo la revisione approfondita dei dati derivanti dagli studi clinici, i farmaci possono essere messi a disposizione dei pazienti. Negli Stati Uniti, questa funzione è svolta dalla FDA, mentre in Europa è di competenza dell’EMA. Tuttavia, lo sviluppo di un farmaco è ormai globale e le diverse Agenzie Regolatorie valutano gli stessi studi clinici, sebbene possano arrivare a conclusioni differenti.

“Ci saremmo aspettati che le due agenzie più importanti del mondo, considerando gli stessi dati, arrivassero alle stesse conclusioni” – spiega Gianluca Miglio, professore di farmacologia all’Università di Torino – “ed invece oltre la metà dei farmaci è approvata per popolazioni leggermente diverse. In altre parole, vi sono pazienti dai due lati dell’Atlantico che hanno o non hanno accesso ad un dato medicinale a seconda della zona geografica in cui vivono”.

Nella ricerca sono state analizzate 162 indicazioni terapeutiche di 80 medicinali per tumori solidi e tumori del sangue autorizzate dall’EMA tra gennaio 2015 e settembre 2022 con le corrispondenti indicazioni approvate dalla FDA. Sono state identificate discrepanze clinicamente rilevanti per il 51,9% delle indicazioni valutate. Le differenze riguardano la collocazione nella terapia, la necessità che i pazienti siano refrattari a terapie precedenti, i requisiti di eleggibilità dei biomarcatori, i trattamenti concomitanti o le caratteristiche dei pazienti.

“Il nostro lavoro non è disegnato per definire quali delle due agenzie sia la migliore, sono entrambe eccezionali” – sottolinea Armando Genazzani, anche lui docente dell’Università di Torino, con esperienze sia in EMA che nell’Agenzia Italiana del Farmaco (AIFA) – “ma evidenziare quanto sia difficile prendere delle decisioni che impattano su milioni di malati in presenza di incertezze. Da un lato le agenzie mirano a concedere l’accesso del farmaco al maggior numero di persone possibile, e dall’altro, invece, devono essere sufficientemente sicure che per tutti i malati per i quali il farmaco è indicato vi è una ragionevole certezza di efficacia e sicurezza. Quello che cambia tra le due agenzie è il diverso bilanciamento tra questi due obiettivi”.

Le differenze osservate sono sottili, e derivano principalmente dalle discrepanze legislative e dalla differente inclinazione a estrapolare i dati in popolazioni non studiate direttamente nei trial clinici. 

“Le ragioni per le differenze osservate sono molteplici così come lo sono le implicazioni” – continua Genazzani – “La nostra analisi sembra suggerire che l’FDA sia più incline ad allargare il bacino dei pazienti che potenzialmente potrebbero beneficiare del farmaco, mentre l’EMA è più conservativa e maggiormente incline a riservare il farmaco ai pazienti per i quali vi è una dimostrazione chiara. Questo vuol dire che i pazienti americani hanno più opportunità terapeutiche mentre i pazienti Europei hanno maggiori certezze sui farmaci che assumono”.

Con questo studio dell’Università di Torino mira a fornire un contributo fondamentale alla comprensione delle dinamiche di approvazione dei farmaci oncologici a livello internazionale, evidenziando il delicato equilibrio tra accesso alle terapie e sicurezza dei pazienti.

Riferimenti bibliografici:

Perini, Martina et al., Differences in the on-label cancer indications of medicinal products between Europe and the USA, The Lancet Oncology, Volume 26, Issue 2, e103 – e110, DOI: https://doi.org/10.1016/S1470-2045(24)00434-0

cancro intelligenza artificiale nuovo metodo CEST-MRI Case report of first woman of color possibly cured of HIV
Farmaci oncologici: perché Europa e Stati Uniti d’America prendono decisioni diverse? Lo studio è stato pubblicato su The Lancet Oncology. Foto di StockSnap

Testo dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

Polarizzazione politica e interazioni sui social: esistono schemi comuni a livello internazionale
La ricerca pubblicata su Nature Communications, che ha coinvolto il Dipartimento di Informatica della Sapienza, mette in luce le dinamiche comuni della polarizzazione politica online su scala globale. Grazie all’analisi delle interazioni tra gli utenti su piattaforme online in ben nove Paesi, i ricercatori hanno rilevato l’esistenza di pattern ripetuti in diversi contesti nazionali.

La polarizzazione politica sui social network è un fenomeno internazionale. Al di là delle specificità dei singoli contesti nazionali – che differiscono per cultura, storia, sistema politico – il dibattito politico online si articola seguendo pattern comuni a livello globale. Lo studio, pubblicato su Nature Communications e condotto da un team internazionale di ricercatori, tra cui Walter Quattrociocchi, direttore del Centro per la Data Science e la complessità per la società della Sapienza, mira a individuare le dinamiche comunicative che vanno oltre i confini politici dei singoli Stati.

Grazie ad una analisi effettuata nel 2022 sulle interazioni che avvenivano su una specifica piattaforma in nove Paesi anche molto diversi tra loro (Canada, Francia, Germania, Italia, Polonia, Spagna, Turchia, Regno Unito e Stati Uniti), il gruppo di ricercatori, composto da scienziati sociali e informatici, ha individuato molteplici elementi ricorrenti.

La polarizzazione politica – presente anche nel mondo offline – appare particolarmente visibile nel mondo dei social network, soprattutto per la struttura intrinseca delle piattaforme online. In tutti i Paesi analizzati, le reti di interazione politica sui social sono risultate strutturalmente polarizzate lungo linee ideologiche (ad esempio destra/sinistra).

“Su quella che era la piattaforma Twitter, l’ostilità tra gruppi politici contrapposti è manifesta – spiega Walter Quattrociocchi. Questo, a livello comunicativo, si traduce in interazioni più tossiche rispetto a quelle osservabili tra i membri appartenenti allo stesso gruppo politico. Contrariamente a quanto si potrebbe pensare, le interazioni tossiche coinvolgono meno gli utenti. Per questi contenuti, il numero di like infatti appare minore rispetto a quello delle interazioni meno tossiche”

La ricerca mette in evidenza come la polarizzazione politica non sia un fenomeno limitato a una singola nazione, ma presenti caratteristiche simili tra diverse culture e contesti nazionali.

“Comprendere questi pattern comuni – commenta Quattrociocchi – è essenziale per poter pensare a soluzioni efficaci in grado di ridurre l’ostilità politica e promuovere un dialogo più costruttivo”.

Riferimenti bibliografici:

Patterns of partisan toxicity and engagement reveal the common structure of online political communication across countries – Falkenberg, M., Zollo, F., Quattrociocchi, W. et al. Nature Communications (2024), DOI: https://doi.org/10.1038/s41467-024-53868-0

 

politica interazioni social media network
Polarizzazione politica e interazioni sui social: esistono schemi comuni a livello internazionale, lo studio su Nature Communications. Foto di Mudassar Iqbal

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Elezioni USA 2020 su Twitter: sostenitori dei repubblicani più faziosi e organizzati dei pro democratici

I risultati di uno studio coordinato dall’Università di Pisa su EPJ Data Science

Più faziosi, coordinati e determinati a diffondere i propri messaggi in modo virale attraverso sistemi automatici come i bot. La descrizione fotografa il comportamento su Twitter dei gruppi di estrema destra pro repubblicani durante le elezioni presidenziali USA del 2020. Al contrario i sostenitori dei democratici apparivano complessivamente meno coordinati e impegnati principalmente in una comunicazione innocua e basata sui fatti. Alla vigilia delle nuove elezioni in USA, il quadro emerge da uno studio realizzato dall’Università di Pisa e dall’Istituto di Informatica e Telematica del CNR pubblicato su EPJ Data Science, una rivista del gruppo Springer Nature.

La ricerca ha analizzato un dataset di 260 milioni di tweet e ha individuato tre categorie principali: i gruppi moderati e genuinamente interessati al dibattito elettorale, i gruppi cospirativi che hanno diffuso informazioni false e narrazioni controverse e le reti di influenza straniera che hanno cercato di cavalcare il dibattito. Al di là del comportamento dei sostenitori di destra e di sinistra, i risultati hanno inoltre mostrato che Twitter è stato efficace nel contrastare l’attività solo di alcuni gruppi, mentre ha fallito con altri altrettanto sospetti.

“In un contesto di crescente preoccupazione per la manipolazione dell’opinione pubblica attraverso i social media, il nostro studio offre un’analisi approfondita delle dinamiche su Twitter (ora X) durante le elezioni presidenziali del 2020 – dice il professore Marco Avvenuti del dipartimento di Ingegneria dell’Informazione dell’Università di Pisa – Il comportamento coordinato online è un fenomeno complesso che può avere effetti significativi sulla società e sulla politica, rendendo essenziale la sua analisi e comprensione. Con l’avvicinarsi delle elezioni del 2024, questi risultati offrono spunti cruciali per affrontare le minacce alla democrazia e alla comunicazione pubblica, contribuendo a garantire l’integrità del dibattito politico online”.

Marco Avvenuti
Marco Avvenuti

“Tra i risultati abbiamo anche trovato che alcune comunità straniere sono risultate più attive e determinate nell’influenzare il dibattito elettorale, con l’obiettivo di portare l’attenzione su proteste in atto nei loro paesi”, aggiunge Serena Tardelli, ricercatrice dell’Istituto di Informatica e Telematica del CNR.

Testo e foto dall’Ufficio Stampa dell’Università di Pisa

EarthCARE: una nuova missione satellitare per capire l’impatto delle nuvole sul cambiamento climatico

Il Politecnico di Torino è tra i protagonisti degli studi scientifici che hanno permesso la realizzazione della missione. Le missioni di ricerca Earth Explorer, realizzate nell’ambito del programma dell’ESA FutureEO, mirano a comprendere la complessità del funzionamento della Terra e l’influenza delle attività umane sui processi naturali.

Torino, 6 giugno 2024

ESA missione EarthCARE

Nella giornata di martedì 28 maggio, nel contesto del prestigioso programma di osservazione della Terra “Earth Explorer” dell’ESA, è stato lanciato dalla base di Vandenberg, in California, il satellite EarthCARE-Earth Cloud Aerosol Radiation Explorer, frutto della collaborazione tra l’Agenzia Spaziale Europea (ESA) e quella Giapponese (JAXA). La missione, rivoluzionaria nel suo genere, si prefigge di migliorare la comprensione dell’interazione tra nuvole e aerosol nel modificare i bilanci energetici associati al trasporto di onde elettromagnetiche e il ciclo dell’acqua, così da contribuire in modo significativo ad una migliore previsione dell’entità dei cambiamenti climatici e quindi ad ottimizzare le strategie di adattamento e mitigazione del clima.

Tra gli attori coinvolti nella progettazione della missione il Politecnico di Torino, con il gruppo di ricerca del Dipartimento di Ingegneria dell’Ambiente, del Territorio e delle Infrastrutture-DIATI che ha partecipato, sotto la guida del professor Alessandro Battaglia, agli studi scientifici per la realizzazione del lancio e che contribuirà alle prossime fasi del progetto. Il professor Battaglia è da anni coinvolto nell’ideazione della missione: dal 2008 si registrano i suoi primi interventi negli studi preliminari di settore e nel 2015 viene ufficializzata la sua nomina a membro dell’ESA Mission Advisory Board per lo sviluppo della missione.

Il satellite EarthCARE, una volta lanciato, ha raggiunto in pochi minuti la sua orbita eliosincrona polare, intorno ai 400 km di altezza. Nel corso dei prossimi gironi cominceranno  i primi test dei 4 strumenti all’avanguardia inseriti al suo interno: un radar atmosferico a 94 GHz con capacità Doppler che permette di profilare nuvole  e precipitazioni e di mappare per la prima volta le velocità verticali delle idrometeore; un lidar che, grazie alla sua risoluzione spettrale, consente di ottenere profili verticali micro e macrofisici di nubi e aerosol riuscendo anche a distinguere i diversi tipi di aerosol; un imager multispettrale (MSI) capace di offrire una mappatura bidimensionale della scena sotto osservazione; e infine un radiometro a banda larga che misura la radiazione solare riflessa e la radiazione infrarossa proveniente dalla Terra.

“La missione EarthCARE è uno dei progetti più ambiziosi mai affrontati dall’Agenzia spaziale europea in collaborazione con quella giapponese – ha commentato il professor Alessandro Battaglia – Nonostante le innumerevoli sfide tecnologiche e logistiche, la missione è diventata finalmente operativa. Insieme a colleghi dell’Università di Leicester, UK e McGill in Canada abbiamo lavorato in particolare allo sviluppo del simulatore e agli algoritmi di inversione del radar Doppler a lunghezza d’onda millimetrica. È quindi con trepidazione che aspettiamo i primi dati dopo tanti anni passati a simulare numericamente la risposta degli strumenti sui nostri computer. La tecnologia innovativa del radar che è stato sviluppato dai colleghi giapponesi ci consentirà di misurare per la prima volta il movimento verticale dell’aria in nuvole (e.g. all’interno di celle convettive) e la dimensione di particelle come gocce di pioggia e fiocchi di neve”“Questa missione terrestre – ha concluso Battaglia – è cruciale per meglio caratterizzare le nuvole e i sistemi precipitanti che svolgono un ruolo vitale nel sistema climatico. I risultati della missione potranno inoltre fungere da apripista ad altre missioni spaziali che impiegano radar Doppler millimetrici quali la missione WIVERN, al momento in fase A nello stesso programma Earth Explorer dell’ESA, e nella quale il Politecnico svolge un ruolo di punta”.

 

Testo e immagine dall’Ufficio Web e Stampa del Politecnico di Torino.

FARMACI: DOMANDA IN AUMENTO E CARENZE SUL MERCATO? Una soluzione dalla tesi di Francesco Destro: in tempo reale una maggiore produzione a un costo inferiore

 

Premiato dall’European Federation of Chemical Engineering Francesco Destro per i nuovi algoritmi di monitoraggio capaci di risolvere il disequilibrio tra domanda e offerta attraverso tecnologie innovative e digital twin, le repliche virtuali dei processi di produzione. La ricerca è stata sviluppata al CAPE-Lab dell’Università di Padova

Ieri, lunedì 3 giugno, all’European Symposium on Computer Aided Process Engineering and International Symposium on Process Systems Engineering che si è tenuto a Firenze – con la seguente motivazione “Relevance to the CAPE terms of reference, innovation, technical quality, scientific impact including industrial relevance, and dissemination of the results” – l’European Federation of Chemical Engineering (EFCE)  ha premiato Francesco Destro, Ricercatore al Dipartimento di Ingegneria Chimica dell’Università di Padova e al Centro di Innovazione Biomedica del Massachusetts Institute of Technology di Boston, per la sua tesi di dottorato dal titolo “Digitalizing pharmaceutical development and manufacturing: advanced mathematical modeling for operation design, process monitoring and process control”.

FRANCESCO DESTRO premiazione

L’immagine idealizzata di laboratori farmaceutici perfettamente efficienti si scontra con la cruda realtà: i processi per la produzione di farmaci sono spesso inefficienti e soggetti ad una serie di sfide. Sebbene i farmaci che troviamo in farmacia siano indiscutibilmente di qualità eccellente, la capacità globale di produzione di farmaci su larga scala è estremamente limitata e i costi sono spesso elevati.

Il risultato? Difficoltà nel soddisfare una domanda in aumento, con conseguenti carenze di farmaci sul mercato. Secondo il rapporto del 2023 di PGEU, Il Gruppo Farmaceutico dell’Unione Europea, l’85% dei Paesi Europei ha segnalato, nel 2023, carenze per più di 300 farmaci, tra cui antibiotici, antitumorali e farmaci per il sistema cardiovascolare. Addirittura, il 42% dei Paesi europei ha riportato carenze per più di 500 farmaci. Le inefficienze nei processi della produzione di farmaci non solo causano queste carenze sullo scaffale della farmacia, ma allungano notevolmente i tempi di attesa per l’approvazione e la distribuzione di nuovi farmaci, rallentando l’innovazione nel settore farmaceutico.

Un esempio emblematico della scarsa efficienza nella produzione farmaceutica è stato l’accesso ai vaccini contro il COVID-19. Dopo l’approvazione dei vaccini COVID, l’Italia, come molti altri Paesi, ha dovuto affrontare una lunga attesa prima di poterli distribuire su larga scala. Questa situazione ha messo in luce la difficoltà dell’industria farmaceutica nel produrre farmaci su larga scala, specialmente quando la domanda cresce improvvisamente. Di nuovo: questo limite non riguarda la qualità dei farmaci a cui abbiamo accesso, ma, appunto, il costo produttivo e la quantità di farmaci che siamo in grado di produrre a livello globale.

«Tuttavia, a fronte di questo scenario esiste un possibile rimedio: la digitalizzazione, la cosiddetta Industria 4.0. L’applicazione di tecnologie come il machine learning e l’intelligenza artificiale stanno aprendo nuove strade per ottimizzare i processi di produzione di farmaci. Questa è esattamente l’area di interesse su cui si è concentrata la mia tesi di dottorato. Nel corso della ricerca, ho sviluppato tecnologie innovative per la digitalizzazione e l’ottimizzazione dei processi di produzione di farmaci – dice Francesco Destro –Ho implementato nuovi algoritmi di monitoraggio di processo basati sul machine learning, che permettono di identificare e correggere eventuali inefficienze o anomalie in tempo reale, consentendo di produrre una maggiore quantità di farmaci ad un costo inferiore. Inoltre, ho lavorato allo sviluppo di cosiddetti digital twin di processi farmaceutici che sono una replica virtuale sullo schermo di un computer di un processo di produzione farmaceutica, completa di tutte le variabili e i parametri che influenzano il processo reale. Questa replica digitale – spiega Francesco Destro – non solo ci consente di testare e ottimizzare diversi scenari da un computer, senza dover intervenire direttamente sul processo reale, ma può anche essere utilizzata per predire e prevenire problemi potenziali prima che si verifichino, garantendo così una produzione di farmaci più efficiente e affidabile».

La ricerca di dottorato si è svolta al CAPE-Lab dell’Università di Padova, sotto la guida del Professor Massimiliano Barolo. Il CAPE-Lab è pioniere in Italia nella digitalizzazione dei processi farmaceutici ed è riconosciuto a livello mondiale per la sua visione innovativa e per progetti all’avanguardia iniziati oltre 10 anni fa nell’ambito di digital twin e machine learning per l’ottimizzazione della produzione di farmaci. Grazie al ruolo di leader che CAPE-Lab ha in questo settore, Francesco Destro ha avuto l’opportunità di collaborare durante la ricerca con istituzioni di primo piano nel mondo accademico e industriale, tra cui Siemens, US Food & Drug Administration, Eli Lilly and Company e Purdue University. Collaborando con i partner si sono validati gli algoritmi e il software sviluppato in CAPE-Lab su impianti industriali, trasformando la ricerca da teorica in soluzioni pratiche che stanno già facendo la differenza nel mondo reale.

«Dopo aver conseguito il dottorato all’Università di Padova nel 2022, ho iniziato a lavorare come Ricercatore associato al Dipartimento di Ingegneria Chimica del Massachusetts Institute of Technology (MIT) di Boston, negli Stati Uniti. Al MIT, metto in pratica le conoscenze avanzate acquisite al CAPE-Lab per rivoluzionare la produzione di una nuova generazione di farmaci per terapia genica. Questi farmaci – conclude Francesco Destro – permettono di curare gravi patologie genetiche, ma sono prodotti tramite processi estremamente complessi, con costi di produzione che possono superare i 200.000 euro per una singola dose per un paziente. Attraverso l’applicazione delle tecnologie di digitalizzazione e machine learning che ho sviluppato durante il mio percorso di dottorato a Padova, sto contribuendo a rendere la produzione di questi farmaci innovativi più economica e accessibile a tutti i pazienti che ne hanno bisogno».

«Il gruppo di ricerca CAPE-Lab (Computer-Aided Process Engineering Laboratory) del Dipartimento di Ingegneria Industriale è attivo da vent’anni e da circa quindici è fortemente coinvolto in ricerche nell’ambito dell’ingegneria farmaceutica. Da un punto di vista generale, sviluppiamo tecnologie in grado di migliorare la produzione su larga scala di farmaci; in particolare, cerchiamo di ridurre quanto più possibile il tempo che passa da quando le autorità competenti approvano la messa in commercio di un farmaco, a quando il farmaco diventa effettivamente disponibile per tutti in farmacia – afferma Massimiliano Barolo direttore di CAPE-Lab –. Per raggiungere questo obiettivo, i problemi tecnologici che vanno affrontati sono numerosi. Per esempio: come assicurare che la qualità finale del prodotto sia garantita sempre, indipendentemente da chi fabbrica il farmaco e da quanto variabile è la qualità delle materie prime? come ridurre il numero di esperimenti necessari allo sviluppo su scala industriale del processo produttivo su scala industriale? come trasferire con rapidità la produzione da un sito produttivo a un altro? come ridurre i consumi di energia e gli scarti di produzione? come estrarre informazioni utili dai dati che i moderni sensori restituiscono ogni pochi secondi? Cerchiamo di dare risposta a queste domande impiegando due risorse fondamentali – sottolinea Barolo –. La prima è il bagaglio di tecniche di modellazione matematica, di ottimizzazione, di analisi dei dati e di progettazione degli esperimenti che la nostra disciplina di base ‒ l’ingegneria chimica ‒ ci mette a disposizione. La seconda è il continuo dialogo con l’industria, che ci permette da un lato di essere sistematicamente vicini alle problematiche del mondo produttivo, e dall’altro di sviluppare soluzioni che siano non soltanto scientificamente originali, ma anche efficaci nella pratica. Poter contribuire a rendere meno tortuoso il “viaggio” che un farmaco fa, dal laboratorio dello scienziato che l’ha scoperto alla casa del paziente che lo deve impiegare, ci riempie davvero di orgoglio».

Francesco Destro è Ricercatore Associato al Dipartimento di Ingegneria Chimica e al Centro di Innovazione Biomedica del Massachusetts Institute of Technology di Boston, negli Stati Uniti. La sua ricerca è focalizzata sullo sviluppo di software ed algoritmi per ottimizzare la produzione di farmaci per terapia genica. Tali farmaci sono in grado di curare gravi patologie genetiche, ma hanno attualmente costi produttivi che possono superare 200.000 euro per dose, a causa della complessità intrinseca di questi prodotti biotecnologici. Francesco Destro ha ricevuto il Dottorato di Ricerca in Ingegneria Industriale con Curriculum Ingegneria Chimica ed Ambientale all’Università di Padova. Durante il suo dottorato, Destro ha sviluppato software e algoritmi di machine learning per l’ottimizzazione dei processi di produzione farmaceutica. Attualmente, al MIT, Destro applica queste tecnologie avanzate per rendere la produzione di farmaci per terapia genica più efficiente e sostenibile, contribuendo a ridurre i costi e migliorare l’accessibilità per i pazienti.

Testo e foto dall’Ufficio Stampa dell’Università di Padova

Il geotermico è la rinnovabile più efficace per diminuire le emissioni di CO2 (seguono idroelettrico e solare)

Lo studio dell’Università di Pisa su 27 paesi OCSE dal 1965 al 2020 pubblicato sul Journal of Cleaner Production

Impianto ad energia geotermica di Nesjavellir in Islanda, che fornisce acqua calda all'area di Reykjavík
Impianto ad energia geotermica di Nesjavellir in Islanda, che fornisce acqua calda all’area di Reykjavík. Foto di Gretar Ívarsson, modificata da Fir0002, in pubblico dominio

Per diminuire le emissioni di CO2 nell’atmosfera, il geotermico è la fonte di energia rinnovabile più efficace, seguito da idroelettrico e solare. La notizia arriva da uno studio su 27 paesi OCSE dal 1965 al 2020 pubblicato sul Journal of Cleaner Production.

La ricerca ha analizzato l’impatto di alcune fonti di energia rinnovabile per la produzione di energia elettrica: geotermico, solare, eolico, biofuel, idroelettrico. Dai risultati è emerso che ognuna di esse contribuisce a ridurre le emissioni di CO2 e dunque è utile agli obiettivi della transizione ecologica. Fra tutte, le migliori sono il geotermico, l’idroelettrico, e il solare, in ordine decrescente di importanza. A livello quantitativo, 10 terawattora di energia elettrica prodotti da geotermico, idroelettrico, e solare, consentono infatti di ridurre le emissioni di CO2 pro capite rispettivamente di 1.17, 0.87, e 0.77 tonnellate.

I 27 paesi OCSE esaminati dal 1965 al 2020 sono stati scelti come campione perché contribuiscono notevolmente al rilascio di emissioni di CO2 nell’atmosfera e rappresentano circa un terzo del totale delle emissioni globali di CO2. Nello specifico si tratta di Australia, Austria, Canada, Cile, Cipro, Danimarca, Finlandia, Francia, Germania, Grecia, Islanda, Irlanda, Israele, Italia, Giappone, Messico, Paesi Bassi, Nuova Zelanda, Norvegia, Polonia, Portogallo, Corea del Sud, Spagna, Svezia, Svizzera, Regno Unito e Stati Uniti.

Per ricavare i dati, la ricerca ha analizzato molteplici fonti, le principali sono: Food and Agriculture Organization (FAO), International Energy Agency (IEA), OECD, Our World in Data (OWID), e World Bank.

“È noto che circa due terzi degli italiani si dichiara appassionato del tema della sostenibilità e ritiene importante l’uso delle rinnovabili per avere città più sostenibili  – dice Gaetano Perone, ricercatore del dipartimento di Economia e Management dell’Università di Pisa e autore dell’articolo – la mia analisi spiega in modo dettagliato l’impatto di ciascuna energia rinnovabile sulle emissioni di CO2, considerando anche altri aspetti legati ai costi di implementazione e costruzione delle centrali e delle opportunità date dalle caratteristiche geografiche e climatiche dei paesi considerati”.

Riferimenti bibliografici:

Gaetano Perone, The relationship between renewable energy production and CO2 emissions in 27 OECD countries: A panel cointegration and Granger non-causality approach, Journal of Cleaner Production,
Volume 434, 2024, 139655, ISSN 0959-6526, DOI: https://doi.org/10.1016/j.jclepro.2023.139655

Testo dall’Unità Comunicazione Istituzionale dell’Università di Pisa.

Pandemie e crisi globali: il ruolo cruciale delle scienze comportamentali per le decisioni politiche

A spiegare come l’alleanza tra scienziati e decisori politici possa essere decisiva in contesti critici globali sono i risultati di uno studio internazionale pubblicato su Nature. Tra gli 80 ricercatori coinvolti, provenienti da 30 Paesi, anche Valerio Capraro, docente di Psicologia delle decisioni morali dell’Università di Milano-Bicocca.

 

NEW YORK/MILANO, 13 dicembre 2023 – Un nuovo studio globale guidato da Kai Ruggeri, PhD, della Columbia Mailman School of Public Health, che ha coinvolto oltre 80 collaboratori provenienti da più di 30 Paesi, sottolinea il ruolo cruciale delle scienze comportamentali nella formulazione di decisioni politiche,  sviluppando al contempo un nuovo metodo per valutare l’evidenza sperimentale su politiche pubbliche in maniera sistematica. I risultati sono stati pubblicati sulla rivista Nature.

Nell’aprile 2020, un gruppo di ricercatori ha pubblicato un articolo di notevole impatto con 19 raccomandazioni politiche sul COVID-19 basate  sulle scienze comportamentali. Il documento era frutto di un’ampia collaborazione di oltre 40 esperti, guidati da Jay Van Bavel dell’Università di New York e Robb Willer di Stanford, ed è stato citato migliaia di volte da governi, ricercatori e personaggi pubblici. Le sue raccomandazioni riguardavano argomenti come la comunicazione ufficiale sul distanziamento sociale, come ottenere un vaccino una volta disponibile e la necessità di lavorare all’interno delle comunità per produrre un impatto reale.
Ora, il nuovo lavoro di Ruggeri et al. su Nature valuta le prove scientifiche che, dopo la pubblicazione del primo lavoro, hanno supportato le sue affermazioni e la loro applicabilità alla politica.

“I governi di tutto il mondo hanno formulato strategie politiche per quanto riguarda la pandemia esplicitamente sulla base dei suggerimenti comportamentali evidenziati nel documento del 2020 di Jay J. Van Bavel et al.”, afferma Ruggeri, professore di politica e gestione sanitaria presso la Mailman School of Public Health della Columbia University. “Date le preoccupazioni per la mancanza di fiducia del pubblico nella scienza, in particolare nel contesto del COVID-19, abbiamo ritenuto importante valutare le evidenze sperimentali intorno alle raccomandazioni delle politiche pubbliche, in modo da promuovere trasparenza e creare fiducia”.

 Due team indipendenti di 72 esperti – inclusi sia gli autori del documento del 2020, sia un team indipendente di valutatori – hanno esaminato 747 articoli di ricerca relativi alla pandemia per valutare in che misura le affermazioni del documento originale hanno fornito una valida guida politica.

“Abbiamo assegnato un rating a ciascuna ricerca in maniera sistematica. Rating più alti corrispondevano a ricerche con conclusioni più forti dal punto di vista del potenziale impatto reale, come gli studi sul campo. I rating di ciascun articolo sono stati assegnati da più ricercatori in maniera indipendente e anonima”, afferma Valerio Capraro, professore associato di psicologia presso l’Università di Milano-Bicocca e primo autore italiano dello studio.

 Alex Haslam, PhD, professore di psicologia presso l’Università del Queensland in Australia e coautore dello studio, afferma: “Negli ultimi anni si è discusso molto dei limiti delle scienze psicologiche e comportamentali, soprattutto di fronte alla cosiddetta “crisi della replicabilità”. In contrapposizione a ciò, questa ricerca ha dimostrato che esiste un nucleo di buona teoria in questi campi, che fornisce una solida base sia per la previsione scientifica che per le politiche pubbliche. Questa teoria potrebbe non essere sempre appariscente, ma è il fondamento di una buona scienza sociale, e questo studio conferma che è qualcosa su cui possiamo fare affidamento per avere una guida quando ne abbiamo bisogno”.

Lo studio trova evidenze scientifiche per 18 delle 19 affermazioni contenute nel documento del 2020, comprese quelle relative al senso di identità e alla connessione con la comunità, leadership e fiducia, comunicazione su salute pubblica, coesione sociale e disinformazione. Tra queste 18 il documento del 2020 ha identificato correttamente 16 concetti comportamentali rilevanti durante la pandemia, inclusi alcuni probabili ostacoli alla riduzione della diffusione della malattia e le sfide sociali che i politici si sarebbero trovati ad affrontare. I ricercatori non hanno riscontrato alcun effetto per due delle politiche proposte, entrambe relative ad una comunicazione pubblica efficace (che i messaggi dovrebbero enfatizzare i benefici per il destinatario e che dovrebbero concentrarsi sulla protezione degli altri). Inoltre, il team non ha trovato prove da esaminare per una raccomandazione molto dibattuta pubblicamente ma che non ha ricevuto attenzione dalla comunità scientifica, che suggeriva che l’espressione “distanziamento fisico” fosse preferibile a “distanziamento sociale”.

Le affermazioni più fortemente supportate riguardavano l’importanza degli interventi per combattere la disinformazione e la polarizzazione, che si sono rivelati vitali per garantire l’aderenza alle linee guida sulla salute pubblica.

La ricerca ha inoltre sottolineato che, per essere efficace, la comunicazione deve provenire da leader fidati e rinforzare norme sociali positive.

Gli interventi di sanità pubblica che hanno ricevuto maggiore attenzione non sono stati necessariamente quelli con l’evidenza migliore. Ad esempio, la pulizia delle mani è stata ampiamente promossa come strategia per fermare la diffusione del COVID, ma gli effetti trovati nei vari studi sono stati minimi o nulli, in particolare se confrontati all’uso di mascherine, all’isolamento, al distanziamento e ai vaccini.

Per quanto riguarda le mascherine, le prime linee guida in alcuni paesi suggerivano che la pratica non avrebbe ridotto il COVID-19, ma prove successive hanno sottolineato la loro efficacia. Allo stesso modo, la ricerca ha anche ridimensionato le linee guida sull’impatto della chiusura delle scuole e della disinfezione delle superfici.

“Sebbene esistano comprensibili pressioni per emanare rapidamente linee guida durante una crisi, prendere decisioni politiche senza prove adeguate può avere un costo in molti modi”, afferma la coautrice dello studio Katherine Baicker, PhD, Direttore generale dell’Università di Chicago. “Con l’arrivo nel tempo di nuove evidenze scientifiche, alcune persone potrebbero considerare l’evoluzione delle linee guida politiche come un segno di impreparazione – o addirittura di cospirazione – il che indebolisce la fiducia nella competenza. I politici devono bilanciare la necessità di rapidità con la necessità di prove solide e credibilità”.

Il nuovo studio identifica anche diversi ambiti mancanti nel documento del 2020. Questi includono la percezione della minaccia e del rischio, il ruolo della disuguaglianza e del razzismo, lo scetticismo nei confronti della scienza, l’incentivazione di comportamenti al di là della semplice descrizione dei benefici (ad esempio, fornendo ricompense finanziarie per la vaccinazione) e l’assenza di una chiara leadership.

 

Infine, il gruppo di ricerca fornisce raccomandazioni per aiutare ricercatori e responsabili politici a reagire a future pandemie e disastri. Queste ultime includono la necessità di studiare le popolazioni globali, di fare più test sul campo e di essere più specifici nella formulazione di domande verificabili.

“Non si può sottovalutare il valore di testare sul campo ciò che funziona davvero per cambiare i comportamenti sanitari, e le conclusioni più forti che siamo riusciti a trarre in questo articolo sono arrivate spesso grazie alle partnership che i ricercatori hanno stretto con i governi locali e gli operatori sanitari per valutare attentamente ciò che effettivamente aggiunge valore nel mezzo di una crisi”, afferma la coautrice dello studio Katy Milkman, PhD, professoressa alla Wharton School dell’Università della Pennsylvania. I ricercatori incoraggiano inoltre gli scienziati a stringere più alleanze con politici e decisori – nel governo locale, negli ospedali, nelle scuole, nei media e oltre.

“Questo lavoro ha il potenziale per aumentare la trasparenza e creare fiducia nella scienza e nella salute pubblica, nonché per predisporre direttamente lo sviluppo di strumenti e conoscenze per pandemie o crisi future. I ricercatori possono essere una valida fonte di consulenza politica nel contesto di una crisi, e le nostre raccomandazioni indicano modi per migliorare ulteriormente questo ruolo delle scienze sociali e comportamentali”, afferma il co-autore senior dello studio Robb Willer, PhD, professore di sociologia all’Università di Stanford.

“Questo nuovo articolo ha valutato rigorosamente le raccomandazioni politiche del nostro team originale per vedere se fossero accurate, utilizzando grandi quantità di dati e un nuovo team di revisori indipendenti provenienti da tutto il mondo. Oltre a confermare la stragrande maggioranza delle nostre affermazioni originali, stabilisce un nuovo standard di riferimento per la valutazione delle evidenze quando devono essere prese decisioni politiche, in particolare quelle urgenti”, afferma Jay Van Bavel, PhD, professore di psicologia alla New York University, autore principale dell’articolo decisivo del 2020 e co-autore senior del nuovo articolo.

 

Un elenco completo degli autori è disponibile nell’articolo (DOI: 10.1038/s41586-023-06840-9).

vacilla decisione vaccinazione vaccinarsi COVID-19
Pandemie e crisi globali: il ruolo cruciale delle scienze comportamentali per le decisioni politiche. Immagine di Gerd Altmann

Testo dall’Ufficio stampa dell’Università di Milano-Bicocca

Esiste una relazione tra fiducia nella scienza e nelle università e opinioni circa il cambiamento climatico?

A cercare di rispondere a questa e ad altre domande, uno studio di grande attualità, appena pubblicato su PLoS Climate.

Nonostante il forte consenso della più gran parte degli studiosi sul fatto che il clima della terra stia cambiando e che le attività umane giochino un ruolo importante in questo, è pur vero che il tema scatena una partigianeria fortemente polarizzata negli Stati Uniti, che porta al negazionismo (dall’abstract dello studio su PLoS Climate).
Il risultato potrebbe essere dovuto all’azione della retorica aziendale e di alcune organizzazioni non profit, e risulta associato alle élite del Partito Repubblicano.
Tutto questo ha creato notevole frustrazione nella comunità scientifica (p. 2), al punto che già due anni fa si è addirittura affermato che il contratto tra scienza e società si è ormai rotto, invocando una moratoria sul tema (dall’abstract del secondo studio qui in bibliografia, quello su Climate and Development).

Tornando alla ricerca in questione, la stessa vuole quindi gettare luce sulle determinanti politiche e sociali dell’azione climatica (p. 2 del nuovo studio).

 

cambiamento climatico fiducia scienza
Foto di Katie Rodriguez

Parafrasando Claude Lévi-Strauss (Il crudo e il cotto, 1964), importante è porsi le giuste domande, ancor più che dare le giuste risposte. A p. 3 gli autori si interrogano:

  • Come la fiducia nella scienza si associa al considerare il cambiamento climatico un problema?
  • Come la fiducia nella scienza si associa a punti di vista sul fatto che il cambiamento climatico sia causato dalla natura o dall’uomo?
  • Chi ha fiducia nei centri di ricerca universitari?

Il contesto: Ricerche precedenti hanno individuato due diversi processi comportamentali: un rifiuto psicologico della scienza (Psychological Science Rejection – PSR) e un rifiuto ideologico della scienza (Ideological Science Rejection – ISR).
Mentre la prima potrebbe essere aumentata nel tempo, la seconda prospettiva sottolinea la crescita del populismo e la diminuita fiducia nella politica, l’effetto polarizzante dei media, che va quindi ad influire sulla fiducia nella scienza. Alcuni media trattano la scienza in maniera “relativistica”, considerandola semplicemente come un’opinione tra tante, oppure mostrando un “falso equilibrio” tra scienziati e scettici (p. 2).
Storicamente, la fiducia nella scienza negli Stati Uniti è sempre stata alta, pur dovendo considerare differenze regionali, religiose, o legate ad altre forme di partigianeria (p. 3).

Il sondaggio: La ricerca su PLoS Climate espone i risultati di un sondaggio su un campione rappresentativo di statunitensi (p. 3), ponderato sulla base di elementi che attengono alla persona, oltre che educazione, regione geografica, voto alle elezioni presidenziali del 2020 (p. 5).

Per gli autori, il cambiamento climatico è una sfida globale che necessita un approccio collaborativo e interdisciplinare, tanto per comprendere come per affrontare il problema. Considerando questo, e rispondendo quindi alla prima domanda, si tratta perciò di un tema cruciale che permette di misurare la fiducia pubblica nella scienza (p. 4).
Per quanto non ci sia accordo interdisciplinare su come concettualizzare fiducia e sfiducia, gli autori considerano un tipo di fiducia verso le istituzioni, che si relaziona alle performance delle istituzioni, perché ovviamente è la nostra esperienza delle stesse (che può essere anche indiretta, per il tramite di altri) a condizionare il nostro giudizio. Più nel dettaglio, non si tratta di istituzioni governative o di media in questo caso: le istituzioni prese in considerazione sono scienziati, centri di ricerca, università, per i quali gli statunitensi possono non avere esperienza diretta e quindi basare la loro fiducia su altri elementi, ad esempio di carattere legati all’ideologia, alla religione o forme di partigianeria (pp. 4-5).

Un sondaggio del 2020 rivelava una forte divisione: quasi il 50% degli statunitensi crede che il cambiamento climatico abbia cause antropiche, mentre una percentuale simile è divisa tra coloro che ritengono che le cause siano di origine naturale e coloro che ritengono non ci siano prove di un riscaldamento globale (p. 4).
Ad alcuni anni di distanza dal precedente, il nuovo sondaggio rivela dati un po’ diversi, per cui il 45% degli statunitensi pensano che il cambiamento climatico sia un problema molto importante, il 23% pensa che in qualche modo sia un problema importante, il 18% pensa che sia un problema poco importante e il 14% pensa che non sia un problema.
Il nuovo sondaggio ha semplificato il discorso della cause, per cui il 59% degli statunitensi pensa che il cambiamento climatico sia dovuto alle attività umane e il 41% (Fig. 1 a p. 8).

Secondo l’età, chi ha tra i 45 e i 64 anni, o 64 e più anni è meno incline a pensare che il cambiamento climatico sia un problema importante. Le donne sono più inclini degli uomini. Sulla stessa domanda, non vi sono state informazioni significative relativamente alla fonte delle informazioni, ad esempio, se gli intervistati si informassero alla radio o con fonti online.

Per rispondere alla seconda e alla terza domanda, le ipotesi verificate statisticamente sono che gli schieramenti sul cambiamento climatico siano determinati dall’ideologia e dalle visioni dei due partiti (Democratici e Repubblicani), per cui ad es. un democratico più probabilmente crederà che il cambiamento climatico è un problema; tra i conservatori, coloro che si identificano come moderati o liberal più probabilmente degli altri risponderanno che è un problema importante. Oltre a questo, coloro che hanno una bassa fiducia nella scienza risponderanno con minore probabilità che il cambiamento climatico è causato dalle attività umane (p. 10).
Gli autori sottolineano che si tratti di dati significativi e di magnitudine considerevole.

Mentre coloro che Ebrei e Cattolici sono più inclini a ritenere che il cambiamento climatico sia causato dalle attività umane, coloro che non professano alcuna fede registrano valori ancora più alti. Coloro che partecipano più spesso alle funzioni religiose sono più inclini a credere che il cambiamento climatico sia dovuto a cause naturali.
Per quanto riguarda la fiducia verso i centri di ricerca universitari, democratici e moderati si sono rivelati più inclini ad averla rispetto agli indipendenti.

In conclusione, gli autori constatano pure che studi empirici come questo siano pochi in letteratura, auspicando ulteriori ricerche sul tema, per diversi aspetti. Auspicano però soprattutto una cultura dove la ricerca e la comunicazione scientifica ricevano fiducia, costruendola già nell’educazione primaria e secondaria.

 

Con la premessa importante che quello su PLoS Climate è uno studio basato sul pubblico degli Stati Uniti, vi è una quarta domanda che ovviamente non è nella ricerca ma che viene naturale porsi: quanto queste considerazioni potrebbero essere valide anche per l’Italia?

Pure nel nostro Paese registriamo una fortissima polarizzazione su questi temi e il presentarsi delle medesime condizioni: il populismo in ascesa, la visione “relativistica” come i dibattiti “falsamente equilibrati” sui media, ecc.
Non sarebbe certo corretto rispondere senza dati a sostegno, ma – visto quanto sopra – il sospetto che si possano conseguire risultati non dissimili potrebbe forse accompagnarci e spingere qualcuno a ripetere l’esperimento anche nel nostro Paese.

 

 

Riferimenti bibliografici:

R. Michael Alvarez, Ramit Debnath, Daniel Ebanks, Why don’t Americans trust university researchers and why it matters for climate change, PLoS Climate (2023) 2(9): e0000147. DOI: 10.1371/journal.pclm.0000147

Bruce C. Glavovic, Timothy F. Smith & Iain White (2021) The tragedy of climate change science, Climate and Development, 14:9, 829-833, DOI: 10.1080/17565529.2021.2008855
PEW, The politics of climate; 2020. Link: https://www.pewresearch.org/science/2016/10/04/the-politics-of-climate/

ZePrion: in orbita per sviluppare nuovi farmaci 

Lanciato verso la Stazione Spaziale Internazionale l’esperimento ZePrion, che avrà il compito di confermare il meccanismo molecolare alla base di un innovativo protocollo farmaceutico per contrastare le malattie da prioni. Sviluppato da un gruppo internazionale di ricercatori, tra cui le scienziate e gli scienziati italiani delle università di Milano-Bicocca e Trento, della Fondazione Telethon, dell’INFN Istituto Nazionale di Fisica Nucleare e dell’Istituto di Biologia e Biotecnologia Agraria del Consiglio Nazionale delle Ricerche (CNR-IBBA), l’esperimento potrebbe avere ricadute importanti anche per altre malattie.

Lancio di NG-19 con l'esperimento ZePrion. Foto NASA
Lancio di NG-19 con l’esperimento ZePrion. Foto NASA

Un esperimento lanciato con successo oggi, mercoledì 2 agosto 2023, verso la Stazione Spaziale Internazionale (ISS), potrebbe portare ad una validazione del meccanismo di funzionamento di un protocollo del tutto innovativo per lo sviluppo di nuovi farmaci contro gravi malattie neurodegenerative e non solo. Frutto di una collaborazione internazionale che coinvolge diversi istituti accademici e l’azienda israeliana SpacePharma, l’esperimento ZePrion vede un fondamentale contributo dell’Italia attraverso l’Università Milano-Bicocca, l’Università di Trento, la Fondazione Telethon, l’Istituto Nazionale di Fisica Nucleare (INFN), e l’Istituto di Biologia e Biotecnologia Agraria del Consiglio Nazionale delle Ricerche (CNR-IBBA). Decollato con la missione spaziale robotica di rifornimento NG-19 dalla base di Wallops Island, in Virginia (USA), ZePrion si propone di sfruttare le condizioni di microgravità presenti in orbita per verificare la possibilità di indurre la distruzione di specifiche proteine nella cellula, interferendo con il loro naturale meccanismo di ripiegamento (folding proteico). L’arrivo di NG-19 e ZePrion sulla ISS è previsto per venerdì 4 agosto, quando in Italia saranno all’incirca le 8:00.

Il successo dell’esperimento ZePrion fornirebbe un possibile modo per confermare il meccanismo molecolare alla base di una nuova tecnologia di ricerca farmacologica denominata Pharmacological Protein Inactivation by Folding Intermediate Targeting (PPI-FIT), sviluppata da due ricercatori delle Università Milano-Bicocca e di Trento e dell’INFN. L’approccio PPI-FIT si basa sull’identificazione di piccole molecole (dette ligandi), in grado di unirsi alla proteina che costituisce il bersaglio farmacologico durante il suo processo di ripiegamento spontaneo, evitando così che questa raggiunga la sua forma finale.

“La capacità di bloccare il ripiegamento di specifiche proteine coinvolte in processi patologici apre la strada allo sviluppo di nuove terapie per malattie attualmente incurabili”,

spiega Pietro Faccioli, professore dell’Università Milano-Bicocca, ricercatore dell’INFN, coordinatore dell’esperimento e co-inventore della tecnologia PPI-FIT.

Un tassello finora mancante per la validazione della tecnologia è la possibilità di ottenere un’immagine ad alta risoluzione del legame tra le piccole molecole terapeutiche e le forme intermedie delle proteine bersaglio (quelle che si manifestano durante il ripiegamento), in grado di confermare in maniera definitiva l’interruzione del processo di ripiegamento stesso. In genere, questo tipo di immagine viene ottenuta analizzando con una tecnica chiamata cristallografia a raggi X cristalli formati dal complesso ligando-proteina. Nel caso degli intermedi proteici, però, gli esperimenti necessari non sono realizzabili all’interno dei laboratori sulla Terra, in quanto la gravità genera effetti che interferiscono con la formazione dei cristalli dei corpuscoli composti da ligando e proteina, quando questa non abbia ancora raggiunto la sua forma definitiva. Questo ha spinto le ricercatrici e i ricercatori della collaborazione ZePrion a sfruttare la condizione di microgravità che la Stazione Spaziale Internazionale mette a disposizione.

“Esiste infatti chiara evidenza che la microgravità presente in orbita fornisca condizioni ideali per la creazione di cristalli di proteine”, illustra Emiliano Biasini, biochimico dell’Università di Trento e altro co-inventore di PPI-FIT, “ma nessun esperimento ha provato fino ad ora a generare cristalli di complessi proteina-ligando in cui la proteina non si trovi in uno stato definitivo”.

Esattamente quanto si propone di fare l’esperimento ZePrion, lavorando in modo specifico sulla proteina prionica, balzata tristemente agli onori della cronaca negli anni Novanta durante la crisi del ‘morbo della mucca pazza’. Questa malattia è infatti causata da una forma alterata della proteina prionica chiamata prione, coinvolta in gravi malattie neurodegenerative dette appunto ‘da prioni’ tra le quali la malattia di Creutzfeld-Jakob o l’insonnia fatale familiare.

“Anche grazie al sostegno di Fondazione Telethon, che da sempre supporta le mie ricerche per individuare nuove terapie contro queste malattie, abbiamo l’opportunità di validare del meccanismo di funzionamento della tecnologia PPI-FIT, che potrebbe rappresentare veramente un punto di svolta in questo settore”, aggiunge Biasini.

“In orbita sarà possibile generare cristalli formati da complessi tra una piccola molecola e una forma intermedia della proteina prionica, che in condizioni di gravità ‘normale’ non sarebbero stabili. Questi cristalli potranno poi essere analizzati utilizzando la radiazione X prodotta con acceleratori di particelle, per fornire una fotografia tridimensionale del complesso con un dettaglio di risoluzione atomico. Campioni non cristallini ottenuti alla SSI verranno inoltre analizzati per Cryo-microscopia Elettronica di trasmissione (Cryo/EM)”, sottolinea Pietro Roversi, ricercatore CNR-IBBA.

ZePrion si compone di un vero e proprio laboratorio biochimico in miniatura (lab-in-a-box) realizzato da SpacePharma, che opererà a bordo della Stazione Spaziale Internazionale e verrà controllato da remoto. Oltre alla componente italiana, la collaborazione ZePrion si avvale della partecipazione delle scienziate e degli scienziati dell’Università di Santiago di Compostela.

Testo e foto dall’Ufficio Stampa dell’Università di Milano-Bicocca.