News
Ad
Ad
Ad
Tag

USA

Browsing

WIDER THAN THE SKY – Più grande del cielo

L’intelligenza artificiale tra scienza, arte e mistero umano

Presentato alla prossima Festa del Cinema di Roma – RoFF 2025, nella sezione Special Screening

IN SALA PROSSIMAMENTE CON WANTED CINEMA

Una produzione Aura Film, in coproduzione con RSI Radiotelevisione Svizzera, Ameuropa International, con RAI Cinema

la locandina di Wider Than The Sky – Più grande del cielo, film documentario di Valerio Jalongo
la locandina di Wider Than The Sky – Più grande del cielo, film documentario di Valerio Jalongo

Che cos’è davvero l’intelligenza artificiale? Una straordinaria opportunità, un rischio globale, o forse una grande illusione? Wider Than The Sky – Più grande del cielo è il nuovo film documentario di Valerio Jalongo, presentato in anteprima nazionale alla Festa del Cinema di Roma 2025 nella sezione Special Screening, che cerca una risposta a queste domande con gli strumenti della scienza, della poesia e dell’arte.

Girato in oltre dieci città tra Europa, Stati Uniti e Giappone, il film mette in dialogo neuroscienziati, filosofi, artisti e robot umanoidi per interrogarsi sul futuro dell’umanità di fronte a una tecnologia che sta ridefinendo le nostre vite.

Wider Than The Sky – Più grande del cielo è una produzione internazionale, un’indagine senza confini politici e geografici realizzato in collaborazione con la comunità scientifica europea dell’Human Brain Project e la compagnia di danza Sasha Waltz & Guests.  Protagonisti del film sono pensatori e innovatori di fama mondiale, tra cui Antonio Damasio, Andrea Moro, Rob Reich, Refik Anadol, Hany Farid, Rainer Goebel, Sasha Waltz, Sougwen Chung, e i robot Anymal e Ameca che mostrano i punti di contatto tra ricerca neuroscientifica, arti performative e robotica avanzata.

“Non dovremmo chiamarla intelligenza artificiale – afferma Jalongo – ma intelligenza collettiva, perché nulla esisterebbe senza la conoscenza condivisa dell’umanità. La vera sfida è decidere se questa rivoluzione sarà usata per concentrare il potere o per costruire un futuro aperto e democratico” dichiara Jalongo che, dopo Il senso della bellezza L’acqua l’insegna la sete, torna al cinema quale mezzo di riflessione necessaria sul nostro presente, tra emozione e profonda inquietudine.

Con immagini sorprendenti e momenti di grande intensità visiva – dalle coreografie di Sasha Waltz ai droni da competizione, fino ai laboratori di robotica di Zurigo – Wider Than The Sky – Più grande del cielo svela un’IA non solo come sfida tecnologica, ma come mistero profondamente umano, destinato a cambiare radicalmente il nostro rapporto con la conoscenza, la creatività e la libertà.

Wider Than The Sky – Più grande del cielo è una produzione Aura Film, RSI Radiotelevisione Svizzera, Ameuropa International, con RAI Cinema e sarà disponibile da subito per le programmazioni nei cinema con matineé dedicate e rivolte alle scuole, e nelle sale italiane prossimamente con Wanted.


NOTE DI REGIA

Abbiamo mappe della Terra dettagliate fino al centimetro. Mappe dell’universo risalenti a un miliardesimo di secondo dopo il Big Bang. Abbiamo mappe precise di tutto… tranne che dei nostri cervelli.

Ora, per la prima volta, ci stiamo avvicinando alla creazione di una mappa 3D di quello che viene definito l’oggetto più complesso dell’universo: il cervello umano. Per anni, un’ampia comunità internazionale di neuroscienziati, l’Human Brain Project, ha collaborato a questo compito gigantesco.

Ma tracciare territori sconosciuti è rischioso: le mappe possono servire anche a scatenare guerre di conquista, ad affermare proprietà e sfruttamenti. Lo sviluppo dell’IA deve molto a ciò che stiamo scoprendo sul cervello umano. E se invece trovassimo che questa tecnologia perfeziona strumenti di controllo politico e sociale, dando a pochi privilegiati una sorta di “sguardo divino” su tutto? E se aiutasse a concentrare la ricchezza nelle mani di pochi? E se rendesse la guerra ancora più letale?

L’intelligenza artificiale è già utilizzata per creare un divario di potere senza precedenti nella storia. Il suo uso indiscriminato potrebbe generare un mondo disumanizzato di topi e uomini, dove chi si oppone al potere dominante è costretto a vivere sottoterra, privato di tutto per sfuggire al controllo.

Non si tratta di una profezia fantascientifica lontana: è la cronaca recente.
A Gaza, i sistemi di IA sono stati utilizzati per incrociare miliardi di dati, localizzare combattenti di Hamas e stimare il numero di civili “ammessi” come perdite collaterali, senza necessità di valutazioni umane caso per caso.

H.G. Wells scrisse che la nostra civiltà è impegnata in una corsa tra conoscenza e catastrofe. Una società a scatola nera, dove algoritmi oscuri governano le nostre vite, potrebbe far pendere l’ago della bilancia verso il disastro.

Wider Than the Sky” mi ha reso consapevole della vera natura dell’intelligenza artificiale: presentarla solo come miracolo tecnologico fa parte della menzogna che ne legittima la privatizzazione.

La verità sta invece dove nessuno guarda, in una dimensione opposta: l’IA sarebbe nulla senza tutta la conoscenza che l’umanità ha creato nella sua storia. Per questo, essa appartiene all’intera umanità, per la sua origine profondamente spirituale.

Dovremmo smettere di definirla “artificiale” e forse chiamarla “intelligenza collettiva”.

Abbiamo già un grande modello da seguire: gli scienziati e gli artisti che collaborano in squadre internazionali, scambiando esperienze e conoscenze liberamente, senza altra affiliazione che quella della razza umana, senza altro scopo che il bene dell’umanità.
Questa è la base di una IA “affidabile” e probabilmente anche il miglior antidoto contro i rischi di una società a scatola nera.


UNA PRODUZIONE AURA FILM

IN COPRODUZIONE CON RSI RADIOTELEVISIONE SVIZZERA

E AMEUROPA INTERNATIONAL CON RAI CINEMA

CON SASHA WALTZ, ANTONIO DAMASIO, REFIK ANADOL, KATRIN AMUNTS, ADAM RUSSELL, RAINER GOEBEL, ROB REICH, DAVID YOUNG, HANNA DAMASIO, JONAS T. KAPLAN, KINGSON MAN, HANY FARID, ANDREA MORO, MARVIN SCHÄPPER, THOMAS BITMATTA, ALEX VANOVER, NIKITA RUDIN, WILL JACKSON, e AMECA

REGIA E SCENEGGIATURA VALERIO JALONGO MONTAGGIO

MICHELANGELO GARRONE

DIRETTORE DELLA FOTOGRAFIA IAN OGGENFUSS

INGEGNERE DEL SUONO BALTHASAR JUCKER

SOUND DESIGNER LILIO ROSATO

MUSICHE DANIELA PES, KETY FUSCO

AIUTO REGIA ATTILIO DI TURI

GRADING ROGER SOMMER

FONICO DI MIX SANDRO ROSSI

GRAFICHE E TITOLI ELISA MACCELLI

MONTAGGIO DIALOGHI OMAR ABOUZAID

DELEGATI DI PRODUZIONE PER RSI RADIOTELEVISIONE SVIZZERA/ SSR SRG SILVANA BEZZOLA RIGOLINI, GIULIA FAZIOLI, ALESSANDRO MARCIONNI

LINE PRODUCER TINA BOILLAT, MARTINA LATINI

PRODOTTO DA PASCAL TRÄCHSLIN, VALERIO JALONGO

CON IL SUPPORTO DI UFFICIO FEDERALE DELLA CULTURA, REPUBBLICA E CANTONE TICINO, FILMPLUS DELLA SVIZZERA ITALIANA, SUISSIMAGE, MEDIA DESK SUISSE, ERNST GÖHNER STIFTUNG, TICINO FILM COMMISSION, MINISTERO DELLA CULTURA – DIREZIONE GENERALE CINEMA E AUDIOVISIVO, REGIONE LAZIO

 

Testo e immagini dall’Ufficio Stampa Echo Group, Wanted Cinema.

Prebunking: il debunking preventivo sulle elezioni può contribuire a ricostruire la fiducia nel processo elettorale 

Comunque la si pensi, viviamo tempi interessanti ma certo non facili: i conflitti sembrano aumentare sanguinosi non solo tra Stati, ma anche all’interno degli stessi. Comunque la si veda, si diceva, perché poi sulle macerie della fiducia, dei principi condivisi e della coesistenza sociale qualcuno in ogni caso dovrà governare.

A rischio è pure l’integrità del processo elettorale, uno degli elementi alla base dell’alternanza, dei principi democratici e della convivenza nella società civile. È successo con le elezioni negli Stati Uniti del 2020 e quelle del 2022 in Brasile: in entrambi i casi, a seguito della sconfitta, è stato messo in discussione il processo elettorale stesso, con la diffusione di accuse di frode elettorale contro i vincitori. Un problema che appare più attuale che mai, con la prospettiva delle elezioni prossime venture.

Un nuovo articolo, pubblicato sulla rivista Science Advances, parte proprio dai due suddetti eventi paralleli, mostrando meccanismi efficaci nel combattere la disinformazione e nel ripristinare la fiducia nel processo elettorale stesso.

In tal senso, la ricerca ha preso in esame due approcci diversi, entrambi accomunati dal fornire comunque informazioni corrette:

  • prebunking, ovvero la condivisione di informazioni fattuali prima del verificarsi dei fenomeni di disinformazione;
  • le correzioni da fonti credibili, sulla base della situazione di riferimento, ovvero quando vengono da chi appartiene al proprio punto di vista e parla contro i propri interessi particolari.

Entrambi gli approcci, pur partendo da meccanismi psicologici differenti, si sono dimostrati efficaci nel contrastare le affermazioni false.

Differentemente dal debunking, che avviene dopo la campagna di disinformazione e che ha dimostrato avere un’efficacia limitata, il prebunking agisce prima e informa brevemente delle cospirazioni circolanti. Una sorta di vaccino contro le stesse. Una particolare forma di prebunking, denominata inoculazione (incidentalmente, un termine abusato da chi sparge disinformazione, con tutt’altro valore) mette ad esempio in guardia preventivamente, rispetto a determinati problemi o tecniche retoriche.

Nel caso delle correzioni da fonti credibili, la campagna di disinformazione è già avvenuta: in casi del genere, chi magari è della stessa fazione politica e parla contro i propri interessi, può più facilmente convincere a non seguire il leader del proprio gruppo, in difesa dell’integrità del processo elettorale.

Lo studio non è andato ad esaminare questi approcci in relazione ad altri fattori demografici. A parere di chi scrive, sarebbe stato interessante vedere i risultati, ad esempio, rispetto a chi ha alle spalle studi di diritto o altre materie correlate, quando la disinformazione in ambito elettorale tocca temi sui quali c’è una competenza acquisita. D’altra parte – come spiegato da Brendan J. Nyhan alla stampa – in letteratura ci sono studi che ci mostrano come in questi casi ci possano essere sorprese.

Gli autori della ricerca su Science Advances hanno quindi effettuato tre studi per mettere alla prova i risultati di prebunking e correzioni da fonti credibili da un punto di vista quantitativo.
Il primo studio ha riguardato 2.643 persone in prospettiva delle elezioni Midterm del 2022 e ha impiegato i due approcci. Il secondo studio si è similmente svolto in Brasile, coinvolgendo 2.949 persone dopo le elezioni del 2022.
In questi due contesti, nei quali la fiducia nel processo elettorale è stata messa in discussione anche con campagne di disinformazione, entrambi gli approcci hanno mostrato di funzionare, ma in particolare il prebunking, che ha prodotto risultati apparentemente duraturi.

Un terzo studio ha coinvolto 2.030 persone e ha voluto verificare – negli Stati Uniti – come funzionasse un messaggio di avviso che condivideva le cospirazioni. Messi a confronto, il prebunking senza esposizione alle cospirazioni ha dimostrato di funzionare meglio, probabilmente perché l’esposizione alle cospirazioni potrebbe aver introdotto dello scetticismo rispetto agli elementi fattuali mostrati in seguito. Il prebunking con esposizione alle cospirazioni ha però migliorato il discernimento tra affermazioni vere e false. Fondamentale sembra invece essere il contenuto fattuale fornito contro la disinformazione, piuttosto che il messaggio di avviso. Entrambe le tattiche hanno funzionato meglio con chi era maggiormente disinformato.

Una delle autrici della ricerca, Natalia Bueno, ha commentato che entrambi gli approcci si sono rivelati promettenti, essendo pratici, efficienti e scalabili, oltre che poco costosi.

In tutta onestà, per quanto siano passati solo pochissimi anni dagli eventi oggetto della ricerca, sembrano essere passate ere geologiche nell’attuale politica statunitense e si potrebbe far fatica ad essere così ottimisti. Questo anche in considerazione del fatto che il secondo degli strumenti in oggetto, quello delle correzioni da fonti credibili, è stato ampiamente utilizzato negli anni successivi al 2020 e pure durante le ultime presidenziali. Vero è che tra i due strumenti sarebbe stato quello dai risultati meno duraturi.
Oppure si tratta semplicemente di una questione meramente quantitativa, di forze in campo e di peso di questi elementi nelle decisioni.

Prebunking: come il debunking preventivo sulle elezioni può contribuire a ricostruire la fiducia nel processo elettorale. Immagini dall’attacco del 6 Gennaio 2021 a Capitol Hill. Foto Flickr di Tyler Merbler, CC BY 2.0

Riferimenti bibliografici:

John M. Carey, Brian Fogarty, Marília Gehrke, Brendan Nyhan, Jason Reifler, Prebunking and credible source corrections increase election credibility: Evidence from the US and Brazil, Science Advances, DOI: 10.1126/sciadv.adv3758

FARMACI ONCOLOGICI: PERCHÉ EUROPA E STATI UNITI D’AMERICA PRENDONO DECISIONI DIVERSE? 

Uno studio dell’Università di Torino evidenzia le discrepanze tra le due principali agenzie regolatorie nell’approvazione dei medicinali per il cancro.

 

L’Università di Torino ha pubblicato sulla prestigiosa rivista Lancet Oncology uno studio intitolato Differences in the on-label cancer indications of medicinal products between Europe and the USA, che mette a confronto le decisioni della Food and Drug Administration (FDA) e della European Medicines Agency (EMA) nell’approvazione dei farmaci oncologici.

La sicurezza dei medicinali è garantita da un’attenta analisi dei dati da parte delle Agenzie Regolatorie. Solo dopo la revisione approfondita dei dati derivanti dagli studi clinici, i farmaci possono essere messi a disposizione dei pazienti. Negli Stati Uniti, questa funzione è svolta dalla FDA, mentre in Europa è di competenza dell’EMA. Tuttavia, lo sviluppo di un farmaco è ormai globale e le diverse Agenzie Regolatorie valutano gli stessi studi clinici, sebbene possano arrivare a conclusioni differenti.

“Ci saremmo aspettati che le due agenzie più importanti del mondo, considerando gli stessi dati, arrivassero alle stesse conclusioni” – spiega Gianluca Miglio, professore di farmacologia all’Università di Torino – “ed invece oltre la metà dei farmaci è approvata per popolazioni leggermente diverse. In altre parole, vi sono pazienti dai due lati dell’Atlantico che hanno o non hanno accesso ad un dato medicinale a seconda della zona geografica in cui vivono”.

Nella ricerca sono state analizzate 162 indicazioni terapeutiche di 80 medicinali per tumori solidi e tumori del sangue autorizzate dall’EMA tra gennaio 2015 e settembre 2022 con le corrispondenti indicazioni approvate dalla FDA. Sono state identificate discrepanze clinicamente rilevanti per il 51,9% delle indicazioni valutate. Le differenze riguardano la collocazione nella terapia, la necessità che i pazienti siano refrattari a terapie precedenti, i requisiti di eleggibilità dei biomarcatori, i trattamenti concomitanti o le caratteristiche dei pazienti.

“Il nostro lavoro non è disegnato per definire quali delle due agenzie sia la migliore, sono entrambe eccezionali” – sottolinea Armando Genazzani, anche lui docente dell’Università di Torino, con esperienze sia in EMA che nell’Agenzia Italiana del Farmaco (AIFA) – “ma evidenziare quanto sia difficile prendere delle decisioni che impattano su milioni di malati in presenza di incertezze. Da un lato le agenzie mirano a concedere l’accesso del farmaco al maggior numero di persone possibile, e dall’altro, invece, devono essere sufficientemente sicure che per tutti i malati per i quali il farmaco è indicato vi è una ragionevole certezza di efficacia e sicurezza. Quello che cambia tra le due agenzie è il diverso bilanciamento tra questi due obiettivi”.

Le differenze osservate sono sottili, e derivano principalmente dalle discrepanze legislative e dalla differente inclinazione a estrapolare i dati in popolazioni non studiate direttamente nei trial clinici. 

“Le ragioni per le differenze osservate sono molteplici così come lo sono le implicazioni” – continua Genazzani – “La nostra analisi sembra suggerire che l’FDA sia più incline ad allargare il bacino dei pazienti che potenzialmente potrebbero beneficiare del farmaco, mentre l’EMA è più conservativa e maggiormente incline a riservare il farmaco ai pazienti per i quali vi è una dimostrazione chiara. Questo vuol dire che i pazienti americani hanno più opportunità terapeutiche mentre i pazienti Europei hanno maggiori certezze sui farmaci che assumono”.

Con questo studio dell’Università di Torino mira a fornire un contributo fondamentale alla comprensione delle dinamiche di approvazione dei farmaci oncologici a livello internazionale, evidenziando il delicato equilibrio tra accesso alle terapie e sicurezza dei pazienti.

Riferimenti bibliografici:

Perini, Martina et al., Differences in the on-label cancer indications of medicinal products between Europe and the USA, The Lancet Oncology, Volume 26, Issue 2, e103 – e110, DOI: https://doi.org/10.1016/S1470-2045(24)00434-0

cancro intelligenza artificiale nuovo metodo CEST-MRI Case report of first woman of color possibly cured of HIV
Farmaci oncologici: perché Europa e Stati Uniti d’America prendono decisioni diverse? Lo studio è stato pubblicato su The Lancet Oncology. Foto di StockSnap

Testo dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

Polarizzazione politica e interazioni sui social: esistono schemi comuni a livello internazionale
La ricerca pubblicata su Nature Communications, che ha coinvolto il Dipartimento di Informatica della Sapienza, mette in luce le dinamiche comuni della polarizzazione politica online su scala globale. Grazie all’analisi delle interazioni tra gli utenti su piattaforme online in ben nove Paesi, i ricercatori hanno rilevato l’esistenza di pattern ripetuti in diversi contesti nazionali.

La polarizzazione politica sui social network è un fenomeno internazionale. Al di là delle specificità dei singoli contesti nazionali – che differiscono per cultura, storia, sistema politico – il dibattito politico online si articola seguendo pattern comuni a livello globale. Lo studio, pubblicato su Nature Communications e condotto da un team internazionale di ricercatori, tra cui Walter Quattrociocchi, direttore del Centro per la Data Science e la complessità per la società della Sapienza, mira a individuare le dinamiche comunicative che vanno oltre i confini politici dei singoli Stati.

Grazie ad una analisi effettuata nel 2022 sulle interazioni che avvenivano su una specifica piattaforma in nove Paesi anche molto diversi tra loro (Canada, Francia, Germania, Italia, Polonia, Spagna, Turchia, Regno Unito e Stati Uniti), il gruppo di ricercatori, composto da scienziati sociali e informatici, ha individuato molteplici elementi ricorrenti.

La polarizzazione politica – presente anche nel mondo offline – appare particolarmente visibile nel mondo dei social network, soprattutto per la struttura intrinseca delle piattaforme online. In tutti i Paesi analizzati, le reti di interazione politica sui social sono risultate strutturalmente polarizzate lungo linee ideologiche (ad esempio destra/sinistra).

“Su quella che era la piattaforma Twitter, l’ostilità tra gruppi politici contrapposti è manifesta – spiega Walter Quattrociocchi. Questo, a livello comunicativo, si traduce in interazioni più tossiche rispetto a quelle osservabili tra i membri appartenenti allo stesso gruppo politico. Contrariamente a quanto si potrebbe pensare, le interazioni tossiche coinvolgono meno gli utenti. Per questi contenuti, il numero di like infatti appare minore rispetto a quello delle interazioni meno tossiche”

La ricerca mette in evidenza come la polarizzazione politica non sia un fenomeno limitato a una singola nazione, ma presenti caratteristiche simili tra diverse culture e contesti nazionali.

“Comprendere questi pattern comuni – commenta Quattrociocchi – è essenziale per poter pensare a soluzioni efficaci in grado di ridurre l’ostilità politica e promuovere un dialogo più costruttivo”.

Riferimenti bibliografici:

Patterns of partisan toxicity and engagement reveal the common structure of online political communication across countries – Falkenberg, M., Zollo, F., Quattrociocchi, W. et al. Nature Communications (2024), DOI: https://doi.org/10.1038/s41467-024-53868-0

 

politica interazioni social media network
Polarizzazione politica e interazioni sui social: esistono schemi comuni a livello internazionale, lo studio su Nature Communications. Foto di Mudassar Iqbal

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Elezioni USA 2020 su Twitter: sostenitori dei repubblicani più faziosi e organizzati dei pro democratici

I risultati di uno studio coordinato dall’Università di Pisa su EPJ Data Science

Più faziosi, coordinati e determinati a diffondere i propri messaggi in modo virale attraverso sistemi automatici come i bot. La descrizione fotografa il comportamento su Twitter dei gruppi di estrema destra pro repubblicani durante le elezioni presidenziali USA del 2020. Al contrario i sostenitori dei democratici apparivano complessivamente meno coordinati e impegnati principalmente in una comunicazione innocua e basata sui fatti. Alla vigilia delle nuove elezioni in USA, il quadro emerge da uno studio realizzato dall’Università di Pisa e dall’Istituto di Informatica e Telematica del CNR pubblicato su EPJ Data Science, una rivista del gruppo Springer Nature.

La ricerca ha analizzato un dataset di 260 milioni di tweet e ha individuato tre categorie principali: i gruppi moderati e genuinamente interessati al dibattito elettorale, i gruppi cospirativi che hanno diffuso informazioni false e narrazioni controverse e le reti di influenza straniera che hanno cercato di cavalcare il dibattito. Al di là del comportamento dei sostenitori di destra e di sinistra, i risultati hanno inoltre mostrato che Twitter è stato efficace nel contrastare l’attività solo di alcuni gruppi, mentre ha fallito con altri altrettanto sospetti.

“In un contesto di crescente preoccupazione per la manipolazione dell’opinione pubblica attraverso i social media, il nostro studio offre un’analisi approfondita delle dinamiche su Twitter (ora X) durante le elezioni presidenziali del 2020 – dice il professore Marco Avvenuti del dipartimento di Ingegneria dell’Informazione dell’Università di Pisa – Il comportamento coordinato online è un fenomeno complesso che può avere effetti significativi sulla società e sulla politica, rendendo essenziale la sua analisi e comprensione. Con l’avvicinarsi delle elezioni del 2024, questi risultati offrono spunti cruciali per affrontare le minacce alla democrazia e alla comunicazione pubblica, contribuendo a garantire l’integrità del dibattito politico online”.

Marco Avvenuti
Marco Avvenuti

“Tra i risultati abbiamo anche trovato che alcune comunità straniere sono risultate più attive e determinate nell’influenzare il dibattito elettorale, con l’obiettivo di portare l’attenzione su proteste in atto nei loro paesi”, aggiunge Serena Tardelli, ricercatrice dell’Istituto di Informatica e Telematica del CNR.

Testo e foto dall’Ufficio Stampa dell’Università di Pisa

EarthCARE: una nuova missione satellitare per capire l’impatto delle nuvole sul cambiamento climatico

Il Politecnico di Torino è tra i protagonisti degli studi scientifici che hanno permesso la realizzazione della missione. Le missioni di ricerca Earth Explorer, realizzate nell’ambito del programma dell’ESA FutureEO, mirano a comprendere la complessità del funzionamento della Terra e l’influenza delle attività umane sui processi naturali.

Torino, 6 giugno 2024

ESA missione EarthCARE

Nella giornata di martedì 28 maggio, nel contesto del prestigioso programma di osservazione della Terra “Earth Explorer” dell’ESA, è stato lanciato dalla base di Vandenberg, in California, il satellite EarthCARE-Earth Cloud Aerosol Radiation Explorer, frutto della collaborazione tra l’Agenzia Spaziale Europea (ESA) e quella Giapponese (JAXA). La missione, rivoluzionaria nel suo genere, si prefigge di migliorare la comprensione dell’interazione tra nuvole e aerosol nel modificare i bilanci energetici associati al trasporto di onde elettromagnetiche e il ciclo dell’acqua, così da contribuire in modo significativo ad una migliore previsione dell’entità dei cambiamenti climatici e quindi ad ottimizzare le strategie di adattamento e mitigazione del clima.

Tra gli attori coinvolti nella progettazione della missione il Politecnico di Torino, con il gruppo di ricerca del Dipartimento di Ingegneria dell’Ambiente, del Territorio e delle Infrastrutture-DIATI che ha partecipato, sotto la guida del professor Alessandro Battaglia, agli studi scientifici per la realizzazione del lancio e che contribuirà alle prossime fasi del progetto. Il professor Battaglia è da anni coinvolto nell’ideazione della missione: dal 2008 si registrano i suoi primi interventi negli studi preliminari di settore e nel 2015 viene ufficializzata la sua nomina a membro dell’ESA Mission Advisory Board per lo sviluppo della missione.

Il satellite EarthCARE, una volta lanciato, ha raggiunto in pochi minuti la sua orbita eliosincrona polare, intorno ai 400 km di altezza. Nel corso dei prossimi gironi cominceranno  i primi test dei 4 strumenti all’avanguardia inseriti al suo interno: un radar atmosferico a 94 GHz con capacità Doppler che permette di profilare nuvole  e precipitazioni e di mappare per la prima volta le velocità verticali delle idrometeore; un lidar che, grazie alla sua risoluzione spettrale, consente di ottenere profili verticali micro e macrofisici di nubi e aerosol riuscendo anche a distinguere i diversi tipi di aerosol; un imager multispettrale (MSI) capace di offrire una mappatura bidimensionale della scena sotto osservazione; e infine un radiometro a banda larga che misura la radiazione solare riflessa e la radiazione infrarossa proveniente dalla Terra.

“La missione EarthCARE è uno dei progetti più ambiziosi mai affrontati dall’Agenzia spaziale europea in collaborazione con quella giapponese – ha commentato il professor Alessandro Battaglia – Nonostante le innumerevoli sfide tecnologiche e logistiche, la missione è diventata finalmente operativa. Insieme a colleghi dell’Università di Leicester, UK e McGill in Canada abbiamo lavorato in particolare allo sviluppo del simulatore e agli algoritmi di inversione del radar Doppler a lunghezza d’onda millimetrica. È quindi con trepidazione che aspettiamo i primi dati dopo tanti anni passati a simulare numericamente la risposta degli strumenti sui nostri computer. La tecnologia innovativa del radar che è stato sviluppato dai colleghi giapponesi ci consentirà di misurare per la prima volta il movimento verticale dell’aria in nuvole (e.g. all’interno di celle convettive) e la dimensione di particelle come gocce di pioggia e fiocchi di neve”“Questa missione terrestre – ha concluso Battaglia – è cruciale per meglio caratterizzare le nuvole e i sistemi precipitanti che svolgono un ruolo vitale nel sistema climatico. I risultati della missione potranno inoltre fungere da apripista ad altre missioni spaziali che impiegano radar Doppler millimetrici quali la missione WIVERN, al momento in fase A nello stesso programma Earth Explorer dell’ESA, e nella quale il Politecnico svolge un ruolo di punta”.

 

Testo e immagine dall’Ufficio Web e Stampa del Politecnico di Torino.

Il geotermico è la rinnovabile più efficace per diminuire le emissioni di CO2 (seguono idroelettrico e solare)

Lo studio dell’Università di Pisa su 27 paesi OCSE dal 1965 al 2020 pubblicato sul Journal of Cleaner Production

Impianto ad energia geotermica di Nesjavellir in Islanda, che fornisce acqua calda all'area di Reykjavík
Impianto ad energia geotermica di Nesjavellir in Islanda, che fornisce acqua calda all’area di Reykjavík. Foto di Gretar Ívarsson, modificata da Fir0002, in pubblico dominio

Per diminuire le emissioni di CO2 nell’atmosfera, il geotermico è la fonte di energia rinnovabile più efficace, seguito da idroelettrico e solare. La notizia arriva da uno studio su 27 paesi OCSE dal 1965 al 2020 pubblicato sul Journal of Cleaner Production.

La ricerca ha analizzato l’impatto di alcune fonti di energia rinnovabile per la produzione di energia elettrica: geotermico, solare, eolico, biofuel, idroelettrico. Dai risultati è emerso che ognuna di esse contribuisce a ridurre le emissioni di CO2 e dunque è utile agli obiettivi della transizione ecologica. Fra tutte, le migliori sono il geotermico, l’idroelettrico, e il solare, in ordine decrescente di importanza. A livello quantitativo, 10 terawattora di energia elettrica prodotti da geotermico, idroelettrico, e solare, consentono infatti di ridurre le emissioni di CO2 pro capite rispettivamente di 1.17, 0.87, e 0.77 tonnellate.

I 27 paesi OCSE esaminati dal 1965 al 2020 sono stati scelti come campione perché contribuiscono notevolmente al rilascio di emissioni di CO2 nell’atmosfera e rappresentano circa un terzo del totale delle emissioni globali di CO2. Nello specifico si tratta di Australia, Austria, Canada, Cile, Cipro, Danimarca, Finlandia, Francia, Germania, Grecia, Islanda, Irlanda, Israele, Italia, Giappone, Messico, Paesi Bassi, Nuova Zelanda, Norvegia, Polonia, Portogallo, Corea del Sud, Spagna, Svezia, Svizzera, Regno Unito e Stati Uniti.

Per ricavare i dati, la ricerca ha analizzato molteplici fonti, le principali sono: Food and Agriculture Organization (FAO), International Energy Agency (IEA), OECD, Our World in Data (OWID), e World Bank.

“È noto che circa due terzi degli italiani si dichiara appassionato del tema della sostenibilità e ritiene importante l’uso delle rinnovabili per avere città più sostenibili  – dice Gaetano Perone, ricercatore del dipartimento di Economia e Management dell’Università di Pisa e autore dell’articolo – la mia analisi spiega in modo dettagliato l’impatto di ciascuna energia rinnovabile sulle emissioni di CO2, considerando anche altri aspetti legati ai costi di implementazione e costruzione delle centrali e delle opportunità date dalle caratteristiche geografiche e climatiche dei paesi considerati”.

Riferimenti bibliografici:

Gaetano Perone, The relationship between renewable energy production and CO2 emissions in 27 OECD countries: A panel cointegration and Granger non-causality approach, Journal of Cleaner Production,
Volume 434, 2024, 139655, ISSN 0959-6526, DOI: https://doi.org/10.1016/j.jclepro.2023.139655

Testo dall’Unità Comunicazione Istituzionale dell’Università di Pisa.

Esiste una relazione tra fiducia nella scienza e nelle università e opinioni circa il cambiamento climatico?

A cercare di rispondere a questa e ad altre domande, uno studio di grande attualità, appena pubblicato su PLoS Climate.

Nonostante il forte consenso della più gran parte degli studiosi sul fatto che il clima della terra stia cambiando e che le attività umane giochino un ruolo importante in questo, è pur vero che il tema scatena una partigianeria fortemente polarizzata negli Stati Uniti, che porta al negazionismo (dall’abstract dello studio su PLoS Climate).
Il risultato potrebbe essere dovuto all’azione della retorica aziendale e di alcune organizzazioni non profit, e risulta associato alle élite del Partito Repubblicano.
Tutto questo ha creato notevole frustrazione nella comunità scientifica (p. 2), al punto che già due anni fa si è addirittura affermato che il contratto tra scienza e società si è ormai rotto, invocando una moratoria sul tema (dall’abstract del secondo studio qui in bibliografia, quello su Climate and Development).

Tornando alla ricerca in questione, la stessa vuole quindi gettare luce sulle determinanti politiche e sociali dell’azione climatica (p. 2 del nuovo studio).

 

cambiamento climatico fiducia scienza
Foto di Katie Rodriguez

Parafrasando Claude Lévi-Strauss (Il crudo e il cotto, 1964), importante è porsi le giuste domande, ancor più che dare le giuste risposte. A p. 3 gli autori si interrogano:

  • Come la fiducia nella scienza si associa al considerare il cambiamento climatico un problema?
  • Come la fiducia nella scienza si associa a punti di vista sul fatto che il cambiamento climatico sia causato dalla natura o dall’uomo?
  • Chi ha fiducia nei centri di ricerca universitari?

Il contesto: Ricerche precedenti hanno individuato due diversi processi comportamentali: un rifiuto psicologico della scienza (Psychological Science Rejection – PSR) e un rifiuto ideologico della scienza (Ideological Science Rejection – ISR).
Mentre la prima potrebbe essere aumentata nel tempo, la seconda prospettiva sottolinea la crescita del populismo e la diminuita fiducia nella politica, l’effetto polarizzante dei media, che va quindi ad influire sulla fiducia nella scienza. Alcuni media trattano la scienza in maniera “relativistica”, considerandola semplicemente come un’opinione tra tante, oppure mostrando un “falso equilibrio” tra scienziati e scettici (p. 2).
Storicamente, la fiducia nella scienza negli Stati Uniti è sempre stata alta, pur dovendo considerare differenze regionali, religiose, o legate ad altre forme di partigianeria (p. 3).

Il sondaggio: La ricerca su PLoS Climate espone i risultati di un sondaggio su un campione rappresentativo di statunitensi (p. 3), ponderato sulla base di elementi che attengono alla persona, oltre che educazione, regione geografica, voto alle elezioni presidenziali del 2020 (p. 5).

Per gli autori, il cambiamento climatico è una sfida globale che necessita un approccio collaborativo e interdisciplinare, tanto per comprendere come per affrontare il problema. Considerando questo, e rispondendo quindi alla prima domanda, si tratta perciò di un tema cruciale che permette di misurare la fiducia pubblica nella scienza (p. 4).
Per quanto non ci sia accordo interdisciplinare su come concettualizzare fiducia e sfiducia, gli autori considerano un tipo di fiducia verso le istituzioni, che si relaziona alle performance delle istituzioni, perché ovviamente è la nostra esperienza delle stesse (che può essere anche indiretta, per il tramite di altri) a condizionare il nostro giudizio. Più nel dettaglio, non si tratta di istituzioni governative o di media in questo caso: le istituzioni prese in considerazione sono scienziati, centri di ricerca, università, per i quali gli statunitensi possono non avere esperienza diretta e quindi basare la loro fiducia su altri elementi, ad esempio di carattere legati all’ideologia, alla religione o forme di partigianeria (pp. 4-5).

Un sondaggio del 2020 rivelava una forte divisione: quasi il 50% degli statunitensi crede che il cambiamento climatico abbia cause antropiche, mentre una percentuale simile è divisa tra coloro che ritengono che le cause siano di origine naturale e coloro che ritengono non ci siano prove di un riscaldamento globale (p. 4).
Ad alcuni anni di distanza dal precedente, il nuovo sondaggio rivela dati un po’ diversi, per cui il 45% degli statunitensi pensano che il cambiamento climatico sia un problema molto importante, il 23% pensa che in qualche modo sia un problema importante, il 18% pensa che sia un problema poco importante e il 14% pensa che non sia un problema.
Il nuovo sondaggio ha semplificato il discorso della cause, per cui il 59% degli statunitensi pensa che il cambiamento climatico sia dovuto alle attività umane e il 41% (Fig. 1 a p. 8).

Secondo l’età, chi ha tra i 45 e i 64 anni, o 64 e più anni è meno incline a pensare che il cambiamento climatico sia un problema importante. Le donne sono più inclini degli uomini. Sulla stessa domanda, non vi sono state informazioni significative relativamente alla fonte delle informazioni, ad esempio, se gli intervistati si informassero alla radio o con fonti online.

Per rispondere alla seconda e alla terza domanda, le ipotesi verificate statisticamente sono che gli schieramenti sul cambiamento climatico siano determinati dall’ideologia e dalle visioni dei due partiti (Democratici e Repubblicani), per cui ad es. un democratico più probabilmente crederà che il cambiamento climatico è un problema; tra i conservatori, coloro che si identificano come moderati o liberal più probabilmente degli altri risponderanno che è un problema importante. Oltre a questo, coloro che hanno una bassa fiducia nella scienza risponderanno con minore probabilità che il cambiamento climatico è causato dalle attività umane (p. 10).
Gli autori sottolineano che si tratti di dati significativi e di magnitudine considerevole.

Mentre coloro che Ebrei e Cattolici sono più inclini a ritenere che il cambiamento climatico sia causato dalle attività umane, coloro che non professano alcuna fede registrano valori ancora più alti. Coloro che partecipano più spesso alle funzioni religiose sono più inclini a credere che il cambiamento climatico sia dovuto a cause naturali.
Per quanto riguarda la fiducia verso i centri di ricerca universitari, democratici e moderati si sono rivelati più inclini ad averla rispetto agli indipendenti.

In conclusione, gli autori constatano pure che studi empirici come questo siano pochi in letteratura, auspicando ulteriori ricerche sul tema, per diversi aspetti. Auspicano però soprattutto una cultura dove la ricerca e la comunicazione scientifica ricevano fiducia, costruendola già nell’educazione primaria e secondaria.

 

Con la premessa importante che quello su PLoS Climate è uno studio basato sul pubblico degli Stati Uniti, vi è una quarta domanda che ovviamente non è nella ricerca ma che viene naturale porsi: quanto queste considerazioni potrebbero essere valide anche per l’Italia?

Pure nel nostro Paese registriamo una fortissima polarizzazione su questi temi e il presentarsi delle medesime condizioni: il populismo in ascesa, la visione “relativistica” come i dibattiti “falsamente equilibrati” sui media, ecc.
Non sarebbe certo corretto rispondere senza dati a sostegno, ma – visto quanto sopra – il sospetto che si possano conseguire risultati non dissimili potrebbe forse accompagnarci e spingere qualcuno a ripetere l’esperimento anche nel nostro Paese.

 

 

Riferimenti bibliografici:

R. Michael Alvarez, Ramit Debnath, Daniel Ebanks, Why don’t Americans trust university researchers and why it matters for climate change, PLoS Climate (2023) 2(9): e0000147. DOI: 10.1371/journal.pclm.0000147

Bruce C. Glavovic, Timothy F. Smith & Iain White (2021) The tragedy of climate change science, Climate and Development, 14:9, 829-833, DOI: 10.1080/17565529.2021.2008855
PEW, The politics of climate; 2020. Link: https://www.pewresearch.org/science/2016/10/04/the-politics-of-climate/

ZePrion: in orbita per sviluppare nuovi farmaci 

Lanciato verso la Stazione Spaziale Internazionale l’esperimento ZePrion, che avrà il compito di confermare il meccanismo molecolare alla base di un innovativo protocollo farmaceutico per contrastare le malattie da prioni. Sviluppato da un gruppo internazionale di ricercatori, tra cui le scienziate e gli scienziati italiani delle università di Milano-Bicocca e Trento, della Fondazione Telethon, dell’INFN Istituto Nazionale di Fisica Nucleare e dell’Istituto di Biologia e Biotecnologia Agraria del Consiglio Nazionale delle Ricerche (CNR-IBBA), l’esperimento potrebbe avere ricadute importanti anche per altre malattie.

Lancio di NG-19 con l'esperimento ZePrion. Foto NASA
Lancio di NG-19 con l’esperimento ZePrion. Foto NASA

Un esperimento lanciato con successo oggi, mercoledì 2 agosto 2023, verso la Stazione Spaziale Internazionale (ISS), potrebbe portare ad una validazione del meccanismo di funzionamento di un protocollo del tutto innovativo per lo sviluppo di nuovi farmaci contro gravi malattie neurodegenerative e non solo. Frutto di una collaborazione internazionale che coinvolge diversi istituti accademici e l’azienda israeliana SpacePharma, l’esperimento ZePrion vede un fondamentale contributo dell’Italia attraverso l’Università Milano-Bicocca, l’Università di Trento, la Fondazione Telethon, l’Istituto Nazionale di Fisica Nucleare (INFN), e l’Istituto di Biologia e Biotecnologia Agraria del Consiglio Nazionale delle Ricerche (CNR-IBBA). Decollato con la missione spaziale robotica di rifornimento NG-19 dalla base di Wallops Island, in Virginia (USA), ZePrion si propone di sfruttare le condizioni di microgravità presenti in orbita per verificare la possibilità di indurre la distruzione di specifiche proteine nella cellula, interferendo con il loro naturale meccanismo di ripiegamento (folding proteico). L’arrivo di NG-19 e ZePrion sulla ISS è previsto per venerdì 4 agosto, quando in Italia saranno all’incirca le 8:00.

Il successo dell’esperimento ZePrion fornirebbe un possibile modo per confermare il meccanismo molecolare alla base di una nuova tecnologia di ricerca farmacologica denominata Pharmacological Protein Inactivation by Folding Intermediate Targeting (PPI-FIT), sviluppata da due ricercatori delle Università Milano-Bicocca e di Trento e dell’INFN. L’approccio PPI-FIT si basa sull’identificazione di piccole molecole (dette ligandi), in grado di unirsi alla proteina che costituisce il bersaglio farmacologico durante il suo processo di ripiegamento spontaneo, evitando così che questa raggiunga la sua forma finale.

“La capacità di bloccare il ripiegamento di specifiche proteine coinvolte in processi patologici apre la strada allo sviluppo di nuove terapie per malattie attualmente incurabili”,

spiega Pietro Faccioli, professore dell’Università Milano-Bicocca, ricercatore dell’INFN, coordinatore dell’esperimento e co-inventore della tecnologia PPI-FIT.

Un tassello finora mancante per la validazione della tecnologia è la possibilità di ottenere un’immagine ad alta risoluzione del legame tra le piccole molecole terapeutiche e le forme intermedie delle proteine bersaglio (quelle che si manifestano durante il ripiegamento), in grado di confermare in maniera definitiva l’interruzione del processo di ripiegamento stesso. In genere, questo tipo di immagine viene ottenuta analizzando con una tecnica chiamata cristallografia a raggi X cristalli formati dal complesso ligando-proteina. Nel caso degli intermedi proteici, però, gli esperimenti necessari non sono realizzabili all’interno dei laboratori sulla Terra, in quanto la gravità genera effetti che interferiscono con la formazione dei cristalli dei corpuscoli composti da ligando e proteina, quando questa non abbia ancora raggiunto la sua forma definitiva. Questo ha spinto le ricercatrici e i ricercatori della collaborazione ZePrion a sfruttare la condizione di microgravità che la Stazione Spaziale Internazionale mette a disposizione.

“Esiste infatti chiara evidenza che la microgravità presente in orbita fornisca condizioni ideali per la creazione di cristalli di proteine”, illustra Emiliano Biasini, biochimico dell’Università di Trento e altro co-inventore di PPI-FIT, “ma nessun esperimento ha provato fino ad ora a generare cristalli di complessi proteina-ligando in cui la proteina non si trovi in uno stato definitivo”.

Esattamente quanto si propone di fare l’esperimento ZePrion, lavorando in modo specifico sulla proteina prionica, balzata tristemente agli onori della cronaca negli anni Novanta durante la crisi del ‘morbo della mucca pazza’. Questa malattia è infatti causata da una forma alterata della proteina prionica chiamata prione, coinvolta in gravi malattie neurodegenerative dette appunto ‘da prioni’ tra le quali la malattia di Creutzfeld-Jakob o l’insonnia fatale familiare.

“Anche grazie al sostegno di Fondazione Telethon, che da sempre supporta le mie ricerche per individuare nuove terapie contro queste malattie, abbiamo l’opportunità di validare del meccanismo di funzionamento della tecnologia PPI-FIT, che potrebbe rappresentare veramente un punto di svolta in questo settore”, aggiunge Biasini.

“In orbita sarà possibile generare cristalli formati da complessi tra una piccola molecola e una forma intermedia della proteina prionica, che in condizioni di gravità ‘normale’ non sarebbero stabili. Questi cristalli potranno poi essere analizzati utilizzando la radiazione X prodotta con acceleratori di particelle, per fornire una fotografia tridimensionale del complesso con un dettaglio di risoluzione atomico. Campioni non cristallini ottenuti alla SSI verranno inoltre analizzati per Cryo-microscopia Elettronica di trasmissione (Cryo/EM)”, sottolinea Pietro Roversi, ricercatore CNR-IBBA.

ZePrion si compone di un vero e proprio laboratorio biochimico in miniatura (lab-in-a-box) realizzato da SpacePharma, che opererà a bordo della Stazione Spaziale Internazionale e verrà controllato da remoto. Oltre alla componente italiana, la collaborazione ZePrion si avvale della partecipazione delle scienziate e degli scienziati dell’Università di Santiago di Compostela.

Testo e foto dall’Ufficio Stampa dell’Università di Milano-Bicocca.

Inquinamento da plastica: alcuni laghi soffrono più degli oceani

In alcuni casi, le concentrazioni di plastiche e microplastiche negli ambienti d’acqua dolce sono maggiori di quelle riscontrate nelle aree oceaniche. A rivelarlo uno studio internazionale guidato da Milano-Bicocca, pubblicato su Nature.

Milano, 12 luglio 2023 – Frammenti di rifiuti plastici, fibre derivanti dal lavaggio di indumenti, residui di imballaggi. Plastiche e microplastiche hanno invaso laghi e bacini idrici artificiali su scala globale. L’inquinamento causato da questi detriti non risparmia neppure i luoghi più remoti, dove l’impatto dell’uomo è minimo. Inoltre, per la prima volta emerge che in alcuni casi le concentrazioni di plastica presenti negli ambienti d’acqua dolce sono più elevate di quelle rinvenute nelle isole di plastica oceaniche, le cosiddette “Garbage patches”.

A fare luce sui fattori che causano questa contaminazione è lo studio guidato dalla giovane ricercatrice Veronica Nava, assegnista  del dipartimento di Scienze dell’ambiente e della terra dell’Università di Milano-Bicocca, sotto la supervisione della professoressa Barbara Leoni, coordinatrice del gruppo di ricerca di Ecologia e gestione delle acque interne che nello stesso dipartimento si occupa di laghi e fiumi. La ricerca è stata pubblicata sulla rivista scientifica Nature col titolo “Plastic debris in lakes and reservoirs” (DOI:10.1038/s41586-023-06168-4).

Il progetto ha coinvolto 79 ricercatori appartenenti al network internazionale Global Lake Ecological Observatory Network (GLEON), attivo nella ricerca scientifica su scala globale su processi e fenomeni che avvengono negli ambienti di acqua dolce.
Grazie a questo gruppo di scienziati è stato possibile prelevare campioni di acqua superficiale, usando dei retini da plancton, da 38 laghi collocati in 23 diversi Paesi, distribuiti in 6 continenti, rappresentativi di diverse condizioni ambientali.

I campioni prelevati sono poi arrivati all’Università di Milano-Bicocca, dove sono stati analizzati grazie alla strumentazione tecnologicamente avanzata messa a disposizione dalla rete interdipartimentale di spettroscopie di ateneo.
Fiore all’occhiello di questa dotazione,  la micro-spettroscopia Raman (Spettrometro Raman Horiba Jobin Yvon LabRAM HR Evolution), presente nel laboratorio guidato dalla professoressa Maria Luce Frezzotti, che con estrema accuratezza è stata in grado di confermare la composizione polimerica delle microplastiche, evidenziando la presenza specialmente di poliestere, polipropilene e polietilene.

Tra i laghi in cui è stata evidenziata la maggior contaminazione da detriti di plastica, si trovano alcune fra le principali fonti d’acqua potabile per le popolazioni locali come i laghi Maggiore (CH-IT), Lugano (CH-IT), Tahoe (USA) e Neagh (UK), fondamentali inoltre per la loro centralità nelle rispettive economie ricreative.

Inquinamento da plastica: alcuni laghi soffrono più degli oceani. Gallery

Oltre ad impattare negativamente sull’uso potabile delle acque, l’inquinamento da plastica ha effetti dannosi sugli organismi acquatici e sul funzionamento dell’ecosistema.

“La plastica che si accumula sulla superficie dei sistemi acquatici – spiega Veronica Nava – può favorire il rilascio di metano e altri gas serra. Le materie plastiche possono arrivare oltre l’idrosfera e interagire con l’atmosfera, la biosfera e la litosfera, influenzando potenzialmente i cicli biogeochimici, ossia la circolazione tra i vari comparti della terra degli elementi chimici che passano dalla materia vivente a quella inorganica grazie a trasformazioni e reazioni chimiche, attraverso meccanismi che devono essere ancora compresi e che richiedono una valutazione olistica dell’inquinamento da plastica nei sistemi lentici”.

Data la concentrazione relativamente alta di microplastiche nei laghi e nei bacini idrici di grandi dimensioni, questi ambienti possono essere considerati “sentinelle dell’inquinamento” in quanto agiscono come collettori e integratori di diverse fonti di plastica provenienti dai bacini idrici e dall’atmosfera.

“Inoltre questi ambienti possono trattenere, modificare e trasportare i detriti plastici attraverso i bacini idrici fino agli oceani.  Questi risultati – conclude Barbara Leoni – dimostrano la portata globale dell’inquinamento da plastica: nessun lago, neppure quelli più lontani dall’attività antropiche, può essere considerato realmente incontaminato: questo deve spingerci a rivedere le strategie di riduzione dell’inquinamento e i processi di gestione dei rifiuti”.

Testo, video e immagini dall’Ufficio stampa Università di Milano-Bicocca.