News
Ad
Ad
Ad
Tag

algoritmi

Browsing

FARMACI: DOMANDA IN AUMENTO E CARENZE SUL MERCATO? Una soluzione dalla tesi di Francesco Destro: in tempo reale una maggiore produzione a un costo inferiore

 

Premiato dall’European Federation of Chemical Engineering Francesco Destro per i nuovi algoritmi di monitoraggio capaci di risolvere il disequilibrio tra domanda e offerta attraverso tecnologie innovative e digital twin, le repliche virtuali dei processi di produzione. La ricerca è stata sviluppata al CAPE-Lab dell’Università di Padova

Ieri, lunedì 3 giugno, all’European Symposium on Computer Aided Process Engineering and International Symposium on Process Systems Engineering che si è tenuto a Firenze – con la seguente motivazione “Relevance to the CAPE terms of reference, innovation, technical quality, scientific impact including industrial relevance, and dissemination of the results” – l’European Federation of Chemical Engineering (EFCE)  ha premiato Francesco Destro, Ricercatore al Dipartimento di Ingegneria Chimica dell’Università di Padova e al Centro di Innovazione Biomedica del Massachusetts Institute of Technology di Boston, per la sua tesi di dottorato dal titolo “Digitalizing pharmaceutical development and manufacturing: advanced mathematical modeling for operation design, process monitoring and process control”.

FRANCESCO DESTRO premiazione

L’immagine idealizzata di laboratori farmaceutici perfettamente efficienti si scontra con la cruda realtà: i processi per la produzione di farmaci sono spesso inefficienti e soggetti ad una serie di sfide. Sebbene i farmaci che troviamo in farmacia siano indiscutibilmente di qualità eccellente, la capacità globale di produzione di farmaci su larga scala è estremamente limitata e i costi sono spesso elevati.

Il risultato? Difficoltà nel soddisfare una domanda in aumento, con conseguenti carenze di farmaci sul mercato. Secondo il rapporto del 2023 di PGEU, Il Gruppo Farmaceutico dell’Unione Europea, l’85% dei Paesi Europei ha segnalato, nel 2023, carenze per più di 300 farmaci, tra cui antibiotici, antitumorali e farmaci per il sistema cardiovascolare. Addirittura, il 42% dei Paesi europei ha riportato carenze per più di 500 farmaci. Le inefficienze nei processi della produzione di farmaci non solo causano queste carenze sullo scaffale della farmacia, ma allungano notevolmente i tempi di attesa per l’approvazione e la distribuzione di nuovi farmaci, rallentando l’innovazione nel settore farmaceutico.

Un esempio emblematico della scarsa efficienza nella produzione farmaceutica è stato l’accesso ai vaccini contro il COVID-19. Dopo l’approvazione dei vaccini COVID, l’Italia, come molti altri Paesi, ha dovuto affrontare una lunga attesa prima di poterli distribuire su larga scala. Questa situazione ha messo in luce la difficoltà dell’industria farmaceutica nel produrre farmaci su larga scala, specialmente quando la domanda cresce improvvisamente. Di nuovo: questo limite non riguarda la qualità dei farmaci a cui abbiamo accesso, ma, appunto, il costo produttivo e la quantità di farmaci che siamo in grado di produrre a livello globale.

«Tuttavia, a fronte di questo scenario esiste un possibile rimedio: la digitalizzazione, la cosiddetta Industria 4.0. L’applicazione di tecnologie come il machine learning e l’intelligenza artificiale stanno aprendo nuove strade per ottimizzare i processi di produzione di farmaci. Questa è esattamente l’area di interesse su cui si è concentrata la mia tesi di dottorato. Nel corso della ricerca, ho sviluppato tecnologie innovative per la digitalizzazione e l’ottimizzazione dei processi di produzione di farmaci – dice Francesco Destro –Ho implementato nuovi algoritmi di monitoraggio di processo basati sul machine learning, che permettono di identificare e correggere eventuali inefficienze o anomalie in tempo reale, consentendo di produrre una maggiore quantità di farmaci ad un costo inferiore. Inoltre, ho lavorato allo sviluppo di cosiddetti digital twin di processi farmaceutici che sono una replica virtuale sullo schermo di un computer di un processo di produzione farmaceutica, completa di tutte le variabili e i parametri che influenzano il processo reale. Questa replica digitale – spiega Francesco Destro – non solo ci consente di testare e ottimizzare diversi scenari da un computer, senza dover intervenire direttamente sul processo reale, ma può anche essere utilizzata per predire e prevenire problemi potenziali prima che si verifichino, garantendo così una produzione di farmaci più efficiente e affidabile».

La ricerca di dottorato si è svolta al CAPE-Lab dell’Università di Padova, sotto la guida del Professor Massimiliano Barolo. Il CAPE-Lab è pioniere in Italia nella digitalizzazione dei processi farmaceutici ed è riconosciuto a livello mondiale per la sua visione innovativa e per progetti all’avanguardia iniziati oltre 10 anni fa nell’ambito di digital twin e machine learning per l’ottimizzazione della produzione di farmaci. Grazie al ruolo di leader che CAPE-Lab ha in questo settore, Francesco Destro ha avuto l’opportunità di collaborare durante la ricerca con istituzioni di primo piano nel mondo accademico e industriale, tra cui Siemens, US Food & Drug Administration, Eli Lilly and Company e Purdue University. Collaborando con i partner si sono validati gli algoritmi e il software sviluppato in CAPE-Lab su impianti industriali, trasformando la ricerca da teorica in soluzioni pratiche che stanno già facendo la differenza nel mondo reale.

«Dopo aver conseguito il dottorato all’Università di Padova nel 2022, ho iniziato a lavorare come Ricercatore associato al Dipartimento di Ingegneria Chimica del Massachusetts Institute of Technology (MIT) di Boston, negli Stati Uniti. Al MIT, metto in pratica le conoscenze avanzate acquisite al CAPE-Lab per rivoluzionare la produzione di una nuova generazione di farmaci per terapia genica. Questi farmaci – conclude Francesco Destro – permettono di curare gravi patologie genetiche, ma sono prodotti tramite processi estremamente complessi, con costi di produzione che possono superare i 200.000 euro per una singola dose per un paziente. Attraverso l’applicazione delle tecnologie di digitalizzazione e machine learning che ho sviluppato durante il mio percorso di dottorato a Padova, sto contribuendo a rendere la produzione di questi farmaci innovativi più economica e accessibile a tutti i pazienti che ne hanno bisogno».

«Il gruppo di ricerca CAPE-Lab (Computer-Aided Process Engineering Laboratory) del Dipartimento di Ingegneria Industriale è attivo da vent’anni e da circa quindici è fortemente coinvolto in ricerche nell’ambito dell’ingegneria farmaceutica. Da un punto di vista generale, sviluppiamo tecnologie in grado di migliorare la produzione su larga scala di farmaci; in particolare, cerchiamo di ridurre quanto più possibile il tempo che passa da quando le autorità competenti approvano la messa in commercio di un farmaco, a quando il farmaco diventa effettivamente disponibile per tutti in farmacia – afferma Massimiliano Barolo direttore di CAPE-Lab –. Per raggiungere questo obiettivo, i problemi tecnologici che vanno affrontati sono numerosi. Per esempio: come assicurare che la qualità finale del prodotto sia garantita sempre, indipendentemente da chi fabbrica il farmaco e da quanto variabile è la qualità delle materie prime? come ridurre il numero di esperimenti necessari allo sviluppo su scala industriale del processo produttivo su scala industriale? come trasferire con rapidità la produzione da un sito produttivo a un altro? come ridurre i consumi di energia e gli scarti di produzione? come estrarre informazioni utili dai dati che i moderni sensori restituiscono ogni pochi secondi? Cerchiamo di dare risposta a queste domande impiegando due risorse fondamentali – sottolinea Barolo –. La prima è il bagaglio di tecniche di modellazione matematica, di ottimizzazione, di analisi dei dati e di progettazione degli esperimenti che la nostra disciplina di base ‒ l’ingegneria chimica ‒ ci mette a disposizione. La seconda è il continuo dialogo con l’industria, che ci permette da un lato di essere sistematicamente vicini alle problematiche del mondo produttivo, e dall’altro di sviluppare soluzioni che siano non soltanto scientificamente originali, ma anche efficaci nella pratica. Poter contribuire a rendere meno tortuoso il “viaggio” che un farmaco fa, dal laboratorio dello scienziato che l’ha scoperto alla casa del paziente che lo deve impiegare, ci riempie davvero di orgoglio».

Francesco Destro è Ricercatore Associato al Dipartimento di Ingegneria Chimica e al Centro di Innovazione Biomedica del Massachusetts Institute of Technology di Boston, negli Stati Uniti. La sua ricerca è focalizzata sullo sviluppo di software ed algoritmi per ottimizzare la produzione di farmaci per terapia genica. Tali farmaci sono in grado di curare gravi patologie genetiche, ma hanno attualmente costi produttivi che possono superare 200.000 euro per dose, a causa della complessità intrinseca di questi prodotti biotecnologici. Francesco Destro ha ricevuto il Dottorato di Ricerca in Ingegneria Industriale con Curriculum Ingegneria Chimica ed Ambientale all’Università di Padova. Durante il suo dottorato, Destro ha sviluppato software e algoritmi di machine learning per l’ottimizzazione dei processi di produzione farmaceutica. Attualmente, al MIT, Destro applica queste tecnologie avanzate per rendere la produzione di farmaci per terapia genica più efficiente e sostenibile, contribuendo a ridurre i costi e migliorare l’accessibilità per i pazienti.

Testo e foto dall’Ufficio Stampa dell’Università di Padova

INTELLIGENZA ARTIFICIALE: PESARE LE GALASSIE CON IL PROGETTO MELA

Gli algoritmi e le applicazioni di intelligenza artificiale fanno ormai parte della nostra vita quotidiana. La comunità scientifica, tuttavia, ne fa largo utilizzo già da diversi anni e l’Italia, in questo, è all’avanguardia. L’Istituto Nazionale di Astrofisica (INAF), per esempio, ha partecipato ad un progetto guidato da Nicola R. Napolitano, da cinque anni presso l’Università Sun Yat-sen (Cina), che per la prima volta è riuscito a dimostrare che l’intelligenza artificiale può imparare dalle simulazioni cosmologiche di formazione ed evoluzione dell’universo a misurare correttamente la massa delle galassie. Lo studio che è stato pubblicato oggi sulla rivista Astronomy & Astrophysics, descrive una nuova metodologia per stimare la massa delle galassie (incluso il loro contenuto di materia oscura) usando il machine learning.

Nicola R. Napolitano, già ricercatore INAF e ora professore ordinario presso l’Università degli Studi di Napoli Federico II, spiega che

“in questo modo, è possibile superare i problemi intrinseci alla dinamica delle galassie. I modelli dinamici, infatti, hanno bisogno di pesanti assunzioni sulla distribuzione dei moti interni delle galassie, che possono non essere totalmente corrette, e necessitano un esborso di risorse enorme per ottenere risultati sufficientemente accurati”.

Nicola R. Napolitano
Nicola R. Napolitano

L’articolo “Total and dark mass from observations of galaxy centers with Machine Learning” dimostra per la prima volta che questa metodologia funziona su cataloghi di galassie reali. Gli esperti hanno confrontato le stime del nuovo codice, denominato MELA (Mass Estimator machine Learning Algorithm), con stime di procedure dinamiche classiche verificando quindi che MELA può riprodurre con incredibile accuratezza le masse dei metodi classici, in alcuni casi molto più laboriosi e basati su dati molto più complessi (per esempio la cinematica 3D) dei dati più semplici di cui MELA ha bisogno e che saranno prodotti per milioni di galassie con i progetti di spettroscopia di nuova generazione in cui INAF è coinvolta, come WEAVE e 4MOST.

Crescenzo Tortora, ricercatore dell’INAF di Napoli che ha partecipato allo studio, aggiunge:

“Il lavoro è stato possibile grazie ad un percorso intrapreso dal nostro gruppo che negli ultimi anni ha esteso le applicazioni dell’intelligenza artificiale a diversi settori dell’analisi dati di grandi survey astronomiche. Questo è stato anche possibile grazie all’esperienza acquisita negli ultimi anni con survey a grande campo (nello specifico KiDS al telescopio VST) nella ricerca di lenti gravitazionali, l’analisi della struttura e delle popolazioni stellari delle galassie”.

Crescenzo Tortora
Crescenzo Tortora

Come in tanti altri settori, il machine learning è una realtà sempre più concreta nell’ambito dell’astrofisica, non solo nell’analisi dei dati ma anche nel loro sfruttamento scientifico. Napolitano prosegue:

“In questo lavoro abbiamo chiesto a MELA di mostrarci come otteneva i suoi risultati e quali fossero le osservabili che avessero più importanza per derivare le sue conclusioni. La cosa straordinaria è che abbiamo capito che MELA può capire la fisica delle gravità”.

L’INAF, e in particolare la sede di Napoli, vanta una storica expertise in materia di dinamica delle galassie con la partecipazione a progetti nati sul solco della tradizione delle fisica delle galassie. I ricercatori Italiani, in particolare Tortora e Napolitano, sono diventati, negli anni, specialisti a livello mondiale con collaborazioni con i gruppi di dinamica delle galassie più importanti nel contesto internazionale e con progetti, come MELA, che sono unici al mondo.

“Da questo lavoro abbiamo capito che l’intelligenza artificiale è pronta a imparare la fisica a partire dai dati”, conclude Napolitano. “Nella fattispecie abbiamo verificato che MELA può utilizzare le leggi fisiche che conoscevamo, ma presto l’intelligenza artificiale potrà ”imparare anche la Fisica che non conosciamo”.


Riferimenti bibliografici:

L’articolo “Total and dark mass from observations of galaxy centers with Machine Learning”, di   Sirui Wu, Nicola R. Napolitano, Crescenzo Tortora, Rodrigo von Marttens, Luciano Casarini, Rui Li,  Weipeng Lin, è stato pubblicato sulla rivista Astronomy & Astrophysics.

intelligenza artificiale progetto MELA pesare galassie
Il nuovo codice del progetto MELA (Mass Estimator machine Learning Algorithm) sa pesare le masse delle galassie con incredibile accuratezza

Testo e immagini dall’Ufficio stampa – Struttura per la Comunicazione Istituto Nazionale di Astrofisica – INAF

Nasce ASCETIC, l’algoritmo per ricostruire modelli di evoluzione tumorale

Grazie a questo nuovo sistema di analisi, basato sulle “firme evolutive” che caratterizzano i tumori, sarà possibile migliorare le nostre capacità di prevedere come questi evolveranno. La ricerca di Milano-Bicocca è appena stata pubblicata su Nature Communications.

Simulare l’attività cerebrale con l’intelligenza artificiale ASCETIC algoritmo evoluzione tumorale
Nasce ASCETIC, l’algoritmo per ricostruire modelli di evoluzione tumorale. Immagine di Ahmed Gad

 

Milano, 3 ottobre 2023 – Migliorare la nostra capacità di prevedere come evolverà un tumore, superando le limitazioni delle analisi che considerano solo le singole mutazioni genetiche. Questo è l’obiettivo possibile grazie al nuovo metodo chiamato ASCETIC (Agony-baSed Cancer EvoluTion InferenCe), sviluppato da Milano-Bicocca, capace di ricostruire modelli di evoluzione tumorale per ciascun paziente e successivamente identificare modelli evolutivi che si ripetono in diversi pazienti.

Il metodo, illustrato nell’articolo “Evolutionary signatures of human cancers revealed via genomic analysis of over 35,000 patients”, appena pubblicato sulla rivista Nature Communications, è stato sviluppato da un gruppo multidisciplinare guidato da Daniele Ramazzotti, docente di informatica presso il Dipartimento di Medicina e Chirurgia dell’Università degli Studi di Milano-Bicocca, in collaborazione con Alex Graudenzi (Dipartimento di informatica), Luca Mologni (Dipartimento di Medicina e chirurgia) e le ricercatrici Diletta Fontana, Ilaria Crespiatico e Valentina Crippa, per le attività di valutazione e validazione dei risultati.

In questo studio, ASCETIC è stato applicato a dati derivati da oltre 35.000 tumori, inclusi pazienti con diverse malattie del sangue, pazienti con tumore al polmone in fase precoce o avanzata e molti altri. Inoltre, è stata condotta una validazione dei risultati ottenuti su dataset indipendenti per garantirne l’affidabilità e la capacità di generalizzazione.

Il cancro è un processo evolutivo complesso che coinvolge grandi popolazioni di cellule nel corpo umano. Queste cellule subiscono mutazioni genetiche e modificazioni epigenetiche, alcune delle quali possono conferire un vantaggio alle cellule tumorali. Questo vantaggio può tradursi in una maggiore capacità di proliferazione e sopravvivenza delle cellule cancerogene, che alla fine può portare all’invasione dei tessuti circostanti e alla formazione di metastasi. Tuttavia, non tutte le mutazioni contribuiscono al processo di sviluppo della malattia. Infatti, solo una piccola frazione di esse, chiamate “mutazioni driver”, svolge un ruolo funzionale, mentre la maggior parte delle mutazioni sono neutrali, dette “mutazioni passenger”.

ASCETIC si basa sull’osservazione che, nella maggior parte dei casi, l’accumulo di mutazioni passenger durante la progressione del cancro segue una dinamica casuale. Tuttavia, per le mutazioni driver, che sono responsabili della progressione del tumore, l’evoluzione può portare ad un ordine coerente osservato in pazienti diversi.

ASCETIC affronta questo problema complesso suddividendolo in tre passaggi chiave. Inizialmente, sfrutta modelli di evoluzione per stabilire un ordine tra le mutazioni genetiche driver nei singoli pazienti, consentendoci di comprendere la sequenza in cui queste mutazioni si sono verificate nel corso della storia evolutiva degli specifici tumori. In seguito, utilizzando approcci di intelligenza artificiale, individua il modello più adatto per spiegare tutte le singole evoluzioni, offrendoci una mappa di come il cancro si sviluppa globalmente per un particolare tipo di tumore. Infine, categorizza i pazienti in base alle loro evoluzione e verifica se questi gruppi presentano curve di sopravvivenza differenti.

Grazie alla crescente disponibilità di dati biologici provenienti da esperimenti di sequenziamento genetico su pazienti affetti da cancro e ai progressi nel campo della scienza dei dati e dell’intelligenza artificiale, siamo ora in grado di valutare la presenza di specifici modelli evolutivi per i diversi tipi di cancro. Questi modelli, che possiamo definire come “firme evolutive”, rappresentano i percorsi preferenziali di acquisizione di mutazioni driver, cioè quelle funzionali, durante l’evoluzione del cancro e possono essere ricorrenti in pazienti con prognosi simile.

«Nonostante questo studio non sia definitivo – conclude Ramazzotti – esso rappresenta un passo significativo verso la creazione di un “catalogo” di firme evolutive del cancro, che potrebbe aiutare a comprendere meglio la complessa natura del tumore e a migliorare le previsioni sulla sua progressione e prognosi. Infatti, essere in grado di classificare i pazienti affetti da cancro in base alla loro evoluzione molecolare potrebbe consentire la previsione dei futuri passi nella progressione della malattia e di conseguenza l’attuazione di trattamenti ottimali e personalizzati

 

Testo dall’Ufficio Stampa dell’Università di Milano-Bicocca

DA CA’ FOSCARI UN ALGORITMO PER SOSTITUIRE LE TERRE RARE CON MATERIALI SOSTENIBILI

Stefano Bonetti, fisico a Ca’ Foscari, ha presentato l’attività della Fondazione Rara in audizione alla Commissione Esteri della Camera:

Non c’è un modo pulito di estrarre terre rare, ma con la ricerca possiamo trovare nuovi materiali, generando un forte impatto economico”.

VENEZIA – Lantanio, cerio, praseodimio, neodimio. Sono solo le prime delle diciassette ‘terre rare’ presenti nella tavola periodica degli elementi. Si chiamano terre, ma sono sostanzialmente dei metalli, tutti con colore simile, indispensabili per l’economia del presente e del futuro, per la transizione ecologica, e per gli interessi di molti Paesi.

Le terre rare fanno parte di un più ampio gruppo di “materiali rari” o “materiali critici”, per esempio nichel o cobalto, che sono alla base di tutti i dispositivi elettronici di ultima generazione, come batterie ricaricabili, motori elettrici, schermi TV e LCD. Sono anche elementi fondamentali per lo sviluppo delle tecnologie più avanzate in campo aerospaziale, medico, della difesa e delle energie rinnovabili. Il controllo e il primato sull’export di questi materiali, la cui domanda è destinata a crescere in modo rapido ed esponenziale in tutto il mondo, è attualmente in mano alla Cina.

Norme e strategie per superare il ‘monopolio’ cinese e regolamentare il procedimento complesso e poco sostenibile di estrazione e lavorazione delle terre rare e dei materiali critici, sono in discussione anche a livello di Unione Europea e di singoli Stati, tra i quali l’Italia, dove sono coinvolti il ministero delle Imprese e del Made in Italy e quello dall’Ambiente.

Stefano Bonetti, Ordinario di Fisica della Materia a Ca’ Foscari, è rappresentante di Fondazione Rara ETS, no profit nata per promuovere ed effettuare ricerca su tecnologie e materiali sostenibili, offrendo soluzioni ‘pulite’ e percorribili in qualunque strategia geopolitica legata ai materiali rari. Insieme a lui, i docenti di Ca’ Foscari Guido Caldarelli, Ordinario di Fisica Teorica, Michele Bugliesi, Ordinario di Informatica e precedente Rettore, insieme ad Alberto Baban, Presidente di VeNetWork ed ex Presidente Nazionale di Piccola e Media Impresa di Confindustria, e Anna Soatto, di Cortellazzo&Soatto.

Nei giorni scorsi Bonetti è stato invitato per un’audizione alla Commissione Esteri della Camera dei deputati, dove ha spiegato le criticità e possibili sviluppi nel campo delle terre e dei materiali rari, e ha presentato l’attività della Fondazione.

“Al momento stiamo sviluppando e brevettando un algoritmo che permetta di sostituire completamente le terre rare con materiali sostenibili e abbondanti, cercando e combinando materiali con proprietà simili – spiega Bonetti. – La realtà è che non c’è un modo pulito di estrarre terre rare, che significa che i processi per evitare di inquinare richiedono costosi processi di bonifica, che di ritorno aumenterebbero i prezzi dei materiali e porterebbero probabilmente fuori mercato le terre rare estratte in Europa. Consideriamo poi il costo sociale: qualsiasi dispositivo elettronico di uso quotidiano ha una batteria che contiene cobalto, e l’estrazione di cobalto avviene quasi totalmente in Congo, senza regole ambientali e sfruttando in maniera tragica lavoro minorile. Il paradosso è evidente: per effettuare una transizione ecologica che mira a salvare il pianeta, ci procuriamo materiali distruggendo alcune aree del pianeta stesso, e le persone che ci vivono. Anche le attuali alternative in discussione, ovvero recuperare e riciclare le terre rare da vecchi dispositivi elettronici, o di trovare nuovi giacimenti, hanno ancora altissimi costi energetici, ambientali e sociali”.

Stefano Bonetti sostituire terre rare
Stefano Bonetti

L’approccio proposto dal gruppo di ricerca offre una soluzione completamente nuova al problema. L’idea non è di trovare terre rare o materiali rari, riciclandoli o cercando nuovi giacimenti, ma di sostituirli completamente con materiali abbondanti e sostenibili.

“Ci sono elementi come il sodio, il potassio, il ferro, il titanio, e diversi altri, che sono molto più abbondanti, e distribuiti su tutto il pianeta – continua Bonetti. – Con questi elementi comuni, si possono creare dei materiali compositi, delle leghe, che possono avere le proprietà delle terre rare. In questo modo, potremmo continuare a sviluppare tecnologia necessaria alla transizione ecologica, con materiali a basso impatto ambientale. Inoltre, anche gli altri problemi di diritti umani, di concentrazione di potere in mano a pochi attori si risolverebbero, perché questi materiali si trovano distribuiti su tutto il pianeta”.

L’idea è semplice, ed è quella di provare tante combinazioni di materiali, testarli e trovare quelli simili. La difficoltà sta nell’altissimo numero di combinazioni possibili, paragonabile a quanti sono gli atomi nell’universo.

“Quello che abbiamo fatto all’interno della Fondazione Rara, grazie ad una combinazione di competenze unica in fisica della materia, in fisica teorica e in informatica, è lo sviluppo di un algoritmo in grado di ottimizzare la ricerca di questi materiali in maniera molto più efficiente di quanto fatto fino ad ora, creando un’elaborazione dei materiali. Dopo l’algoritmo, l’obiettivo successivo è quello di creare un database di materiali mirati a sostituire le terre rare.”

Le ricadute di un’impresa di questo tipo sull’intero sistema nazionale sono destinate ad avere un forte impatto dal punto di vista economico, perché l’Italia diventerebbe leader di materiali sostenibili per le nuove tecnologie (il solo settore microelettronica ha un valore stimato di 700 miliardi nel 2027); strategico e geopolitico, perché diventerebbe punto di riferimento per le industrie che operano nell’ambito della transizione ecologica; e infine politico, con un ruolo leader in Europa nelle politiche per i materiali sostenibili.

Tra le raccomandazioni di breve-medio periodo che Fondazione Rara ha presentato nel corso dell’audizione, spiccano: un impegno della politica a livello internazionale per inserire la ricerca di materiali sostenibili tra le priorità dei prossimi anni, lo stanziamento di fondi europei mirati alla sostituzione dei materiali critici con materiali sostenibili e l’utilizzo di e fondi PNRR per la ricerca sui materiali sostenibili.

Video dell’audizione di Stefano Bonetti alla Commissione Esteri: https://webtv.camera.it/evento/22978

 

Testo e foto dall’Ufficio Comunicazione e Promozione di Ateneo Università Ca’ Foscari Venezia sull’algoritmo per sostituire le terre rare con materiali sostenibili.

Telemedicina: un algoritmo analizza la scrittura dei pazienti e fornisce informazioni utili sul loro stato di salute

Un nuovo studio, coordinato dal Dipartimento di Neuroscienze umane della Sapienza, ha proposto un innovativo sistema di monitoraggio a distanza dei pazienti neurologici basato sull’analisi della scrittura attraverso algoritmi di machine learning. I risultati del lavoro sono stati pubblicati sulla rivista Frontiers in Aging Neuroscience.

telemedicina algoritmo scrittura
Telemedicina: un algoritmo analizza la scrittura dei pazienti e fornisce informazioni utili sul loro stato di salute. Foto di Firmbee

La scrittura a mano è un compito cognitivo e motorio acquisito di particolare complessità, che offre un’interessante finestra di osservazione sulle funzioni del cervello. Per questo motivo, il monitoraggio della scrittura fornisce informazioni biologiche utili, soprattutto nei pazienti neurologici: i disturbi della scrittura sono infatti frequentemente osservati in pazienti affetti da malattie neurodegenerative, tra cui la malattia di Parkinson (micrografia) e la malattia di Alzheimer (agrafia).

Un team di ricerca interdisciplinare, coordinato da Antonio Suppa del Dipartimento di Neuroscienze Umane della Sapienza, ha proposto l’analisi della scrittura attraverso l’intelligenza artificiale come un innovativo sistema per il monitoraggio da remoto, in telemedicina, di pazienti neurologici. Il sistema, basato sull’accuratezza di algoritmi di machine learning nel rilevare alcuni “pattern” di scrittura attribuibili all’invecchiamento fisiologico di soggetti sani, è un’alternativa alla consueta valutazione clinica ambulatoriale.

Lo studio, realizzato con la collaborazione dei dipartimenti di Ingegneria dell’informazione, elettronica e telecomunicazioni della Sapienza, dell’IRCCS Neuromed e del Dipartimento di Neurologia dell’Università di Cincinnati in Ohio, è stato pubblicato sulla rivista Frontiers in Aging Neuroscience.

I ricercatori hanno reclutato 156 soggetti sani e destrimani e li hanno suddivisi in tre classi di età: 51 giovani tra i 18 e i 32 anni, 40 adulti di età compresa tra 37 e 57 anni e, infine, 63 soggetti in età adulta avanzata, ovvero tra i 62 e i 90 anni. A ognuno di essi è stato chiesto di scrivere con una penna a sfera nera il proprio nome e cognome per 10 volte su un foglio di carta bianca e, successivamente, di fotografare il proprio campione di scrittura con uno smartphone e inviarlo ai ricercatori.

“Il principale traguardo scientifico del nostro studio – spiega Antonio Suppa – consiste nella accuratezza dell’analisi automatica della scrittura con algoritmi di intelligenza artificiale, in grado di obiettivare la progressiva riduzione di ampiezza dei caratteri dovuta all’invecchiamento fisiologico e, quindi, di attribuire ogni campione di scrittura a una specifica fascia d’età dell’autore”.

“Sebbene ricerche precedenti avessero già dimostrato cambiamenti nella destrezza della scrittura legati all’aumento dell’età, per analizzare una grande quantità di dati nell’ambito della telemedicina si rendevano necessari approcci basati su tecniche di analisi più complesse come il machine learning”.

“L’analisi della scrittura con algoritmi di intelligenza artificiale – aggiunge Simone Scardapane, co-autore dello studio– è stata svolta grazie all’utilizzo di una rete neurale convoluzionale – ovvero una rete artificiale specializzata per l’elaborazione di immagini e segnali digitali – in grado di convertire automaticamente i caratteri in parametri di interesse.

Si tratta di un metodo semplice, ecologico, a basso costo e di facile utilizzo in diversi ambiti. Infatti, oltre alle notevoli implicazioni nel campo neurologico, può contribuire, ad esempio, alla datazione storica di un determinato documento, grazie alla valutazione automatica dell’età della persona che lo ha scritto. In particolare, in ambito medico-legale potrebbe facilitare la datazione di un testamento al momento della stesura o della firma.

“Il nostro auspicio – conclude Francesco Asci, co-autore dello studio – è che l’analisi della scrittura da remoto e mediante algoritmi di intelligenza artificiale possa costituire in futuro un innovativo biomarker di invecchiamento, con un impatto rilevante nel campo della diagnostica di malattie neurodegenerative e in accordo con i metodi della telemedicina”.

Riferimenti:
Handwriting Declines With Human Aging: A Machine Learning Study – Francesco Asci, Simone Scardapane, Alessandro Zampogna, Valentina D’Onofrio, Lucia Testa, Martina Patera, Marco Falletti, Luca Marsili, Antonio Suppa – Frontiers in Aging Neuroscience (2022) https://doi.org/10.3389/fnagi.2022.889930

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Adolescenti sempre connessi: ai ragazzi i consigli dei loro coetanei per il benessere digitale
Dalle esperienze sul campo e da un confronto tra studenti e ricercatori, all’Università di Milano-Bicocca nasce un decalogo per genitori e figli

Milano, 6 maggio 2022 – Gestire il tempo trascorso sui social, disconnettersi per riconnettersi con la realtà, non usare lo smartphone prima di andare a letto, fare attenzione alle regole della privacy delle App: sono i ragazzi ad indicare poche e semplici regole ai loro coetanei per evitare di essere travolti dalle insidie reali che si nascondono nella connessione continua con il mondo virtuale. Il decalogo è stato messo a punto al termine della tavola rotonda cui hanno preso parte studenti delle scuole superiori e universitari, esperti, docenti e ricercatori dell’Università di Milano-Bicocca e rappresentanti delle istituzioni locali. Il momento di confronto ha chiuso il convegno “Il benessere digitale tra gli adolescenti: dalla teoria alle buone pratiche“, organizzato dall’Università in collaborazione con l’Associazione Psyché Onlus, in vista della Giornata internazionale del digital wellness che ricorre oggi.
Nel corso dei lavori sono stati presentati i risultati di progetti di ricerca, attività di laboratorio ed esperienze pratiche sul tema del benessere digitale. Fondamentale il contributo degli stessi ragazzi: gli studenti dell’Istituto professionale di Stato “Cavalieri” di Milano hanno preso parte ad esperienze di disconnessione, quelli dell’Istituto Europeo di Design hanno realizzato spot sul corretto uso della rete, dando sfogo ad ironia e creatività per catturare l’attenzione dei loro coetanei.
Tutto ha contribuito a far emergere aspetti problematici come la gestione del tempo e dell’attenzione, l’alterazione del ciclo sonno-veglia e la limitazione dei contenuti tra cui scegliere dovuta all’invadenza degli algoritmi. E, partendo da questo, è stato possibile definire le indicazioni pratiche per i ragazzi. Si parte con l’avvertenza di usare motori di ricerca che non registrano i dati di navigazione per evitare che gli algoritmi offrano suggerimenti uniformati sulla base dei gusti dell’utente. Si consiglia, poi, di essere se stessi, senza inseguire quanto proposto da profili irrealistici e di dare priorità all’osservazione del mondo che si ha intorno per fare nuove esperienze e socializzare con più facilità.
Il testo non contiene divieti, ma un “no” deciso viene detto al multitasking che abitua a passare rapidamente da un’attività all’altra, facendo assumere un comportamento che diviene un’abitudine anche nella vita quotidiana
L’ultimo punto del decalogo è riservato ai genitori, invitati ad avere un atteggiamento dialogante con i figli per scoprire con loro le potenzialità della Rete e, nel contempo, guidarli ad un uso prudente delle sue risorse.

 

«Il nostro convegno credo sia stato un bell’esempio di come sia possibile creare un confronto proficuo tra realtà apparentemente distanti come quelle dell’Università, del mondo no profit e della scuola. Abbiamo ascoltato la voce di psicologi, psicoterapeuti, sociologi, ingegneri, insegnanti, ma il contributo più efficace – rimarca Chiara Ripamonti, ricercatrice di Psicologia clinica dell’Università di Milano-Bicocca – è stato, a mio parere, quello degli studenti di scuola superiore che hanno raccontato le loro esperienze di disconnessione. A Milano hanno dovuto orientarsi nello spazio senza l’uso di Google map e raccogliere informazioni su un quartiere intervistando le persone per strada. Inoltre, si sono disconnessi per 20 ore consecutive in un rifugio montano. Al convegno ci hanno trasmesso il loro entusiasmo e la loro sorpresa nell’avere scoperto che senza il telefonino ci si può ugualmente divertire, si possono fare nuove conoscenze e, soprattutto, si può stare bene insieme».
Adolescenti sempre connessi
Adolescenti sempre connessi. Foto StartupStockPhotos
Testo e foto dall’Ufficio Stampa Università di Milano-Bicocca sugli adolescenti sempre connessi.

Tumori del seno: un nuovo algoritmo indicherà la cura su misura

Identificato allo IEO, dai ricercatori guidati da Di Fiore e Pece, lo studio è stato sostenuto da Fondazione AIRC.

I ricercatori del Programma di Novel Diagnostics dell’Istituto Europeo di Oncologia (IEO), guidati da Pier Paolo Di Fiore e Salvatore Pece, direttore e vice direttore del Programma e docenti del dipartimento di Oncologia ed Emato-Oncologia dell’Università Statale di Milano, hanno messo a punto e convalidato un nuovo modello di predizione del rischio individuale di metastasi in donne con tumori mammari di tipo luminale, che rappresentano i tre quarti di tutti i tumori al seno.
Il modello sarà quindi una guida per gli oncologi per orientare le scelte terapeutiche paziente per paziente, evitando sia il sovra che il sotto-trattamento nelle terapie post-chirurgiche. Gli studi che hanno portato a questo importante risultato per la cura dei tumori del seno, sostenuti da Fondazione AIRC, saranno presentati al convegno annuale dell’ASCO (American Association of Clinical Oncology), il più importante meeting internazionale di oncologia medica.

Il nuovo modello – spiega Di Fiore – si basa sulla combinazione del predittore genomico (un set di geni che formano una “firma molecolare”) StemPrintER, che noi stessi abbiamo scoperto e validato un anno fa, con due parametri clinici: stato dei linfonodi e dimensione del tumore. In sostanza, abbiamo creato un nuovo modello di rischio, che associa, per la prima volta, dati clinici e dati genomici. Il risultato è stato eccellente: abbiamo testato il modello su oltre 1800 pazienti arruolate allo IEO e abbiamo dimostrato che la sua capacità di stimare il reale rischio di sviluppo di recidiva fino a 10 anni è superiore rispetto ai parametri clinico-patologici comunemente utilizzati nella pratica clinica”.

Il biomarcatore StemPrinter, individuato da IEO, è il primo e tuttora l’unico strumento capace di indicare il grado di “staminalità” presente nel tumore mammario primario, vale a dire il numero e l’aggressività delle cellule staminali del cancro. Queste cellule hanno un ruolo cruciale sia nell’avvio del processo di tumorigenesi che della diffusione metastatica nell’organismo, e sono anche alla base della resistenza alla chemioterapia di ogni tumore del seno. Studi recenti del team dell’IEO hanno inoltre confermato che il grado di staminalità delle cellule determina quell’eterogeneità biologica, clinica, e molecolare del tumore del seno, che ha fino ad ora reso molto difficile prevedere la prognosi e la risposta alla terapia.

“In uno studio condotto in collaborazione con Royal Marsden Hospital e Queen Mary University di Londra e anch’ esso presentato all’ASCO di quest’anno – continua Pece – abbiamo dimostrato che la predizione della prognosi e la conseguente scelta delle terapie per il tumore del seno è più efficace se si basa sulla conoscenza della staminalità delle cellule tumorali . Il nostro modello che integra dati di staminalità e dati clinici si candida quindi a diventare il golden standard per la prognosi del tumore del seno. È un modello duttile, oltreché affidabile: si applica sia alle pazienti con linfonodi negativi, che a quelle con pochi (da uno a 3) linfonodi positivi, che rappresentano il gruppo con il maggior bisogno di una predizione accurata del rischio di recidiva per evitare il sovratrattamento con chemioterapie aggressive non indispensabili, senza per questo trascurare il rischio di sviluppare una recidiva a distanza di anni”. 

“Il nuovo modello può rappresentare uno strumento importante per orientare noi oncologi nella scelta del trattamento adiuvante, che deve tenere in considerazione sia il rischio di recidiva della malattia che i vantaggi e gli svantaggi delle terapie mediche precauzionali”, commenta Marco Colleoni, direttore della Divisione di Senologia Medica e Co-chair dell’International Breast Cancer Study Group.

“I risultati del nostro studio rappresentano un ulteriore passo verso l’obiettivo che perseguiamo da anni: dare a ciascuna paziente la terapia migliore per lei e per la sua malattia – conclude Paolo Veronesi, direttore del Programma di Senologia IEO e professore associato all’Università degli Studi di Milano –. Grazie all’approccio multidisciplinare ed alla stretta interazione tra ricerca e clinica, la medicina personalizzata sta finalmente diventando una realtà anche per il tumore della mammella”.

Testo sull’algoritmo per le cure ai tumori del seno dall’Università Statale di Milano