News
Ad
Ad
Ad
Tag

Intelligenza Artificiale

Browsing

Simulare l’attività cerebrale con l’intelligenza artificiale
“Come funziona il cervello?” Le neuroscienze si giovano dei contributi della fisica sperimentale e teorica per comprendere la complessità del cervello

Come funziona il cervello?

Il sistema nervoso umano contiene miliardi di neuroni e ciascuno di essi è connesso a decine di migliaia di altri neuroni mediante le sinapsi, che modificano la loro forza in una rete plastica la cui struttura dipende dalla storia dell’individuo e dalla selezione naturale, evolutiva, vissuta dal cervello. Ad oggi, la tecnologia disponibile consente di creare algoritmi, che sono alla base dell’intelligenza artificiale, capaci di riprodurre alcuni semplici aspetti cognitivi del cervello umano. Quest’ultimo si presenta come un sistema complesso, cioè è costituito da un elevato numero di componenti (i neuroni) che interagiscono tra loro dando vita a comportamenti collettivi emergenti. La comprensione di tali comportamenti sarebbe impossibile osservando il comportamento del singolo neurone, sebbene ad oggi, dal punto di vista biologico, si conosca tutto (o quasi) di questa cellula.

 
Simulare l’attività cerebrale con l’intelligenza artificiale
Simulare l’attività cerebrale con l’intelligenza artificiale. Immagine di Gerd Altmann

 

I sistemi artificiali che simulano il sistema nervoso

Molteplici sono le sfide scientifiche e tecnologiche da affrontare per ottenere sistemi artificiali con capacità cognitive realmente paragonabili a quelle umane. Il primo modello teorico di “rete neurale artificiale”, nato con lo scopo di spiegare il funzionamento del neurone, fu quello di McCulloch e Pitts nel 1943. La loro idea si è poi evoluta e negli anni abbiamo assistito alla nascita di molteplici altri modelli di reti neurali artificiali, insieme allo studio e allo sviluppo di algoritmi di machine learning (apprendimento automatico), che rappresenta il cuore computazionale dell’intelligenza artificiale. Le più recenti versioni di machine learning, basate sul deep learning (cioè su una o più reti neurali artificiali, capaci di apprendere e condensare le informazioni rilevanti), vengono largamente utilizzate nella ricerca di base.

Simulare l’attività cerebrale con l’intelligenza artificiale
Immagine di Ahmed Gad

L’intelligenza artificiale all’opera

Intelligenza artificiale, robotica e macchine neuromorfe (cioè costruite incorporando meccanismi simili a quelli biologici) assumono un ruolo chiave nella rivoluzione tecno-scientifica e industriale in atto. Siamo circondati da esempi di intelligenza artificiale e di apprendimento automatico, talvolta senza neanche rendercene conto. Basti pensare ai sistemi di riconoscimento del parlato, i prototipi di riconoscimento visivo per i sistemi di guida automatica, all’algoritmo di deep learning che c’è dietro una semplice ricerca per immagini in Google.

L’intelligenza artificiale è coinvolta anche nella comprensione della fisio-patologia cerebrale. L’impatto socio-economico delle patologie del sistema nervoso desta non poche preoccupazioni per i sistemi sanitari pubblici per cui è richiesto un approccio multidisciplinare.

Immagine di Robina Weermeijer

Per approfondire:

Immagine di Gerd Altmann

Telemedicina: un algoritmo analizza la scrittura dei pazienti e fornisce informazioni utili sul loro stato di salute

Un nuovo studio, coordinato dal Dipartimento di Neuroscienze umane della Sapienza, ha proposto un innovativo sistema di monitoraggio a distanza dei pazienti neurologici basato sull’analisi della scrittura attraverso algoritmi di machine learning. I risultati del lavoro sono stati pubblicati sulla rivista Frontiers in Aging Neuroscience.

telemedicina algoritmo scrittura
Telemedicina: un algoritmo analizza la scrittura dei pazienti e fornisce informazioni utili sul loro stato di salute. Foto di Firmbee

La scrittura a mano è un compito cognitivo e motorio acquisito di particolare complessità, che offre un’interessante finestra di osservazione sulle funzioni del cervello. Per questo motivo, il monitoraggio della scrittura fornisce informazioni biologiche utili, soprattutto nei pazienti neurologici: i disturbi della scrittura sono infatti frequentemente osservati in pazienti affetti da malattie neurodegenerative, tra cui la malattia di Parkinson (micrografia) e la malattia di Alzheimer (agrafia).

Un team di ricerca interdisciplinare, coordinato da Antonio Suppa del Dipartimento di Neuroscienze Umane della Sapienza, ha proposto l’analisi della scrittura attraverso l’intelligenza artificiale come un innovativo sistema per il monitoraggio da remoto, in telemedicina, di pazienti neurologici. Il sistema, basato sull’accuratezza di algoritmi di machine learning nel rilevare alcuni “pattern” di scrittura attribuibili all’invecchiamento fisiologico di soggetti sani, è un’alternativa alla consueta valutazione clinica ambulatoriale.

Lo studio, realizzato con la collaborazione dei dipartimenti di Ingegneria dell’informazione, elettronica e telecomunicazioni della Sapienza, dell’IRCCS Neuromed e del Dipartimento di Neurologia dell’Università di Cincinnati in Ohio, è stato pubblicato sulla rivista Frontiers in Aging Neuroscience.

I ricercatori hanno reclutato 156 soggetti sani e destrimani e li hanno suddivisi in tre classi di età: 51 giovani tra i 18 e i 32 anni, 40 adulti di età compresa tra 37 e 57 anni e, infine, 63 soggetti in età adulta avanzata, ovvero tra i 62 e i 90 anni. A ognuno di essi è stato chiesto di scrivere con una penna a sfera nera il proprio nome e cognome per 10 volte su un foglio di carta bianca e, successivamente, di fotografare il proprio campione di scrittura con uno smartphone e inviarlo ai ricercatori.

“Il principale traguardo scientifico del nostro studio – spiega Antonio Suppa – consiste nella accuratezza dell’analisi automatica della scrittura con algoritmi di intelligenza artificiale, in grado di obiettivare la progressiva riduzione di ampiezza dei caratteri dovuta all’invecchiamento fisiologico e, quindi, di attribuire ogni campione di scrittura a una specifica fascia d’età dell’autore”.

“Sebbene ricerche precedenti avessero già dimostrato cambiamenti nella destrezza della scrittura legati all’aumento dell’età, per analizzare una grande quantità di dati nell’ambito della telemedicina si rendevano necessari approcci basati su tecniche di analisi più complesse come il machine learning”.

“L’analisi della scrittura con algoritmi di intelligenza artificiale – aggiunge Simone Scardapane, co-autore dello studio– è stata svolta grazie all’utilizzo di una rete neurale convoluzionale – ovvero una rete artificiale specializzata per l’elaborazione di immagini e segnali digitali – in grado di convertire automaticamente i caratteri in parametri di interesse.

Si tratta di un metodo semplice, ecologico, a basso costo e di facile utilizzo in diversi ambiti. Infatti, oltre alle notevoli implicazioni nel campo neurologico, può contribuire, ad esempio, alla datazione storica di un determinato documento, grazie alla valutazione automatica dell’età della persona che lo ha scritto. In particolare, in ambito medico-legale potrebbe facilitare la datazione di un testamento al momento della stesura o della firma.

“Il nostro auspicio – conclude Francesco Asci, co-autore dello studio – è che l’analisi della scrittura da remoto e mediante algoritmi di intelligenza artificiale possa costituire in futuro un innovativo biomarker di invecchiamento, con un impatto rilevante nel campo della diagnostica di malattie neurodegenerative e in accordo con i metodi della telemedicina”.

Riferimenti:
Handwriting Declines With Human Aging: A Machine Learning Study – Francesco Asci, Simone Scardapane, Alessandro Zampogna, Valentina D’Onofrio, Lucia Testa, Martina Patera, Marco Falletti, Luca Marsili, Antonio Suppa – Frontiers in Aging Neuroscience (2022) https://doi.org/10.3389/fnagi.2022.889930

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

MACHINE LEARNING E INTELLIGENZA ARTIFICIALE: NUOVI STRUMENTI NELL’INDAGINE INVESTIGATIVA DEI CRIMINI VIOLENTI

Uno studio dell’Università di Torino e dell’Università di Genova, in collaborazione con il Centro Antidoping di Orbassano e il R.I.S. dei Carabinieri di Roma, fornisce importanti novità sulla datazione accurata delle tracce biologiche

machine learning intelligenza artificiale crimini violenti Università di Torino Genova

Nell’ambito di una collaborazione che coinvolge il Dipartimento di Chimica dell’Università di Torino (Prof. Marco Vincenti), il Dipartimento di Farmacia dell’Università di Genova (Prof. Paolo Oliveri), il Centro Antidoping di Orbassano e il R.I.S. dei Carabinieri di Roma, è stato pubblicato sulla prestigiosa rivista scientifica Talanta uno studio sull’identificazione di tracce biologiche invisibili sulla scena di crimini violenti. Da un punto di vista criminalistico, la studio fornisce importanti novità riguardo la datazione accurata delle tracce biologiche trovate sulla scena del delitto, insieme alla loro compatibilità con il tempo stimato di perpetrazione del reato, permettendo di limitare il numero di sospetti, valutare i loro alibi e chiarire la sequenza degli eventi.

Lo studio completa una ricerca, pubblicata nel 2020 dallo stesso team sulla medesima rivista, in cui si utilizzava una tecnica di imaging mediante radiazione infrarossa per visualizzare, definire i contorni e identificare la natura delle tracce biologiche invisibili (sangue, urina, liquido seminale) su tessuti di varia natura (fibre naturali e sintetiche), al fine di guidare il loro campionamento per la successiva analisi del DNA.

Nella seconda e attuale pubblicazione, i ricercatori hanno stimato il “tempo di invecchiamento”, ovvero quanto tempo è trascorso dal momento in cui tale traccia biologica è stata rilasciata sul tessuto. Partendo dunque da tracce biologiche invisibili, grazie a questa ricerca se ne definisce non solo la natura e la forma, ma anche il tempo trascorso dalla sua produzione, con grandi vantaggi per l’indagine criminalistica. La difficoltà del lavoro e il suo aspetto innovativo consistono nella complessa elaborazione dei dati spettroscopici e topografici che vengono raccolti, mediante tecniche di machine learning e intelligenza artificiale.

Nella dinamica di compimento di un crimine violento, è possibile che l’assalitore rilasci sulla scena del crimine o sugli indumenti della vittima alcune tracce biologiche, spesso talmente minuscole da essere invisibili a occhio nudo. Il rilevamento di tali tracce, particolarmente difficile su molti tessuti, è fondamentale per estrarre, amplificare e analizzare il DNA dell’individuo che le ha prodotte, identificando il presunto assalitore. Se però tale individuo è solito frequentare il luogo in cui è avvenuto il crimine, diventa altrettanto importante stabilire quando tale traccia biologica è stata rilasciata, dovendosi comprovare la contemporaneità fra il rilascio della stessa e il giorno in cui è stato commesso il delitto.

machine learning intelligenza artificiale crimini violenti Università di Torino Genova
Machine learning e intelligenza artificiale: nuovi strumenti nell’indagine investigativa dei crimini violenti

Lo studio collaborativo fa riferimento a tre tipi di tracce biologiche (sangue, urina, liquido seminale) e due tipi di tessuti (cotone e poliestere), rispettivamente idrofili e idrofobici, che vengono esaminati con uno strumento in grado di registrare lo spettro di assorbimento della radiazione infrarossa da parte del materiale su cui tale radiazione viene inviata. La risoluzione spaziale nell’analisi del tessuto è relativamente grande (500 pixel/cm2) e la scansione spettrale sufficientemente veloce da consentire di acquisire una cosiddetta “immagine iperspettrale nel vicino infrarosso” su un’area di 5×5 cm in un tempo inferiore al minuto.

La vera difficoltà dello studio non sta nell’acquisizione delle immagini iperspettrali, bensì nella capacità di estrarre le informazioni in esse contenute, essendo tali spettri apparentemente identici – nell’area spaziale esaminata e nel tempo. Ancora più difficile è la possibilità di riconoscere l’evoluzione temporale della traccia biologica in funzione del suo “invecchiamento” sul tessuto, in quanto le modificazioni chimiche della traccia biologica nel corso del processo di invecchiamento producono cambiamenti minimi dell’immagine spettrale.

La possibilità di riconoscere le minuscole differenze che sussistono fra i diversi pixel dipende dal trattamento informatico che tali immagini subiscono attraverso complessi algoritmi di “machine learning”. Gli algoritmi prima ridefiniscono le scale di misura all’interno degli spettri, affinché i diversi pixel siano confrontabili, quindi esaltano le differenze fra un pixel e l’altro, al fine di definire la natura, la forma e il perimetro della traccia. Infine, la messa a punto di ulteriori algoritmi statistico-informatici consente di esaltare le modificazioni che intervengono su ciascun pixel e ciascuna immagine allo scorrere del tempo e di collegare tali modificazioni a una scala temporale, consentendo di stimare il tempo trascorso dal momento in cui la traccia biologica è stata deposta sul tessuto (ipoteticamente il momento del delitto).

Machine learning e intelligenza artificiale: nuovi strumenti nell’indagine investigativa dei crimini violenti

In conclusione, il risultato complessivo di questo studio è che, partendo da un tessuto naturale o sintetico (ad esempio, un reperto ritrovato sulla scena del crimine) su cui è presente una traccia biologica invisibile, l’abbinamento della tecnica strumentale di “imaging iperspettrale della radiazione infrarossa” con l’applicazione di algoritmi matematico-statistici di analisi dell’immagine e intelligenza artificiale consente di:

  • riconoscere se la traccia sia di sangue, urina o liquido seminale;

  • definirne la localizzazione sul tessuto e i suoi contorni, così da permetterne il campionamento per l’analisi del DNA;

  • dedurre il tempo intercorso dal momento in cui tale traccia sia stata prodotta (il momento del delitto) al momento in cui viene condotta l’indagine criminalistica, entro un periodo che si estende fino a più di 20 giorni e con un’incertezza sulla scala dei tempi compresa fra il 3.8% (sangue su cotone), il 6.6% (sangue su poliestere) e lievemente superiori per liquido seminale e urina.

La ricerca è stata svolta anche grazie a un finanziamento dell’Università di Genova del Bando Curiosity Driven 2020, progetto “3Depth – From 2D to 3D hyperspectral imaging exploiting the penetration depth of near-infrared radiation”.

 

Testo e foto dall’Ufficio Stampa dell’Università degli Studi di Torino

Ricerca medica, nuovi risultati in Epatologia con l’intelligenza artificiale

 

Grazie ad uno studio sui dati clinici di 12mila pazienti di tutto il mondo identificati quattro sottogruppi di Colangite Biliare Primitiva, classificati in ordine di gravità crescente.

Colangite Biliare Primitiva epatologia intelligenza artificiale
Foto di Gerd Altmann

 

Milano, 16 marzo 2022 – L’intelligenza artificiale al servizio della ricerca medica in Epatologia. Una ricerca condotta dal Centro delle Malattie Autoimmuni del Fegato dell’Università di Milano-Bicocca presso l’Ospedale San Gerardo di Monza, e dal team di Data Science di Rulex a Genova, ha permesso di individuare quattro nuovi sottotipi di Colangite Biliare Primitiva (CBP) basandosi sui dati clinici di più di 12mila soggetti provenienti da tutto il mondo. Il nuovo algoritmo si unisce agli esistenti score prognostici e consente di migliorare la valutazione prognostica dei pazienti già al momento della diagnosi.
«Per noi pazienti questo studio è molto importante considerato il grande numero di pazienti italiani inclusi e le potenzialità di innovazione portate dall’intelligenza artificiale – commenta Davide Salvioni, presidente di AMAF Onlus, l’associazione italiana di pazienti dedicata alle malattie autoimmuni del fegato –. Una migliore conoscenza di queste patologie avrà sicuramente delle ricadute positive sulla capacità dei medici di gestirle in modo più efficace».

La CBP è una malattia del fegato che, benché rara, in Italia colpisce più di 10.000 persone, soprattutto donne oltre i 40 anni di età. Nell’ultimo decennio vi è stato un progressivo miglioramento della stratificazione prognostica dei pazienti con CBP, grazie anche allo sviluppo di score e calcolatori.

 

Di recente l’intelligenza artificiale e il machine learning sono stati applicati con beneficio nello studio di malattie comuni, dalle infezioni alle malattie cardiovascolari, dal tumore alla mammella a quello del colon-retto. Nel contesto delle malattie rare, e della CBP nello specifico, mancavano tuttavia evidenze sperimentali in relazione a queste nuove tecnologie e alle loro applicazioni.

 

Il team del Centro Malattie Autoimmuni del Fegato di Monza guidato dal professor Pietro Invernizzi, ha utilizzato Rulex, uno strumento innovativo di analisi dati che impiega un sofisticato algoritmo di intelligenza artificiale sviluppato dal team di ricerca e sviluppo di Rulex, coordinato dall’amministratore delegato Marco Muselli, e basato su un modello teorico messo a punto all’interno dell’Istituto di Elettronica, di Ingegneria dell’Informazione e delle Telecomunicazioni del CNR di Genova.

 

Lo studio, pubblicato sulla rivista Liver International, ha raccolto la più grande coorte mai esplorata di pazienti con CBP a livello internazionale, includendo pazienti dall’Europa, dal Giappone e dal Nord America (DOI: 10.1111/liv.15141). L’obiettivo del lavoro è stato quello di sfruttare questa enorme mole di dati al fine di migliorare la stratificazione del rischio in questa patologia rara. Sono stati identificati quattro sottogruppi di malattia, in ordine di gravità clinica crescente, basandosi solamente su tre valori di laboratorio: albumina, bilirubina e fosfatasi alcalina.


«Il team di Rulex guidato da Damiano Verda ha raggruppato i pazienti affetti con CBP in modo completamente nuovo e ha creato delle regole molto facili da applicare in clinica per classificare i nuovi pazienti già alla diagnosi», spiega il dottor Alessio Gerussi, primo nome dello studio e ricercatore presso il Centro Malattie Autoimmuni del Fegato di Monza.

 

«Il nostro lavoro non finisce qui: gli studi futuri saranno mirati alla integrazione dei dati clinici con i dati provenienti dal sequenziamento genetico, dalle tecniche di imaging radiologiche e dalle scansioni digitali dei vetrini dei campioni istologici – sottolinea Gerussi –. Lo scopo finale è descrivere la eterogeneità della malattia in modo più raffinato di quanto fatto fino ad ora per offrire cure personalizzate ai pazienti, scopo ultimo della Medicina di Precisione».
Testo dall’Ufficio Stampa Università di Milano-Bicocca

Intelligenza artificiale, la Sapienza al vertice del Laboratorio nazionale del CINI

Daniele Nardi del Dipartimento di Ingegneria informatica automatica e gestionale è stato nominato Direttore del Laboratorio nazionale Artificial Intelligence and Intelligent Systems del Consorzio interuniversitario nazionale per l’informatica.

Daniele Nardi
Daniele Nardi, docente della Sapienza, nominato Direttore del Laboratorio nazionale Artificial Intelligence and Intelligent Systems del CINI

Daniele Nardi, docente di Intelligenza Artificiale del Dipartimento di Ingegneria informatica automatica e gestionale “Antonio Ruberti” della Sapienza, è stato nominato Direttore del Laboratorio nazionale Artificial Intelligence and Intelligent Systems del CINI (Consorzio Interuniversitario Nazionale per I’Informatica).

La nomina rappresenta un ulteriore riconoscimento per la Sapienza che è stata la culla dell’Intelligenza Artificiale in Italia, avendo attivato il primo insegnamento in questa disciplina agli inizi degli anni ’90, la prima laurea magistrale in Intelligenza Artificiale e Robotica nel 2009 e attivato quest’anno una delle cinque componenti del Dottorato Nazionale in Intelligenza Artificiale.

La Sapienza oggi vanta uno dei più significativi gruppi di ricercatori ed esperti in intelligenza artificiale, di assoluto valore internazionale.

 

“Siamo certi che, anche con il supporto di tutte le altre aree del sapere che si sono avvicinate all’intelligenza artificiale nel recente passato – dichiara la rettrice Antonella Polimeni – la direzione del professor Nardi contribuirà ad azioni strategiche tali da consentire all’Italia di essere competitiva in questa disciplina che potrà rappresentare il trampolino di lancio per progetti di grande impatto scientifico.”

Il Laboratorio Nazionale Artificial Intelligence and Intelligent Systems del CINI ha l’obiettivo di rafforzare la ricerca italiana nel settore dell’intelligenza artificiale, supportando il ruolo dell’Italia nel mondo, di sostenere l’industria italiana promuovendo il trasferimento tecnologico dalla ricerca alla imprenditorialità, di supportare la società italiana attraverso lo sviluppo di applicazioni in grado di migliorare i servizi per i cittadini e di contribuire a nuove visioni dell’intelligenza artificiale per un suo uso consapevole e rispettoso dei principi etici.

 

Testo e foto dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

PRIMI AL MONDO, A TORINO I CARDIOLOGI SFRUTTANO L’INTELLIGENZA ARTIFICIALE PER DEFINIRE LA STRATEGIA DOPO L’INFARTO

 

Pubblicato sulla rivista The Lancet uno studio della Cardiologia universitaria della Città della Salute, svolto con i ricercatori di UniTo e PoliTo, per la creazione di un nuovo sistema di classificazione del rischio di eventi futuri nei pazienti dopo un infarto. Una tecnica che determinerà una vera rivoluzione e ridurrà statisticamente la possibilità di una non corretta diagnosi. Questo risultato rafforza la scelta di Torino come sede dell’Istituto Italiano di Intelligenza Artificiale

infarto intelligenza artificiale cardiologia machine learning
Immagine di Jan Alexander

Straordinario risultato di una ricerca coordinata dalla Cardiologia universitaria dell’ospedale Molinette della Città della Salute di Torino (diretta dal professor Gaetano Maria De Ferrari), assieme al Dipartimento di Informatica dell’Università di Torino ed a quello di Meccanica e Aerospaziale del Politecnico di Torino. Gli autori hanno utilizzato quell’approccio dell’Intelligenza Artificiale chiamato Machine Learning o di apprendimento automatico, secondo il quale i computer imparano progressivamente dai dati che vengono loro forniti migliorando sempre più le loro capacità predittive ed individuando correlazioni. In questo caso, il risultato è stato la creazione di un nuovo sistema di classificazione del rischio di eventi futuri nei pazienti dopo un infarto. La assoluta novità e la grande efficacia di questo nuovo approccio sono valse alla ricerca la pubblicazione, oggi 15 gennaio, sulla rivista di medicina più blasonata al mondo, The Lancet.

I pazienti con infarto miocardico acuto – spiega il dottor Fabrizio D’Ascenzo, coordinatore dello studio – sono ad altissimo rischio nei primi due anni sia di una recidiva di infarto sia di sanguinamenti maggiori legati ai farmaci che mantengono il sangue ‘più fluido’, come la cardioaspirina. La decisione sulla terapia migliore deve bilanciare questi due rischi, cosa che il cardiologo fa basandosi sulla propria esperienza e sul suo intuito clinico, aiutato da dei punteggi di rischioTuttavia questi punteggi sono poco precisi e pertanto di modesto aiuto anche per un cardiologo esperto. Abbiamo perciò cercato di migliorare la situazione utilizzando dati clinici riguardanti 23.000 pazienti, molti dei quali raccolti in Piemonte, che hanno fornito la massa critica di informazioni per la nostra ricerca”.

Collaboriamo da anni con la Cardiologia universitaria delle Molinette, studiando le relazioni esistenti tra i flussi sanguigni e le patologie che interessano le arterie – dicono i professori Umberto Morbiducci e Marco Deriu del Gruppo di Biomeccanica Computazionale del Politecnico – e come Bioingegneri siamo entusiasti di avere esteso la collaborazione a questo nuovo settore, estremamente promettente”.

L’analisi dei dati con questa tecnica basata sull’Intelligenza Artificiale si differenzia nettamente dall’approccio usato finora, basato sull’analisi statistica tradizionale. In alcuni settori questa nuova tecnica determinerà una vera rivoluzione.

I dati – spiega Marco Aldinucci, docente di Informatica di UniTo – sono stati analizzati con algoritmi di Machine Learning che usano pertanto metodi matematico-computazionali per apprendere informazioni direttamente dai dati, senza il bisogno di conoscere nulla a priori sulle possibili relazioni tra i dati stessi”.

La differenza trovata tra l’approccio precedente basato sull’analisi statistica tradizionale e questo, basato sull’Intelligenza Artificiale, è stata davvero importante. Mentre la precisione dei migliori punteggi disponibili per identificare la possibilità di un evento come un nuovo infarto o un sanguinamento si aggira intorno al 70%, la precisione di questo nuovo punteggio di rischio si avvicina al 90%, riducendo statisticamente la possibilità di una non corretta diagnosi da tre a un solo paziente su dieci analizzati.

 

Siamo entusiasti di questi risultati – afferma il professor Gaetano Maria De Ferrari – per tre motiviPrimo, possiamo ora curare meglio i nostri pazienti, aggiungendo alla nostra esperienza clinica delle stime davvero precise del rischio cui vanno incontro, confermando il ruolo centrale della Cardiologia universitaria di Torino nella ricerca volta a creare benefici per i pazienti. Secondo, lo studio è una dimostrazione fortissima delle possibilità dell’Intelligenza Artificiale in medicina e in cardiologia in particolare. Terzoquesto risultato ottenuto in collaborazione tra Università e Politecnico rafforza la scelta di Torino come sede dell’Istituto Italiano di Intelligenza Artificiale. In particolare, noi vorremmo candidarci ad un ruolo di riferimento italiano per l’intelligenza artificiale in medicina e questa pubblicazione può contribuire a legittimare questa aspirazione”.

Torino è stata scelta come sede principale dell’Istituto Italiano per l’Intelligenza Artificiale (3I4AI), che si occuperà dell’applicazione dell’intelligenza artificiale in vari settori, con attività di ricerca prevista anche in diverse sedi aggiuntive sul territorio nazionale.

Sia l’Università che il Politecnico di Torino avranno un ruolo importante nell’Istituto. “Con soddisfazione e con orgoglio accogliamo la notizia di questo successo straordinario che testimonia, ancora una volta, il valore della nostra ricerca – dichiara il Rettore dell’Università di Torino Stefano Geuna – L’attenzione della comunità scientifica mondiale a questo studio conferma l’Università di Torino come un’eccellenza della ricerca nazionale a livello internazionale. I gruppi di ricerca coinvolti, ai quali va il nostro più sentito ringraziamento, hanno dato prova di come si possano ottenere risultati straordinari condividendo obiettivi ambiziosi ed integrando saperi e competenze. La nuova frontiera scientifica che coniuga l’applicazione dell’intelligenza artificiale alla diagnostica in medicina è in grado di migliorare come mai prima d’ora la cura di patologie importanti e, più in generale, la qualità di vita di tante persone colpite da patologie gravemente invalidanti. Per arrivare a questi risultati possiamo contare su una ricerca capace di integrare innovazione tecnologica e conoscenze altamente specialistiche. Gli Atenei torinesi ed il nostro sistema sanitario condividono ormai una provata esperienza in questa direzione. Questo fa di Torino la sede ideale per ospitare l’Istituto Italiano di Intelligenza Artificiale”.

Questo progetto oggettiva ulteriormente la forte partnership tra Università ed Azienda ospedaliera, dove la ricerca e l’assistenza si integrano per assicurare percorsi innovativi sempre più tecnologici, con il fine comune di garantire ai pazienti la migliore cura”, sottolinea il Direttore generale della Città della Salute di Torino Giovanni La Valle.

L’Intelligenza Artificiale rappresenta un tema chiave per la ricerca dei prossimi anni, sul quale il nostro Ateneo può vantare competenze riconosciute dalla comunità scientifica internazionale e ha ottenuto risultati di estrema rilevanza, quali ad esempio il coordinamento del Dottorato nazionale sull’Intelligenza Artificiale su IA e Industria 4.0 e la partecipazione del Politecnico al prestigioso Laboratorio Europeo sull’Intelligenza Artificiale dei dati ELLIS – commenta il Rettore del Politecnico di Torino Guido Saracco – L’eccellente risultato prodotto da questa ricerca condotta insieme a Università di Torino e Città della Salute dimostra ancora una volta la molteplicità e la trasversalità delle applicazioni dell’Intelligenza Artificiale, che ormai spazia in tutti i settori di punta della nostra economia, dall’automotive alla manifattura, all’industria del lusso e molti altri ambiti, come appunto quello della salute, dove sta diventando sempre più essenziale. Questa ricerca è poi un esempio di collaborazione multidisciplinare tra enti, che dimostra ancora una volta che tutti i soggetti del territorio sono già pronti a lavorare insieme per fare dell’Istituto un grande polo di ricerca”.

 

Testo dall’Università degli Studi di Torino

Un team di ricercatori del Dipartimento di Fisica della Sapienza Università di Roma, dell’Istituto dei Sistemi Complessi del CNR e dell’Università Cattolica di Roma ha sviluppato un sistema di intelligenza artificiale che, inglobando il tumore in una rete neurale, è capace di monitorare il metabolismo e la crescita delle cellule cancerose e, in maniera del tutto non invasiva, gli effetti delle chemioterapie. I risultati del lavoro sono stati pubblicati sulla rivista Communications Physics

reti neurali cancro
La figura mostra l’evoluzione temporale del campione tumorale usato nella rete ottica

L’intelligenza artificiale sta cambiando non solo molti aspetti della vita quotidiana, ma anche il modo di “fare scienza”, stimolando nuovi esperimenti e suggerendo strade di ricerca finora inesplorate.

Così i sistemi di intelligenza artificiale diventano sempre più avveniristici, interdisciplinari e neuromorfici (ovvero simili ai sistemi viventi) e trovano applicazione nei più disparati settori, come l’elettronica, l’informatica, la simulazione e le diverse branche della medicina. I nuovi modelli sono sviluppati per imitare il cervello umano, sia nel funzionamento, con un consumo di energia molto ridotto per l’apprendimento, sia nella struttura, utilizzando materiali biologici.

Il team di ricercatori coordinato da Claudio Conti del Dipartimento di Fisica della Sapienza e Direttore dell’Istituto dei sistemi complessi del CNR, in collaborazione con Massimiliano Papi della Università Cattolica del Sacro Cuore di Roma, ha realizzato una rete neurale ottica che ingloba al suo interno delle cellule tumorali viventi che crescono e si moltiplicano nel tempo. Si tratta di un dispositivo ibrido, formato da tessuti viventi e parti fisiche, come lenti, specchi e computer tradizionali, che evolve nel tempo e può essere addestrato per fornire informazioni sulle cellule tumorali, il loro metabolismo e l’effetto di chemioterapia e altri trattamenti.

Nello studio, sviluppato nell’ambito del progetto PRIN “PELM: Photonic Extreme Learning Machine” e pubblicato sulla rivista Communications Physics, i ricercatori hanno utilizzato cellule tumorali di glioblastoma, un tumore gravissimo del cervello, che sono state inserite nel dispositivo ottico. Fasci laser sono stati opportunamente addestrati per attraversare le cellule tumorali, che si comportano come dei nodi di una rete neurale. A questo punto il sistema di intelligenza artificiale, agisce come una vera e propria rete neurale biologica, memorizza ed elabora i dati e successivamente codifica le informazioni contenute nella luce estratta dalle cellule tumorali.

reti neurali cancro
Lo schema della rete neurale ottica usata negli esperimenti

Ma non solo, la rete neurale vivente può riconoscere gli stimoli esterni e reagire ai cambiamenti: aggiungendo alcune dosi di farmaci chemioterapici i ricercatori hanno dimostrato la capacità del modello di calcolare l’efficacia della terapia contro il glioblastoma.

La rete neurale, opportunamente addestrata, evidenzia infatti cambiamenti nel tumore non rivelabili con i metodi tradizionali, come la microscopia o le tecniche fisico-chimiche, e inoltre fornisce nuove informazioni sulla dinamica dell’evoluzione temporale e sugli effetti della temperatura, prima ottenibili solo attraverso tagli o modifiche invasive ai campioni tumorali. Il potenziale di tale tecnica sta nelle importanti ricadute applicative nel campo delle nuove tecnologie impiegate nella cura del cancro e in particolare nella nanomedicina.

“Si tratta di un’applicazione originale e innovativa dei nuovi concetti di Deep Learning alla fisica – spiega Claudio Conti. L’idea è che possiamo usare questi modelli matematici non solo per fare operazioni semplici come il riconoscimento delle immagini, ma anche fare esperimenti decisamente non convenzionali, che sfruttano la fisica e la biofisica con un approccio interdisciplinare”.

Riferimenti:

Living optical random neural network with three dimensional tumor spheroids for cancer morphodynamics – D.Pierangeli, V.Palmieri, G.Marcucci, C.Moriconi, G.Perini, M.DeSpirito, M.Papi, C.Conti – Communications Physics (2020) DOI: https://doi.org/10.1038/s42005-020-00428-9

 

Testo e immagini dalla Sapienza Università di Roma

L’Università di Torino accoglie con grande soddisfazione la decisione della Presidenza del Consiglio che ha individuato Torino come sede per l’Istituto Italiano per l’Intelligenza Artificiale (I3A)


DICHIARAZIONE DEL RETTORE STEFANO GEUNA

 

Immagine di Gerd Altmann

La costituzione a Torino di un Istituto nazionale dedicato all’Intelligenza Artificiale è la naturale evoluzione di un processo già forte e consolidato su cui siamo impegnati da tempo in sinergia con gli altri Atenei del territorio, gli Enti e il mondo delle imprese” dichiara il Rettore Stefano Geuna “A partire dal lavoro dei ricercatori del Dipartimento di Informatica fino alle sempre più frequenti integrazioni con le altre discipline di eccellenza, l’Ateneo svolge un ruolo centrale nei settori che saranno principalmente coinvolti nel nuovo Istituto dalla robotica alla sanità, dalla mobilità all’agrifoood, dall’energia alle digital humanities e industrie creative in connessione con i principali trend tecnologici (5G, Industria 4.0, Cybersecurity).

 Una combinazione che rende unico l’ecosistema torinese e che ha determinato Torino candidata ideale per l’istituzione del nuovo centro. Mai come in questo caso il nostro territorio ha saputo fare rete con slancio e partecipazione collettiva. Un grande lavoro di squadra che ha coinvolto tutti gli attori pubblici e privati, gli Atenei, gli Enti e le imprese. Mi congratulo con la Sindaca Chiara Appendino, l’Assessore Marco Pironti e con Don Luca Peyron che con il suo entusiasmo è stato un grande motivatore per il territorio. Come comunità accademica siamo pronti a mettere a disposizione del progetto le nostre competenze per promuovere e sviluppare il necessario mix fra eccellenza nella ricerca e capacità di trasferimento tecnologico utile alla maturazione del progetto”.

 


Testo dall’Ufficio Stampa dell’Università degli Studi di Torino sull’individuazione della sede dell’Istituto Italiano per l’Intelligenza Artificiale I3A.

La notizia dalla Presidenza del Consiglio dei Ministri a questo link, che individua anche Milano come città candidata ad ospitare il Tribunale Unificato dei Brevetti.

Leggi anche dalla Regione Piemonte a questo link.

SIF – STRATEGY INNOVATION FORUM 

THINK TANK DELL’UNIVERSITÀ CA’ FOSCARI VENEZIA

venerdì 4 settembre 2020

 

L’INTELLIGENZA ARTIFICIALE SOSTITUIRÀ COMPLETAMENTE IL LAVORO UMANO?

 Imprenditori, manager ed esperti si confrontano al Campus Economico di Ca’ Foscari

 

Venezia, 2 settembre 2020 – La Venezia che non si lascia fermare dall’acqua alta eccezionale e dal Covid-19, resiliente simbolo di sostenibilità e innovazione, torna a proporre ad una platea internazionale di imprenditori, manager ed esperti il dibattito su come l’Intelligenza Artificiale e la Blockchain abbiano modificato il modo di fare impresa, la gestione delle risorse e i potenziali cambiamenti sui settori e sui processi delle aziende che decideranno di adottare queste tecnologie.

Si terrà venerdì 4 settembre presso il Campus Economico San Giobbe, lo Strategy Innovation Forum di Università Ca’ Foscari Venezia, durante il quale saranno presentati i risultati del Report “Gli impatti di IA e di Blockchain sui modelli di business” realizzato da Carlo Bagnoli, professore ordinario di Innovazione strategica e fondatore e ideatore del SIF.

Negli ultimi 9 mesi Venezia si è trovata ad affrontare due tra le maggiori crisi della sua storia: l’inondazione di novembre 2019 e la pandemia di marzo 2020 che hanno fatto registrare una diminuzione di -13,2 milioni di presenze in città, per un totale di 3 miliardi di euro di spesa turistica perduta” afferma Carlo Bagnoli. “Un calo di oltre il 60% rispetto allo scorso anno, che ha portato alla chiusura temporanea e/o definitiva di numerose strutture. Con lo Strategy Innovation Forum vogliamo dare un segnale forte di ripresa e di resilienza di questa città, insieme ai manager ed esperti nazionali e internazionali che hanno deciso di partecipare all’evento”.

 Secondo l’analisi condotta dal professor Bagnoli sui 183 report realizzati, manifatturiero, retail e sanitario sono i tre settori su cui impatterà maggiormente l’Intelligenza Artificiale, più efficace ed efficiente di quella umana, tanto da prevedere la completa automatizzazione dei lavori umani in un futuro non troppo lontano.

Il 16% delle fonti esaminate parla di un aumento dell’automazione nei processi di produzione del settore manifatturiero e dell’ottimizzazione delle linee di produzione, creando sistemi di smart manufacturing: macchinari con nuove capacità cognitive e di apprendimento, che migliorano il monitoraggio, l’auto-correzione dei processi e l’aumento della produzione on-demand.

Il retail (15% delle fonti) potrà offrire prodotti e servizi più personalizzati, incrementare l’engagement del cliente e aumentare le vendite. Ad esempio, quando un consumatore acquista su un sito web, questo registra le preferenze dello stesso per le volte successive.

Il maggior impatto lo avrà il settore sanitario (13% delle fonti) con possibilità di monitorare lo stato di salute dei pazienti, sia negli ospedali sia presso le abitazioni private, grazie a dispositivi in grado di raccogliere e comunicare i dati biometrici dei pazienti, utili per cure sanitarie personalizzate. I pazienti potranno poi controllare i propri esami tramite smartwatch allacciati ai polsi e sarà possibile avere un rilevamento più rapido e preciso dei dati sanitari per avere una diagnostica più attendibile.

Le aziende che per prime adotteranno tali tecnologie, integrandole nelle proprie strategie aziendali, creeranno un gap competitivo difficilmente colmabile dalle altre” spiega Bagnoli. “Secondo Gartner il 59% delle aziende non ha ancora formulato vere e proprie strategie di IA, ma ormai è chiaro che questa tecnologia produrrà i maggiori cambiamenti nel mondo del business con un contributo potenziale di 15 trilioni di dollari dell’economia mondiale 2030”.

Il nuovo modo di interpretare e analizzare i dati dei clienti (11% delle fonti) consente alle aziende di progettare con precisione la domanda e raggiungere i clienti target con forme di comunicazione personalizzata. L’engagement aumenta con l’interazione tramite chatbot e assistenti virtuali che possono guidare il processo di acquisto. Ecco perché anche i prodotti saranno sempre più personalizzati, grazie all’integrazione automatica e in tempo reale dei feedback degli utenti nei processi di design di prodotto, nell’ottica dell’approccio di co-design.

L’Intelligenza artificiale apre la strada a significativi cambiamenti anche nella gestione dei rapporti con i fornitori (riscontrato nel 12% delle fonti analizzate), ad esempio velocizzando le comunicazioni lungo tutta la supply chain, consentendo la decentralizzazione delle reti logistiche e riducendo i costi di trasporto.

Importanti le applicazioni sulle risorse umane (riscontrato nel 23% dei casi): dalla sostituzione degli operatori umani da parte di macchine intelligenti, alla riduzione dell’errore umano e degli infortuni sul lavoro, grazie all’integrazione sinergica tra intelligenza umana e intelligenza artificiale.

Miglioramenti anche nei processi interni (24% delle fonti analizzate) con l’aumento di efficienza nella gestione del magazzino, riducendo sprechi e scorte inutili, migliorando i tempi di raccolta ordini e invio a produzione, migliorando la diagnostica grazie alla maggiore disponibilità di informazione, riducendo i tempi di fermo macchina. L’IA agirà anche sui processi esterni (11% delle fonti), intervenendo sulla riduzione dei costi di trasporto, identificando tragitti meno costosi e più efficienti e riconoscendo preventivamente potenziali problemi.  Nelle analisi di mercato l’IA permette di incrociare dati di domanda e offerta in tempo reale, anticipando i trend di vendita e aumentando l’efficienza nel controllo delle fasi di acquisto e di vendita e riducendo il time to market.

intelligenza artificiale lavoro umano
Immagine di Gerd Altmann

 

Testo sul confronto “L’intelligenza artificiale sostituirà completamente il lavoro umano?” dall’Ufficio Comunicazione e Promozione di Ateneo – Settore Relazioni con i media Università Ca’ Foscari Venezia

Le news di Ca’ Foscari: news.unive.it