News
Ad
Ad
Ad
Tag

Deep Learning

Browsing

A TORINO IL PRIMO STUDIO CHE DECODIFICA LE ESPRESSIONI FACCIALI DI LEMURI E GIBBONI CON L’INTELLIGENZA ARTIFICIALE

Grazie a tecniche di deep learning sarà possibile condurre studi comparativi su larga scala focalizzati sulla comunicazione di alcune specie di primati non umani

un lemure indri. Foto © Filippo Carugati
un lemure indri. Foto © Filippo Carugati

Se l’applicazione dell’intelligenza artificiale è ormai di uso comune per l’individuazione e la lettura delle espressioni umane, finora la sua applicazione per specie di primati che non fossero l’uomo era inesplorata. Oggi l’Università di Torino è promotrice del primo studio orientato all’utilizzo dell’I.A. per decodificare le espressioni facciali dei primati non umani. La ricerca, pubblicata sulla rivista Ecological Informatics, mostra come l’utilizzo delle tecniche di deep learning possa essere efficace nel riconoscere i gesti facciali di lemuri e gibboni, facilitando l’indagine del repertorio facciale e consentendo una ricerca comparativa più efficace.

Gli studi sulle espressioni facciali nella comunicazione animale sono essenziali. Tuttavia, i metodi di ispezione manuale sono pratici solo per piccoli insiemi di dati. Le tecniche di deep learning possono aiutare a decodificare le configurazioni facciali associate alle vocalizzazioni su grandi insiemi di dati. Lo studio di UniTo, in particolare, indaga se si possano individuare le espressioni associate all’apertura della bocca e alle emissioni vocali.

“Quando abbiamo iniziato questo studio, tre anni fa, l’applicazione delle tecniche di deep learning al riconoscimento delle espressioni facciali di specie che non fossero l’uomo era un territorio completamente inesplorato. Oggi siamo di fronte a un progresso importante dal punto di vista tecnologico che potrà trovare ulteriore applicazione su specie finora ignorate e consentirà di condurre studi comparativi su larga scala”, spiega Filippo Carugati, dottorando di Scienze Biologiche e Biotecnologie Applicate e primo autore del lavoro.

Grazie alla presenza di una stazione di ricerca nella foresta di Maromizaha, in Madagascar, studenti e dottorandi dell’Università di Torino hanno potuto riprendere gli animali in natura, facendo sì che quanto indagato riguardasse non solo gibboni filmati in cattività ma anche lemuri indri e sifaka registrati in ambiente naturale. Durante lo studio sono stati utilizzati algoritmi di apprendimento automatico per classificare i gesti vocalizzati e non vocalizzati nelle diverse specie. Gli algoritmi hanno mostrato tassi di classificazione corretta superiori alla norma, con alcuni che hanno superato il 90%.

“Lo studio delle espressioni facciali di scimmie e lemuri è storicamente legato ad analisi fortemente soggettive, in cui le scelte dell’operatore talvolta rischiano di influenzare i risultati delle ricerche, senza contare i tempi notevoli che coinvolgono necessariamente il training e il lavoro degli operatori. Con questo studio abbiamo dimostrato come, allenando gli algoritmi su una percentuale di dati inferiori al 5%, si possano ottenere elevatissime percentuali di identificazione corretta delle espressioni associate alla produzione di vocalizzazione rispetto a quelle associate ad altre situazioni. Percentuali anche superiori al 95%”, aggiunge il Prof. Marco Gamba, zoologo, senior author del progetto e presidente del Corso di Laurea Magistrale ‘Evoluzione del Comportamento Animale e dell’Uomo’.

lemuri indri. Foto © Filippo Carugati
Con l’utilizzo dell’intelligenza artificiale, una ricerca ha cercato di riconoscere le espressioni facciali di lemuri e gibboni, facilitando l’indagine. Nell’immagine, lemuri indri. Foto © Filippo Carugati

 

Testo e foto dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

Simulare l’attività cerebrale con l’intelligenza artificiale
“Come funziona il cervello?” Le neuroscienze si giovano dei contributi della fisica sperimentale e teorica per comprendere la complessità del cervello

Come funziona il cervello?

Il sistema nervoso umano contiene miliardi di neuroni e ciascuno di essi è connesso a decine di migliaia di altri neuroni mediante le sinapsi, che modificano la loro forza in una rete plastica la cui struttura dipende dalla storia dell’individuo e dalla selezione naturale, evolutiva, vissuta dal cervello. Ad oggi, la tecnologia disponibile consente di creare algoritmi, che sono alla base dell’intelligenza artificiale, capaci di riprodurre alcuni semplici aspetti cognitivi del cervello umano. Quest’ultimo si presenta come un sistema complesso, cioè è costituito da un elevato numero di componenti (i neuroni) che interagiscono tra loro dando vita a comportamenti collettivi emergenti. La comprensione di tali comportamenti sarebbe impossibile osservando il comportamento del singolo neurone, sebbene ad oggi, dal punto di vista biologico, si conosca tutto (o quasi) di questa cellula.

 
Simulare l’attività cerebrale con l’intelligenza artificiale
Simulare l’attività cerebrale con l’intelligenza artificiale. Immagine di Gerd Altmann

 

I sistemi artificiali che simulano il sistema nervoso

Molteplici sono le sfide scientifiche e tecnologiche da affrontare per ottenere sistemi artificiali con capacità cognitive realmente paragonabili a quelle umane. Il primo modello teorico di “rete neurale artificiale”, nato con lo scopo di spiegare il funzionamento del neurone, fu quello di McCulloch e Pitts nel 1943. La loro idea si è poi evoluta e negli anni abbiamo assistito alla nascita di molteplici altri modelli di reti neurali artificiali, insieme allo studio e allo sviluppo di algoritmi di machine learning (apprendimento automatico), che rappresenta il cuore computazionale dell’intelligenza artificiale. Le più recenti versioni di machine learning, basate sul deep learning (cioè su una o più reti neurali artificiali, capaci di apprendere e condensare le informazioni rilevanti), vengono largamente utilizzate nella ricerca di base.

Simulare l’attività cerebrale con l’intelligenza artificiale
Immagine di Ahmed Gad

L’intelligenza artificiale all’opera

Intelligenza artificiale, robotica e macchine neuromorfe (cioè costruite incorporando meccanismi simili a quelli biologici) assumono un ruolo chiave nella rivoluzione tecno-scientifica e industriale in atto. Siamo circondati da esempi di intelligenza artificiale e di apprendimento automatico, talvolta senza neanche rendercene conto. Basti pensare ai sistemi di riconoscimento del parlato, i prototipi di riconoscimento visivo per i sistemi di guida automatica, all’algoritmo di deep learning che c’è dietro una semplice ricerca per immagini in Google.

L’intelligenza artificiale è coinvolta anche nella comprensione della fisio-patologia cerebrale. L’impatto socio-economico delle patologie del sistema nervoso desta non poche preoccupazioni per i sistemi sanitari pubblici per cui è richiesto un approccio multidisciplinare.

Immagine di Robina Weermeijer

Per approfondire:

Immagine di Gerd Altmann

Un team di ricercatori del Dipartimento di Fisica della Sapienza Università di Roma, dell’Istituto dei Sistemi Complessi del CNR e dell’Università Cattolica di Roma ha sviluppato un sistema di intelligenza artificiale che, inglobando il tumore in una rete neurale, è capace di monitorare il metabolismo e la crescita delle cellule cancerose e, in maniera del tutto non invasiva, gli effetti delle chemioterapie. I risultati del lavoro sono stati pubblicati sulla rivista Communications Physics

reti neurali cancro
La figura mostra l’evoluzione temporale del campione tumorale usato nella rete ottica

L’intelligenza artificiale sta cambiando non solo molti aspetti della vita quotidiana, ma anche il modo di “fare scienza”, stimolando nuovi esperimenti e suggerendo strade di ricerca finora inesplorate.

Così i sistemi di intelligenza artificiale diventano sempre più avveniristici, interdisciplinari e neuromorfici (ovvero simili ai sistemi viventi) e trovano applicazione nei più disparati settori, come l’elettronica, l’informatica, la simulazione e le diverse branche della medicina. I nuovi modelli sono sviluppati per imitare il cervello umano, sia nel funzionamento, con un consumo di energia molto ridotto per l’apprendimento, sia nella struttura, utilizzando materiali biologici.

Il team di ricercatori coordinato da Claudio Conti del Dipartimento di Fisica della Sapienza e Direttore dell’Istituto dei sistemi complessi del CNR, in collaborazione con Massimiliano Papi della Università Cattolica del Sacro Cuore di Roma, ha realizzato una rete neurale ottica che ingloba al suo interno delle cellule tumorali viventi che crescono e si moltiplicano nel tempo. Si tratta di un dispositivo ibrido, formato da tessuti viventi e parti fisiche, come lenti, specchi e computer tradizionali, che evolve nel tempo e può essere addestrato per fornire informazioni sulle cellule tumorali, il loro metabolismo e l’effetto di chemioterapia e altri trattamenti.

Nello studio, sviluppato nell’ambito del progetto PRIN “PELM: Photonic Extreme Learning Machine” e pubblicato sulla rivista Communications Physics, i ricercatori hanno utilizzato cellule tumorali di glioblastoma, un tumore gravissimo del cervello, che sono state inserite nel dispositivo ottico. Fasci laser sono stati opportunamente addestrati per attraversare le cellule tumorali, che si comportano come dei nodi di una rete neurale. A questo punto il sistema di intelligenza artificiale, agisce come una vera e propria rete neurale biologica, memorizza ed elabora i dati e successivamente codifica le informazioni contenute nella luce estratta dalle cellule tumorali.

reti neurali cancro
Lo schema della rete neurale ottica usata negli esperimenti

Ma non solo, la rete neurale vivente può riconoscere gli stimoli esterni e reagire ai cambiamenti: aggiungendo alcune dosi di farmaci chemioterapici i ricercatori hanno dimostrato la capacità del modello di calcolare l’efficacia della terapia contro il glioblastoma.

La rete neurale, opportunamente addestrata, evidenzia infatti cambiamenti nel tumore non rivelabili con i metodi tradizionali, come la microscopia o le tecniche fisico-chimiche, e inoltre fornisce nuove informazioni sulla dinamica dell’evoluzione temporale e sugli effetti della temperatura, prima ottenibili solo attraverso tagli o modifiche invasive ai campioni tumorali. Il potenziale di tale tecnica sta nelle importanti ricadute applicative nel campo delle nuove tecnologie impiegate nella cura del cancro e in particolare nella nanomedicina.

“Si tratta di un’applicazione originale e innovativa dei nuovi concetti di Deep Learning alla fisica – spiega Claudio Conti. L’idea è che possiamo usare questi modelli matematici non solo per fare operazioni semplici come il riconoscimento delle immagini, ma anche fare esperimenti decisamente non convenzionali, che sfruttano la fisica e la biofisica con un approccio interdisciplinare”.

Riferimenti:

Living optical random neural network with three dimensional tumor spheroids for cancer morphodynamics – D.Pierangeli, V.Palmieri, G.Marcucci, C.Moriconi, G.Perini, M.DeSpirito, M.Papi, C.Conti – Communications Physics (2020) DOI: https://doi.org/10.1038/s42005-020-00428-9

 

Testo e immagini dalla Sapienza Università di Roma