News
Ad
Ad
Ad
Tag

Intelligenza Artificiale

Browsing

Ricercatori dell’Università di Milano-Bicocca scoprono una nuova emoglobina grazie alla tecnologia più avanzata: è l’Emoglobina Monza

Si chiama Emoglobina Monza ed è una nuova variante di emoglobina instabile associata ad anemia emolitica acuta in età pediatrica: è stata identificata alla Fondazione IRCCS San Gerardo dei Tintori di Monza e studiata grazie all’intelligenza artificiale e ad altre tecniche avanzate.

Milano, 19 dicembre 2024 – Una nuova variante emoglobinica, denominata “Emoglobina Monza”, è stata individuata da un gruppo di ricercatori dell’Università di Milano-Bicocca. Questa variante, causata da una duplicazione di 23 aminoacidi nel gene dell’emoglobina (HBB), comporta instabilità della proteina, provocando episodi di anemia emolitica acuta, soprattutto in occasione di episodi febbrili. La scoperta, pubblicata sulla rivista Med di Cell Press, apre il campo a nuove prospettive per lo studio di queste rare patologie grazie all’utilizzo di tecniche di Intelligenza artificiale.

Il caso clinico che ha portato alla scoperta è stato quello di una bambina di origine cinese che, a seguito di un episodio febbrile, ha sviluppato una grave anemia emolitica, condizione patologica caratterizzata da una distruzione accelerata dei globuli rossi, a un ritmo superiore alla capacità del midollo osseo di produrli. Le conseguenze della patologia possono essere gravi, specialmente in età pediatrica quando gli episodi acuti possono compromettere seriamente lo stato di salute dei piccoli pazienti.

«Esistono varianti emoglobiniche, note come “emoglobine instabili”, che tendono a essere degradate (ovvero distrutte) sotto stress fisici, come gli episodi febbrili, scatenando così crisi emolitiche. A causarle generalmente sono alterazioni puntiformi nella sequenza amminoacidica dell’emoglobina, che modifica la stabilità e la funzionalità della proteina stessa», spiega Carlo Gambacorti-Passerini, direttore del reparto di Ematologia della Fondazione IRCCS San Gerardo dei Tintori di Monza e professore presso l’Università di Milano-Bicocca, che ha coordinato il progetto di ricerca.

La piccola paziente è stata seguita presso la Fondazione IRCCS San Gerardo dei Tintori di Monza dalla pediatra Paola Corti e dal tecnico Amedeo Messina, che hanno realizzato che l’anemia era dovuta a una variante anomala di emoglobina con un comportamento instabile in situazioni di stress. Indagini successive hanno rivelato che anche la madre e i due fratelli della bambina possedevano la stessa variante e manifestavano episodi simili nel corso di episodi febbrili. Un’analisi genetica specifica ha mostrato che la variante non solo era inedita, ma era anche caratterizzata da una duplicazione molto lunga (23 aminoacidi) del gene che codifica la catena beta dell’Emoglobina (HBB), una caratteristica mai osservata prima in altre emoglobine instabili.

Le duplicazioni lunghe nel gene HBB sono molto rare e sono state sempre associate a un’altra malattia, la beta-talassemia. Infatti, si è sempre ritenuto che le lunghe duplicazioni comportino un’alterata interazione tra le due catene che compongono l’emoglobina, Beta e Alfa. Il dottor Ivan Civettini, ematologo, ora dottorando presso l’IRCCS Ospedale San Raffaele, e la dottoressa Arianna Zappaterra, medico presso la divisione di Ematologia della Fondazione IRCCS San Gerardo dei Tintori di Monza, si sono quindi chiesti come una mutazione di tale portata potesse comunque consentire all’emoglobina di mantenere una funzionalità normale, almeno in condizioni fisiologiche. 

«La struttura della variante emoglobinica è stata ricreata utilizzando tecniche di modeling tridimensionale e intelligenza artificiale (reti neurali), recentemente premiate con il Nobel per la chimica», precisa Ivan Civettini. «In condizioni normali, il legame tra le due catene dell’emoglobina è preservato e la duplicazione si presenta come una lunga protrusione che sbatte un po’ come una banderuola nel vento, al di fuori della struttura proteica dell’emoglobina. Inoltre abbiamo osservato che questa mutazione non compromette il centro attivo dell’emoglobina, dove avviene il legame con ossigeno e ferro. In sintesi, in condizioni normali, l’emoglobina Monza resta stabile e il legame preservato tra le catene dell’emoglobina non causa beta-talassemia».

Che cosa avviene dunque nel sangue durante l’episodio febbrile? Per ricreare questa condizione sono state utilizzate ulteriori tecniche computazionali avanzate, note come “dinamica molecolare”. È stato ricreato un fluido con la stessa “salinità” del sangue umano, dove è stata inserita l’emoglobina normale e l’emoglobina Monza e che è stato portato alla temperatura di 38°C, come durante un episodio febbrile. Risultato? L’Emoglobina Monza si degrada più velocemente di quella normale, perdendo il contatto con l’atomo di ferro. Questi esperimenti sono stati eseguiti in collaborazione col professor Alfonso Zambon dell’Università di Modena e Reggio Emilia.

«La scoperta offre nuovi spunti per comprendere meglio varianti rare di emoglobina, ma che diverranno sempre più frequenti in Italia con l’aumento di etnie diverse da quella caucasica», aggiunge Carlo Gambacorti-Passerini. «L’uso di tecniche computazionali moderne e l’ausilio dell’intelligenza artificiale hanno reso questo tipo di studi più rapido ed economico rispetto a metodi tradizionali come, per esempio, la cristallografia a raggi X. Un’ulteriore prova dell’importanza della collaborazione tra diverse istituzioni nella medicina moderna».

 

Testo e immagini dall’Ufficio Stampa dell’Università di Milano-Bicocca

La via italiana ai chatbot del futuro: presentata Minerva 7B, l’ultima versione del modello linguistico IA targato Sapienza, addestrato con 1.5 trilioni di parole e che alza lo standard di sicurezza degli LLM italiani

Minerva 7B stata sviluppata in ambito FAIR (Future Artificial Intelligence Research) e in collaborazione con CINECA

Roma, 26 novembre 2024 – L’eccellenza della ricerca Sapienza nel campo dell’Intelligenza artificiale: è stato annunciato oggi il rilascio di Minerva 7B, l’ultima versione della famiglia dei modelli Minerva, i Large Language Model (LLM) addestrati “da zero” per la lingua italiana.
Il nuovo modello linguistico Minerva è stato realizzato dal gruppo di ricerca Sapienza NLP (Natural Language Processing), guidato dal Prof. Roberto Navigli, all’interno di FAIR (Future Artificial Intelligence Research), il progetto che realizza la strategia nazionale sull’intelligenza artificiale grazie ai fondi PNRR, e in collaborazione con CINECA che ha reso disponibile il supercomputer Leonardo.
Alla presentazione la Rettrice della Sapienza Antonella Polimeni, il Presidente FAIR Giuseppe De Pietro, la Direttrice Generale CINECA Alessandra Poggiani e il docente alla guida del gruppo Sapienza NLP Roberto Navigli, che ha illustrato le caratteristiche della nuova versione, con il supporto di una demo.

Minerva 7B è una versione più potente di quella messa in rete lo scorso aprile, forte di 7 miliardi di parametri contro i 3 della precedente, e quindi con maggior capacità di memorizzazione e rielaborazione dei testi, sempre basata su fonti aperte di dati, elemento distintivo nel panorama degli LLM.
Dopo oltre 5 mesi di lavoro incessante, il team di ricerca è approdato a questa nuova versione per un totale di oltre 2 trilioni (migliaia di miliardi) di token, corrispondenti a circa 1,5 trilioni di parole. Mediante un nuovo mix di istruzioni create appositamente in italiano, Minerva 7B è stato sottoposto al cosiddetto processo di instruction tuning, una tecnica avanzata di addestramento per i modelli di intelligenza artificiale che mira a fornire la capacità di seguire le istruzioni e di colloquiare con l’utente in italiano.

Grazie appunto all’instruction tuning Minerva è in grado di interpretare meglio le richieste e di generare risposte più pertinenti, coerenti e adattate al contesto, evitando per quanto possibile le cosiddette allucinazioni e la generazione di contenuti di tipo volgare, sessuale, discriminatorio e sensibile. Si tratta di un tema cruciale che riguarda tutti i chatbot, particolarmente sentito dai ricercatori del team della Sapienza.
Il Prof. Navigli ha mostrato durante la demo diverse conversazioni con il modello, tra cui la richiesta di scrivere una favola, di tradurre e riassumere un breve testo, e ha mostrato la robustezza del modello a richieste che potrebbero generare contenuti sensibili o discriminatori.

“Il nostro impegno è continuare a lavorare per massimizzare la sicurezza e gli aspetti conversazionali in una sorta di laboratorio permanente, con la consapevolezza scientifica che il rilascio di oggi non è un traguardo ma un punto di partenza – sottolinea Roberto Navigli – La scarsità di dati di qualità in italiano, sia per il preaddestramento linguistico che per le conversazioni e le istruzioni, è uno dei temi chiave che intendiamo affrontare nei prossimi mesi. In quest’ottica auspichiamo che il progetto possa crescere aprendosi a nuove collaborazioni, coinvolgendo ad esempio il mondo editoriale ed enti pubblici per l’impiego di Minerva in ambiti istituzionali. Minerva è il primo – e a oggi unico – modello completamente aperto, che si presta a essere utilizzato dalle Pubbliche Amministrazioni, proprio per la trasparenza delle fonti e del processo di addestramento. Inoltre sono molto orgoglioso del trasferimento tecnologico che si realizza grazie a Babelscape – spin-off di successo di Sapienza – che sta lavorando alacremente a versioni industriali più potenti e sofisticate dell’LLM e alle sue applicazioni.”


Dichiara Antonella Polimeni, Rettrice di Sapienza Università di Roma:

“La Sapienza ha una lunga tradizione di eccellenza nell’ambito della ricerca tecnologica e scientifica. Negli ultimi anni, abbiamo rafforzato il nostro impegno nello sviluppo di competenze avanzate in settori strategici come l’intelligenza artificiale, promuovendo un approccio interdisciplinare che combina il rigore accademico con una visione orientata all’innovazione. Con il progetto Minerva, confermiamo la nostra missione: essere un motore di innovazione e progresso al servizio della società e del futuro.”


Dichiara Giuseppe De Pietro, Presidente di FAIR – Future AI Research:

“La realizzazione di Minerva, oltre a costituire un risultato scientifico di indubbio valore, rappresenta un’esperienza di successo del modello di cooperazione tra la Fondazione ed i propri soci. FAIR, infatti, ha tra i suoi compiti quello di  supportare le attività e i prodotti di eccellenza della ricerca svolta all’interno del partenariato, come Minerva e molti altri. Crediamo davvero che Minerva abbia tutte le potenzialità per diventare il Large Language Model di riferimento per la Pubblica Amministrazione e lavoreremo come Fondazione per valorizzarlo.”


Dichiara Alessandra Poggiani, Direttrice generale di Cineca:

“Siamo felici di mettere le nostre competenze e l’infrastruttura a disposizione di un progetto di ricerca d’avanguardia nel campo dell’intelligenza artificiale, che offre significativi potenziali benefici a tutto il sistema Paese – in particolare alla sua pubblica amministrazione. È un progetto che interpreta bene la vocazione di Cineca a creare le condizioni di contesto ideali verso una più compiuta e ampia cittadinanza digitale.”

Il modello è accessibile al pubblico all’indirizzo https://minerva-llm.org e sarà possibile scaricarlo nelle settimane successive. Questa fase di test permetterà di svolgere un ulteriore affinamento sulla base delle conversazioni effettuate nei prossimi giorni.

Il team che ha lavorato allo sviluppo di Minerva 7B include ben 15 ricercatori e dottorandi (in ordine alfabetico): Edoardo Barba, Tommaso Bonomo, Simone Conia, Pere-Lluís Huguet Cabot, Federico Martelli, Luca Moroni, Roberto Navigli, Riccardo Orlando, Alessandro Scirè, Simone Tedeschi; hanno anche contribuito Stefan Bejgu, Fabrizio Brignone, Francesco Cecconi, Ciro Porcaro, Simone Stirpe. Si ringraziano anche Giuseppe Fiameni (NVIDIA) e Sergio Orlandini (Cineca).

Simulare l’attività cerebrale con l’intelligenza artificiale
Immagine di Ahmed Gad

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Fiumi e torrenti: grazie all’intelligenza artificiale ora è possibile prevedere le alluvioni fino a sei ore di anticipo

Lo studio dell’Università di Pisa e del Consorzio di Bonifica Toscana Nord pubblicato su Scientific Reports

 

Nuovi modelli previsionali basati sull’intelligenza artificiale consentono di prevedere fino a sei ore di anticipo le alluvioni provocate da fiumi minori e torrenti, corsi d’acqua che sono ad oggi i più difficili da gestire e monitorare. La notizia arriva da uno studio dell’Università di Pisa e del Consorzio di Bonifica Toscana Nord pubblicato su Scientific Reports, rivista del gruppo Nature.

“Le forti precipitazioni concentrate in breve tempo e su aree ristrette rendono difficile la gestione dei corsi d’acqua minori, dove la rapidità di deflusso delle acque piovane aumenta il rischio di piene improvvise, basti pensare agli eventi alluvionali avvenuti nel novembre 2023 nella provincia di Prato dove sono esondati i torrenti Furba e Bagnolo e, più recentemente, a quelli che hanno colpito la Valdera e la provincia di Livorno” spiega Monica Bini, professoressa del Dipartimento di Scienze della Terra dell’Università di Pisa che ha coordinato la ricerca.

I modelli predittivi basati sull’intelligenza artificiale sono stati addestrati a partire dalla banca dati pluviometrica e idrometrica fornita del Servizio Idrologico Regionale della Toscana. Il passo successivo sarà quindi di sviluppare software semplici e facili da usare per anticipare le criticità dei corsi d’acqua e di mitigare i danni.

“L’intelligenza artificiale si è rivelata uno strumento prezioso per dare preallerta in piccoli bacini anche con sei ore di anticipo, ma resta fondamentale che le decisioni operative siano sempre supervisionate da esperti,” ha sottolineato il dottor Marco Luppichini, primo autore dell’articolo e assegnista di ricerca del Dipartimento di Scienze della Terra dell’Ateneo pisano.

“La disponibilità di dati pluviometrici forniti dal Servizio Idrologico Regionale e il finanziamento del Consorzio di Bonifica, per cui ringraziamo il presidente Ismaele Ridolfi, sono stati fondamentali per il successo della ricerca a cui  ha collaborato sempre per il Consorzio l’ingegnere Lorenzo Fontana – dice Monica Bini  – è per me inoltre motivo di orgoglio la partecipazione al lavoro di Giada Vailati, studentessa del corso di laurea magistrale in Scienze Ambientali del quale sono presidente, credo sia l’esempio tangibile di come il corso affronti tematiche di estrema attualità e come i nostri studenti possano da subito diventare protagonisti di ricerche internazionali e incidere sulla gestione del territorio”.

“È un risultato che ci rende orgogliosi del lavoro fatto e della collaborazione stretta in questi anni con un’eccellenza come il Dipartimento di Scienze della Terra dell’Università di Pisa – sottolinea il presidente del Consorzio di Bonifica Toscana Nord, Ismaele Ridolfi – In queste settimane, l’emergenza climatica in atto ha dato una terribile dimostrazione degli effetti disastrosi che può avere sulle nostre vite con i casi di Emilia-Romagna, Marche, la stessa Toscana fino ad arrivare alle più recenti alluvioni che hanno colpito la Spagna e in particolare il territorio di Valencia. Oltre alle necessarie manutenzioni ordinarie e alle opere straordinarie per ridurre il rischio, abbiamo il dovere di sfruttare al meglio i nuovi strumenti in grado di prevedere il prima possibile eventi pericolosi e gli eventuali effetti sui nostri territori. La collaborazione continuerà – conclude Ridolfi -, grazie alla nuova convenzione sottoscritta nei mesi scorsi, per approfondire il tema ed estendere gli studi ad altri corsi d’acqua”.

Monica Bini e Ismaele Ridolfi
Monica Bini e Ismaele Ridolfi

Riferimenti bibliografici:

Luppichini, M., Vailati, G., Fontana, L. et al. Machine learning models for river flow forecasting in small catchments, Sci Rep 14, 26740 (2024), DOI: https://doi.org/10.1038/s41598-024-78012-2

Testo e foto dall’Ufficio stampa dell’Università di Pisa.

LA COMPLESSITÀ, LE BIFORCAZIONI SALIENTI, IL SENSO. IL PENSIERO LATERALE NELL’ERA DELL’INTELLIGENZA ARTIFICIALE

Ore otto del mattino: suona la campanella e siamo tutti nel microsistema classe (Bronfenbrenner, 1979). 

Le voci impazzano, i bambini accorrono in file maldestramente assestate dalle maestre che, con amorevole cura, accompagnano le anime (e i cervelli!) dei piccoli studenti curiosi.

Obiettivo giornaliero: scoprire, svelare, abbracciare qualche novità del mondo. Almeno una, si spera. 

Ma la domanda martellante del docente è sempre la stessa: come faccio a raggiungere tutti in un’ora di lezione?

La maestra assennata e cordiale decide di percorrere la via più tortuosa e meno battuta indossando, orgogliosa, i panni del professor John Keating ne “L’attimo fuggente”. Impara anch’ella a guardare da altre prospettive, al di là di desuete cattedre pullulanti di libri e sportine raccattate da viaggi avventurosi e formazioni dense di senso. 

Inizia l’avvincente sessione mattutina con un pensiero solo: personalizzare in base alle peculiarità di ciascuno studente. Decide, pertanto, di dare libera espressione a quel che Edward De Bono magistralmente descrive nel suo libro intitolato Il pensiero laterale (Lateral Thinking) che ha cambiato radicalmente il modo di fare scuola e la sinergia ecologica tra insegnamento e apprendimento. 

la copertina del saggio di Edward De Bono, Il pensiero laterale, edito da BUR (2000). Foto di Federica Illuzzi
la copertina del saggio di Edward De Bono, Il pensiero laterale, edito da BUR (2000). Foto di Federica Illuzzi

Il pensiero laterale, sviluppato alla fine degli anni ‘60, rappresenta un approccio innovativo al problem solving e si basa su metodologie non convenzionali. A differenza del pensiero logico-lineare, che segue sequenze precostituite, il pensiero creativo incoraggia l’esplorazione di opzioni alternative, facilitando l’emergere di esiti davvero inediti. Questa forma di approccio stimola la creatività, offrendo nuove prospettive per raggiungere il medesimo obiettivo. 

Spesso, i nostri studenti impugnano la penna in modo insolito, tuttavia riescono a scrivere benissimo, nonostante ci sembri bislacco.

Siamo soliti dire: “Occorrerebbero degli elastici e potenziare la motricità fine!”
Ma delle volte è meglio lasciare che sia, poiché il risultato potrebbe essere sorprendente.

Come ci rammenta la neuroscienziata Daniela Lucangeli, in un contesto educativo che cambia “in millesimi di secondo”, il pensiero “imprevisto” per gestire situazioni nuove e complesse è di fondamentale importanza. 

Gli studenti (insieme agli insegnanti) allenano la flessibilità mentale per reinterpretare la realtà circostante, attribuendole nuovi significati. Ogni strada, anche la più tortuosa, può portare a scoperte inattese e sorprendenti: durante il processo di codifica e transcodifica delle evidenze contestuali, i bambini non solo raggiungono l’obiettivo finale ma, durante la scarpinata accidentata, colgono panorami e “raccolgono” oggetti inaspettati da portare con sé per raggiungere quelle che  la Commissione Europea  ha ribattezzato come “Life Skills”. 

A scuola oggi non basta più imparare a leggere, scrivere e far di conto, come ci raccomandava il documento programmatico gentiliano nel 1925. L’Europa ci chiede un upgrade di sistema: imparare a esistere, per giunta nel mondo della complessità e dei Big Data. E John Dewey, nel suo saggio Esperienza e Educazione, edito poco più di dieci anni dopo, già lo preannunciava.

Attraverso il cooperative learning, lo storytelling interattivo e le sfide di problem solving, questa metodologia prepara i giovani ad affrontare le sfide contemporanee con una mentalità aperta e accogliente.

In aula, gli insegnanti possono promuovere la serendipity, ossia la scoperta fortuita di soluzioni, creando un ambiente che valorizzi la sperimentazione e l’innovazione. Incoraggiando a vedere i problemi da angolazioni  nuove e inaspettate, si favorisce lo sviluppo di una comprensione più profonda della realtà. Questo approccio trasforma ogni situazione complessa in un terreno fertile per idee innovative, rendendo i nostri alunni dei pensatori critici e acuti, in grado di navigare in un mondo in rapido cambiamento e non meri esecutori. Perché lo svolgimento pedissequo di un compito è della macchina, l’elaborazione saliente è dell’ Homo sapiens (o cogitans?).

Come sottolinea la scrittrice e matematica Chiara Valerio, la techné dei tempi moderni (IA Conversazionale) deve servirci a eliminare o, almeno, a ridurre il carico meccanico, ripetitivo e burocratico del nostro lavoro quotidiano per restituirci il tempo di pensare bene.

Il pensiero laterale, così, acquisisce un’evidente importanza nell’era delle reti generative probabilistiche, poiché offre un approccio complementare e necessario per affrontare le sfide e le opportunità che questa tecnologia presenta.

In un contesto in cui l’Intelligenza Artificiale è in grado di analizzare enormi quantità di dati e generare soluzioni basate su algoritmi predittivi, il pensiero critico permette di esplorare idee che potrebbero sfuggire a un’analisi puramente logica. Mentre l’IA può fornire risposte rapide e precise a problemi ben definiti, il pensiero divergente umano incoraggia gli individui a considerare variabili emozionali e contestuali che possono influenzare i risultati. Questo è fondamentale  in situazioni in cui le domande sono complesse e le risposte non hanno soluzioni binarie.

Percorrere selciati, a volte, dissestati per arrivare a esiti imprevedibili  è centrale nel pensiero di De Bono. Se stimoliamo i nostri ragazzi con brainstorming che fungano da attivatori cognitivi, prima dell’inizio di una lezione, la generazione di idee avrà una portata virale. In questo modo, saranno motivati a pensare “fuori dagli schemi”, esplorando soluzioni che potrebbero inizialmente sembrare inusuali o non pertinenti. Questo processo comporterà la combinazione di diverse soluzioni possibili o l’analisi di problemi da prospettive culturali, sociali o scientifiche diverse.

Ma l’adozione di tale approccio  non si limita alla generazione di ipotesi: esso si estende anche alla fase di implementazione. Le soluzioni derivanti da percorsi diversi ma complementari, tendono a essere più resilienti e adattivi, poiché sono state testate attraverso diverse lenti e contesti. Questo approccio permette di anticipare e affrontare le sfide che possono sorgere durante il deployment, rendendo le strategie più robuste (il deployment, in ambito tecnologico, si riferisce al processo con cui un software o un sistema viene distribuito e reso operativo in un ambiente reale. Fuor di metafora, il termine specifico in ambito educativo può descrivere l’implementazione pratica di un progetto formativo o didattico).

L’esplorazione di cammini distinti non solo arricchisce il processo creativo, ma porta anche a strategie più complete e sistemiche. Questo metodo incoraggia non solo l’innovazione, ma anche un atteggiamento positivo nei confronti dell’incertezza e della complessità, aspetti fondamentali nel mondo attuale.

Insegnare a pensare in modo originale è fondamentale per preparare i cittadini del domani  ad affrontare le sfide di una società complessa e interconnessa. Come educatori, è importante riconoscere che il vero apprendimento va oltre l’acquisizione di competenze meccaniche; si tratta di sviluppare la capacità di adattarsi e reinventarsi di fronte a nuove situazioni. Dobbiamo accogliere la complessità come una fonte di crescita e vedere le difficoltà come opportunità per affinare la capacità di analisi del reale.

Nell’era dell’Intelligenza Artificiale, mentre gli algoritmi possono gestire i dati, il ruolo umano rimane essenziale per interpretare le sfumature e dare significato alle soluzioni. La nostra missione è coltivare menti curiose, aperte e resilienti, pronte a esplorare non solo per trovare risposte, ma per comprendere meglio il mondo. In un contesto in cui le macchine “intelligenti” sono sempre più presenti, è nostro compito guidare con saggezza e immaginazione verso una conoscenza che sia, prima di tutto, profondamente umana e sensibile poiché, come disse J. Dewey, imparare significa, in prima istanza, “apprendere a vivere“. 

BIBLIOGRAFIA 

Bronfenbrenner, U. (1979). Ecologia dello sviluppo umano: Esperimenti in natura e progettazione. Il Mulino.

De Bono, E. (1970). Il pensiero laterale: Creatività passo dopo passo. Rizzoli.

Dewey, J. (1938). Esperienza e educazione. Rizzoli.

European Commission. (2023). Anno europeo delle Competenze 2023. https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/european-year-skills-2023_en

Lucangeli, D. (2021). La mente che sente: A tu per tu: dialogando in vicinanza, nonostante tutto. Erickson.

Valerio, C. (2023). La tecnologia è religione. Einaudi.

la copertina del saggio di Edward De Bono, Il pensiero laterale, edito da BUR (2000)
la copertina del saggio di Edward De Bono, Il pensiero laterale, edito da BUR (2000)

“Nel presente articolo, per ragioni di economia linguistica e coerenza stilistica, si è scelto di utilizzare il maschile sovraesteso come forma inclusiva, riferendosi indistintamente a soggetti di genere maschile e femminile.”

A TORINO IL PRIMO STUDIO CHE DECODIFICA LE ESPRESSIONI FACCIALI DI LEMURI E GIBBONI CON L’INTELLIGENZA ARTIFICIALE

Grazie a tecniche di deep learning sarà possibile condurre studi comparativi su larga scala focalizzati sulla comunicazione di alcune specie di primati non umani

un lemure indri. Foto © Filippo Carugati
un lemure indri. Foto © Filippo Carugati

Se l’applicazione dell’intelligenza artificiale è ormai di uso comune per l’individuazione e la lettura delle espressioni umane, finora la sua applicazione per specie di primati che non fossero l’uomo era inesplorata. Oggi l’Università di Torino è promotrice del primo studio orientato all’utilizzo dell’I.A. per decodificare le espressioni facciali dei primati non umani. La ricerca, pubblicata sulla rivista Ecological Informatics, mostra come l’utilizzo delle tecniche di deep learning possa essere efficace nel riconoscere i gesti facciali di lemuri e gibboni, facilitando l’indagine del repertorio facciale e consentendo una ricerca comparativa più efficace.

Gli studi sulle espressioni facciali nella comunicazione animale sono essenziali. Tuttavia, i metodi di ispezione manuale sono pratici solo per piccoli insiemi di dati. Le tecniche di deep learning possono aiutare a decodificare le configurazioni facciali associate alle vocalizzazioni su grandi insiemi di dati. Lo studio di UniTo, in particolare, indaga se si possano individuare le espressioni associate all’apertura della bocca e alle emissioni vocali.

“Quando abbiamo iniziato questo studio, tre anni fa, l’applicazione delle tecniche di deep learning al riconoscimento delle espressioni facciali di specie che non fossero l’uomo era un territorio completamente inesplorato. Oggi siamo di fronte a un progresso importante dal punto di vista tecnologico che potrà trovare ulteriore applicazione su specie finora ignorate e consentirà di condurre studi comparativi su larga scala”, spiega Filippo Carugati, dottorando di Scienze Biologiche e Biotecnologie Applicate e primo autore del lavoro.

Grazie alla presenza di una stazione di ricerca nella foresta di Maromizaha, in Madagascar, studenti e dottorandi dell’Università di Torino hanno potuto riprendere gli animali in natura, facendo sì che quanto indagato riguardasse non solo gibboni filmati in cattività ma anche lemuri indri e sifaka registrati in ambiente naturale. Durante lo studio sono stati utilizzati algoritmi di apprendimento automatico per classificare i gesti vocalizzati e non vocalizzati nelle diverse specie. Gli algoritmi hanno mostrato tassi di classificazione corretta superiori alla norma, con alcuni che hanno superato il 90%.

“Lo studio delle espressioni facciali di scimmie e lemuri è storicamente legato ad analisi fortemente soggettive, in cui le scelte dell’operatore talvolta rischiano di influenzare i risultati delle ricerche, senza contare i tempi notevoli che coinvolgono necessariamente il training e il lavoro degli operatori. Con questo studio abbiamo dimostrato come, allenando gli algoritmi su una percentuale di dati inferiori al 5%, si possano ottenere elevatissime percentuali di identificazione corretta delle espressioni associate alla produzione di vocalizzazione rispetto a quelle associate ad altre situazioni. Percentuali anche superiori al 95%”, aggiunge il Prof. Marco Gamba, zoologo, senior author del progetto e presidente del Corso di Laurea Magistrale ‘Evoluzione del Comportamento Animale e dell’Uomo’.

lemuri indri. Foto © Filippo Carugati
Con l’utilizzo dell’intelligenza artificiale, una ricerca ha cercato di riconoscere le espressioni facciali di lemuri e gibboni, facilitando l’indagine. Nell’immagine, lemuri indri. Foto © Filippo Carugati

 

Testo e foto dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

L’INTELLIGENZA ARTIFICIALE PUÒ ACCELERARE LA PRODUZIONE DI COMBUSTIBILI SOLARI: LO DIMOSTRA UNO STUDIO DEL POLITECNICO DI TORINO

Torino, 13 giugno 2024

La ricerca, pubblicata sulla rivista Journal of the American Chemical Society, potrebbe aprire le porte ad un nuovo modo di produrre combustibili solari per fronteggiare la crisi climatica

 

Un team di ricercatori del Politecnico di Torino, coordinato dal professor Eliodoro Chiavazzo – Ordinario di Fisica Tecnica Industriale e direttore dello SMaLL lab al Dipartimento Energia-DENERG – e composto da Luca Bergamasco e Giovanni Trezza – rispettivamente Ricercatore e Dottorando presso il Dipartimento Energia – con la collaborazione dei gruppi di ricerca del professor Erwin Reisner dell’Università di Cambridge (Gran Bretagna) e del professor Leif Hammarström dell’Università di Uppsala (Svezia), ha dimostrato come alcune tecniche di Intelligenza Artificiale possono essere utilizzate per accelerare i tempi di sviluppo dei sistemi di produzione dei combustibili solari.

Il procedimento studiato rappresenta un significativo passo in avanti nella produzione di combustibili solari – fonti energetiche rinnovabili ottenute a partire dalla CO2 sfruttando l’energia solare – fondamentali per ridurre le emissioni di CO2 in atmosfera e contribuire così alla lotta al cambiamento climatico.

Il nuovo studio, appena pubblicato sulla prestigiosa rivista Journal of American Chemical Society, dimostra come sia possibile migliorare l’attuale produzione di combustibili solari avvalendosi dell’Intelligenza Artificiale, e in particolare della tecnica denominata Apprendimento Sequenziale.

A suscitare l’interesse dei ricercatori sono infatti le potenzialità dei combustibili solari, capaci di ridurre l’anidride carbonica in atmosfera e allo stesso tempo di riutilizzarla per produrre risorse utili. Una fonte rinnovabile particolarmente promettente, la cui valorizzazione potrebbe contribuire a fronteggiare l’attuale crisi climatica e costruire un futuro più sostenibile.

Concentrandosi in particolare sulla produzione di monossido di carbonio (CO) – un combustibile utile anche come precursore per la produzione di altri combustibili più comuni, a partire dalla CO2 – il team di ricercatori ha dimostrato come alcune tecniche di Intelligenza Artificiale possono essere utilizzate per “guidare” gli esperimenti, accelerando quindi i tempi di sviluppo e migliorando notevolmente i procedimenti di produzione dei combustibili solari.

Il sistema oggetto dello studio si basa su un processo foto-chimico, nel quale una preparazione costituita da acqua, tensioattivi e opportune molecole funzionalizzanti in contatto con la CO2 viene esposta alla luce solare, attivando la conversione delle molecole di anidride carbonica in combustibile. Data la complessità del sistema, la sua ottimizzazione richiede un elevato numero di esperimenti e analisi in condizioni diverse – per esempio, diverse composizioni e diverse concentrazioni dei costituenti chimici.

“L’apprendimento sequenziale è un approccio in cui un modello apprende continuamente da nuovi dati che gli vengono forniti, e risulta particolarmente utile in contesti in cui i dati non sono disponibili tutti in una volta ma vengono raccolti progressivamente – spiega il professor Eliodoro Chiavazzo – I modelli quindi “imparano” da un primo set di pochi esperimenti, e sono in grado di fornire indicazioni su quali esperimenti conviene svolgere successivamente. Per il sistema in oggetto, i modelli proposti hanno consentito di ottimizzare la produzione di combustibile solare in soli 100 esperimenti rispetto ai 100,000 teoricamente necessari”.

“Per questo lavoro abbiamo usato due dei più recenti modelli di apprendimento sequenziale oggi a disposizione, coordinandoci con i ricercatori dell’università di Cambridge per lo svolgimento degli esperimenti e l’analisi dei risultati – commenta Giovanni Trezza – Lo studio ha permesso di identificare uno dei parametri chiave che regola il sistema foto-chimico considerato, altrimenti molto difficile da individuare”.

“Il sistema considerato per la riduzione della CO2 è di per sé molto innovativo, perché sfrutta l’auto-assemblamento dei tensioattivi e delle molecole funzionalizzanti in aggregati molecolari chiamati “micelle foto-catalitiche” – aggiunge Luca Bergamasco – che possono migliorare di molto la conversione della CO2 in combustibile. Il fatto di aver applicato l’intelligenza artificiale ad un sistema così complesso, ha quindi aggiunto un ulteriore elemento di valore all’approccio, consentendo di dimostrarne a pieno le enormi potenzialità”.

“Ad oggi, le tecniche di apprendimento sequenziale sono ancora relativamente poco sfruttate, soprattutto in ambito chimico; questo lavoro, in particolare, rappresenta il primo tentativo di applicarle ad un sistema foto-catalitico così complesso come quello considerato – concludono gli autori dello studio – La ricerca sull’applicazione di queste tecniche prosegue nell’ambito dei combustibili solari ma non solo, anche per altre applicazioni nel campo della conversione e dell’accumulo di energia”.

L’articolo è disponibile in modalità open access al seguente link: https://pubs.acs.org/doi/10.1021/jacs.4c01305

anidride carbonica
Foto di Gerd Altmann

Testo dall’Ufficio Web e Stampa del Politecnico di Torino.

Robot subacquei a fianco degli operatori umani per la difesa del mare: al via il progetto PANACEA

Gestito dalle Università di Pisa e Firenze, studia la messa a punto di un sistema di robot sottomarini e di superficie per il monitoraggio delle acque ad uso di Agenzie per l’Ambiente e studiosi di ecologia

Monitorare lo stato delle acque, dolci e salate, non è un’attività semplice. Eppure, le ineludibili esigenze di sostenibilità ambientale e le grandi risorse che il mondo sommerso conserva rendono essenziale arrivare a una conoscenza scientifica profonda del “Pianeta Blu”. Per questo scopo, l’uso di robot autonomi sottomarini assume una crescente rilevanza, soprattutto per il monitoraggio di fenomeni legati alla salute delle acque e dei fondali. Di questo si occupa il progetto PANACEA, gestito dalle Università di Pisa e Firenze e orientato a sostituire sempre di più le esplorazioni umane in ambienti sottomarini pericolosi e ostili con quelle condotte da robot. Il progetto ha ricevuto finanziamenti dal Ministero dell’Università e della Ricerca nell’ambito del bando PRIN 2022 (Progetti di Rilevante Interesse Nazionale).

“Nonostante in questi anni i robot sottomarini si siano dimostrati molto efficaci – spiega Riccardo Costanzi, docente di robotica all’Università di Pisa e coordinatore del progetto – siamo ancora lontani da farne uno standard per le attività di monitoraggio, affidate ancora a operatori umani, con tutti i rischi del caso. Nel progetto PANACEA proponiamo un caso emblematico, quello della Posidonia oceanica, considerata un habitat naturale chiave dall’Unione Europea e il cui monitoraggio è essenziale per conoscere lo stato di salute dei nostri mari e per preservarlo”.

Riccardo Costanzi
Riccardo Costanzi

Scopo di PANACEA è mettere a punto un sistema multi-robot, composto da un robot subacqueo e uno di superficie, in grado di interfacciarsi con gli operatori al sicuro a terra, che ricevono dati in tempo reale.

“Il monitoraggio dei fondali è eseguito con tecniche sia visive che acustiche – aggiunge Alessandro Ridolfi, docente di robotica all’Università di Firenze – e usiamo tecniche di Intelligenza Artificiale per estrarre dati sintetici da tutti quelli acquisiti. La capacità del robot di estrarre e trasmettere solo dati sintetici è fondamentale, visto che in acqua le possibilità di comunicazione sono ridotte”.

Zeno_HR Progetto PANACEA

Il progetto è stato presentato lo scorso 3 maggio a una platea di studiosi di ecologia e rappresentanti di Agenzie per l’Ambiente, che gli scienziati di Pisa e Firenze considerano gli utilizzatori finali del sistema che stanno mettendo a punto.

“In un’epoca in cui il monitoraggio ambientale è più cruciale che mai, il sistema proposto da PANACEA rappresenta un ulteriore passo avanti significativo nella conservazione della biodiversità marina – afferma Elena Maggi, docente di ecologia all’Università di Pisa – Il monitoraggio delle praterie di Posidonia oceanica, fondamentali per la salute e protezione dei sistemi costieri mediterranei e al contempo estremamente delicate, rappresenta una sfida notevole. PANACEA mira a minimizzare i rischi e le limitazioni dei monitoraggi umani, incrementando la sicurezza e riducendo i tempi per la raccolta di dati su ampie scale spaziali, che possano essere integrati con quelli raccolti dagli operatori subacquei. Di fronte all’accelerazione degli effetti del cambiamento climatico e alla molteplicità dei disturbi causati dalle attività umane, è imperativo che le nostre azioni conservative siano altrettanto rapide ed efficaci per mitigare e contenere gli impatti”.

foto di gruppo del Progetto PANACEA
foto di gruppo del Progetto PANACEA

Testo e foto dall’Unità Comunicazione Istituzionale dell’Università di Pisa.

AI generativa: individuate le sei aree di applicazione più rilevanti di ChatGPT

Lo studio è stato condotto dal gruppo di ricerca Business Engineering for Data Science (B4DS) dell’Università di Pisa

Quali sono i possibili casi di applicazione dei nuovi chatbot basati su IA, come ChatGPT? In due recenti studi pubblicati su riviste Elsevier, ricercatori dell’Università di Pisa hanno analizzato quantitativamente i task che gli utenti richiedono ai Generative Large Language Models (LLM), individuando sei aree per le quali l’applicazione di questi chatbot innovativi potrebbe essere particolarmente determinante: risorse umaneprogrammazione softwareoffice automation, social media, motori di ricerca ed educazione. I risultati di questi studi sono stati pubblicati su Technovation (Future applications of generative large language models: A data-driven case study on ChatGPT) e Technological Forecasting and Social Change (The impact of ChatGPT on human skills: A quantitative study on twitter data).

Gli autori dello studio fanno parte del gruppo di ricerca Business Engineering for Data Science (B4DS):

“Tramite lo sviluppo e l’applicazione di tecniche di Natural Language Processing (NLP), siamo in grado di analizzare dati testuali di tipi diversi, come articoli scientifici, brevetti e user-generated content (ad esempio, post pubblicati sui social media), descrizioni di corsi – spiega Filippo Chiarello, ricercatore alla Scuola di Ingegneria e neo vicedirettore del Teaching and Learning Centre dell’Università di Pisa –  Il nostro obiettivo è estrarre informazioni per supportare la progettazione didattica e altri processi decisionali”.

Dall’analisi dei dati è emerso che, nelle aree risorse umaneprogrammazione software e office automation, ChatGPT e simili possono supportare il lavoro dei professionisti, specialmente per i compiti più meccanici e che generalmente richiedono un notevole dispendio di tempo. Ad esempio, gli utenti richiedono spesso di riassumere documenti testuali, o cercare informazioni di dominio. Per l’area dei social media, la AI Generativa può aiutare nei compiti di content creation, come la scrittura di tweets e la generazione automatica di immagini. Questo da un lato prospetta scenari promettenti per potenziare la creatività umana, dall’altro apre anche scenari preoccupanti, per diffusione di contenuti fake e per la potenziale minaccia all’originalità di scrittori e disegnatori. Un’altra area che è emersa è quella dei motori di ricerca: dai dati si osservano numerosi commenti relativi al fatto che i vari Google Search, Microsoft Bing, etc. potrebbero essere sostituiti dai nuovi chatbot basati su IA generativa. Inoltre, è stato misurato l’impatto che questi strumenti hanno sulle competenze. Gli ambiti riguardano le aree di comunicazione, collaborazione e creatività, lavoro con i computer, assistenza, social media. In questo panorama, il mondo dell’educazione sarà sicuramente influenzato da queste nuove tecnologie, sia positivamente (ChatGPT può essere usato per supportare il lavoro degli educatori per cercare informazioni, sviluppare lezioni e materiale didattico, correggere compiti, etc.) sia negativamente (ChatGPT potrebbe essere sfruttato per svolgere compiti al posto degli studenti e facilitare fenomeni di plagio).

L’impegno del gruppo di ricerca B4DS si riflette nei numerosi progetti di ricerca, tra cui ENCORE (ENriching Circular use of OeR for Education), che analizza l’utilizzo delle risorse educative aperte; DETAILLs che si concentra sull’AI generativa a supporto della progettazione di prodotti sostenibili; il progetto PRA mira ad analizzare documenti provenienti dalle attività di didattica e di ricerca dei docenti, per individuare misure di allineamento. B4DS guida anche, in collaborazione con CIMEA, un Osservatorio che monitora l’evoluzione delle competenze.

Il gruppo di ricerca B4DS è composto dai professori Antonella Martini, Andrea Bonaccorsi e Gualtiero Fantoni, dai ricercatori Filippo Chiarello, Vito Giordano e Irene Spada e da 4 dottorandi. Più info su http://b4ds.unipi.it/.

AI generativa: individuate le sei aree di applicazione più rilevanti di ChatGPT
AI generativa: individuate le sei aree di applicazione più rilevanti di ChatGPT

Testo e immagine dall’Unità Comunicazione Istituzionale dell’Università di Pisa.

Nuovo progetto di ricerca con campagna di crowdfunding: un biosensore basato su una peculiarità del porcellino di terra per monitorare quanto è inquinato il suolo

Un team di ricerca dell’Università di Milano-Bicocca ha lanciato un crowdfunding per realizzare il progetto “Tanti Piccoli Porcellin!”: un biosensore basato su una peculiarità dei porcellini di terra per monitorare il livello di inquinamento del suolo.

 

Milano, 24 aprile 2024 – Valutare l’inquinamento del suolo con un metodo del tutto naturale, osservando cioè il comportamento di alcuni organismi che lo popolano ovvero i porcellini di terra: è questo l’obiettivo dei ricercatori dell’Università di Milano-Bicocca che hanno lanciato la campagna di crowdfunding “Tanti Piccoli Porcellin!” per sviluppare un prototipo strumentale per riconoscere un suolo sano da uno contaminato, coniugando le risposte comportamentali dei porcellini e i più sofisticati strumenti dell’intelligenza artificiale.

I porcellini di terra sono gli unici crostacei ad avere colonizzato la terraferma a partire dal Carbonifero Inferiore, fra i 359,2 e i 318,1 milioni di anni fa: questi antichissimi animali dovettero adattarsi in un ambiente nuovo compensando, prima fra tutte, la disidratazione. Come? Attraverso un particolare comportamento gregario: i porcellini di terra tendono a stare aggregati, perché questo riduce la superficie di contatto dei singoli animali con l’aria. In condizioni di stress indotto da un suolo contaminato, il gruppo invece si frammenta.

«Il primo passo per contrastare gli effetti dell’inquinamento dei suoli, è proprio quello di monitorarne lo stato di contaminazione. Per farlo abbiamo ideato un metodo rapido, economico e non invasivo, nonché rispettoso nei confronti degli animali», spiega Lorenzo Federico, responsabile del progetto e dottorando presso il Dipartimento di Scienze dell’Ambiente e della Terra dell’Università di Milano-Bicocca. «Grazie al crowdfunding svilupperemo un migliore metodo di osservazione per il comportamento gregario dei porcellini di terra quando esposti ai suoli e ne quantificheremo le risposte grazie ad  algoritmi sviluppati all’interno del nostro team. In altre parole, studiando come reagiscono i porcellini potremo capire se un suolo è inquinato o meno, e a che livello».

Nello specifico, lo stato di aggregazione verrà monitorato mediante un dispositivo che combina un detector (microtelecamera a infrarossi) e un’arena in plexiglas, all’interno della quale sarà disposto il suolo da monitorare e dieci porcellini di terra. Basteranno poche ore perché i contaminanti, se presenti, determinino alterazioni comportamentali facilmente quantificabili.

«Il nostro obiettivo finale è quello di sviluppare un prototipo che utilizzi la procedura automatica di analisi già brevettata da Elisabetta Fersini, docente di Informatica del nostro ateneo, per quantificare lo stato di aggregazione dei porcellini quando esposti a suoli contaminati», spiega Sara Villa, docente di Ecologia presso l’Università Milano-Bicocca e componente del team. «Questo auto-apprendimento sarà utile per ridurre i tempi di analisi e di elaborazione di un rapporto di qualità ambientale».

Per sviluppare un primo prototipo sperimentale bisogna raccogliere 10.000 euro attraverso la campagna di raccolta fondi attiva su Ideaginger.it, la piattaforma di crowdfunding con il tasso di successo più alto in Italia. Il progetto “Tanti Piccoli Porcellin!” – tra quelli della VI edizione di BiUniCrowd, l’iniziativa dell’Università di Milano-Bicocca che permette ai progetti della comunità universitaria di ottenere sostegno e visibilità dall’esterno – è stato selezionato da A2A, che cofinanzierà la campagna di crowdfunding.

Sostenere “Tanti Piccoli Porcellin!” è facile: basta collegarsi alla pagina del progetto e fare una donazione scegliendo il metodo di pagamento preferito. Tra le ricompense per i sostenitori c’è anche l’opportunità di fare analizzare il suolo del proprio orto o del proprio giardino per verificarne lo stato di salute.

In basso, una foto dei progettisti di “Tanti Piccoli Porcellin!”  suolo inquinato porcellino di terra UniMib
Nuovo progetto di ricerca con campagna di crowdfunding: un biosensore basato su una peculiarità del porcellino di terra per monitorare quanto è inquinato il suolo. In foto, i progettisti di “Tanti Piccoli Porcellin!”

Testo e foto dall’Ufficio Stampa dell’Università di Milano-Bicocca.

Un microchip può funzionare come una rete di neuroni? I ricercatori dell’Università di Milano-Bicocca usano il crowdfunding per scoprirlo: Parte oggi TinyNeuron – Silicon Neuron for AI, la prima campagna selezionata con la VI edizione di BiUniCrowd; ha l’obiettivo di sviluppare un microchip che può rivoluzionare l’intelligenza artificiale.

Milano, 3 aprile 2024 – Il cervello umano è formato da circa 100 miliardi di neuroni, processa senza sosta informazioni, gestisce compiti complessi monitorando allo stesso tempo gli stimoli che arrivano dall’ambiente esterno. E quanta energia consuma? Appena 20W, meno di una lampadina a incandescenza. Si può prendere ispirazione da uno strumento così efficiente per sviluppare un innovativo microchip? È la domanda a cui un team di ricercatori e ricercatrici dell’Università di Milano-Bicocca vuole rispondere chiedendo alla comunità di sostenere la campagna di crowdfunding TinyNeuron – Silicon Neuron for AI: volta a raccogliere 10.000 euro per sviluppare un microchip capace di emulare il comportamento e la struttura di una rete di neuroni biologici, è stata appena pubblicata su Ideaginger.it, la piattaforma di crowdfunding con il tasso di successo più alto in Italia.

«Il nostro obiettivo è gettare le basi per lo sviluppo di un processore neuromorfico che, funzionando in modo simile al cervello, permetta di gestire algoritmi di intelligenza artificiale di nuova generazione», ha dichiarato Lorenzo Stevenazzi, responsabile del progetto. «È un ambito di ricerca molto promettente: per esempio, può ridurre sensibilmente il dispendio energetico di dispositivi e sensori, ma anche semplificare l’integrazione tra protesi robotiche e corpo umano, che parlerebbero così lo stesso linguaggio».

TinyNeuron – Silicon Neuron for AI è stato selezionato nell’ambito della VI call BiUniCrowd, con cui l’Università di Milano-Bicocca promuove il crowdfunding per finanziare i progetti di ricerca e ha ricevuto il supporto di Thales Alenia Space che, quando la campagna di crowdfunding avrà raggiunto il 50% del suo obiettivo, la cofinanzierà con ulteriori 5.000 euro. 

Da quest’anno BiUniCrowd è stato sviluppato in partnership con Ginger Crowdfunding, che gestisce Ideaginger.it con cui è stato progettato il percorso di accompagnamento per ricercatori e ricercatrici attraverso la formazione al crowdfunding che gli ha permesso di definire ogni aspetto dei loro progetti di raccolta fondi. 

«Sono convinto che il crowdfunding sia lo strumento migliore per iniziare questa linea di ricerca», sottolinea Lorenzo Stevenazzi. «Il chip a cui lavoreremo riproduce una rete di neuroni che collaborano assieme a supporto di un risultato comune, proprio come avviene in una campagna di crowdfunding. I sistemi neuromorfici possono rivoluzionare l’intelligenza artificiale, probabilmente una delle tecnologie con le potenzialità più alte di sempre e grazie al contributo essenziale dei nostri sostenitori questa ricerca può concretizzarsi».

«Thales Alenia Space è costantemente alla ricerca di soluzioni tecnologiche innovative e ambiziose, proprio come quella a cui sta lavorando il team di TinyNeuron – Silicon Neuron for AI», ha dichiarato Paolo Cerabolini del CTO di TASI. «Uno degli aspetti forse più interessanti del progetto è che, oltre agli ambiti tecnologici che sappiamo potrà rivoluzionare, racchiude anche un potenziale che potrà aprire scenari di ricerca per nuove applicazioni in un futuro molto prossimo».

Sostenere TinyNeuron – Silicon Neuron for AI è semplicissimo. Basta collegarsi alla pagina della campagna, donare e scegliere la ricompensa tra quelle ideate dai ricercatori, tra cui anche la possibilità di incontrare le ricercatrici e i ricercatori del team in occasione di una esclusiva visita al loro laboratorio di ricerca.

Testo e foto dall’Ufficio Stampa dell’Università di Milano-Bicocca.