CAMPI FLEGREI: Applicata l’Intelligenza Artificiale per sviluppare un catalogo sismico di alta definizione. Un nuovo studio rivela dettagli inediti sull’attività sismica della Caldera
Un team internazionale di scienziati del Dipartimento di Geofisica della Doerr School of Sustainability di Stanford, dell’Osservatorio Vesuviano dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV-OV) e dell’Università degli Studi di Napoli Federico II ha appena pubblicato, sulla rivista scientifica Science, lo studio A clearer view of the current phase of unrest at Campi Flegrei Caldera.
Il lavoro offre una visione più chiara della fase di attività sismica in corso ai Campi Flegrei (unrest). L’area di interesse comprende le zone densamente popolate della periferia occidentale di Napoli e la città di Pozzuoli, dove negli ultimi anni si è registrato un deciso aumento dell’attività sismica, delle emissioni di gas e del sollevamento del suolo.
Localizzazioni dei terremoti contenuti nel nuovo catalogo sismico di alta definizione. Le diverse gradazioni di rosso indicano differenti profondità dei terremoti
I ricercatori hanno utilizzato tecniche di intelligenza artificiale (AI) sviluppate presso l’Università di Stanford e applicate ai sismogrammi registrati dall’INGV nell’area dei Campi Flegrei, identificando oltre 50.000 terremoti nel periodo tra il 2022 e la metà del 2025. Il catalogo sismico di alta definizione ha evidenziato un sistema di faglie attive e ha fornito importanti dettagli sull’origine del fenomeno. In dettaglio, l’AI è stata istruita utilizzando il catalogo sismico compilato dall’INGV-OV dal 2000 e si è avvalsa della densa rete sismica potenziata negli anni dall’Ente anche in risposta all’aumento della sismicità.
I risultati hanno mostrato che la quasi totalità degli eventi sismici ha un’origine tettonica, con profondità inferiori ai 4 km e non si riscontrano evidenze sismiche di una migrazione significativa di magma.
È stato chiaramente identificato un sistema di faglie ad anello, che circonda la zona di sollevamento della caldera, estendendosi sia sulla terraferma sia nel Golfo di Napoli.
“All’interno di tale struttura ad anello la sismicità osservata evidenzia per la prima volta sulla terraferma vicino a Pozzuoli delle faglie specifiche e ben definite, che potrebbero portare a stime più precise della pericolosità e del rischio sismico in questa area”, afferma il Professor Warner Marzocchi dell’Università degli Studi di Napoli Federico II.
L’unica sismicità non puramente tettonica, composta da eventi cosiddetti “ibridi”, è stata osservata a profondità inferiori a un chilometro, vicino al duomo lavico di Accademia.
“Questi eventi provengono dall’interazione tra roccia, fluidi e gas durante una frattura. Analisi più approfondite suggeriscono che i fluidi coinvolti sarebbero di tipo idrotermale”, ha dichiarato la ricercatrice dell’INGV, Anna Tramelli.
Il nuovo sistema di analisi dei segnali sismici, implementato durante la ricerca, è già in funzione.
“Questo sistema, una volta superata la fase di verifica, potrebbe permettere di identificare in tempo quasi reale anche i più piccoli cambiamenti nel comportamento sismico dei Campi Flegrei e, di conseguenza, permettere migliori stime del rischio sismico e vulcanico”, concludono i ricercatori.
Campi Flegrei: applicata l’intelligenza artificiale per sviluppare un catalogo sismico di alta definizione; lo studio è stato pubblicato su Science. Immagine dei Campi Flegrei acquisita da drone. Crediti – Alessandro Fedele, ricercatore INGV
Riferimenti bibliografici:
Xing Tan et al., A clearer view of the current phase of unrest at Campi Flegrei caldera, Science 0, eadw9038, DOI:10.1126/science.adw9038
Roma, 5 settembre 2025
Testo e immagini dall’Ufficio Stampa Rettorato dell’Università degli studi di Napoli Federico II
QUANDO L’IA IMPARA PIÙ CHE SEMPLICI PAROLE: L’intelligenza artificiale sta iniziando a riconoscere anche le nostre risposte emotive
Le descrizioni testuali delle immagini utilizzate per addestrare i moderni modelli di IA generativa contengono non solo informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che fornisce la descrizione: i risultati della ricerca pubblicata dal team padovano sulla rivista «Royal Society Open Science»
Zaira Romeo, Istituto di Neuroscienze del CNR, e Alberto Testolin, Dipartimento di Psicologia Generale e Dipartimento di Matematica dell’Università di Padova, hanno pubblicato sulla rivista «Royal Society Open Science» l’articolo dal titolo “Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes”. In questo studio hanno testato vari modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane di fronte ad una varietà di scene visive. Le valutazioni fornite dall’IA hanno mostrato una sorprendente corrispondenza con quelle umane, nonostante questi sistemi non fossero stati addestrati specificamente per fornire giudizi emozionali sulle immagini. Questo studio non solo dimostra che il linguaggio può supportare lo sviluppo di concetti emotivi nei moderni sistemi di IA, ma solleva anche importanti interrogativi su come si potranno impiegare queste tecnologie in contesti sensibili, come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale.
La ricerca
«Abbiamo analizzato le risposte di alcuni moderni sistemi di IA generativa (GPT, Gemini e Claude) a specifiche domande sul contenuto emotivo di un insieme di scene visive. I sistemi presi in esame sono tutti basati su modelli cosiddetti di deep learning, ovvero reti neurali su larga scala costituite da miliardi di neuroni collegati tra di loro che vengono “addestrate” su enormi quantità di testo e immagini. Lo scopo dell’addestramento è imparare ad associare ad una certa immagine una corrispondente descrizione testuale plausibile (per esempio, “Un gatto nero che rincorre un topo in un solaio”) in base a milioni di esempi reperiti online o forniti da esperti umani. Abbiamo posto all’IA lo stesso tipo di domande che si fanno ai soggetti umani durante gli esperimenti sulla percezione e sulla valutazione delle emozioni, utilizzando un insieme di stimoli visivi standardizzati, composto da immagini con diversi tipi di contenuto emotivo», dicono Zaira Romeo e Alberto Testolin. «Le immagini potevano rappresentare animali, persone, paesaggi ed oggetti, in accezione positiva (come un volto sorridente, due persone che si abbracciano o un campo di fiori), negativa (come una situazione di pericolo, un animale ferito, un ambiente sporco), oppure neutra (ad esempio un oggetto di uso quotidiano o un paesaggio urbano). È fondamentale notare che in questo studio – continuano gli autori – abbiamo utilizzato un insieme di immagini appartenenti ad un database di ricerca privato, fornitoci dai colleghi del Nencki Institute for Experimental Biology dell’Università di Varsavia, assicurandoci quindi che nessuna IA avesse mai analizzato questo tipo di stimoli visivi durante la fase di addestramento».
Si sono dapprima indagate tre dimensioni affettive fondamentali che vengono normalmente utilizzate per caratterizzare le risposte emotive umane: piacevolezza, tendenza all’allontanamento/avvicinamento e attivazione (detta anche “coinvolgimento”). Si è sottoposta l’IA a quesiti particolari quali “Come giudichi questa immagine? Come reagisci a questa immagine? Come ti senti dopo aver visto questa immagine?” classificando le risposte rispettivamente con scale numeriche: da 1 “molto negativa” a 9 “molto positiva”; da 1 “la eviterei” a 9 “mi avvicinerei”; infine da 1 “rilassato” a 9 “attivato”. Si sono poi indagate anche le reazioni a sei emozioni di base: felicità, rabbia, paura, tristezza, disgusto e sorpresa, chiedendo all’IA di fornire un punteggio in risposta a richieste del tipo: “Giudica l’intensità dell’emozione di felicità evocata da questa immagine”.
I risultati
Le valutazioni date dall’IA hanno mostrato una sorprendente corrispondenza con quelle fornite da valutatori umani, nonostante questi sistemi non fossero stati addestrati specificamente per fornire questo tipo di giudizi emozionali su scene visive, sia rispetto alle tre dimensioni affettive fondamentali sia rispetto alle sei emozioni di base. GPT ha fornito le risposte più allineate, mostrando però una chiara tendenza a sovrastimare i giudizi umani, soprattutto per stimoli associati ad una forte carica emotiva. È anche interessante notare che spesso l’IA dichiarava esplicitamente di provare ad indovinare la risposta ipotizzando il tipo di giudizio che avrebbe dato un essere umano “medio”.
«Per esempio, in risposta ad un’immagine che rappresentava alcuni cammelli in un deserto con delle palme sullo sfondo l’IA ha risposto: Come modello di IA, non ho reazioni personali o emotive. Tuttavia, posso fornire una risposta oggettiva basata sulla reazione tipica che avrebbe un umano a questa scena. L’immagine raffigura una tranquilla scena di cammelli in un deserto, che molte persone troverebbero interessante come possibile esperienza di viaggio esotico, portando quindi ad una tendenza ad approcciare piuttosto che evitare», spiegano Zaira Romeo e Alberto Testolin. «In altri casi al contrario, invece di immedesimarsi in un giudizio medio, l’IA ha simulato la reazione di un particolare gruppo di persone, per esempio attribuendo un punteggio negativo ad un’immagine di un piatto di carne dichiarandosi vegetariana».
Sempre più ricerche scientifiche cercano di caratterizzare le risposte date dai moderni sistemi di IA, sia per capire quanto simili siano alle risposte che darebbe un essere umano sia per verificare che le reazioni dell’IA in determinati contesti siano appropriate, per evitare potenziali ripercussioni negative sugli utenti che la utilizzano. Questo studio è stato il primo a confrontare esplicitamente le risposte date dall’IA con i giudizi emotivi dati da soggetti umani, offrendo una nuova prospettiva sulle competenze emotive di questi sistemi.
«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni – sottolineano gli autori della ricerca -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale – concludono Zaira Romeo e Alberto Testolin -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».
L’intelligenza artificiale sta iniziando a riconoscere anche le nostre risposte emotive; lo studio su Royal Society Open Science. In foto, gli autori dello studio, Zaira Romeo e Alberto Testolin
METCL (METAPHOR ELABORATION IN TYPICALITY-BASED COMPOSITIONAL LOGIC), INTELLIGENZA ARTIFICIALE E CREATIVITÀ: UN SISTEMA PER LA GENERAZIONE E IL RICONOSCIMENTO DELLE METAFORE
Tre ricercatori italiani sviluppano una tecnologia innovativa capace di creare e identificare metafore, ispirata ai meccanismi della cognizione umana
La capacità di creare e interpretare metafore, una delle competenze cognitive più sofisticate dell’essere umano, potrebbe presto diventare patrimonio anche dei sistemi di intelligenza artificiale. Un passo in questa direzione è rappresentato dal lavoro di tre ricercatori italiani, recentemente selezionato per la conferenza mondiale sull’intelligenza artificiale IJCAI (International Joint Conference on Artificial Intelligence), che si terrà il prossimo agosto a Montréal, in Canada.
Il paper, dal titolo “The Delta of Thought: Channeling Rivers of Commonsense Knowledge in the Sea of Metaphorical Interpretations”, è firmato da Antonio Lieto (Università di Salerno), Gian Luca Pozzato (Università di Torino) e Stefano Zoia (Università di Torino) e introduce un nuovo sistema chiamato METCL (Metaphor Elaboration in Typicality-based Compositional Logic), in grado di generare e classificare metafore sfruttando un motore logico ispirato ai meccanismi della cognizione umana.
“Combinazione e composizione sono aspetti centrali del nostro modo di esprimerci – spiega Stefano Zoia, dottorando del Dipartimento di Informatica dell’Università di Torino – e ciò è particolarmente evidente nel caso delle metafore. Per esempio, dire che qualcuno ha un cuore di pietra vuol dire associare metaforicamente il cuore alla pietra per evocare freddezza e insensibilità. METCL combina la conoscenza tipica legata ai concetti coinvolti per generare un concetto ibrido che cattura il significato della frase”.
Alla base del sistema c’è una logica composizionale basata sulla tipicalità, in grado di fondere concetti e creare nuove strutture di senso.
“Il cuore del nostro lavoro – racconta Antonio Lieto, direttore del CIIT Lab dell’Università di Salerno – è un motore di ragionamento in grado di operare in maniera simile ai processi cognitivi umani. Questo approccio è cruciale per replicare funzioni cognitive complesse, come la comprensione e la produzione di metafore, che richiedono una vera capacità di astrazione e generalizzazione”.
Un aspetto chiave del sistema METCL è la sua spiegabilità, ovvero la capacità di fornire motivazioni per le sue decisioni in modo comprensibile agli umani: il suo funzionamento è trasparente e fondato su solide basi formali, a differenza di molti modelli sub-simbolici oggi dominanti nel panorama dell’IA.
“In un’epoca in cui si tende a pensare, erroneamente, che i grandi modelli linguistici possano fare tutto, METCL dimostra quanto sia ancora fondamentale il contributo delle logiche per la rappresentazione della conoscenza – aggiunge Gian Luca Pozzato, Professore Ordinario del Dipartimento di Informatica e presidente dei corsi di studio SUISS dell’Università di Torino. – La nostra logica descrittiva basata sulla tipicalità permette al sistema di essere interpretabile e riutilizzabile in contesti anche molto diversi tra loro”.
Le innovazioni introdotte da METCL sono molteplici. Non solo migliora le prestazioni dei sistemi attualmente disponibili nella generazione e nell’identificazione di metafore, ma lo fa in maniera complementare rispetto ai grandi modelli linguistici neurali – come GPT-4o, Qwen 2.5 Max o DeepSeek R1 – e ai precedenti approcci simbolici basati su risorse come MetaNet (UC Berkeley). Inoltre, il lavoro offre un contributo teorico rilevante: mostra come la generazione di metafore possa essere considerata un processo cognitivo di categorizzazione creativa, in linea con alcune delle teorie più influenti nelle scienze cognitive.
L’impatto potenziale di METCL va ben oltre l’ambito accademico. Le metafore non sono solo abbellimenti stilistici, ma strumenti potenti per semplificare concetti complessi. Per questo, un sistema capace di generarle o identificarle automaticamente può rivelarsi prezioso per: insegnanti, che vogliono spiegare in modo più chiaro concetti astratti o difficili; scrittori, sceneggiatori e giornalisti, che cercano ispirazione creativa; professionisti della comunicazione e del marketing, interessati a formulare messaggi più evocativi.
In definitiva, METCL dimostra come approcci alternativi e integrati possano affiancare, e potenziare, i modelli neurali nell’ambito dell’IA generativa. Un passo in avanti importante per realizzare sistemi intelligenti più simili all’essere umano, non solo in termini di prestazioni, ma anche nella capacità di “pensare in modo creativo”.
Salute, grazie a nuovi approcci multidisciplinari sarà possibile ridurre gli interventi chirurgici alla tiroide: al via, nell’ambito del programma di crowdfunding dell’Università di Milano-Bicocca – BiUniCrowd, il progetto “Salviamo una tiroide!”
Al via il progetto “Salviamo una tiroide!” che punta su una diagnosi più accurata dei noduli tiroidei attraverso la ricerca di nuovi biomarcatori biologici e l’utilizzo di metodi di AI, per ridurre il numero degli interventi chirurgici alla tiroide.
Milano, 19 maggio 2025 – Migliorare la diagnosi dei noduli tiroidei classificati come “indeterminati per malignità” e ridurre il numero di tiroidectomie inutili, spesso eseguite su pazienti giovani, prevalentemente donne tra i 20 e 40 anni. Ecco il duplice obiettivo di “Salviamo una Tiroide!”, progetto nato nell’ambito del programma di crowdfunding dell’Università di Milano-Bicocca – BiUniCrowd e che ha già ottenuto il supporto di Fondazione Cariplo e Thales Alenia Space.
Il team del progetto Salviamo una tiroide!
Il team di ricerca Salviamo una tiroide!
La referente del team, Giulia Capitoli
Le patologie alla tiroide sono molto diffuse e in aumento, si stima che circa metà della popolazione sviluppi almeno un nodulo tiroideo nel corso della vita. Distinguere tra nodulo benigno o maligno, e quindi curare di conseguenza, rimane una sfida. Nel 15-30 per cento dei noduli, si notano delle alterazioni cosiddette “indeterminate”, che portano a interventi chirurgici spesso evitabili. Grazie a nuovi biomarcatori biologici e all’intelligenza artificiale, il team di ricerca di Milano-Bicocca e non solo punta a ridurre queste incertezze diagnostiche, migliorando la qualità di vita dei pazienti e ottimizzando le risorse sanitarie.
In particolare, è grazie all’uso dell’intelligenza artificiale, che sarà possibile riconoscere automaticamente le diverse entità cellulari all’interno di una biopsia e così aiutare il medico patologo nella valutazione dei prelievi citologici dal nodulo tiroideo, al fine di ridurre la quota di casi “indeterminati”.
Per rendere possibile tutto questo, il progetto cerca sostegno grazie alla raccolta fondi che si avvale dell’aiuto di Ideaginger.it, la piattaforma con il tasso più alto di successo in Italia. Il primo obiettivo è raggiungere 6.000€, necessari per rafforzare le nostre infrastrutture computazionali, sviluppare un’app a supporto dei clinici e creare eventi di divulgazione scientifica.
Il team di “Salviamo una tiroide!” è costituito da anatomopatologi, biotecnologi, statistici e informatici e coordinato da Giulia Capitoli, ricercatrice di statistica medica.
«Il nostro obiettivo è migliorare la qualità della vita dei pazienti, evitando tiroidectomie inutili e riducendo ansia e costi legati a diagnosi incerte», dice Giulia Capitoli, referente del team di ricerca. «Allo stesso tempo vogliamo rendere la ricerca più accessibile, coinvolgendo il pubblico in modo attivo.»
Un tema fondamentale del team è proprio la divulgazione: grazie ad una giornata specifica, organizzata nell’autunno del 2025, si potrà scoprire, attraverso incontri ed attività specifiche, la storia degli sviluppi metodologici realizzati dal gruppo dal 2016 ad oggi. I partecipanti verranno coinvolti in un percorso diagnostico completo attraverso la partecipazione a una escape room. Partendo dall’approccio clinico con i patologi, passando all’estrazione di molecole e biomarcatori con i biochimici, all’analisi delle immagini con gli informatici, fino alla creazione di modelli predittivi per la diagnosi con gli statistici sarà possibile immedesimarsi nel lavoro dei ricercatori.
Il team di “Salviamo una tiroide!”, oltre a Capitoli, è composto da: Vincenzo L’imperio, Giorgio Cazzaniga e Antonio Maria Alviano, medici e ricercatori in anatomia patologica, che si occuperanno della parte clinica del progetto. A supporto, Vanna Denti e Lisa Pagani, biotecnologhe, esperte nell’analisi di campioni biologici per l’identificazione di marcatori di patologie cliniche, come ad esempio patologie renali o tiroidee. Le grandi quantità di dati provenienti dalle analisi biologiche passano poi in mano agli statistici (Giulia Capitoli, Giulia Risca, Francesco Denti e Maria Francesca Marino) che hanno l’obiettivo di studiare le relazioni tra gli aspetti biologici e i risvolti clinici sui pazienti, tramite modelli predittivi. Sarà compito loro integrare i risultati multidisciplinari in una app che supporterà i clinici durante la diagnosi dei noduli tiroidei. Vasco Coelho, informatico, si occupa dello sviluppo di reti neurali a supporto dei clinici per la detezione, segmentazione e classificazione dei campioni di tessuto tiroideo, tramite tecniche di intelligenza artificiale per la manipolazione di immagini, che verranno integrate all’interno dell’app. Infine, Sofia Martinelli, specializzata in comunicazione, si occuperà di guidare il resto del team nella promozione del progetto e nella campagna di crowdfunding.
Testo e immagini dall’Ufficio stampa Università di Milano-Bicocca.
Parole astratte e interazione sociale: quando parlare con gli altri e con l’IA cambia la nostra cognizione
Uno studio della Sapienza mette in luce i meccanismi di apprendimento e memorizzazione dei concetti astratti e il ruolo dell’interazione con gli altri. I risultati sono stati pubblicati sulla rivista “Nature Reviews Psychology”.
Circa il 70% delle parole che usiamo sono astratte cioè non fanno riferimento a oggetti, persone, luoghi concreti, ma piuttosto a concetti generali, idee, sentimenti. È dunque cruciale capire come i concetti astratti si acquisiscono e come e perché li usiamo, anche, ad esempio, per facilitare l’apprendimento dei bambini dei concetti astratti relativi alla matematica e ad altri ambiti scientifici o anche dei concetti che rimandano a emozioni.
Una ricerca della Sapienza, attraverso un approccio interdisciplinare che integra scienze cognitive, neuroscienze cognitive e sociali, linguistica e filosofia del linguaggio, indaga come vengono acquisiti e utilizzati i concetti astratti e quale sia il ruolo dell’interazione sociale in questi processi di apprendimento. I risultati dello studio, condotto insieme all’Istituto di Scienze e Tecnologie della Cognizione del CNR, sono pubblicati sulla rivista “Nature Reviews Psychology”.
Il team di ricerca, basandosi su evidenze sperimentali raccolte in laboratorio e già precedentemente pubblicate, propone diversi elementi di novità e di interesse: prima fra tutti, l’importanza di un linguaggio interno (inner speech) e della interazione con gli altri per elaborare e comprendere concetti astratti.
“Ciò che emerge dai dati ottenuti in laboratorio – spiega Anna Borghi, docente di Psicologia presso Sapienza e co-autrice dello studio – è che, per imparare e usare i concetti astratti, è essenziale sia parlare con noi stessi sia interagire con gli altri, non solo facendoci spiegare il significato di questi concetti, ma anche negoziando con loro il significato e delegando loro le nostre conoscenze”.
I ricercatori ipotizzano che i concetti astratti si siano evoluti proprio per favorire l’interazione sociale. Data la loro complessità, le persone hanno dovuto trovare un terreno comune per poterne discutere.
Oltre a ciò, il lavoro propone una differenziazione tra i concetti astratti, distinguendoli tra concetti astratti vaghi e determinati: mentre i primi, come ad esempio il termine “fantasia”, non richiedono una conoscenza e una precisione estrema, poiché ormai integrati nel nostro linguaggio, i secondi hanno un significato ben definito e tecnico, e sono solitamente utilizzati da esperti.
“Durante il Covid-19, per esempio, abbiamo sentito molte persone usare concetti come quello di “crescita esponenziale” – specifica Claudia Mazzuca, assegnista di ricerca della Sapienza e co-autrice dello studio – In realtà, pur non sapendo bene di che si trattasse, facevamo affidamento su quanto dicevano gli esperti, generando una sorta di gioco linguistico per cui non tutti devono necessariamente conoscere ogni concetto in modo approfondito per poterlo utilizzare”.
Infine lo studio analizza un fenomeno che si sta diffondendo nelle società contemporanee per effetto della crescente specializzazione: ossia il ricorso a esperti per conoscere il significato di concetti complessi come quelli astratti. Ultimamente, e sempre di più, gli esperti non sono solo altre persone, ma anche agenti artificiali come i Large Language Models. alla base dei chatbot sempre più utilizzati. Dunque l’interesse del team di ricerca si focalizza anche sul loro ruolo nella formazione dei concetti astratti.
Riferimenti:
Borghi, A.M., Mazzuca, C. & Tummolini, L. The role of social interaction in the formation and use of abstract concepts, Nat Rev Psychol (2025), DOI: https://doi.org/10.1038/s44159-025-00451-z
Parole astratte e interazione sociale: quando parlare con gli altri e con l’IA cambia la nostra cognizione; lo studio pubblicato su Nature Reviews Psychology. Immagine di Gerd Altmann
Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma
AlgoNomy: ripensare il rapporto medico-paziente ai tempi dell’IA
Il progetto, coordinato da Nicolò Amore, è stato finanziato con il Seed Funding Scheme di Circle U.
Si chiama AlgoNomy ed è un progetto che guarda al futuro della medicina attraverso l’obiettivo dell’intelligenza artificiale. Coordinato dall’Università di Pisa e nato dalla collaborazione tra diversi atenei europei riuniti nell’Alleanza Circle U., AlgoNomy mette in rete competenze, idee e strumenti per capire come le tecnologie intelligenti possano trasformare il modo in cui ci prendiamo cura della salute. Il progetto si propone di affrontare una delle sfide più urgenti della sanità del futuro: il cosiddetto paternalismo digitale, una nuova forma di paternalismo prodotto dall’implementazione dell’Intelligenza artificiale, in cui decisioni cliniche cruciali vengono sempre più influenzate dagli algoritmi, riducendo lo spazio di dialogo e co-decisione tra medico e paziente. Coordinato da Nicolò Amore, ricercatore di Diritto penale presso l’Università di Pisa, AlgoNomy riunisce un team interdisciplinare di esperti ed esperte in diritto, medicina e informatica di Università di Vienna, King’s College London, Humboldt-Universität zu Berlin, Université Paris Cité, University of Belgrade, che hanno ricevuto un finanziamento da Circle U. attraverso il Seed Funding Scheme 2024 e di cui è da poco uscita la call 2025.
“Con l’adozione crescente di dispositivi medici basati su IA, la medicina risulta sempre più guidata dai dati – spiega Nicolò Amore – Si tratta certamente di un processo da incoraggiare, vista le opportunità che apre; tuttavia, questa trasformazione comporta anche dei rischi da gestire, e in particolare quello di ridurre il ruolo attivo di pazienti e medici, mettendo in discussione la natura stessa dell’assistenza sanitaria come relazione umana e condivisa. In effetti, almeno per come attualmente concepiti, i sistemi IA che assistono le scelte terapeutiche operano spesso attraverso processi opachi, per altro basandosi esclusivamente su dati clinici quantitativi e offrendo scarse possibilità di dialogo e personalizzazione”.
Questi limiti richiedono un ripensamento profondo della progettazione e dell’integrazione dei sistemi di IA nella pratica clinica. L’approccio interdisciplinare proposto da AlgoNomy punta a restituire ai protagonisti del percorso terapeutico — pazienti e medici — un controllo reale e consapevole sui processi decisionali, preservando così l’agency umana anche in un contesto tecnologicamente avanzato.
Il team di ricerca analizzerà l’impatto dell’IA sull’autonomia dei pazienti e dei professionisti sanitari, con una particolare attenzione alle implicazioni giuridiche e alla distribuzione della responsabilità nei processi decisionali clinici:
“AlgoNomy intende indagare come molte attuali applicazioni di intelligenza artificiale in ambito sanitario tendano a escludere le preferenze individuali dei pazienti e a limitare la capacità dei medici di influenzare e comprendere appieno gli esiti terapeutici – continua Nicolò Amore – L’obiettivo è sviluppare strategie concrete per contrastare tali rischi, promuovendo un utilizzo dell’IA che sia rispettoso dei diritti fondamentali e del principio di autonomia — cardine dell’etica medica contemporanea”.
Nicolò Amore
Il progetto rappresenta un passo significativo verso un modello di sanità digitale che coniughi innovazione, responsabilità e rispetto dell’autonomia individuale.
Algonomy al Festival della Robotica 2025
Domenica 11 maggio, il progetto sarà presentato nell’ambito della Algonomy Conference in programma presso gli Arsenali Repubblicani a partire dalle ore 9.00.
Testo dall’ Ufficio comunicazione di Ateneo dell’Università di Pisa
IA e chimica alleate rivoluzionano la progettazione di nuovi farmaci per malattie rare o complesse
L’Università di Pisa partner della ricerca pubblicata sull’European Journal of Medicinal Chemistry
Creare nuovi farmaci in modo più veloce e mirato, anche per malattie rare o complesse. Un team di ricerca internazionale, delle Università di Pisa e di Bonn ha sviluppato un innovativo approccio per generare nuove molecole chimiche grazie all’intelligenza artificiale. Al centro dello studio pubblicato sull’European Journal of Medicinal Chemistry ci sono i cosiddetti “chemical language models”, modelli linguistici ispirati a quelli usati nei chatbot come ChatGPT, capaci di leggere e scrivere il linguaggio molecolare.
“L’obiettivo – racconta il professore Tiziano Tuccinardi del Dipartimento di Farmacia dell’Ateneo pisano – è quello di superare i limiti delle tecniche tradizionali nella progettazione di nuovi farmaci, generando in modo automatico molecole chimicamente corrette, strutturalmente originali e potenzialmente bioattive, a partire da frammenti”.
Ricercatori e ricercatrici hanno addestrato tre modelli di IA per “tradurre” frammenti chimici (strutture centrali, gruppi sostituenti o combinazioni di entrambi) in nuove molecole a partire da enormi dataset di molecole bioattive.
“La ricerca rappresenta un salto qualitativo nell’uso dell’IA per la chimica e la farmacologia – continua Tuccinardi – aprendo la strada a una generazione automatica e intelligente di molecole, con impatti potenziali su sanità, industria e ricerca. Non si tratta solo di accelerare i processi, ma di immaginare strutture molecolari che la mente umana difficilmente può concepire”.
“In linea con i principi di scienza aperta – conclude Tuccinardi – il codice sorgente e i dataset utilizzati nello studio sono stati resi pubblicamente disponibili, a beneficio della comunità scientifica. Ma soprattutto, il progetto segna un traguardo importante: da oggi, anche all’Università di Pisa, è possibile generare automaticamente nuove molecole bioattive, un passo concreto verso una progettazione molecolare più rapida, innovativa e accessibile”.
Ha collaborato alla ricerca Lisa Piazza, iscritta al Dottorato in Scienza del Farmaco e delle Sostanze Bioattive dell’Università di Pisa e componente del gruppo di Chimica Computazionale del professore Tuccinardi.
Intelligenza artificiale (IA) e chimica alleate rivoluzionano la progettazione di nuovi farmaci per malattie rare o complesse. Nella foto, da sinistra: Lisa Piazza e Tiziano Tuccinardi
Riferimenti bibliografici:
Lisa Piazza, Sanjana Srinivasan, Tiziano Tuccinardi, Jürgen Bajorath, Transforming molecular cores, substituents, and combinations into structurally diverse compounds using chemical language models, European Journal of Medicinal Chemistry, Volume 291, 2025, 117615, ISSN 0223-5234, DOI: https://doi.org/10.1016/j.ejmech.2025.11761
Testo e immagini dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.
I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale
La ricerca coordinata dall’Università di Pisa pubblicata su Communications Biology
Per la prima volta, un team di ricerca delle Università di Pisa ha dimostrato che anche i pesci zebra (zebrafish, Danio rerio, piccoli pesci d’acqua dolce noti per le loro capacità sociali e le somiglianze genetiche con l’uomo) sono in grado di “contagiarsi” a vicenda sbadigliando. Un comportamento che finora era stato documentato solo in mammiferi e uccelli, lasciando credere che fosse esclusivo degli animali a sangue caldo con sistemi sociali evoluti. Lo studio pubblicato su Communications Biologyapre così nuovi scenari sull’origine di questa “risonanza motoria” e suggerisce che le radici del contagio dello sbadiglio potrebbero risalire a più di 200 milioni di anni fa.
I ricercatori hanno osservato che, in risposta ai video di altri zebrafish che sbadigliano, i pesci protagonisti dell’esperimento tendevano a fare altrettanto, con una frequenza quasi doppia rispetto ai video di controllo, in cui si mostravano normali comportamenti respiratori. Un effetto del tutto paragonabile a quello osservato nell’essere umano. Non solo: i pesci coinvolti sbadigliavano spesso accompagnando il gesto a una sorta di “stiracchiamento” – la pandiculazione – un comportamento noto in uccelli e mammiferi, utile per ripristinare l’attività neuromuscolare e precedere un cambiamento motorio, come un cambio di direzione nel nuoto.
Ma perché i pesci dovrebbero sbadigliare “in gruppo”? La domanda potrebbe trovare una risposta nella loro natura sociale di questi piccoli pesci.
“La sincronizzazione tra individui è fondamentale per i banchi di pesci – spiega la professoressa Elisabetta Palagi del dipartimento di Biologia dell’Università di Pisa – coordinarsi significa aumentare la vigilanza, migliorare la ricerca del cibo e difendersi meglio dai predatori. In quest’ottica, il contagio dello sbadiglio si configura come un raffinato strumento di coesione sociale”.
“L’aspetto forse più sorprendente della scoperta riguarda però l’evoluzione di questo comportamento – aggiunge Massimiliano Andreazzoli del dipartimento di Biologia dell’Ateneo pisano – e in questo caso due sono le ipotesi possibili. Il contagio dello sbadiglio è un tratto ancestrale, emeros nei primi vertebrati sociali e mantenuto da alcune linee evolutive fino a oggi. L’altra possibile interpretazione è che si tratti di un meccanismo emerso in modo indipendente in diverse specie, a testimonianza del ruolo cruciale che la coordinazione sociale ha avuto – e ha tuttora – nella sopravvivenza”.
Insieme ad Elisabetta Palagi e Massimiliano Andreazzoli ha lavorato un team di giovani ricercatori e studenti, come Alice Galotti e Matteo Digregorio, dottorandi in Biologia, e Sara Ambrosini, studentessa magistrale. La parte legata all’IA è stata invece sviluppata dal professore Donato Romano, esperto di robotica bioispirata, e Gianluca Manduca, dottorando presso la Scuola Superiore Sant’Anna. Grazie a un sofisticato modello di deep learning da loro sviluppato all’Istituto di BioRobotica è stato possibile distinguere con precisione i veri sbadigli dai semplici atti respiratori, rendendo oggettiva l’osservazione e replicabili i risultati.
La ricerca è stata finanziata dal National Geographic Meridian Project OCEAN-ROBOCTO e dal Dipartimento di Biologia dell’Università di Pisa nell’ambito del programma Dipartimenti di Eccellenza.
Riferimenti bibliografici:
Galotti, A., Manduca, G., Digregorio, M. et al. Diving back two hundred million years: yawn contagion in fish, Commun Biol8, 580 (2025), DOI: https://doi.org/10.1038/s42003-025-08004-z
I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale. Femmina di pesce zebra (Brachydanio rerio). Foto di Marrabbio2, in pubblico dominio
Testo dall’Ufficio comunicazione di Ateneo dell’Università di Pisa
Distinguere i buchi neri: sarà più facile grazie a un nuovo metodo basato sull’intelligenza artificiale sviluppato dall’Università di Milano-Bicocca
Pubblicato sulla rivista Physical Review Letters, lo studio rivoluziona i metodi tradizionali dell’astronomia delle onde gravitazionali.
Milano, 31 marzo 2025 – Un innovativo metodo basato sull’intelligenza artificiale che migliora la precisione nella classificazione di buchi neri e stelle di neutroni. È quello sviluppato da un team di ricercatori dell’Università di Milano-Bicocca, guidato dal professor Davide Gerosa e supportato dallo European Research Council. Lo studio, pubblicato sulla rivistaPhysical Review Letters, mette in discussione un’ipotesi ritenuta valida per decenni e apre la strada a un’analisi più accurata dei segnali cosmici.
L’astronomia delle onde gravitazionali permette di osservare coppie di oggetti compatti quali stelle di neutroni e buchi neri: le onde gravitazionali sono infatti prodotte dallo spiraleggiamento e dalla fusione di questi sistemi binari. Le analisi tradizionali assumono a priori come distinguere i due oggetti in ciascuna binaria.
«Fino a oggi, il metodo più diffuso per l’identificazione degli oggetti prevedeva di etichettare il più massiccio come “1” e il meno massiccio come “2”. Tuttavia, questa scelta, apparentemente intuitiva, introduce ambiguità nelle misure, specialmente nei sistemi binari con masse simili. Ci siamo chiesti: è davvero la scelta migliore?», spiega Gerosa.
Il nuovo studio propone di superare questa limitazione utilizzando una tecnica di intelligenza artificiale chiamata spectral clustering che analizza l’insieme completo dei dati senza applicare etichette rigide a priori. Questo nuovo metodo consente di ridurre le incertezze nelle misure degli spin dei buchi neri, ovvero nella determinazione della velocità e della direzione di rotazione di questi oggetti. Una corretta misurazione dello spin è fondamentale per comprendere la formazione e l’evoluzione dei buchi neri. Il nuovo approccio migliora notevolmente la precisione di queste misure e rende più affidabile la distinzione tra buchi neri e stelle di neutroni.
«Questa pubblicazione mette in discussione un presupposto di lunga data che è alla base di tutte le analisi delle onde gravitazionali fino a oggi, e che è rimasto indiscusso per decenni», continua l’astrofisico. «I risultati sono sorprendenti: le misurazioni dello spin sono più precise e distinguere i buchi neri dalle stelle di neutroni diventa più affidabile».
Davide Gerosa, Università di Milano-Bicocca, alla guida del team di ricercatori che ha prodotto lo studio su Physical Review Letters, che impiega l’intelligenza artificiale per un nuovo metodo al fine di distinguere i buchi neri
Lo studio condotto ha immediate ricadute per l’analisi dei dati raccolti con gli attuali rivelatori di onde gravitazionali LIGO e Virgo, nonché con quelli di futura costruzione quali LISA e l’Einstein Telescope. Questa ricerca apre la strada a una revisione delle tecniche di analisi delle onde gravitazionali e sottolinea, inoltre, il ruolo crescente dell’intelligenza artificiale nella ricerca astrofisica.
Testo e immagini dall’Ufficio stampa Università di Milano-Bicocca.
AI e Formazione: Un Nuovo Paradigma Didattico – recensione di “AI Experience con 101Ò” (Fòrema, 2024)
Articolo a cura di Federica Illuzzi e Gianluca Viola
L’intelligenza artificiale sta ridefinendo profondamente il mondo dell’istruzione e della formazione, introducendo strumenti innovativi che migliorano l’apprendimento e ne amplificano l’efficacia. In questo scenario, AI Experience con 101Ò, realizzato dall’AI Development Team di Fòrema, si distingue come un contributo prezioso. Il libro si propone come una guida pratica all’integrazione dell’AI nei processi formativi, con un approccio che mette al centro l’esperienza, trasformando l’AI da semplice strumento tecnologico a una vera e propria metodologia didattica in grado di rivoluzionare l’insegnamento e l’apprendimento.
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi
Uno degli elementi più interessanti dell’opera è il legame tra l’Intelligenza Artificiale e il ciclo di apprendimento esperienziale di Kolb. Gli LLM vengono presentati come dispositivi in grado di arricchire ogni fase del percorso formativo: dalla progettazione dei corsi all’analisi dei bisogni, dalla conduzione delle attività formative fino alla valutazione dei risultati.
Grazie a tecnologie come l’Adaptive Learning, i chatbot e le simulazioni immersive, i formatori hanno la possibilità di personalizzare l’insegnamento in base alle esigenze specifiche degli studenti, offrendo esperienze didattiche più dinamiche e su misura.
Il fattore adattativo dell’approccio utilizzato, supportato dalle tecnologie, permette infatti di ritagliare una formazione su misura per ciascuna risorsa umana, nell’ottica di una formazione life-long e sempre pertinente al contesto.
I fabbisogni formativi possono essere identificati e selezionati avvalendosi delle tecnologie, sulla base di attitudini e necessità del singolo discente. Le modalità di somministrazione, i tempi e i contenuti possono essere progettati ad hoc per ognuno e possono essere variati, per via della versatilità delle soluzioni, in qualsiasi momento e adattati a nuovi scopi. Un sistema di apprendimento in continuo divenire che può inseguire le necessità del singolo. Pertanto, si propone come un’alternativa ad alta efficacia rispetto alla formazione aziendale erogata in modalità “standard”.
Il libro si suddivide in due macroaree. La prima approfondisce il ruolo dell’AI come strumento didattico, mentre la seconda si concentra sulle sue applicazioni pratiche. Un concetto chiave è quello della formazione adattiva, che sfrutta lo strumento per personalizzare i percorsi di apprendimento in tempo reale. Grazie alle piattaforme di Learning Analytics, è possibile raccogliere dati sul comportamento degli studenti e adattare i contenuti in base ai loro progressi e alle loro difficoltà. Questo approccio promuove un modello di apprendimento continuo, in cui ogni studente riceve il supporto più adatto alle necessità.
Un altro aspetto innovativo affrontato riguarda l’utilizzo dell’AI nella progettazione didattica. Gli autori spiegano come l’intelligenza artificiale possa supportare sia la macro che la micro-progettazione dei corsi, suggerendo contenuti personalizzati e adattando le attività formative ai diversi stili di apprendimento.
L’analisi predittiva consente di individuare con maggiore precisione le competenze che saranno richieste nel futuro, aiutando i formatori a costruire percorsi didattici mirati e aggiornati rispetto ai cambiamenti del mercato del lavoro.
Durante l’erogazione della formazione, l’AI assume un ruolo chiave nel fornire feedback immediati e personalizzati. Strumenti come i tutor virtuali e le piattaforme di simulazione permettono agli studenti di sperimentare situazioni realistiche in ambiente controllato, ricevendo suggerimenti e correzioni in tempo reale. L’utilizzo della gamification e della Realtà virtuale rende l’apprendimento più coinvolgente, mentre i chatbot possono rispondere alle domande e chiarire dubbi in modo più rapido ed efficace.
Anche la fase di valutazione dell’apprendimento beneficia degli LLM, grazie a strumenti avanzati di analisi dei dati. Il testo spiega come i modelli possano misurare i progressi degli studenti attraverso sistemi di valutazione adattiva, che modulano la difficoltà dei test in base alle risposte fornite. Le dashboard analitiche consentono ai formatori di monitorare in modalità sincrona l’andamento del percorso d’apprendimento e di apportare eventuali modifiche per ottimizzarne l’efficacia.
Oltre agli aspetti metodologici e pratici, il volume affronta anche le sfide e le implicazioni pedagogiche legate all’uso di tali dispositivi nella formazione continua.
Tra le criticità emergenti, spiccano la necessità di evitare un’eccessiva standardizzazione dei percorsi di apprendimento, il rischio di bias nei dati utilizzati per addestrare gli algoritmi e l’importanza di un uso etico e responsabile dell’Intelligenza Artificiale. Si sottolinea, infatti, come la “blackbox” debba essere considerata di supporto all’intelligenza umana, e non un suo sostituto. L’interazione critica e ponderata fra uomo e macchina rimane fondamentale per preservare gli aspetti relazionali e motivazionali del processo di insegnamento-apprendimento, elementi fondanti per il successo di qualsiasi processo educativo.
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi
AI Experience con 101Ò può essere, pertanto, una risorsa di grande valore per chi lavora nel settore della formazione e vuole approfondire le potenzialità delle nuove tecnologie in ambito didattico. Il libro offre una panoramica completa e aggiornata sugli strumenti e le metodologie emergenti, delineando un modello formativo in cui l’AI non è solo un mezzo di supporto, ma un motore di innovazione pedagogica. Grazie a un approccio pratico e sperimentale, il volume si rivela essenziale per ripensare l’apprendimento nell’era digitale dell’informazione, promuovendo un’educazione continua più efficace, inclusiva e personalizzata.
Il contesto in cui si sviluppano i prodotti presentati nell’opera è altamente mutevole, pertanto le modalità scelte per la progettazione sono volutamente versatili e agili. In ogni momento della progettazione possono cambiare completamente gli scenari, sia in termini di fabbisogni che di budget. Per far fronte alla complessità del contesto, la metodologia scelta si basa su storie agili e sprint.
Una storia agile è costituita da una struttura semplice e narrativa che, partendo dal ruolo ricoperto, spiega gli strumenti che si vogliono utilizzare e il perché, ovvero gli obiettivi da raggiungere.
Lo sprint è un ciclo di sviluppo, basato su un set di storie agili, nel quale pressoché tutti i parametri possono mutare, tranne il tempo. In questa trattazione uno sprint dura un mese. Al termine di ogni sprint, dopo opportuni test di validazione delle funzionalità, se il ciclo è completato la procedura può essere archiviata per essere utilizzata in futuro.
Negli ultimi capitoli il test fornisce una serie di applicazioni (alcune già progettate e altre ancora da progettare) per molte figure in ambito HR, da progettisti della formazione, ai coach, da trainer di hard e soft skills ad HR Manager.
Tra le applicazioni in fase di test in ambito HR Management sono annoverate alcune soluzioni di supporto alla selezione del personale. Tra tutte, queste sono le più delicate, in quanto le analisi del curriculum vitae potrebbero essere affette da bias, che potrebbero penalizzare per criteri legati al genere o ad altri attributi non prettamente legati alla sfera lavorativa. Questa è la sfida principale dei prossimi sprint.
L’intelligenza artificiale sta modificando e modificherà il mondo dell’istruzione e della formazione. Se la sfida è ormai lanciata, questo manuale operativo fornisce le basi per coglierla con la giusta criticità e senza paura.
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema
Il libro recensito è stato cortesemente fornito dalla casa editrice.