News
Ad
Ad
Ad
Tag

Intelligenza Artificiale

Browsing

QUANDO L’IA IMPARA PIÙ CHE SEMPLICI PAROLE: L’intelligenza artificiale sta iniziando a riconoscere anche le nostre risposte emotive

Le descrizioni testuali delle immagini utilizzate per addestrare i moderni modelli di IA generativa contengono non solo informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che fornisce la descrizione: i risultati della ricerca pubblicata dal team padovano sulla rivista «Royal Society Open Science»

Zaira Romeo, Istituto di Neuroscienze del CNR, e Alberto Testolin, Dipartimento di Psicologia Generale e Dipartimento di Matematica dell’Università di Padova, hanno pubblicato sulla rivista «Royal Society Open Science» l’articolo dal titolo “Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes”. In questo studio hanno testato vari modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane di fronte ad una varietà di scene visive. Le valutazioni fornite dall’IA hanno mostrato una sorprendente corrispondenza con quelle umane, nonostante questi sistemi non fossero stati addestrati specificamente per fornire giudizi emozionali sulle immagini. Questo studio non solo dimostra che il linguaggio può supportare lo sviluppo di concetti emotivi nei moderni sistemi di IA, ma solleva anche importanti interrogativi su come si potranno impiegare queste tecnologie in contesti sensibili, come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale.

un'immagine generata dall'intelligenza artificiale

La ricerca

«Abbiamo analizzato le risposte di alcuni moderni sistemi di IA generativa (GPT, Gemini e Claude) a specifiche domande sul contenuto emotivo di un insieme di scene visive. I sistemi presi in esame sono tutti basati su modelli cosiddetti di deep learning, ovvero reti neurali su larga scala costituite da miliardi di neuroni collegati tra di loro che vengono “addestrate” su enormi quantità di testo e immagini. Lo scopo dell’addestramento è imparare ad associare ad una certa immagine una corrispondente descrizione testuale plausibile (per esempio, “Un gatto nero che rincorre un topo in un solaio”) in base a milioni di esempi reperiti online o forniti da esperti umani. Abbiamo posto all’IA lo stesso tipo di domande che si fanno ai soggetti umani durante gli esperimenti sulla percezione e sulla valutazione delle emozioni, utilizzando un insieme di stimoli visivi standardizzati, composto da immagini con diversi tipi di contenuto emotivo», dicono Zaira Romeo e Alberto Testolin. «Le immagini potevano rappresentare animali, persone, paesaggi ed oggetti, in accezione positiva (come un volto sorridente, due persone che si abbracciano o un campo di fiori), negativa (come una situazione di pericolo, un animale ferito, un ambiente sporco), oppure neutra (ad esempio un oggetto di uso quotidiano o un paesaggio urbano). È fondamentale notare che in questo studio – continuano gli autori – abbiamo utilizzato un insieme di immagini appartenenti ad un database di ricerca privato, fornitoci dai colleghi del Nencki Institute for Experimental Biology dell’Università di Varsavia, assicurandoci quindi che nessuna IA avesse mai analizzato questo tipo di stimoli visivi durante la fase di addestramento».

Si sono dapprima indagate tre dimensioni affettive fondamentali che vengono normalmente utilizzate per caratterizzare le risposte emotive umane: piacevolezza, tendenza all’allontanamento/avvicinamento e attivazione (detta anche “coinvolgimento”). Si è sottoposta l’IA a quesiti particolari quali “Come giudichi questa immagine? Come reagisci a questa immagine? Come ti senti dopo aver visto questa immagine?” classificando le risposte rispettivamente con scale numeriche: da 1 “molto negativa” a 9 “molto positiva”; da 1 “la eviterei” a 9 “mi avvicinerei”; infine da 1 “rilassato” a 9 “attivato”. Si sono poi indagate anche le reazioni a sei emozioni di base: felicità, rabbia, paura, tristezza, disgusto e sorpresa, chiedendo all’IA di fornire un punteggio in risposta a richieste del tipo: “Giudica l’intensità dell’emozione di felicità evocata da questa immagine”.

I risultati

Le valutazioni date dall’IA hanno mostrato una sorprendente corrispondenza con quelle fornite da valutatori umani, nonostante questi sistemi non fossero stati addestrati specificamente per fornire questo tipo di giudizi emozionali su scene visive, sia rispetto alle tre dimensioni affettive fondamentali sia rispetto alle sei emozioni di base. GPT ha fornito le risposte più allineate, mostrando però una chiara tendenza a sovrastimare i giudizi umani, soprattutto per stimoli associati ad una forte carica emotiva. È anche interessante notare che spesso l’IA dichiarava esplicitamente di provare ad indovinare la risposta ipotizzando il tipo di giudizio che avrebbe dato un essere umano “medio”.

«Per esempio, in risposta ad un’immagine che rappresentava alcuni cammelli in un deserto con delle palme sullo sfondo l’IA ha risposto: Come modello di IA, non ho reazioni personali o emotive. Tuttavia, posso fornire una risposta oggettiva basata sulla reazione tipica che avrebbe un umano a questa scena. L’immagine raffigura una tranquilla scena di cammelli in un deserto, che molte persone troverebbero interessante come possibile esperienza di viaggio esotico, portando quindi ad una tendenza ad approcciare piuttosto che evitare», spiegano Zaira Romeo e Alberto Testolin. «In altri casi al contrario, invece di immedesimarsi in un giudizio medio, l’IA ha simulato la reazione di un particolare gruppo di persone, per esempio attribuendo un punteggio negativo ad un’immagine di un piatto di carne dichiarandosi vegetariana».

Sempre più ricerche scientifiche cercano di caratterizzare le risposte date dai moderni sistemi di IA, sia per capire quanto simili siano alle risposte che darebbe un essere umano sia per verificare che le reazioni dell’IA in determinati contesti siano appropriate, per evitare potenziali ripercussioni negative sugli utenti che la utilizzano. Questo studio è stato il primo a confrontare esplicitamente le risposte date dall’IA con i giudizi emotivi dati da soggetti umani, offrendo una nuova prospettiva sulle competenze emotive di questi sistemi.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni – sottolineano gli autori della ricerca -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale – concludono Zaira Romeo e Alberto Testolin -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

in foto, Zaira Romeo e Alberto Testolin
L’intelligenza artificiale sta iniziando a riconoscere anche le nostre risposte emotive; lo studio su Royal Society Open Science. In foto, gli autori dello studio, Zaira Romeo e Alberto Testolin

Riferimenti bibliografici:

Zaira Romeo, Alberto Testolin, Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes – «Royal Society Open Science» 2025, link: https://royalsocietypublishing.org/doi/10.1098/rsos.250128

Testo e foto dall’Ufficio Stampa dell’Università di Padova

METCL (METAPHOR ELABORATION IN TYPICALITY-BASED COMPOSITIONAL LOGIC), INTELLIGENZA ARTIFICIALE E CREATIVITÀ: UN SISTEMA PER LA GENERAZIONE E IL RICONOSCIMENTO DELLE METAFORE

Tre ricercatori italiani sviluppano una tecnologia innovativa capace di creare e identificare metafore, ispirata ai meccanismi della cognizione umana

La capacità di creare e interpretare metafore, una delle competenze cognitive più sofisticate dell’essere umano, potrebbe presto diventare patrimonio anche dei sistemi di intelligenza artificiale. Un passo in questa direzione è rappresentato dal lavoro di tre ricercatori italiani, recentemente selezionato per la conferenza mondiale sull’intelligenza artificiale IJCAI (International Joint Conference on Artificial Intelligence), che si terrà il prossimo agosto a Montréal, in Canada.

Il paper, dal titolo “The Delta of Thought: Channeling Rivers of Commonsense Knowledge in the Sea of Metaphorical Interpretations”, è firmato da Antonio Lieto (Università di Salerno), Gian Luca Pozzato (Università di Torino) e Stefano Zoia (Università di Torino) e introduce un nuovo sistema chiamato METCL (Metaphor Elaboration in Typicality-based Compositional Logic), in grado di generare e classificare metafore sfruttando un motore logico ispirato ai meccanismi della cognizione umana.

“Combinazione e composizione sono aspetti centrali del nostro modo di esprimerci – spiega Stefano Zoia, dottorando del Dipartimento di Informatica dell’Università di Torino – e ciò è particolarmente evidente nel caso delle metafore. Per esempio, dire che qualcuno ha un cuore di pietra vuol dire associare metaforicamente il cuore alla pietra per evocare freddezza e insensibilità. METCL combina la conoscenza tipica legata ai concetti coinvolti per generare un concetto ibrido che cattura il significato della frase”.

Alla base del sistema c’è una logica composizionale basata sulla tipicalità, in grado di fondere concetti e creare nuove strutture di senso. 

“Il cuore del nostro lavoro – racconta Antonio Lieto, direttore del CIIT Lab dell’Università di Salerno – è un motore di ragionamento in grado di operare in maniera simile ai processi cognitivi umani. Questo approccio è cruciale per replicare funzioni cognitive complesse, come la comprensione e la produzione di metafore, che richiedono una vera capacità di astrazione e generalizzazione”.

Un aspetto chiave del sistema METCL è la sua spiegabilità, ovvero la capacità di fornire motivazioni per le sue decisioni in modo comprensibile agli umani: il suo funzionamento è trasparente e fondato su solide basi formali, a differenza di molti modelli sub-simbolici oggi dominanti nel panorama dell’IA.

“In un’epoca in cui si tende a pensare, erroneamente, che i grandi modelli linguistici possano fare tutto, METCL dimostra quanto sia ancora fondamentale il contributo delle logiche per la rappresentazione della conoscenza – aggiunge Gian Luca Pozzato, Professore Ordinario del Dipartimento di Informatica e presidente dei corsi di studio SUISS dell’Università di Torino. – La nostra logica descrittiva basata sulla tipicalità permette al sistema di essere interpretabile e riutilizzabile in contesti anche molto diversi tra loro”.

Le innovazioni introdotte da METCL sono molteplici. Non solo migliora le prestazioni dei sistemi attualmente disponibili nella generazione e nell’identificazione di metafore, ma lo fa in maniera complementare rispetto ai grandi modelli linguistici neurali – come GPT-4o, Qwen 2.5 Max o DeepSeek R1 – e ai precedenti approcci simbolici basati su risorse come MetaNet (UC Berkeley). Inoltre, il lavoro offre un contributo teorico rilevante: mostra come la generazione di metafore possa essere considerata un processo cognitivo di categorizzazione creativa, in linea con alcune delle teorie più influenti nelle scienze cognitive.

L’impatto potenziale di METCL va ben oltre l’ambito accademico. Le metafore non sono solo abbellimenti stilistici, ma strumenti potenti per semplificare concetti complessi. Per questo, un sistema capace di generarle o identificarle automaticamente può rivelarsi prezioso per: insegnanti, che vogliono spiegare in modo più chiaro concetti astratti o difficili; scrittori, sceneggiatori e giornalisti, che cercano ispirazione creativa; professionisti della comunicazione e del marketing, interessati a formulare messaggi più evocativi.

In definitiva, METCL dimostra come approcci alternativi e integrati possano affiancare, e potenziare, i modelli neurali nell’ambito dell’IA generativa. Un passo in avanti importante per realizzare sistemi intelligenti più simili all’essere umano, non solo in termini di prestazioni, ma anche nella capacità di “pensare in modo creativo”.

Simulare l’attività cerebrale con l’intelligenza artificiale
Immagine di Gerd Altmann

 

Testo dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

Salute, grazie a nuovi approcci multidisciplinari sarà possibile ridurre gli interventi chirurgici alla tiroide: al via, nell’ambito del programma di crowdfunding dell’Università di Milano-Bicocca – BiUniCrowd, il progetto “Salviamo una tiroide!” 

 Al via il progetto “Salviamo una tiroide!” che punta su una diagnosi più accurata dei noduli tiroidei attraverso la ricerca di nuovi biomarcatori biologici e l’utilizzo di metodi di AI, per ridurre il numero degli interventi chirurgici alla tiroide.

Milano, 19 maggio 2025 – Migliorare la diagnosi dei noduli tiroidei classificati come “indeterminati per malignità” e ridurre il numero di tiroidectomie inutili, spesso eseguite su pazienti giovani, prevalentemente donne tra i 20 e 40 anni. Ecco il duplice obiettivo di “Salviamo una Tiroide!”, progetto nato nell’ambito del programma di crowdfunding dell’Università di Milano-Bicocca – BiUniCrowd e che ha già ottenuto il supporto di Fondazione Cariplo e Thales Alenia Space.

Le patologie alla tiroide sono molto diffuse e in aumento, si stima che circa metà della popolazione sviluppi almeno un nodulo tiroideo nel corso della vita. Distinguere tra nodulo benigno o maligno, e quindi curare di conseguenza, rimane una sfida. Nel 15-30 per cento  dei noduli, si notano delle alterazioni cosiddette “indeterminate”, che portano a interventi chirurgici spesso evitabili. Grazie a nuovi biomarcatori biologici e all’intelligenza artificiale, il team di ricerca di Milano-Bicocca e non solo punta a ridurre queste incertezze diagnostiche, migliorando la qualità di vita dei pazienti e ottimizzando le risorse sanitarie.

In particolare, è grazie all’uso dell’intelligenza artificiale, che sarà possibile riconoscere automaticamente le diverse entità cellulari all’interno di una biopsia e così aiutare il medico patologo nella valutazione dei prelievi citologici dal nodulo tiroideo, al fine di ridurre la quota di casi “indeterminati”.

Per rendere possibile tutto questo, il progetto cerca sostegno grazie alla raccolta fondi che si avvale dell’aiuto di Ideaginger.it, la piattaforma con il tasso più alto di successo in Italia. Il primo obiettivo è raggiungere 6.000€, necessari per rafforzare le nostre infrastrutture computazionali, sviluppare un’app a supporto dei clinici e creare eventi di divulgazione scientifica.

Il team di “Salviamo una tiroide!” è costituito da anatomopatologi, biotecnologi, statistici e informatici e coordinato da Giulia Capitoli, ricercatrice di statistica medica.

«Il nostro obiettivo è migliorare la qualità della vita dei pazienti, evitando tiroidectomie inutili e riducendo ansia e costi legati a diagnosi incerte», dice Giulia Capitoli, referente del team di ricerca. «Allo stesso tempo vogliamo rendere la ricerca più accessibile, coinvolgendo il pubblico in modo attivo.»

Un tema fondamentale del team è proprio la divulgazione: grazie ad una giornata specifica, organizzata nell’autunno del 2025, si potrà scoprire, attraverso incontri ed attività specifiche, la storia degli sviluppi metodologici realizzati dal gruppo dal 2016 ad oggi. I partecipanti verranno coinvolti in un percorso diagnostico completo attraverso la partecipazione a una escape room. Partendo dall’approccio clinico con i patologi, passando all’estrazione di molecole e biomarcatori con i biochimici, all’analisi delle immagini con gli informatici, fino alla creazione di modelli predittivi per la diagnosi con gli statistici sarà possibile immedesimarsi nel lavoro dei ricercatori.

Il team di “Salviamo una tiroide!”, oltre a Capitoli, è composto da: Vincenzo L’imperio, Giorgio Cazzaniga e Antonio Maria Alviano, medici e ricercatori in anatomia patologica, che si occuperanno della parte clinica del progetto. A supporto, Vanna Denti e Lisa Pagani, biotecnologhe, esperte nell’analisi di campioni biologici per l’identificazione di marcatori di patologie cliniche, come ad esempio patologie renali o tiroidee. Le grandi quantità di dati provenienti dalle analisi biologiche passano poi in mano agli statistici (Giulia Capitoli, Giulia Risca, Francesco Denti e Maria Francesca Marino) che hanno l’obiettivo di studiare le relazioni tra gli aspetti biologici e i risvolti clinici sui pazienti, tramite modelli predittivi. Sarà compito loro integrare i risultati multidisciplinari in una app che supporterà i clinici durante la diagnosi dei noduli tiroidei. Vasco Coelho, informatico, si occupa dello sviluppo di reti neurali a supporto dei clinici per la detezione, segmentazione e classificazione dei campioni di tessuto tiroideo, tramite tecniche di intelligenza artificiale per la manipolazione di immagini, che verranno integrate all’interno dell’app. Infine, Sofia Martinelli, specializzata in comunicazione, si occuperà di guidare il resto del team nella promozione del progetto e nella campagna di crowdfunding.

Testo e immagini dall’Ufficio stampa Università di Milano-Bicocca.

Parole astratte e interazione sociale: quando parlare con gli altri e con l’IA cambia la nostra cognizione

Uno studio della Sapienza mette in luce i meccanismi di apprendimento e memorizzazione dei concetti astratti e il ruolo dell’interazione con gli altri. I risultati sono stati pubblicati sulla rivista “Nature Reviews Psychology”.

Circa il 70% delle parole che usiamo sono astratte cioè non fanno riferimento a oggetti, persone, luoghi concreti, ma piuttosto a concetti generali, idee, sentimenti. È dunque cruciale capire come i concetti astratti si acquisiscono e come e perché li usiamo, anche, ad esempio, per facilitare l’apprendimento dei bambini dei concetti astratti relativi alla matematica e ad altri ambiti scientifici o anche dei concetti che rimandano a emozioni.

 

Una ricerca della Sapienza, attraverso un approccio interdisciplinare che integra scienze cognitive, neuroscienze cognitive e sociali, linguistica e filosofia del linguaggio, indaga come vengono acquisiti e utilizzati i concetti astratti e quale sia il ruolo dell’interazione sociale in questi processi di apprendimento.  I risultati dello studio, condotto insieme all’Istituto di Scienze e Tecnologie della Cognizione del CNR, sono pubblicati sulla rivista “Nature Reviews Psychology”.

Il team di ricerca, basandosi su evidenze sperimentali raccolte in laboratorio e già precedentemente pubblicate, propone diversi elementi di novità e di interesse: prima fra tutti, l’importanza di un linguaggio interno (inner speech) e della interazione con gli altri per elaborare e comprendere concetti astratti.

“Ciò che emerge dai dati ottenuti in laboratorio – spiega Anna Borghi, docente di Psicologia presso Sapienza e co-autrice dello studio – è che, per imparare e usare i concetti astratti, è essenziale sia parlare con noi stessi sia interagire con gli altri, non solo facendoci spiegare il significato di questi concetti, ma anche negoziando con loro il significato e delegando loro le nostre conoscenze”.

I ricercatori ipotizzano che i concetti astratti si siano evoluti proprio per favorire l’interazione sociale. Data la loro complessità, le persone hanno dovuto trovare un terreno comune per poterne discutere.

Oltre a ciò, il lavoro propone una differenziazione tra i concetti astratti, distinguendoli tra concetti astratti vaghi e determinati: mentre i primi, come ad esempio il termine “fantasia”, non richiedono una conoscenza e una precisione estrema, poiché ormai integrati nel nostro linguaggio, i secondi hanno un significato ben definito e tecnico, e sono solitamente utilizzati da esperti.

“Durante il Covid-19, per esempio, abbiamo sentito molte persone usare concetti come quello di “crescita esponenziale” – specifica Claudia Mazzuca, assegnista di ricerca della Sapienza e co-autrice dello studio – In realtà, pur non sapendo bene di che si trattasse, facevamo affidamento su quanto dicevano gli esperti, generando una sorta di gioco linguistico per cui non tutti devono necessariamente conoscere ogni concetto in modo approfondito per poterlo utilizzare”.

Infine lo studio analizza un fenomeno che si sta diffondendo nelle società contemporanee per effetto della crescente specializzazione: ossia il ricorso a esperti per conoscere il significato di concetti complessi come quelli astratti. Ultimamente, e sempre di più, gli esperti non sono solo altre persone, ma anche agenti artificiali come i Large Language Models. alla base dei chatbot sempre più utilizzati. Dunque l’interesse del team di ricerca si focalizza anche sul loro ruolo nella formazione dei concetti astratti.

Riferimenti:

Borghi, A.M., Mazzuca, C. & Tummolini, L. The role of social interaction in the formation and use of abstract concepts, Nat Rev Psychol (2025), DOI: https://doi.org/10.1038/s44159-025-00451-z

cervello
Parole astratte e interazione sociale: quando parlare con gli altri e con l’IA cambia la nostra cognizione; lo studio pubblicato su Nature Reviews Psychology. Immagine di Gerd Altmann 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

AlgoNomy: ripensare il rapporto medico-paziente ai tempi dell’IA

Il progetto, coordinato da Nicolò Amore, è stato finanziato con il Seed Funding Scheme di Circle U.

logo AlgoNomy

Si chiama AlgoNomy ed è un progetto che guarda al futuro della medicina attraverso l’obiettivo dell’intelligenza artificiale. Coordinato dall’Università di Pisa e nato dalla collaborazione tra diversi atenei europei riuniti nell’Alleanza Circle U., AlgoNomy mette in rete competenze, idee e strumenti per capire come le tecnologie intelligenti possano trasformare il modo in cui ci prendiamo cura della salute. Il progetto si propone di affrontare una delle sfide più urgenti della sanità del futuro: il cosiddetto paternalismo digitale, una nuova forma di paternalismo prodotto dall’implementazione dell’Intelligenza artificiale, in cui decisioni cliniche cruciali vengono sempre più influenzate dagli algoritmi, riducendo lo spazio di dialogo e co-decisione tra medico e paziente. Coordinato da Nicolò Amore, ricercatore di Diritto penale presso l’Università di Pisa, AlgoNomy riunisce un team interdisciplinare di esperti ed esperte in diritto, medicina e informatica di Università di Vienna, King’s College London, Humboldt-Universität zu Berlin, Université Paris Cité, University of Belgrade, che hanno ricevuto un finanziamento da Circle U. attraverso il Seed Funding Scheme 2024 e di cui è da poco uscita la call 2025.

“Con l’adozione crescente di dispositivi medici basati su IA, la medicina risulta sempre più guidata dai dati – spiega Nicolò Amore – Si tratta certamente di un processo da incoraggiare, vista le opportunità che apre; tuttavia, questa trasformazione comporta anche dei rischi da gestire, e in particolare quello di ridurre il ruolo attivo di pazienti e medici, mettendo in discussione la natura stessa dell’assistenza sanitaria come relazione umana e condivisa. In effetti, almeno per come attualmente concepiti, i sistemi IA che assistono le scelte terapeutiche operano spesso attraverso processi opachi, per altro basandosi esclusivamente su dati clinici quantitativi e offrendo scarse possibilità di dialogo e personalizzazione”.

Questi limiti richiedono un ripensamento profondo della progettazione e dell’integrazione dei sistemi di IA nella pratica clinica. L’approccio interdisciplinare proposto da AlgoNomy punta a restituire ai protagonisti del percorso terapeutico — pazienti e medici — un controllo reale e consapevole sui processi decisionali, preservando così l’agency umana anche in un contesto tecnologicamente avanzato.

Il team di ricerca analizzerà l’impatto dell’IA sull’autonomia dei pazienti e dei professionisti sanitari, con una particolare attenzione alle implicazioni giuridiche e alla distribuzione della responsabilità nei processi decisionali clinici:

“AlgoNomy intende indagare come molte attuali applicazioni di intelligenza artificiale in ambito sanitario tendano a escludere le preferenze individuali dei pazienti e a limitare la capacità dei medici di influenzare e comprendere appieno gli esiti terapeutici – continua Nicolò Amore – L’obiettivo è sviluppare strategie concrete per contrastare tali rischi, promuovendo un utilizzo dell’IA che sia rispettoso dei diritti fondamentali e del principio di autonomia — cardine dell’etica medica contemporanea”.

Nicolò Amore
Nicolò Amore

Il progetto rappresenta un passo significativo verso un modello di sanità digitale che coniughi innovazione, responsabilità e rispetto dell’autonomia individuale.

Algonomy al Festival della Robotica 2025

Domenica 11 maggio, il progetto sarà presentato nell’ambito della Algonomy Conference in programma presso gli Arsenali Repubblicani a partire dalle ore 9.00.

 

Testo dall’ Ufficio comunicazione di Ateneo dell’Università di Pisa

IA e chimica alleate rivoluzionano la progettazione di nuovi farmaci per malattie rare o complesse

L’Università di Pisa partner della ricerca pubblicata sull’European Journal of Medicinal Chemistry

 

Creare nuovi farmaci in modo più veloce e mirato, anche per malattie rare o complesse. Un team di ricerca internazionale, delle Università di Pisa e di Bonn ha sviluppato un innovativo approccio per generare nuove molecole chimiche grazie all’intelligenza artificiale. Al centro dello studio pubblicato sull’European Journal of Medicinal Chemistry ci sono i cosiddetti “chemical language models”, modelli linguistici ispirati a quelli usati nei chatbot come ChatGPT, capaci di leggere e scrivere il linguaggio molecolare.

“L’obiettivo – racconta il professore Tiziano Tuccinardi del Dipartimento di Farmacia dell’Ateneo pisano – è quello di superare i limiti delle tecniche tradizionali nella progettazione di nuovi farmaci, generando in modo automatico molecole chimicamente corrette, strutturalmente originali e potenzialmente bioattive, a partire da frammenti”.

Ricercatori e ricercatrici hanno addestrato tre modelli di IA per “tradurre” frammenti chimici (strutture centrali, gruppi sostituenti o combinazioni di entrambi) in nuove molecole a partire da enormi dataset di molecole bioattive.

“La ricerca rappresenta un salto qualitativo nell’uso dell’IA per la chimica e la farmacologia – continua Tuccinardi – aprendo la strada a una generazione automatica e intelligente di molecole, con impatti potenziali su sanità, industria e ricerca. Non si tratta solo di accelerare i processi, ma di immaginare strutture molecolari che la mente umana difficilmente può concepire”.

“In linea con i principi di scienza aperta – conclude Tuccinardi – il codice sorgente e i dataset utilizzati nello studio sono stati resi pubblicamente disponibili, a beneficio della comunità scientifica. Ma soprattutto, il progetto segna un traguardo importante: da oggi, anche all’Università di Pisa, è possibile generare automaticamente nuove molecole bioattive, un passo concreto verso una progettazione molecolare più rapida, innovativa e accessibile”.

Ha collaborato alla ricerca Lisa Piazza, iscritta al Dottorato in Scienza del Farmaco e delle Sostanze Bioattive dell’Università di Pisa e componente del gruppo di Chimica Computazionale del professore Tuccinardi.

Lisa Piazza e Tiziano Tuccinardi
Intelligenza artificiale (IA) e chimica alleate rivoluzionano la progettazione di nuovi farmaci per malattie rare o complesse. Nella foto, da sinistra: Lisa Piazza e Tiziano Tuccinardi

Riferimenti bibliografici:

Lisa Piazza, Sanjana Srinivasan, Tiziano Tuccinardi, Jürgen Bajorath, Transforming molecular cores, substituents, and combinations into structurally diverse compounds using chemical language models, European Journal of Medicinal Chemistry, Volume 291, 2025, 117615, ISSN 0223-5234, DOI: https://doi.org/10.1016/j.ejmech.2025.11761

Testo e immagini dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale

La ricerca coordinata dall’Università di Pisa pubblicata su Communications Biology

Per la prima volta, un team di ricerca delle Università di Pisa ha dimostrato che anche i pesci zebra (zebrafish, Danio rerio, piccoli pesci d’acqua dolce noti per le loro capacità sociali e le somiglianze genetiche con l’uomo) sono in grado di “contagiarsi” a vicenda sbadigliando. Un comportamento che finora era stato documentato solo in mammiferi e uccelli, lasciando credere che fosse esclusivo degli animali a sangue caldo con sistemi sociali evolutiLo studio pubblicato su Communications Biology apre così nuovi scenari sull’origine di questa “risonanza motoria” e suggerisce che le radici del contagio dello sbadiglio potrebbero risalire a più di 200 milioni di anni fa.

I ricercatori hanno osservato che, in risposta ai video di altri zebrafish che sbadigliano, i pesci protagonisti dell’esperimento tendevano a fare altrettanto, con una frequenza quasi doppia rispetto ai video di controllo, in cui si mostravano normali comportamenti respiratori. Un effetto del tutto paragonabile a quello osservato nell’essere umano. Non solo: i pesci coinvolti sbadigliavano spesso accompagnando il gesto a una sorta di “stiracchiamento” – la pandiculazione – un comportamento noto in uccelli e mammiferi, utile per ripristinare l’attività neuromuscolare e precedere un cambiamento motorio, come un cambio di direzione nel nuoto.

Ma perché i pesci dovrebbero sbadigliare “in gruppo”? La domanda potrebbe trovare una risposta nella loro natura sociale di questi piccoli pesci. 

La sincronizzazione tra individui è fondamentale per i banchi di pesci – spiega la professoressa Elisabetta Palagi del dipartimento di Biologia dell’Università di Pisa – coordinarsi significa aumentare la vigilanza, migliorare la ricerca del cibo e difendersi meglio dai predatori. In quest’ottica, il contagio dello sbadiglio si configura come un raffinato strumento di coesione sociale”.

“L’aspetto forse più sorprendente della scoperta riguarda però l’evoluzione di questo comportamento – aggiunge Massimiliano Andreazzoli del dipartimento di Biologia dell’Ateneo pisano – e in questo caso due sono le ipotesi possibili. Il contagio dello sbadiglio è un tratto ancestrale, emeros nei primi vertebrati sociali e mantenuto da alcune linee evolutive fino a oggi. L’altra possibile interpretazione è che si tratti di un meccanismo emerso in modo indipendente in diverse specie, a testimonianza del ruolo cruciale che la coordinazione sociale ha avuto – e ha tuttora – nella sopravvivenza”.

Insieme ad Elisabetta Palagi e Massimiliano Andreazzoli ha lavorato un team di giovani ricercatori e studenti, come Alice Galotti e Matteo Digregorio, dottorandi in Biologia, e Sara Ambrosini, studentessa magistrale. La parte legata all’IA è stata invece sviluppata dal professore Donato Romano, esperto di robotica bioispirata, e Gianluca Manduca, dottorando presso la Scuola Superiore Sant’Anna. Grazie a un sofisticato modello di deep learning da loro sviluppato all’Istituto di BioRobotica è stato possibile distinguere con precisione i veri sbadigli dai semplici atti respiratori, rendendo oggettiva l’osservazione e replicabili i risultati.

La ricerca è stata finanziata dal National Geographic Meridian Project OCEAN-ROBOCTO e dal Dipartimento di Biologia dell’Università di Pisa nell’ambito del programma Dipartimenti di Eccellenza.

Riferimenti bibliografici:

Galotti, A., Manduca, G., Digregorio, M. et al. Diving back two hundred million years: yawn contagion in fish, Commun Biol 8, 580 (2025), DOI: https://doi.org/10.1038/s42003-025-08004-z

pesci Femmina di pesce zebra (Brachydanio rerio). Foto di Marrabbio2, in pubblico dominio
I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale. Femmina di pesce zebra (Brachydanio rerio). Foto di Marrabbio2, in pubblico dominio

Testo dall’Ufficio comunicazione di Ateneo dell’Università di Pisa

Distinguere i buchi neri: sarà più facile grazie a un nuovo metodo basato sull’intelligenza artificiale sviluppato dall’Università di Milano-Bicocca

Pubblicato sulla rivista Physical Review Letters, lo studio rivoluziona i metodi tradizionali dell’astronomia delle onde gravitazionali.

Milano, 31 marzo 2025 – Un innovativo metodo basato sull’intelligenza artificiale che migliora la precisione nella classificazione di buchi neri e stelle di neutroni. È quello sviluppato da un team di ricercatori dell’Università di Milano-Bicocca, guidato dal professor Davide Gerosa e supportato dallo European Research Council. Lo studio, pubblicato sulla rivista Physical Review Letters, mette in discussione un’ipotesi ritenuta valida per decenni e apre la strada a un’analisi più accurata dei segnali cosmici.

L’astronomia delle onde gravitazionali permette di osservare coppie di oggetti compatti quali stelle di neutroni e buchi neri: le onde gravitazionali sono infatti prodotte dallo spiraleggiamento e dalla fusione di questi sistemi binari. Le analisi tradizionali assumono a priori come distinguere i due oggetti in ciascuna binaria.

«Fino a oggi, il metodo più diffuso per l’identificazione degli oggetti prevedeva di etichettare il più massiccio come “1” e il meno massiccio come “2”. Tuttavia, questa scelta, apparentemente intuitiva, introduce ambiguità nelle misure, specialmente nei sistemi binari con masse simili. Ci siamo chiesti: è davvero la scelta migliore?», spiega Gerosa.

Il nuovo studio propone di superare questa limitazione utilizzando una tecnica di intelligenza artificiale chiamata spectral clustering che analizza l’insieme completo dei dati senza applicare etichette rigide a priori. Questo nuovo metodo consente di ridurre le incertezze nelle misure degli spin dei buchi neri, ovvero nella determinazione della velocità e della direzione di rotazione di questi oggetti. Una corretta misurazione dello spin è fondamentale per comprendere la formazione e l’evoluzione dei buchi neri. Il nuovo approccio migliora notevolmente la precisione di queste misure e rende più affidabile la distinzione tra buchi neri e stelle di neutroni.

«Questa pubblicazione mette in discussione un presupposto di lunga data che è alla base di tutte le analisi delle onde gravitazionali fino a oggi, e che è rimasto indiscusso per decenni», continua l’astrofisico. «I risultati sono sorprendenti: le misurazioni dello spin sono più precise e distinguere i buchi neri dalle stelle di neutroni diventa più affidabile».

Davide Gerosa, Università di Milano-Bicocca
Davide Gerosa, Università di Milano-Bicocca, alla guida del team di ricercatori che ha prodotto lo studio su Physical Review Letters, che impiega l’intelligenza artificiale per un nuovo metodo al fine di distinguere i buchi neri

Lo studio condotto ha immediate ricadute per l’analisi dei dati raccolti con gli attuali rivelatori di onde gravitazionali LIGO e Virgo, nonché con quelli di futura costruzione quali LISA e l’Einstein Telescope. Questa ricerca apre la strada a una revisione delle tecniche di analisi delle onde gravitazionali e sottolinea, inoltre, il ruolo crescente dell’intelligenza artificiale nella ricerca astrofisica.

Testo e immagini dall’Ufficio stampa Università di Milano-Bicocca.

AI e Formazione: Un Nuovo Paradigma Didattico – recensione di “AI Experience con 101Ò” (Fòrema, 2024)

Articolo a cura di Federica Illuzzi e Gianluca Viola

L’intelligenza artificiale sta ridefinendo profondamente il mondo dell’istruzione e della formazione, introducendo strumenti innovativi che migliorano l’apprendimento e ne amplificano l’efficacia. In questo scenario, AI Experience con 101Ò, realizzato dall’AI Development Team di Fòrema, si distingue come un contributo prezioso. Il libro si propone come una guida pratica all’integrazione dell’AI nei processi formativi, con un approccio che mette al centro l’esperienza, trasformando l’AI da semplice strumento tecnologico a una vera e propria metodologia didattica in grado di rivoluzionare l’insegnamento e l’apprendimento.

la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi

Uno degli elementi più interessanti dell’opera è il legame tra l’Intelligenza Artificiale e il ciclo di apprendimento esperienziale di Kolb. Gli LLM vengono presentati come dispositivi in grado di arricchire ogni fase del percorso formativo: dalla progettazione dei corsi all’analisi dei bisogni, dalla conduzione delle attività formative fino alla valutazione dei risultati.

Grazie a tecnologie come l’Adaptive Learning, i chatbot e le simulazioni immersive, i formatori hanno la possibilità di personalizzare l’insegnamento in base alle esigenze specifiche degli studenti, offrendo esperienze didattiche più dinamiche e su misura.

Il fattore adattativo dell’approccio utilizzato, supportato dalle tecnologie, permette infatti di ritagliare una formazione su misura per ciascuna risorsa umana, nell’ottica di una formazione life-long e sempre pertinente al contesto.

I fabbisogni formativi possono essere identificati e selezionati avvalendosi delle tecnologie, sulla base di attitudini e necessità del singolo discente. Le modalità di somministrazione, i tempi e i contenuti possono essere progettati ad hoc per ognuno e possono essere variati, per via della versatilità delle soluzioni, in qualsiasi momento e adattati a nuovi scopi. Un sistema di apprendimento in continuo divenire che può inseguire le necessità del singolo. Pertanto, si propone come un’alternativa ad alta efficacia rispetto alla formazione aziendale erogata in modalità “standard”.

Il libro si suddivide in due macroaree. La prima approfondisce il ruolo dell’AI come strumento didattico, mentre la seconda si concentra sulle sue applicazioni pratiche. Un concetto chiave è quello della formazione adattiva, che sfrutta lo strumento per personalizzare i percorsi di apprendimento in tempo reale. Grazie alle piattaforme di Learning Analytics, è possibile raccogliere dati sul comportamento degli studenti e adattare i contenuti in base ai loro progressi e alle loro difficoltà. Questo approccio promuove un modello di apprendimento continuo, in cui ogni studente riceve il supporto più adatto alle necessità.

Un altro aspetto innovativo affrontato riguarda l’utilizzo dell’AI nella progettazione didattica. Gli autori spiegano come l’intelligenza artificiale possa supportare sia la macro che la micro-progettazione dei corsi, suggerendo contenuti personalizzati e adattando le attività formative ai diversi stili di apprendimento.

L’analisi predittiva consente di individuare con maggiore precisione le competenze che saranno richieste nel futuro, aiutando i formatori a costruire percorsi didattici mirati e aggiornati rispetto ai cambiamenti del mercato del lavoro.

Durante l’erogazione della formazione, l’AI assume un ruolo chiave nel fornire feedback immediati e personalizzati. Strumenti come i tutor virtuali e le piattaforme di simulazione permettono agli studenti di sperimentare situazioni realistiche in ambiente controllato, ricevendo suggerimenti e correzioni in tempo reale. L’utilizzo della gamification e della Realtà virtuale rende l’apprendimento più coinvolgente, mentre i chatbot possono rispondere alle domande e chiarire dubbi in modo più rapido ed efficace.

Anche la fase di valutazione dell’apprendimento beneficia degli LLM, grazie a strumenti avanzati di analisi dei dati. Il testo spiega come i modelli possano misurare i progressi degli studenti attraverso sistemi di valutazione adattiva, che modulano la difficoltà dei test in base alle risposte fornite. Le dashboard analitiche consentono ai formatori di monitorare in modalità sincrona l’andamento del percorso d’apprendimento e di apportare eventuali modifiche per ottimizzarne l’efficacia.

Oltre agli aspetti metodologici e pratici, il volume affronta anche le sfide e le implicazioni pedagogiche legate all’uso di tali dispositivi nella formazione continua.

Tra le criticità emergenti, spiccano la necessità di evitare un’eccessiva standardizzazione dei percorsi di apprendimento, il rischio di bias nei dati utilizzati per addestrare gli algoritmi e l’importanza di un uso etico e responsabile dell’Intelligenza Artificiale. Si sottolinea, infatti, come la “blackbox” debba essere considerata di supporto all’intelligenza umana, e non un suo sostituto. L’interazione critica e ponderata fra uomo e macchina rimane fondamentale per preservare gli aspetti relazionali e motivazionali del processo di insegnamento-apprendimento, elementi fondanti per il successo di qualsiasi processo educativo.

la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi

AI Experience con 101Ò può essere, pertanto, una risorsa di grande valore per chi lavora nel settore della formazione e vuole approfondire le potenzialità delle nuove tecnologie in ambito didattico. Il libro offre una panoramica completa e aggiornata sugli strumenti e le metodologie emergenti, delineando un modello formativo in cui l’AI non è solo un mezzo di supporto, ma un motore di innovazione pedagogica. Grazie a un approccio pratico e sperimentale, il volume si rivela essenziale per ripensare l’apprendimento nell’era digitale dell’informazione, promuovendo un’educazione continua più efficace, inclusiva e personalizzata.

Il contesto in cui si sviluppano i prodotti presentati nell’opera è altamente mutevole, pertanto le modalità scelte per la progettazione sono volutamente versatili e agili. In ogni momento della progettazione possono cambiare completamente gli scenari, sia in termini di fabbisogni che di budget. Per far fronte alla complessità del contesto, la metodologia scelta si basa su storie agili e sprint.

Una storia agile è costituita da una struttura semplice e narrativa che, partendo dal ruolo ricoperto, spiega gli strumenti che si vogliono utilizzare e il perché, ovvero gli obiettivi da raggiungere.

Lo sprint è un ciclo di sviluppo, basato su un set di storie agili, nel quale pressoché tutti i parametri possono mutare, tranne il tempo. In questa trattazione uno sprint dura un mese. Al termine di ogni sprint, dopo opportuni test di validazione delle funzionalità, se il ciclo è completato la procedura può essere archiviata per essere utilizzata in futuro.

Negli ultimi capitoli il test fornisce una serie di applicazioni (alcune già progettate e altre ancora da progettare) per molte figure in ambito HR, da progettisti della formazione, ai coach, da trainer di hard e soft skills ad HR Manager.

Tra le applicazioni in fase di test in ambito HR Management sono annoverate alcune soluzioni di supporto alla selezione del personale. Tra tutte, queste sono le più delicate, in quanto le analisi del curriculum vitae potrebbero essere affette da bias, che potrebbero penalizzare per criteri legati al genere o ad altri attributi non prettamente legati alla sfera lavorativa. Questa è la sfida principale dei prossimi sprint.

L’intelligenza artificiale sta modificando e modificherà il mondo dell’istruzione e della formazione. Se la sfida è ormai lanciata, questo manuale operativo fornisce le basi per coglierla con la giusta criticità e senza paura.

AI Experience con 101Ò, saggio che è opera di AA. VV., edito da Forèma
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema

Il libro recensito è stato cortesemente fornito dalla casa editrice.

Cancro ovarico: un nuovo alleato diagnostico grazie all’intelligenza artificiale

L’Intelligenza artificiale potrebbe affiancare i medici nella definizione ecografica del rischio di malignità di formazioni ovariche. Lo dimostra un nuovo studio a cui hanno partecipato l’Università di Milano-Bicocca e la Fondazione IRCCS San Gerardo dei Tintori.

 

Milano, 22 gennaio 2025 – Individuare un tumore in fase precoce è fondamentale per garantire una prevenzione e una cura efficaci. Oggi c’è un alleato in più, che sta imparando molto in fretta ed è sempre più preciso: si tratta dell’intelligenza artificiale. Lo dice un recente studio, pubblicato sulla rivista Nature Medicine, a cui ha collaborato Robert Fruscio, professore associato in Ginecologia e Ostetricia dell’Università di Milano-Bicocca e direttore della Struttura semplice di Ginecologia Preventiva della Fondazione IRCCS San Gerardo dei Tintori: la ricerca, condotta da un team del Karolinska Institutet in Svezia, ha coinvolto 20 centri in otto Paesi e ha analizzato un dataset di oltre 17.000 immagini ecografiche provenienti da più di 3.600 pazienti, tra cui alcune che si sono rivolte all’Ospedale San Gerardo di Monza. L’obiettivo è stato quello di addestrare un programma di Intelligenza artificiale a distinguere, in queste immagini, le lesioni ovariche benigne da quelle maligne e testare le potenzialità di questi modelli nel supportare le diagnosi mediche, ridurre il margine di errore diagnostico e migliorare la gestione clinica delle pazienti.

«Le lesioni ovariche sono comuni e spesso rilevate incidentalmente, per questo è fondamentale, al fine di impostare un trattamento corretto, definirne il più precisamente possibile il rischio di malignità», spiega Robert Fruscio. «Abbiamo sviluppato e validato un sistema di Intelligenza artificiale in grado di distinguere, a partire da un’immagine ecografica, le lesioni ovariche benigne e quelle maligne. Abbiamo poi confrontato le prestazioni dell’IA con quelle di operatori ecografici esperti (tra i quali io e altri colleghi da tutto il mondo) e di operatori non esperti. Il modello si è rivelato superiore, seppur di pochissimo, agli esperti e significativamente migliore dei non esperti».

I modelli basati sull’Intelligenza artificiale, nello specifico, hanno raggiunto un tasso di accuratezza nell’individuazione del cancro ovarico dell’86%, rispetto all’82% degli esperti umani e al 77% di quelli con minore esperienza. I risultati sono stati consistenti indipendentemente dall’età dei pazienti, dai dispositivi ecografici utilizzati e dai contesti clinici.

L’importanza di questa sperimentazione avviene in un contesto generale in cui gli operatori esperti scarseggiano in molte parti del mondo e non sono disponibili in tutti gli ospedali. La carenza di ecografisti esperti ha come conseguenza da una parte l’esecuzione di interventi chirurgici non necessari e dall’altra una diagnosi ritardata di cancro.

«I modelli di intelligenza artificiale potrebbero quindi costituire un ausilio per gli operatori meno esperti nel processo di selezione di pazienti da inviare a centri di secondo livello e, dall’altra parte, evitare chirurgie inutili in pazienti con lesioni a basso rischio», continua Robert Fruscio. «In generale, è il classico caso in cui la IA non si sostituisce all’uomo, ma potrebbe migliorare l’efficienza di tutto il sistema e la gestione delle pazienti».

Sempre secondo lo studio, in una simulazione di triage, il supporto diagnostico guidato dall’IA ridurrebbe del 63% i rinvii agli esperti, superando significativamente le prestazioni diagnostiche della pratica corrente. Pur sottolineando che sono necessari ulteriori studi prospettici e randomizzati per convalidare il beneficio clinico e le prestazioni diagnostiche dei modelli di Intelligenza artificiale, lo studio offre spunti di riflessione sull’applicabilità dei sistemi di supporto diagnostico guidati dall’IA per la diagnosi del cancro ovarico.

Riferimenti bibliografici:

Christiansen, F., Konuk, E., Ganeshan, A.R. et al. International multicenter validation of AI-driven ultrasound detection of ovarian cancer, Nat Med 31, 189–196 (2025), DOI: https://doi.org/10.1038/s41591-024-03329-4

causa rischio metastasi tumore al seno
Foto di StockSnap

Testo e immagini dall’Ufficio Stampa dell’Università di Milano-Bicocca