News
Ad
Ad
Ad
Tag

Intelligenza Artificiale

Browsing

WIDER THAN THE SKY – Più grande del cielo

L’intelligenza artificiale tra scienza, arte e mistero umano

Presentato alla prossima Festa del Cinema di Roma – RoFF 2025, nella sezione Special Screening

IN SALA PROSSIMAMENTE CON WANTED CINEMA

Una produzione Aura Film, in coproduzione con RSI Radiotelevisione Svizzera, Ameuropa International, con RAI Cinema

la locandina di Wider Than The Sky – Più grande del cielo, film documentario di Valerio Jalongo
la locandina di Wider Than The Sky – Più grande del cielo, film documentario di Valerio Jalongo

Che cos’è davvero l’intelligenza artificiale? Una straordinaria opportunità, un rischio globale, o forse una grande illusione? Wider Than The Sky – Più grande del cielo è il nuovo film documentario di Valerio Jalongo, presentato in anteprima nazionale alla Festa del Cinema di Roma 2025 nella sezione Special Screening, che cerca una risposta a queste domande con gli strumenti della scienza, della poesia e dell’arte.

Girato in oltre dieci città tra Europa, Stati Uniti e Giappone, il film mette in dialogo neuroscienziati, filosofi, artisti e robot umanoidi per interrogarsi sul futuro dell’umanità di fronte a una tecnologia che sta ridefinendo le nostre vite.

Wider Than The Sky – Più grande del cielo è una produzione internazionale, un’indagine senza confini politici e geografici realizzato in collaborazione con la comunità scientifica europea dell’Human Brain Project e la compagnia di danza Sasha Waltz & Guests.  Protagonisti del film sono pensatori e innovatori di fama mondiale, tra cui Antonio Damasio, Andrea Moro, Rob Reich, Refik Anadol, Hany Farid, Rainer Goebel, Sasha Waltz, Sougwen Chung, e i robot Anymal e Ameca che mostrano i punti di contatto tra ricerca neuroscientifica, arti performative e robotica avanzata.

“Non dovremmo chiamarla intelligenza artificiale – afferma Jalongo – ma intelligenza collettiva, perché nulla esisterebbe senza la conoscenza condivisa dell’umanità. La vera sfida è decidere se questa rivoluzione sarà usata per concentrare il potere o per costruire un futuro aperto e democratico” dichiara Jalongo che, dopo Il senso della bellezza L’acqua l’insegna la sete, torna al cinema quale mezzo di riflessione necessaria sul nostro presente, tra emozione e profonda inquietudine.

Con immagini sorprendenti e momenti di grande intensità visiva – dalle coreografie di Sasha Waltz ai droni da competizione, fino ai laboratori di robotica di Zurigo – Wider Than The Sky – Più grande del cielo svela un’IA non solo come sfida tecnologica, ma come mistero profondamente umano, destinato a cambiare radicalmente il nostro rapporto con la conoscenza, la creatività e la libertà.

Wider Than The Sky – Più grande del cielo è una produzione Aura Film, RSI Radiotelevisione Svizzera, Ameuropa International, con RAI Cinema e sarà disponibile da subito per le programmazioni nei cinema con matineé dedicate e rivolte alle scuole, e nelle sale italiane prossimamente con Wanted.


NOTE DI REGIA

Abbiamo mappe della Terra dettagliate fino al centimetro. Mappe dell’universo risalenti a un miliardesimo di secondo dopo il Big Bang. Abbiamo mappe precise di tutto… tranne che dei nostri cervelli.

Ora, per la prima volta, ci stiamo avvicinando alla creazione di una mappa 3D di quello che viene definito l’oggetto più complesso dell’universo: il cervello umano. Per anni, un’ampia comunità internazionale di neuroscienziati, l’Human Brain Project, ha collaborato a questo compito gigantesco.

Ma tracciare territori sconosciuti è rischioso: le mappe possono servire anche a scatenare guerre di conquista, ad affermare proprietà e sfruttamenti. Lo sviluppo dell’IA deve molto a ciò che stiamo scoprendo sul cervello umano. E se invece trovassimo che questa tecnologia perfeziona strumenti di controllo politico e sociale, dando a pochi privilegiati una sorta di “sguardo divino” su tutto? E se aiutasse a concentrare la ricchezza nelle mani di pochi? E se rendesse la guerra ancora più letale?

L’intelligenza artificiale è già utilizzata per creare un divario di potere senza precedenti nella storia. Il suo uso indiscriminato potrebbe generare un mondo disumanizzato di topi e uomini, dove chi si oppone al potere dominante è costretto a vivere sottoterra, privato di tutto per sfuggire al controllo.

Non si tratta di una profezia fantascientifica lontana: è la cronaca recente.
A Gaza, i sistemi di IA sono stati utilizzati per incrociare miliardi di dati, localizzare combattenti di Hamas e stimare il numero di civili “ammessi” come perdite collaterali, senza necessità di valutazioni umane caso per caso.

H.G. Wells scrisse che la nostra civiltà è impegnata in una corsa tra conoscenza e catastrofe. Una società a scatola nera, dove algoritmi oscuri governano le nostre vite, potrebbe far pendere l’ago della bilancia verso il disastro.

Wider Than the Sky” mi ha reso consapevole della vera natura dell’intelligenza artificiale: presentarla solo come miracolo tecnologico fa parte della menzogna che ne legittima la privatizzazione.

La verità sta invece dove nessuno guarda, in una dimensione opposta: l’IA sarebbe nulla senza tutta la conoscenza che l’umanità ha creato nella sua storia. Per questo, essa appartiene all’intera umanità, per la sua origine profondamente spirituale.

Dovremmo smettere di definirla “artificiale” e forse chiamarla “intelligenza collettiva”.

Abbiamo già un grande modello da seguire: gli scienziati e gli artisti che collaborano in squadre internazionali, scambiando esperienze e conoscenze liberamente, senza altra affiliazione che quella della razza umana, senza altro scopo che il bene dell’umanità.
Questa è la base di una IA “affidabile” e probabilmente anche il miglior antidoto contro i rischi di una società a scatola nera.


UNA PRODUZIONE AURA FILM

IN COPRODUZIONE CON RSI RADIOTELEVISIONE SVIZZERA

E AMEUROPA INTERNATIONAL CON RAI CINEMA

CON SASHA WALTZ, ANTONIO DAMASIO, REFIK ANADOL, KATRIN AMUNTS, ADAM RUSSELL, RAINER GOEBEL, ROB REICH, DAVID YOUNG, HANNA DAMASIO, JONAS T. KAPLAN, KINGSON MAN, HANY FARID, ANDREA MORO, MARVIN SCHÄPPER, THOMAS BITMATTA, ALEX VANOVER, NIKITA RUDIN, WILL JACKSON, e AMECA

REGIA E SCENEGGIATURA VALERIO JALONGO MONTAGGIO

MICHELANGELO GARRONE

DIRETTORE DELLA FOTOGRAFIA IAN OGGENFUSS

INGEGNERE DEL SUONO BALTHASAR JUCKER

SOUND DESIGNER LILIO ROSATO

MUSICHE DANIELA PES, KETY FUSCO

AIUTO REGIA ATTILIO DI TURI

GRADING ROGER SOMMER

FONICO DI MIX SANDRO ROSSI

GRAFICHE E TITOLI ELISA MACCELLI

MONTAGGIO DIALOGHI OMAR ABOUZAID

DELEGATI DI PRODUZIONE PER RSI RADIOTELEVISIONE SVIZZERA/ SSR SRG SILVANA BEZZOLA RIGOLINI, GIULIA FAZIOLI, ALESSANDRO MARCIONNI

LINE PRODUCER TINA BOILLAT, MARTINA LATINI

PRODOTTO DA PASCAL TRÄCHSLIN, VALERIO JALONGO

CON IL SUPPORTO DI UFFICIO FEDERALE DELLA CULTURA, REPUBBLICA E CANTONE TICINO, FILMPLUS DELLA SVIZZERA ITALIANA, SUISSIMAGE, MEDIA DESK SUISSE, ERNST GÖHNER STIFTUNG, TICINO FILM COMMISSION, MINISTERO DELLA CULTURA – DIREZIONE GENERALE CINEMA E AUDIOVISIVO, REGIONE LAZIO

 

Testo e immagini dall’Ufficio Stampa Echo Group, Wanted Cinema.

PROGETTO ENERGY-GNoME, INTELLIGENZA ARTIFICIALE E DATABASE “EVOLUTIVI”: UN RECENTE LAVORO DEL POLITECNICO DI TORINO PROPONE MIGLIAIA DI NUOVI MATERIALI PER L’ENERGIA

Un gruppo di ricercatori del Politecnico di Torino apre la strada a una nuova generazione di strumenti computazionali per accelerare l’identificazione di materiali sostenibili per applicazioni energetiche

Il lavoro, pubblicato sulla rivista Energy and AI, introduce nuove prospettive sull’uso di Intelligenza Artificiale nell’ambito della ricerca d’avanguardia

Un team di ricercatori del Politecnico di Torino composto da Paolo De AngelisGiulio BarlettaGiovanni TrezzaPietro Asinari ed Eliodoro Chiavazzo del laboratorio SMaLL – presso il Dipartimento Energia-DENERG – ha sviluppato un innovativo protocollo basato su Intelligenza Artificiale per selezionare, tra centinaia di migliaia di materiali finora inesplorati, i candidati più promettenti per applicazioni energetiche. Lo studio, pubblicato sulla rivista Energy and AI, introduce Energy-GNoME (link: https://paolodeangelis.github.io/Energy-GNoME/), il primo database “evolutivo” ad integrare algoritmi di Machine Learning con i preziosi dati del progetto GNoME (Graph Networks for Materials Exploration), sviluppato da Google DeepMind.

GNoME ha recentemente messo a disposizione della comunità scientifica un patrimonio senza precedenti: centinaia di migliaia di materiali mai studiati prima e teoricamente stabili, individuati grazie a tecniche di intelligenza artificiale generativa. Tuttavia, questi materiali non sono stati “caratterizzati”, ovvero non ne sono state indicate le possibili applicazioni tecnologiche. È proprio in questo contesto che si inserisce Energy-GNoME: il metodo sviluppato al Politecnico di Torino permette di individuare, tra l’enorme mole di candidati proposti da GNoME, quelli più ricchi di potenziale per il settore energetico, fornendo così un ponte essenziale tra la generazione di nuovi materiali e il loro utilizzo pratico.

Il protocollo utilizza un approccio in due fasi: prima, un sistema di “esperti artificiali” che – votando a maggioranza – identificano i composti con maggiori probabilità di possedere proprietà utili per applicazioni energetiche; successivamente, altri modelli opportunamente addestrati ne stimano con precisione i parametri chiave. Questo metodo consente di ridurre drasticamente il numero di candidati ritenuti utili per una certa applicazione tecnologica, ma al tempo stesso propone migliaia di nuove soluzioni per la conversione e lo stoccaggio di energia.

“Con Energy-GNoME abbiamo voluto dimostrare come l’Intelligenza Artificiale possa essere non solo uno strumento di analisi, ma un vero acceleratore di scoperta scientifica, capace di imparare dall’esperienza umana e crescere con i contributi della comunità. Allo stesso tempo puntiamo a risolvere una sfida cruciale dell’AI generativa: non basta esplorare alla cieca nuove possibilità, serve anche indirizzare questa esplorazione verso obbiettivi utili, perché un cristallo è solo un composto chimico, è la sua funzione ingegneristica che lo rende un materiale”, spiega Paolo De Angelis, primo autore dello studio.

“Un’importante merito del progetto risiede proprio nella natura “evolutiva” del database: attraverso una libreria Python open-source e linee guida rese pubbliche su GitHub, la comunità scientifica potrà contribuire con nuovi dati sperimentali o teorici, alimentando un processo iterativo di apprendimento attivo. In questo modo, la piattaforma è destinata a evolvere e a migliorare costantemente la sua capacità predittiva”, precisano Giulio Barletta e Giovanni Trezza.

“Questo approccio rappresenta una nuova frontiera nella modellazione dei materiali per le applicazioni energetiche: da un lato combina e sfrutta i saperi derivati da metodi sperimentali, teorici e di apprendimento automatico; dall’altro rende disponibile la conoscenza sintetizzata in un linguaggio interoperabile e accessibile, favorendo l’adozione e l’adattamento da parte di comunità scientifiche diverse”, aggiunge Pietro Asinari.

“Il nostro contributo principale è duplice: da un lato, aver reso disponibili alla comunità scientifica un’ampia selezione di nuovi materiali promettenti per applicazioni energetiche; dall’altro, aver messo a punto un protocollo metodologico che può essere facilmente esteso anche ad altri ambiti oltre a quelli trattati nello studio”, conclude Eliodoro Chiavazzo, coordinatore della ricerca. “In questo senso, Energy-GNoME non è solo un database, ma una vera e propria mappa per orientare futuri studi sperimentali e computazionali, accelerando l’esplorazione dei materiali avanzati in molteplici campi”.

Oltre al contributo diretto nel campo dell’energia, il lavoro apre prospettive più ampie: il protocollo messo a punto mira ad essere un riferimento metodologico per la comunità scientifica, offrendo una via rapida e scalabile per esplorare nuovi materiali in settori diversi, dall’elettronica avanzata alla biomedicina, fino alle tecnologie quantistiche e a quelle emergenti per la sostenibilità.

Il progetto Energy-GNoME per individuare, tra l’enorme mole di materiali proposti da GNoME, quelli più ricchi di potenziale per l'energia
Illustrazione geometrica dell’algoritmo messo a punto dai ricercatori del Politecnico di Torino. Il progetto Energy-GNoME per individuare, tra l’enorme mole di materiali proposti da GNoME, quelli più ricchi di potenziale per l’energia

Torino, 6 ottobre 2025

Testo e immagine dall’Ufficio Web e Stampa del Politecnico di Torino

CAMPI FLEGREI: Applicata l’Intelligenza Artificiale per sviluppare un catalogo sismico di alta definizione. Un nuovo studio rivela dettagli inediti sull’attività sismica della Caldera

 

Un team internazionale di scienziati del Dipartimento di Geofisica della Doerr School of Sustainability di Stanford, dell’Osservatorio Vesuviano dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV-OV) e dell’Università degli Studi di Napoli Federico II ha appena pubblicato, sulla rivista scientifica Science, lo studio A clearer view of the current phase of unrest at Campi Flegrei Caldera.

Il lavoro offre una visione più chiara della fase di attività sismica in corso ai Campi Flegrei (unrest). L’area di interesse comprende le zone densamente popolate della periferia occidentale di Napoli e la città di Pozzuoli, dove negli ultimi anni si è registrato un deciso aumento dell’attività sismica, delle emissioni di gas e del sollevamento del suolo.

Localizzazioni dei terremoti contenuti nel nuovo catalogo sismico di alta definizione. Le diverse gradazioni di rosso indicano differenti profondità dei terremoti
Localizzazioni dei terremoti contenuti nel nuovo catalogo sismico di alta definizione.
Le diverse gradazioni di rosso indicano differenti profondità dei terremoti

I ricercatori hanno utilizzato tecniche di intelligenza artificiale (AI) sviluppate presso l’Università di Stanford e applicate ai sismogrammi registrati dall’INGV nell’area dei Campi Flegrei, identificando oltre 50.000 terremoti nel periodo tra il 2022 e la metà del 2025. Il catalogo sismico di alta definizione ha evidenziato un sistema di faglie attive e ha fornito importanti dettagli sull’origine del fenomeno. In dettaglio, l’AI è stata istruita utilizzando il catalogo sismico compilato dall’INGV-OV dal 2000 e si è avvalsa della densa rete sismica potenziata negli anni dall’Ente anche in risposta all’aumento della sismicità.

I risultati hanno mostrato che la quasi totalità degli eventi sismici ha un’origine tettonica, con profondità inferiori ai 4 km e non si riscontrano evidenze sismiche di una migrazione significativa di magma.

È stato chiaramente identificato un sistema di faglie ad anello, che circonda la zona di sollevamento della caldera, estendendosi sia sulla terraferma sia nel Golfo di Napoli. 

“All’interno di tale struttura ad anello la sismicità osservata evidenzia per la prima volta sulla terraferma vicino a Pozzuoli delle faglie specifiche e ben definite, che potrebbero portare a stime più precise della pericolosità e del rischio sismico in questa area”, afferma il Professor Warner Marzocchi dell’Università degli Studi di Napoli Federico II.

L’unica sismicità non puramente tettonica, composta da eventi cosiddetti “ibridi”, è stata osservata a profondità inferiori a un chilometro, vicino al duomo lavico di Accademia.

Questi eventi provengono dall’interazione tra roccia, fluidi e gas durante una fratturaAnalisi più approfondite suggeriscono che i fluidi coinvolti sarebbero di tipo idrotermale”, ha dichiarato la ricercatrice dell’INGV, Anna Tramelli.

Il nuovo sistema di analisi dei segnali sismici, implementato durante la ricerca, è già in funzione.

“Questo sistema, una volta superata la fase di verifica, potrebbe permettere di identificare in tempo quasi reale anche i più piccoli cambiamenti nel comportamento sismico dei Campi Flegrei e, di conseguenza, permettere migliori stime del rischio sismico e vulcanico”, concludono i ricercatori.

Immagine dei Campi Flegrei acquisita da drone. Crediti - Alessandro Fedele, ricercatore INGV.
Campi Flegrei: applicata l’intelligenza artificiale per sviluppare un catalogo sismico di alta definizione; lo studio è stato pubblicato su Science. Immagine dei Campi Flegrei acquisita da drone.
Crediti – Alessandro Fedele, ricercatore INGV

Riferimenti bibliografici:

Xing Tan et al.A clearer view of the current phase of unrest at Campi Flegrei caldera, Science 0, eadw9038, DOI:10.1126/science.adw9038

Roma, 5 settembre 2025
Testo e immagini dall’Ufficio Stampa Rettorato dell’Università degli studi di Napoli Federico II

 

QUANDO L’IA IMPARA PIÙ CHE SEMPLICI PAROLE: L’intelligenza artificiale sta iniziando a riconoscere anche le nostre risposte emotive

Le descrizioni testuali delle immagini utilizzate per addestrare i moderni modelli di IA generativa contengono non solo informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che fornisce la descrizione: i risultati della ricerca pubblicata dal team padovano sulla rivista «Royal Society Open Science»

Zaira Romeo, Istituto di Neuroscienze del CNR, e Alberto Testolin, Dipartimento di Psicologia Generale e Dipartimento di Matematica dell’Università di Padova, hanno pubblicato sulla rivista «Royal Society Open Science» l’articolo dal titolo “Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes”. In questo studio hanno testato vari modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane di fronte ad una varietà di scene visive. Le valutazioni fornite dall’IA hanno mostrato una sorprendente corrispondenza con quelle umane, nonostante questi sistemi non fossero stati addestrati specificamente per fornire giudizi emozionali sulle immagini. Questo studio non solo dimostra che il linguaggio può supportare lo sviluppo di concetti emotivi nei moderni sistemi di IA, ma solleva anche importanti interrogativi su come si potranno impiegare queste tecnologie in contesti sensibili, come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale.

un'immagine generata dall'intelligenza artificiale

La ricerca

«Abbiamo analizzato le risposte di alcuni moderni sistemi di IA generativa (GPT, Gemini e Claude) a specifiche domande sul contenuto emotivo di un insieme di scene visive. I sistemi presi in esame sono tutti basati su modelli cosiddetti di deep learning, ovvero reti neurali su larga scala costituite da miliardi di neuroni collegati tra di loro che vengono “addestrate” su enormi quantità di testo e immagini. Lo scopo dell’addestramento è imparare ad associare ad una certa immagine una corrispondente descrizione testuale plausibile (per esempio, “Un gatto nero che rincorre un topo in un solaio”) in base a milioni di esempi reperiti online o forniti da esperti umani. Abbiamo posto all’IA lo stesso tipo di domande che si fanno ai soggetti umani durante gli esperimenti sulla percezione e sulla valutazione delle emozioni, utilizzando un insieme di stimoli visivi standardizzati, composto da immagini con diversi tipi di contenuto emotivo», dicono Zaira Romeo e Alberto Testolin. «Le immagini potevano rappresentare animali, persone, paesaggi ed oggetti, in accezione positiva (come un volto sorridente, due persone che si abbracciano o un campo di fiori), negativa (come una situazione di pericolo, un animale ferito, un ambiente sporco), oppure neutra (ad esempio un oggetto di uso quotidiano o un paesaggio urbano). È fondamentale notare che in questo studio – continuano gli autori – abbiamo utilizzato un insieme di immagini appartenenti ad un database di ricerca privato, fornitoci dai colleghi del Nencki Institute for Experimental Biology dell’Università di Varsavia, assicurandoci quindi che nessuna IA avesse mai analizzato questo tipo di stimoli visivi durante la fase di addestramento».

Si sono dapprima indagate tre dimensioni affettive fondamentali che vengono normalmente utilizzate per caratterizzare le risposte emotive umane: piacevolezza, tendenza all’allontanamento/avvicinamento e attivazione (detta anche “coinvolgimento”). Si è sottoposta l’IA a quesiti particolari quali “Come giudichi questa immagine? Come reagisci a questa immagine? Come ti senti dopo aver visto questa immagine?” classificando le risposte rispettivamente con scale numeriche: da 1 “molto negativa” a 9 “molto positiva”; da 1 “la eviterei” a 9 “mi avvicinerei”; infine da 1 “rilassato” a 9 “attivato”. Si sono poi indagate anche le reazioni a sei emozioni di base: felicità, rabbia, paura, tristezza, disgusto e sorpresa, chiedendo all’IA di fornire un punteggio in risposta a richieste del tipo: “Giudica l’intensità dell’emozione di felicità evocata da questa immagine”.

I risultati

Le valutazioni date dall’IA hanno mostrato una sorprendente corrispondenza con quelle fornite da valutatori umani, nonostante questi sistemi non fossero stati addestrati specificamente per fornire questo tipo di giudizi emozionali su scene visive, sia rispetto alle tre dimensioni affettive fondamentali sia rispetto alle sei emozioni di base. GPT ha fornito le risposte più allineate, mostrando però una chiara tendenza a sovrastimare i giudizi umani, soprattutto per stimoli associati ad una forte carica emotiva. È anche interessante notare che spesso l’IA dichiarava esplicitamente di provare ad indovinare la risposta ipotizzando il tipo di giudizio che avrebbe dato un essere umano “medio”.

«Per esempio, in risposta ad un’immagine che rappresentava alcuni cammelli in un deserto con delle palme sullo sfondo l’IA ha risposto: Come modello di IA, non ho reazioni personali o emotive. Tuttavia, posso fornire una risposta oggettiva basata sulla reazione tipica che avrebbe un umano a questa scena. L’immagine raffigura una tranquilla scena di cammelli in un deserto, che molte persone troverebbero interessante come possibile esperienza di viaggio esotico, portando quindi ad una tendenza ad approcciare piuttosto che evitare», spiegano Zaira Romeo e Alberto Testolin. «In altri casi al contrario, invece di immedesimarsi in un giudizio medio, l’IA ha simulato la reazione di un particolare gruppo di persone, per esempio attribuendo un punteggio negativo ad un’immagine di un piatto di carne dichiarandosi vegetariana».

Sempre più ricerche scientifiche cercano di caratterizzare le risposte date dai moderni sistemi di IA, sia per capire quanto simili siano alle risposte che darebbe un essere umano sia per verificare che le reazioni dell’IA in determinati contesti siano appropriate, per evitare potenziali ripercussioni negative sugli utenti che la utilizzano. Questo studio è stato il primo a confrontare esplicitamente le risposte date dall’IA con i giudizi emotivi dati da soggetti umani, offrendo una nuova prospettiva sulle competenze emotive di questi sistemi.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni – sottolineano gli autori della ricerca -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale – concludono Zaira Romeo e Alberto Testolin -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

in foto, Zaira Romeo e Alberto Testolin
L’intelligenza artificiale sta iniziando a riconoscere anche le nostre risposte emotive; lo studio su Royal Society Open Science. In foto, gli autori dello studio, Zaira Romeo e Alberto Testolin

Riferimenti bibliografici:

Zaira Romeo, Alberto Testolin, Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes – «Royal Society Open Science» 2025, link: https://royalsocietypublishing.org/doi/10.1098/rsos.250128

Testo e foto dall’Ufficio Stampa dell’Università di Padova

METCL (METAPHOR ELABORATION IN TYPICALITY-BASED COMPOSITIONAL LOGIC), INTELLIGENZA ARTIFICIALE E CREATIVITÀ: UN SISTEMA PER LA GENERAZIONE E IL RICONOSCIMENTO DELLE METAFORE

Tre ricercatori italiani sviluppano una tecnologia innovativa capace di creare e identificare metafore, ispirata ai meccanismi della cognizione umana

La capacità di creare e interpretare metafore, una delle competenze cognitive più sofisticate dell’essere umano, potrebbe presto diventare patrimonio anche dei sistemi di intelligenza artificiale. Un passo in questa direzione è rappresentato dal lavoro di tre ricercatori italiani, recentemente selezionato per la conferenza mondiale sull’intelligenza artificiale IJCAI (International Joint Conference on Artificial Intelligence), che si terrà il prossimo agosto a Montréal, in Canada.

Il paper, dal titolo “The Delta of Thought: Channeling Rivers of Commonsense Knowledge in the Sea of Metaphorical Interpretations”, è firmato da Antonio Lieto (Università di Salerno), Gian Luca Pozzato (Università di Torino) e Stefano Zoia (Università di Torino) e introduce un nuovo sistema chiamato METCL (Metaphor Elaboration in Typicality-based Compositional Logic), in grado di generare e classificare metafore sfruttando un motore logico ispirato ai meccanismi della cognizione umana.

“Combinazione e composizione sono aspetti centrali del nostro modo di esprimerci – spiega Stefano Zoia, dottorando del Dipartimento di Informatica dell’Università di Torino – e ciò è particolarmente evidente nel caso delle metafore. Per esempio, dire che qualcuno ha un cuore di pietra vuol dire associare metaforicamente il cuore alla pietra per evocare freddezza e insensibilità. METCL combina la conoscenza tipica legata ai concetti coinvolti per generare un concetto ibrido che cattura il significato della frase”.

Alla base del sistema c’è una logica composizionale basata sulla tipicalità, in grado di fondere concetti e creare nuove strutture di senso. 

“Il cuore del nostro lavoro – racconta Antonio Lieto, direttore del CIIT Lab dell’Università di Salerno – è un motore di ragionamento in grado di operare in maniera simile ai processi cognitivi umani. Questo approccio è cruciale per replicare funzioni cognitive complesse, come la comprensione e la produzione di metafore, che richiedono una vera capacità di astrazione e generalizzazione”.

Un aspetto chiave del sistema METCL è la sua spiegabilità, ovvero la capacità di fornire motivazioni per le sue decisioni in modo comprensibile agli umani: il suo funzionamento è trasparente e fondato su solide basi formali, a differenza di molti modelli sub-simbolici oggi dominanti nel panorama dell’IA.

“In un’epoca in cui si tende a pensare, erroneamente, che i grandi modelli linguistici possano fare tutto, METCL dimostra quanto sia ancora fondamentale il contributo delle logiche per la rappresentazione della conoscenza – aggiunge Gian Luca Pozzato, Professore Ordinario del Dipartimento di Informatica e presidente dei corsi di studio SUISS dell’Università di Torino. – La nostra logica descrittiva basata sulla tipicalità permette al sistema di essere interpretabile e riutilizzabile in contesti anche molto diversi tra loro”.

Le innovazioni introdotte da METCL sono molteplici. Non solo migliora le prestazioni dei sistemi attualmente disponibili nella generazione e nell’identificazione di metafore, ma lo fa in maniera complementare rispetto ai grandi modelli linguistici neurali – come GPT-4o, Qwen 2.5 Max o DeepSeek R1 – e ai precedenti approcci simbolici basati su risorse come MetaNet (UC Berkeley). Inoltre, il lavoro offre un contributo teorico rilevante: mostra come la generazione di metafore possa essere considerata un processo cognitivo di categorizzazione creativa, in linea con alcune delle teorie più influenti nelle scienze cognitive.

L’impatto potenziale di METCL va ben oltre l’ambito accademico. Le metafore non sono solo abbellimenti stilistici, ma strumenti potenti per semplificare concetti complessi. Per questo, un sistema capace di generarle o identificarle automaticamente può rivelarsi prezioso per: insegnanti, che vogliono spiegare in modo più chiaro concetti astratti o difficili; scrittori, sceneggiatori e giornalisti, che cercano ispirazione creativa; professionisti della comunicazione e del marketing, interessati a formulare messaggi più evocativi.

In definitiva, METCL dimostra come approcci alternativi e integrati possano affiancare, e potenziare, i modelli neurali nell’ambito dell’IA generativa. Un passo in avanti importante per realizzare sistemi intelligenti più simili all’essere umano, non solo in termini di prestazioni, ma anche nella capacità di “pensare in modo creativo”.

Simulare l’attività cerebrale con l’intelligenza artificiale
Immagine di Gerd Altmann

 

Testo dall’Ufficio Stampa Area Relazioni Esterne e con i Media Università degli Studi di Torino

Salute, grazie a nuovi approcci multidisciplinari sarà possibile ridurre gli interventi chirurgici alla tiroide: al via, nell’ambito del programma di crowdfunding dell’Università di Milano-Bicocca – BiUniCrowd, il progetto “Salviamo una tiroide!” 

 Al via il progetto “Salviamo una tiroide!” che punta su una diagnosi più accurata dei noduli tiroidei attraverso la ricerca di nuovi biomarcatori biologici e l’utilizzo di metodi di AI, per ridurre il numero degli interventi chirurgici alla tiroide.

Milano, 19 maggio 2025 – Migliorare la diagnosi dei noduli tiroidei classificati come “indeterminati per malignità” e ridurre il numero di tiroidectomie inutili, spesso eseguite su pazienti giovani, prevalentemente donne tra i 20 e 40 anni. Ecco il duplice obiettivo di “Salviamo una Tiroide!”, progetto nato nell’ambito del programma di crowdfunding dell’Università di Milano-Bicocca – BiUniCrowd e che ha già ottenuto il supporto di Fondazione Cariplo e Thales Alenia Space.

Le patologie alla tiroide sono molto diffuse e in aumento, si stima che circa metà della popolazione sviluppi almeno un nodulo tiroideo nel corso della vita. Distinguere tra nodulo benigno o maligno, e quindi curare di conseguenza, rimane una sfida. Nel 15-30 per cento  dei noduli, si notano delle alterazioni cosiddette “indeterminate”, che portano a interventi chirurgici spesso evitabili. Grazie a nuovi biomarcatori biologici e all’intelligenza artificiale, il team di ricerca di Milano-Bicocca e non solo punta a ridurre queste incertezze diagnostiche, migliorando la qualità di vita dei pazienti e ottimizzando le risorse sanitarie.

In particolare, è grazie all’uso dell’intelligenza artificiale, che sarà possibile riconoscere automaticamente le diverse entità cellulari all’interno di una biopsia e così aiutare il medico patologo nella valutazione dei prelievi citologici dal nodulo tiroideo, al fine di ridurre la quota di casi “indeterminati”.

Per rendere possibile tutto questo, il progetto cerca sostegno grazie alla raccolta fondi che si avvale dell’aiuto di Ideaginger.it, la piattaforma con il tasso più alto di successo in Italia. Il primo obiettivo è raggiungere 6.000€, necessari per rafforzare le nostre infrastrutture computazionali, sviluppare un’app a supporto dei clinici e creare eventi di divulgazione scientifica.

Il team di “Salviamo una tiroide!” è costituito da anatomopatologi, biotecnologi, statistici e informatici e coordinato da Giulia Capitoli, ricercatrice di statistica medica.

«Il nostro obiettivo è migliorare la qualità della vita dei pazienti, evitando tiroidectomie inutili e riducendo ansia e costi legati a diagnosi incerte», dice Giulia Capitoli, referente del team di ricerca. «Allo stesso tempo vogliamo rendere la ricerca più accessibile, coinvolgendo il pubblico in modo attivo.»

Un tema fondamentale del team è proprio la divulgazione: grazie ad una giornata specifica, organizzata nell’autunno del 2025, si potrà scoprire, attraverso incontri ed attività specifiche, la storia degli sviluppi metodologici realizzati dal gruppo dal 2016 ad oggi. I partecipanti verranno coinvolti in un percorso diagnostico completo attraverso la partecipazione a una escape room. Partendo dall’approccio clinico con i patologi, passando all’estrazione di molecole e biomarcatori con i biochimici, all’analisi delle immagini con gli informatici, fino alla creazione di modelli predittivi per la diagnosi con gli statistici sarà possibile immedesimarsi nel lavoro dei ricercatori.

Il team di “Salviamo una tiroide!”, oltre a Capitoli, è composto da: Vincenzo L’imperio, Giorgio Cazzaniga e Antonio Maria Alviano, medici e ricercatori in anatomia patologica, che si occuperanno della parte clinica del progetto. A supporto, Vanna Denti e Lisa Pagani, biotecnologhe, esperte nell’analisi di campioni biologici per l’identificazione di marcatori di patologie cliniche, come ad esempio patologie renali o tiroidee. Le grandi quantità di dati provenienti dalle analisi biologiche passano poi in mano agli statistici (Giulia Capitoli, Giulia Risca, Francesco Denti e Maria Francesca Marino) che hanno l’obiettivo di studiare le relazioni tra gli aspetti biologici e i risvolti clinici sui pazienti, tramite modelli predittivi. Sarà compito loro integrare i risultati multidisciplinari in una app che supporterà i clinici durante la diagnosi dei noduli tiroidei. Vasco Coelho, informatico, si occupa dello sviluppo di reti neurali a supporto dei clinici per la detezione, segmentazione e classificazione dei campioni di tessuto tiroideo, tramite tecniche di intelligenza artificiale per la manipolazione di immagini, che verranno integrate all’interno dell’app. Infine, Sofia Martinelli, specializzata in comunicazione, si occuperà di guidare il resto del team nella promozione del progetto e nella campagna di crowdfunding.

Testo e immagini dall’Ufficio stampa Università di Milano-Bicocca.

Parole astratte e interazione sociale: quando parlare con gli altri e con l’IA cambia la nostra cognizione

Uno studio della Sapienza mette in luce i meccanismi di apprendimento e memorizzazione dei concetti astratti e il ruolo dell’interazione con gli altri. I risultati sono stati pubblicati sulla rivista “Nature Reviews Psychology”.

Circa il 70% delle parole che usiamo sono astratte cioè non fanno riferimento a oggetti, persone, luoghi concreti, ma piuttosto a concetti generali, idee, sentimenti. È dunque cruciale capire come i concetti astratti si acquisiscono e come e perché li usiamo, anche, ad esempio, per facilitare l’apprendimento dei bambini dei concetti astratti relativi alla matematica e ad altri ambiti scientifici o anche dei concetti che rimandano a emozioni.

 

Una ricerca della Sapienza, attraverso un approccio interdisciplinare che integra scienze cognitive, neuroscienze cognitive e sociali, linguistica e filosofia del linguaggio, indaga come vengono acquisiti e utilizzati i concetti astratti e quale sia il ruolo dell’interazione sociale in questi processi di apprendimento.  I risultati dello studio, condotto insieme all’Istituto di Scienze e Tecnologie della Cognizione del CNR, sono pubblicati sulla rivista “Nature Reviews Psychology”.

Il team di ricerca, basandosi su evidenze sperimentali raccolte in laboratorio e già precedentemente pubblicate, propone diversi elementi di novità e di interesse: prima fra tutti, l’importanza di un linguaggio interno (inner speech) e della interazione con gli altri per elaborare e comprendere concetti astratti.

“Ciò che emerge dai dati ottenuti in laboratorio – spiega Anna Borghi, docente di Psicologia presso Sapienza e co-autrice dello studio – è che, per imparare e usare i concetti astratti, è essenziale sia parlare con noi stessi sia interagire con gli altri, non solo facendoci spiegare il significato di questi concetti, ma anche negoziando con loro il significato e delegando loro le nostre conoscenze”.

I ricercatori ipotizzano che i concetti astratti si siano evoluti proprio per favorire l’interazione sociale. Data la loro complessità, le persone hanno dovuto trovare un terreno comune per poterne discutere.

Oltre a ciò, il lavoro propone una differenziazione tra i concetti astratti, distinguendoli tra concetti astratti vaghi e determinati: mentre i primi, come ad esempio il termine “fantasia”, non richiedono una conoscenza e una precisione estrema, poiché ormai integrati nel nostro linguaggio, i secondi hanno un significato ben definito e tecnico, e sono solitamente utilizzati da esperti.

“Durante il Covid-19, per esempio, abbiamo sentito molte persone usare concetti come quello di “crescita esponenziale” – specifica Claudia Mazzuca, assegnista di ricerca della Sapienza e co-autrice dello studio – In realtà, pur non sapendo bene di che si trattasse, facevamo affidamento su quanto dicevano gli esperti, generando una sorta di gioco linguistico per cui non tutti devono necessariamente conoscere ogni concetto in modo approfondito per poterlo utilizzare”.

Infine lo studio analizza un fenomeno che si sta diffondendo nelle società contemporanee per effetto della crescente specializzazione: ossia il ricorso a esperti per conoscere il significato di concetti complessi come quelli astratti. Ultimamente, e sempre di più, gli esperti non sono solo altre persone, ma anche agenti artificiali come i Large Language Models. alla base dei chatbot sempre più utilizzati. Dunque l’interesse del team di ricerca si focalizza anche sul loro ruolo nella formazione dei concetti astratti.

Riferimenti:

Borghi, A.M., Mazzuca, C. & Tummolini, L. The role of social interaction in the formation and use of abstract concepts, Nat Rev Psychol (2025), DOI: https://doi.org/10.1038/s44159-025-00451-z

cervello
Parole astratte e interazione sociale: quando parlare con gli altri e con l’IA cambia la nostra cognizione; lo studio pubblicato su Nature Reviews Psychology. Immagine di Gerd Altmann 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

AlgoNomy: ripensare il rapporto medico-paziente ai tempi dell’IA

Il progetto, coordinato da Nicolò Amore, è stato finanziato con il Seed Funding Scheme di Circle U.

logo AlgoNomy

Si chiama AlgoNomy ed è un progetto che guarda al futuro della medicina attraverso l’obiettivo dell’intelligenza artificiale. Coordinato dall’Università di Pisa e nato dalla collaborazione tra diversi atenei europei riuniti nell’Alleanza Circle U., AlgoNomy mette in rete competenze, idee e strumenti per capire come le tecnologie intelligenti possano trasformare il modo in cui ci prendiamo cura della salute. Il progetto si propone di affrontare una delle sfide più urgenti della sanità del futuro: il cosiddetto paternalismo digitale, una nuova forma di paternalismo prodotto dall’implementazione dell’Intelligenza artificiale, in cui decisioni cliniche cruciali vengono sempre più influenzate dagli algoritmi, riducendo lo spazio di dialogo e co-decisione tra medico e paziente. Coordinato da Nicolò Amore, ricercatore di Diritto penale presso l’Università di Pisa, AlgoNomy riunisce un team interdisciplinare di esperti ed esperte in diritto, medicina e informatica di Università di Vienna, King’s College London, Humboldt-Universität zu Berlin, Université Paris Cité, University of Belgrade, che hanno ricevuto un finanziamento da Circle U. attraverso il Seed Funding Scheme 2024 e di cui è da poco uscita la call 2025.

“Con l’adozione crescente di dispositivi medici basati su IA, la medicina risulta sempre più guidata dai dati – spiega Nicolò Amore – Si tratta certamente di un processo da incoraggiare, vista le opportunità che apre; tuttavia, questa trasformazione comporta anche dei rischi da gestire, e in particolare quello di ridurre il ruolo attivo di pazienti e medici, mettendo in discussione la natura stessa dell’assistenza sanitaria come relazione umana e condivisa. In effetti, almeno per come attualmente concepiti, i sistemi IA che assistono le scelte terapeutiche operano spesso attraverso processi opachi, per altro basandosi esclusivamente su dati clinici quantitativi e offrendo scarse possibilità di dialogo e personalizzazione”.

Questi limiti richiedono un ripensamento profondo della progettazione e dell’integrazione dei sistemi di IA nella pratica clinica. L’approccio interdisciplinare proposto da AlgoNomy punta a restituire ai protagonisti del percorso terapeutico — pazienti e medici — un controllo reale e consapevole sui processi decisionali, preservando così l’agency umana anche in un contesto tecnologicamente avanzato.

Il team di ricerca analizzerà l’impatto dell’IA sull’autonomia dei pazienti e dei professionisti sanitari, con una particolare attenzione alle implicazioni giuridiche e alla distribuzione della responsabilità nei processi decisionali clinici:

“AlgoNomy intende indagare come molte attuali applicazioni di intelligenza artificiale in ambito sanitario tendano a escludere le preferenze individuali dei pazienti e a limitare la capacità dei medici di influenzare e comprendere appieno gli esiti terapeutici – continua Nicolò Amore – L’obiettivo è sviluppare strategie concrete per contrastare tali rischi, promuovendo un utilizzo dell’IA che sia rispettoso dei diritti fondamentali e del principio di autonomia — cardine dell’etica medica contemporanea”.

Nicolò Amore
Nicolò Amore

Il progetto rappresenta un passo significativo verso un modello di sanità digitale che coniughi innovazione, responsabilità e rispetto dell’autonomia individuale.

Algonomy al Festival della Robotica 2025

Domenica 11 maggio, il progetto sarà presentato nell’ambito della Algonomy Conference in programma presso gli Arsenali Repubblicani a partire dalle ore 9.00.

 

Testo dall’ Ufficio comunicazione di Ateneo dell’Università di Pisa

IA e chimica alleate rivoluzionano la progettazione di nuovi farmaci per malattie rare o complesse

L’Università di Pisa partner della ricerca pubblicata sull’European Journal of Medicinal Chemistry

 

Creare nuovi farmaci in modo più veloce e mirato, anche per malattie rare o complesse. Un team di ricerca internazionale, delle Università di Pisa e di Bonn ha sviluppato un innovativo approccio per generare nuove molecole chimiche grazie all’intelligenza artificiale. Al centro dello studio pubblicato sull’European Journal of Medicinal Chemistry ci sono i cosiddetti “chemical language models”, modelli linguistici ispirati a quelli usati nei chatbot come ChatGPT, capaci di leggere e scrivere il linguaggio molecolare.

“L’obiettivo – racconta il professore Tiziano Tuccinardi del Dipartimento di Farmacia dell’Ateneo pisano – è quello di superare i limiti delle tecniche tradizionali nella progettazione di nuovi farmaci, generando in modo automatico molecole chimicamente corrette, strutturalmente originali e potenzialmente bioattive, a partire da frammenti”.

Ricercatori e ricercatrici hanno addestrato tre modelli di IA per “tradurre” frammenti chimici (strutture centrali, gruppi sostituenti o combinazioni di entrambi) in nuove molecole a partire da enormi dataset di molecole bioattive.

“La ricerca rappresenta un salto qualitativo nell’uso dell’IA per la chimica e la farmacologia – continua Tuccinardi – aprendo la strada a una generazione automatica e intelligente di molecole, con impatti potenziali su sanità, industria e ricerca. Non si tratta solo di accelerare i processi, ma di immaginare strutture molecolari che la mente umana difficilmente può concepire”.

“In linea con i principi di scienza aperta – conclude Tuccinardi – il codice sorgente e i dataset utilizzati nello studio sono stati resi pubblicamente disponibili, a beneficio della comunità scientifica. Ma soprattutto, il progetto segna un traguardo importante: da oggi, anche all’Università di Pisa, è possibile generare automaticamente nuove molecole bioattive, un passo concreto verso una progettazione molecolare più rapida, innovativa e accessibile”.

Ha collaborato alla ricerca Lisa Piazza, iscritta al Dottorato in Scienza del Farmaco e delle Sostanze Bioattive dell’Università di Pisa e componente del gruppo di Chimica Computazionale del professore Tuccinardi.

Lisa Piazza e Tiziano Tuccinardi
Intelligenza artificiale (IA) e chimica alleate rivoluzionano la progettazione di nuovi farmaci per malattie rare o complesse. Nella foto, da sinistra: Lisa Piazza e Tiziano Tuccinardi

Riferimenti bibliografici:

Lisa Piazza, Sanjana Srinivasan, Tiziano Tuccinardi, Jürgen Bajorath, Transforming molecular cores, substituents, and combinations into structurally diverse compounds using chemical language models, European Journal of Medicinal Chemistry, Volume 291, 2025, 117615, ISSN 0223-5234, DOI: https://doi.org/10.1016/j.ejmech.2025.11761

Testo e immagini dall’Ufficio Stampa Rettorato Università degli Studi di Napoli Federico II.

I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale

La ricerca coordinata dall’Università di Pisa pubblicata su Communications Biology

Per la prima volta, un team di ricerca delle Università di Pisa ha dimostrato che anche i pesci zebra (zebrafish, Danio rerio, piccoli pesci d’acqua dolce noti per le loro capacità sociali e le somiglianze genetiche con l’uomo) sono in grado di “contagiarsi” a vicenda sbadigliando. Un comportamento che finora era stato documentato solo in mammiferi e uccelli, lasciando credere che fosse esclusivo degli animali a sangue caldo con sistemi sociali evolutiLo studio pubblicato su Communications Biology apre così nuovi scenari sull’origine di questa “risonanza motoria” e suggerisce che le radici del contagio dello sbadiglio potrebbero risalire a più di 200 milioni di anni fa.

I ricercatori hanno osservato che, in risposta ai video di altri zebrafish che sbadigliano, i pesci protagonisti dell’esperimento tendevano a fare altrettanto, con una frequenza quasi doppia rispetto ai video di controllo, in cui si mostravano normali comportamenti respiratori. Un effetto del tutto paragonabile a quello osservato nell’essere umano. Non solo: i pesci coinvolti sbadigliavano spesso accompagnando il gesto a una sorta di “stiracchiamento” – la pandiculazione – un comportamento noto in uccelli e mammiferi, utile per ripristinare l’attività neuromuscolare e precedere un cambiamento motorio, come un cambio di direzione nel nuoto.

Ma perché i pesci dovrebbero sbadigliare “in gruppo”? La domanda potrebbe trovare una risposta nella loro natura sociale di questi piccoli pesci. 

La sincronizzazione tra individui è fondamentale per i banchi di pesci – spiega la professoressa Elisabetta Palagi del dipartimento di Biologia dell’Università di Pisa – coordinarsi significa aumentare la vigilanza, migliorare la ricerca del cibo e difendersi meglio dai predatori. In quest’ottica, il contagio dello sbadiglio si configura come un raffinato strumento di coesione sociale”.

“L’aspetto forse più sorprendente della scoperta riguarda però l’evoluzione di questo comportamento – aggiunge Massimiliano Andreazzoli del dipartimento di Biologia dell’Ateneo pisano – e in questo caso due sono le ipotesi possibili. Il contagio dello sbadiglio è un tratto ancestrale, emeros nei primi vertebrati sociali e mantenuto da alcune linee evolutive fino a oggi. L’altra possibile interpretazione è che si tratti di un meccanismo emerso in modo indipendente in diverse specie, a testimonianza del ruolo cruciale che la coordinazione sociale ha avuto – e ha tuttora – nella sopravvivenza”.

Insieme ad Elisabetta Palagi e Massimiliano Andreazzoli ha lavorato un team di giovani ricercatori e studenti, come Alice Galotti e Matteo Digregorio, dottorandi in Biologia, e Sara Ambrosini, studentessa magistrale. La parte legata all’IA è stata invece sviluppata dal professore Donato Romano, esperto di robotica bioispirata, e Gianluca Manduca, dottorando presso la Scuola Superiore Sant’Anna. Grazie a un sofisticato modello di deep learning da loro sviluppato all’Istituto di BioRobotica è stato possibile distinguere con precisione i veri sbadigli dai semplici atti respiratori, rendendo oggettiva l’osservazione e replicabili i risultati.

La ricerca è stata finanziata dal National Geographic Meridian Project OCEAN-ROBOCTO e dal Dipartimento di Biologia dell’Università di Pisa nell’ambito del programma Dipartimenti di Eccellenza.

Riferimenti bibliografici:

Galotti, A., Manduca, G., Digregorio, M. et al. Diving back two hundred million years: yawn contagion in fish, Commun Biol 8, 580 (2025), DOI: https://doi.org/10.1038/s42003-025-08004-z

pesci Femmina di pesce zebra (Brachydanio rerio). Foto di Marrabbio2, in pubblico dominio
I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale. Femmina di pesce zebra (Brachydanio rerio). Foto di Marrabbio2, in pubblico dominio

Testo dall’Ufficio comunicazione di Ateneo dell’Università di Pisa