I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale
La ricerca coordinata dall’Università di Pisa pubblicata su Communications Biology
Per la prima volta, un team di ricerca delle Università di Pisa ha dimostrato che anche i pesci zebra (zebrafish, Danio rerio, piccoli pesci d’acqua dolce noti per le loro capacità sociali e le somiglianze genetiche con l’uomo) sono in grado di “contagiarsi” a vicenda sbadigliando. Un comportamento che finora era stato documentato solo in mammiferi e uccelli, lasciando credere che fosse esclusivo degli animali a sangue caldo con sistemi sociali evoluti. Lo studio pubblicato su Communications Biologyapre così nuovi scenari sull’origine di questa “risonanza motoria” e suggerisce che le radici del contagio dello sbadiglio potrebbero risalire a più di 200 milioni di anni fa.
I ricercatori hanno osservato che, in risposta ai video di altri zebrafish che sbadigliano, i pesci protagonisti dell’esperimento tendevano a fare altrettanto, con una frequenza quasi doppia rispetto ai video di controllo, in cui si mostravano normali comportamenti respiratori. Un effetto del tutto paragonabile a quello osservato nell’essere umano. Non solo: i pesci coinvolti sbadigliavano spesso accompagnando il gesto a una sorta di “stiracchiamento” – la pandiculazione – un comportamento noto in uccelli e mammiferi, utile per ripristinare l’attività neuromuscolare e precedere un cambiamento motorio, come un cambio di direzione nel nuoto.
Ma perché i pesci dovrebbero sbadigliare “in gruppo”? La domanda potrebbe trovare una risposta nella loro natura sociale di questi piccoli pesci.
“La sincronizzazione tra individui è fondamentale per i banchi di pesci – spiega la professoressa Elisabetta Palagi del dipartimento di Biologia dell’Università di Pisa – coordinarsi significa aumentare la vigilanza, migliorare la ricerca del cibo e difendersi meglio dai predatori. In quest’ottica, il contagio dello sbadiglio si configura come un raffinato strumento di coesione sociale”.
“L’aspetto forse più sorprendente della scoperta riguarda però l’evoluzione di questo comportamento – aggiunge Massimiliano Andreazzoli del dipartimento di Biologia dell’Ateneo pisano – e in questo caso due sono le ipotesi possibili. Il contagio dello sbadiglio è un tratto ancestrale, emeros nei primi vertebrati sociali e mantenuto da alcune linee evolutive fino a oggi. L’altra possibile interpretazione è che si tratti di un meccanismo emerso in modo indipendente in diverse specie, a testimonianza del ruolo cruciale che la coordinazione sociale ha avuto – e ha tuttora – nella sopravvivenza”.
Insieme ad Elisabetta Palagi e Massimiliano Andreazzoli ha lavorato un team di giovani ricercatori e studenti, come Alice Galotti e Matteo Digregorio, dottorandi in Biologia, e Sara Ambrosini, studentessa magistrale. La parte legata all’IA è stata invece sviluppata dal professore Donato Romano, esperto di robotica bioispirata, e Gianluca Manduca, dottorando presso la Scuola Superiore Sant’Anna. Grazie a un sofisticato modello di deep learning da loro sviluppato all’Istituto di BioRobotica è stato possibile distinguere con precisione i veri sbadigli dai semplici atti respiratori, rendendo oggettiva l’osservazione e replicabili i risultati.
La ricerca è stata finanziata dal National Geographic Meridian Project OCEAN-ROBOCTO e dal Dipartimento di Biologia dell’Università di Pisa nell’ambito del programma Dipartimenti di Eccellenza.
Riferimenti bibliografici:
Galotti, A., Manduca, G., Digregorio, M. et al. Diving back two hundred million years: yawn contagion in fish, Commun Biol8, 580 (2025), DOI: https://doi.org/10.1038/s42003-025-08004-z
I pesci zebra sbadigliano e si contagiano a vicenda: una scoperta che riscrive l’evoluzione del comportamento sociale. Femmina di pesce zebra (Brachydanio rerio). Foto di Marrabbio2, in pubblico dominio
Testo dall’ Ufficio comunicazione di Ateneo dell’Università di Pisa
Distinguere i buchi neri: sarà più facile grazie a un nuovo metodo basato sull’intelligenza artificiale sviluppato dall’Università di Milano-Bicocca
Pubblicato sulla rivista Physical Review Letters, lo studio rivoluziona i metodi tradizionali dell’astronomia delle onde gravitazionali.
Milano, 31 marzo 2025 – Un innovativo metodo basato sull’intelligenza artificiale che migliora la precisione nella classificazione di buchi neri e stelle di neutroni. È quello sviluppato da un team di ricercatori dell’Università di Milano-Bicocca, guidato dal professor Davide Gerosa e supportato dallo European Research Council. Lo studio, pubblicato sulla rivistaPhysical Review Letters, mette in discussione un’ipotesi ritenuta valida per decenni e apre la strada a un’analisi più accurata dei segnali cosmici.
L’astronomia delle onde gravitazionali permette di osservare coppie di oggetti compatti quali stelle di neutroni e buchi neri: le onde gravitazionali sono infatti prodotte dallo spiraleggiamento e dalla fusione di questi sistemi binari. Le analisi tradizionali assumono a priori come distinguere i due oggetti in ciascuna binaria.
«Fino a oggi, il metodo più diffuso per l’identificazione degli oggetti prevedeva di etichettare il più massiccio come “1” e il meno massiccio come “2”. Tuttavia, questa scelta, apparentemente intuitiva, introduce ambiguità nelle misure, specialmente nei sistemi binari con masse simili. Ci siamo chiesti: è davvero la scelta migliore?», spiega Gerosa.
Il nuovo studio propone di superare questa limitazione utilizzando una tecnica di intelligenza artificiale chiamata spectral clustering che analizza l’insieme completo dei dati senza applicare etichette rigide a priori. Questo nuovo metodo consente di ridurre le incertezze nelle misure degli spin dei buchi neri, ovvero nella determinazione della velocità e della direzione di rotazione di questi oggetti. Una corretta misurazione dello spin è fondamentale per comprendere la formazione e l’evoluzione dei buchi neri. Il nuovo approccio migliora notevolmente la precisione di queste misure e rende più affidabile la distinzione tra buchi neri e stelle di neutroni.
«Questa pubblicazione mette in discussione un presupposto di lunga data che è alla base di tutte le analisi delle onde gravitazionali fino a oggi, e che è rimasto indiscusso per decenni», continua l’astrofisico. «I risultati sono sorprendenti: le misurazioni dello spin sono più precise e distinguere i buchi neri dalle stelle di neutroni diventa più affidabile».
Davide Gerosa, Università di Milano-Bicocca, alla guida del team di ricercatori che ha prodotto lo studio su Physical Review Letters, che impiega l’intelligenza artificiale per un nuovo metodo al fine di distinguere i buchi neri
Lo studio condotto ha immediate ricadute per l’analisi dei dati raccolti con gli attuali rivelatori di onde gravitazionali LIGO e Virgo, nonché con quelli di futura costruzione quali LISA e l’Einstein Telescope. Questa ricerca apre la strada a una revisione delle tecniche di analisi delle onde gravitazionali e sottolinea, inoltre, il ruolo crescente dell’intelligenza artificiale nella ricerca astrofisica.
Testo e immagini dall’Ufficio stampa Università di Milano-Bicocca.
AI e Formazione: Un Nuovo Paradigma Didattico – recensione di “AI Experience con 101Ò” (Fòrema, 2024)
Articolo a cura di Federica Illuzzi e Gianluca Viola
L’intelligenza artificiale sta ridefinendo profondamente il mondo dell’istruzione e della formazione, introducendo strumenti innovativi che migliorano l’apprendimento e ne amplificano l’efficacia. In questo scenario, AI Experience con 101Ò, realizzato dall’AI Development Team di Fòrema, si distingue come un contributo prezioso. Il libro si propone come una guida pratica all’integrazione dell’AI nei processi formativi, con un approccio che mette al centro l’esperienza, trasformando l’AI da semplice strumento tecnologico a una vera e propria metodologia didattica in grado di rivoluzionare l’insegnamento e l’apprendimento.
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi
Uno degli elementi più interessanti dell’opera è il legame tra l’Intelligenza Artificiale e il ciclo di apprendimento esperienziale di Kolb. Gli LLM vengono presentati come dispositivi in grado di arricchire ogni fase del percorso formativo: dalla progettazione dei corsi all’analisi dei bisogni, dalla conduzione delle attività formative fino alla valutazione dei risultati.
Grazie a tecnologie come l’Adaptive Learning, i chatbot e le simulazioni immersive, i formatori hanno la possibilità di personalizzare l’insegnamento in base alle esigenze specifiche degli studenti, offrendo esperienze didattiche più dinamiche e su misura.
Il fattore adattativo dell’approccio utilizzato, supportato dalle tecnologie, permette infatti di ritagliare una formazione su misura per ciascuna risorsa umana, nell’ottica di una formazione life-long e sempre pertinente al contesto.
I fabbisogni formativi possono essere identificati e selezionati avvalendosi delle tecnologie, sulla base di attitudini e necessità del singolo discente. Le modalità di somministrazione, i tempi e i contenuti possono essere progettati ad hoc per ognuno e possono essere variati, per via della versatilità delle soluzioni, in qualsiasi momento e adattati a nuovi scopi. Un sistema di apprendimento in continuo divenire che può inseguire le necessità del singolo. Pertanto, si propone come un’alternativa ad alta efficacia rispetto alla formazione aziendale erogata in modalità “standard”.
Il libro si suddivide in due macroaree. La prima approfondisce il ruolo dell’AI come strumento didattico, mentre la seconda si concentra sulle sue applicazioni pratiche. Un concetto chiave è quello della formazione adattiva, che sfrutta lo strumento per personalizzare i percorsi di apprendimento in tempo reale. Grazie alle piattaforme di Learning Analytics, è possibile raccogliere dati sul comportamento degli studenti e adattare i contenuti in base ai loro progressi e alle loro difficoltà. Questo approccio promuove un modello di apprendimento continuo, in cui ogni studente riceve il supporto più adatto alle necessità.
Un altro aspetto innovativo affrontato riguarda l’utilizzo dell’AI nella progettazione didattica. Gli autori spiegano come l’intelligenza artificiale possa supportare sia la macro che la micro-progettazione dei corsi, suggerendo contenuti personalizzati e adattando le attività formative ai diversi stili di apprendimento.
L’analisi predittiva consente di individuare con maggiore precisione le competenze che saranno richieste nel futuro, aiutando i formatori a costruire percorsi didattici mirati e aggiornati rispetto ai cambiamenti del mercato del lavoro.
Durante l’erogazione della formazione, l’AI assume un ruolo chiave nel fornire feedback immediati e personalizzati. Strumenti come i tutor virtuali e le piattaforme di simulazione permettono agli studenti di sperimentare situazioni realistiche in ambiente controllato, ricevendo suggerimenti e correzioni in tempo reale. L’utilizzo della gamification e della Realtà virtuale rende l’apprendimento più coinvolgente, mentre i chatbot possono rispondere alle domande e chiarire dubbi in modo più rapido ed efficace.
Anche la fase di valutazione dell’apprendimento beneficia degli LLM, grazie a strumenti avanzati di analisi dei dati. Il testo spiega come i modelli possano misurare i progressi degli studenti attraverso sistemi di valutazione adattiva, che modulano la difficoltà dei test in base alle risposte fornite. Le dashboard analitiche consentono ai formatori di monitorare in modalità sincrona l’andamento del percorso d’apprendimento e di apportare eventuali modifiche per ottimizzarne l’efficacia.
Oltre agli aspetti metodologici e pratici, il volume affronta anche le sfide e le implicazioni pedagogiche legate all’uso di tali dispositivi nella formazione continua.
Tra le criticità emergenti, spiccano la necessità di evitare un’eccessiva standardizzazione dei percorsi di apprendimento, il rischio di bias nei dati utilizzati per addestrare gli algoritmi e l’importanza di un uso etico e responsabile dell’Intelligenza Artificiale. Si sottolinea, infatti, come la “blackbox” debba essere considerata di supporto all’intelligenza umana, e non un suo sostituto. L’interazione critica e ponderata fra uomo e macchina rimane fondamentale per preservare gli aspetti relazionali e motivazionali del processo di insegnamento-apprendimento, elementi fondanti per il successo di qualsiasi processo educativo.
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema, in questa immagine generata (licenza) e modificata (licenza) da Federica Illuzzi
AI Experience con 101Ò può essere, pertanto, una risorsa di grande valore per chi lavora nel settore della formazione e vuole approfondire le potenzialità delle nuove tecnologie in ambito didattico. Il libro offre una panoramica completa e aggiornata sugli strumenti e le metodologie emergenti, delineando un modello formativo in cui l’AI non è solo un mezzo di supporto, ma un motore di innovazione pedagogica. Grazie a un approccio pratico e sperimentale, il volume si rivela essenziale per ripensare l’apprendimento nell’era digitale dell’informazione, promuovendo un’educazione continua più efficace, inclusiva e personalizzata.
Il contesto in cui si sviluppano i prodotti presentati nell’opera è altamente mutevole, pertanto le modalità scelte per la progettazione sono volutamente versatili e agili. In ogni momento della progettazione possono cambiare completamente gli scenari, sia in termini di fabbisogni che di budget. Per far fronte alla complessità del contesto, la metodologia scelta si basa su storie agili e sprint.
Una storia agile è costituita da una struttura semplice e narrativa che, partendo dal ruolo ricoperto, spiega gli strumenti che si vogliono utilizzare e il perché, ovvero gli obiettivi da raggiungere.
Lo sprint è un ciclo di sviluppo, basato su un set di storie agili, nel quale pressoché tutti i parametri possono mutare, tranne il tempo. In questa trattazione uno sprint dura un mese. Al termine di ogni sprint, dopo opportuni test di validazione delle funzionalità, se il ciclo è completato la procedura può essere archiviata per essere utilizzata in futuro.
Negli ultimi capitoli il test fornisce una serie di applicazioni (alcune già progettate e altre ancora da progettare) per molte figure in ambito HR, da progettisti della formazione, ai coach, da trainer di hard e soft skills ad HR Manager.
Tra le applicazioni in fase di test in ambito HR Management sono annoverate alcune soluzioni di supporto alla selezione del personale. Tra tutte, queste sono le più delicate, in quanto le analisi del curriculum vitae potrebbero essere affette da bias, che potrebbero penalizzare per criteri legati al genere o ad altri attributi non prettamente legati alla sfera lavorativa. Questa è la sfida principale dei prossimi sprint.
L’intelligenza artificiale sta modificando e modificherà il mondo dell’istruzione e della formazione. Se la sfida è ormai lanciata, questo manuale operativo fornisce le basi per coglierla con la giusta criticità e senza paura.
la copertina del saggio AI Experience con 101Ò, opera di AA. VV., edito da Fòrema
Il libro recensito è stato cortesemente fornito dalla casa editrice.
Cancro ovarico: un nuovo alleato diagnostico grazie all’intelligenza artificiale
L’Intelligenza artificiale potrebbe affiancare i medici nella definizione ecografica del rischio di malignità di formazioni ovariche. Lo dimostra un nuovo studio a cui hanno partecipato l’Università di Milano-Bicocca e la Fondazione IRCCS San Gerardo dei Tintori.
Milano, 22 gennaio 2025 – Individuare un tumore in fase precoce è fondamentale per garantire una prevenzione e una cura efficaci. Oggi c’è un alleato in più, che sta imparando molto in fretta ed è sempre più preciso: si tratta dell’intelligenza artificiale. Lo dice un recente studio, pubblicato sulla rivista Nature Medicine, a cui ha collaborato Robert Fruscio, professore associato in Ginecologia e Ostetricia dell’Università di Milano-Bicocca e direttore della Struttura semplice di Ginecologia Preventiva della Fondazione IRCCS San Gerardo dei Tintori: la ricerca, condotta da un team del Karolinska Institutet in Svezia, ha coinvolto 20 centri in otto Paesi e ha analizzato un dataset di oltre 17.000 immagini ecografiche provenienti da più di 3.600 pazienti, tra cui alcune che si sono rivolte all’Ospedale San Gerardo di Monza. L’obiettivo è stato quello di addestrare un programma di Intelligenza artificiale a distinguere, in queste immagini, le lesioni ovariche benigne da quelle maligne e testare le potenzialità di questi modelli nel supportare le diagnosi mediche, ridurre il margine di errore diagnostico e migliorare la gestione clinica delle pazienti.
«Le lesioni ovariche sono comuni e spesso rilevate incidentalmente, per questo è fondamentale, al fine di impostare un trattamento corretto, definirne il più precisamente possibile il rischio di malignità», spiega Robert Fruscio. «Abbiamo sviluppato e validato un sistema di Intelligenza artificiale in grado di distinguere, a partire da un’immagine ecografica, le lesioni ovariche benigne e quelle maligne. Abbiamo poi confrontato le prestazioni dell’IA con quelle di operatori ecografici esperti (tra i quali io e altri colleghi da tutto il mondo) e di operatori non esperti. Il modello si è rivelato superiore, seppur di pochissimo, agli esperti e significativamente migliore dei non esperti».
I modelli basati sull’Intelligenza artificiale, nello specifico, hanno raggiunto un tasso di accuratezza nell’individuazione del cancro ovarico dell’86%, rispetto all’82% degli esperti umani e al 77% di quelli con minore esperienza. I risultati sono stati consistenti indipendentemente dall’età dei pazienti, dai dispositivi ecografici utilizzati e dai contesti clinici.
L’importanza di questa sperimentazione avviene in un contesto generale in cui gli operatori esperti scarseggiano in molte parti del mondo e non sono disponibili in tutti gli ospedali. La carenza di ecografisti esperti ha come conseguenza da una parte l’esecuzione di interventi chirurgici non necessari e dall’altra una diagnosi ritardata di cancro.
«I modelli di intelligenza artificiale potrebbero quindi costituire un ausilio per gli operatori meno esperti nel processo di selezione di pazienti da inviare a centri di secondo livello e, dall’altra parte, evitare chirurgie inutili in pazienti con lesioni a basso rischio», continua Robert Fruscio. «In generale, è il classico caso in cui la IA non si sostituisce all’uomo, ma potrebbe migliorare l’efficienza di tutto il sistema e la gestione delle pazienti».
Sempre secondo lo studio, in una simulazione di triage, il supporto diagnostico guidato dall’IA ridurrebbe del 63% i rinvii agli esperti, superando significativamente le prestazioni diagnostiche della pratica corrente. Pur sottolineando che sono necessari ulteriori studi prospettici e randomizzati per convalidare il beneficio clinico e le prestazioni diagnostiche dei modelli di Intelligenza artificiale, lo studio offre spunti di riflessione sull’applicabilità dei sistemi di supporto diagnostico guidati dall’IA per la diagnosi del cancro ovarico.
Riferimenti bibliografici:
Christiansen, F., Konuk, E., Ganeshan, A.R. et al. International multicenter validation of AI-driven ultrasound detection of ovarian cancer, Nat Med31, 189–196 (2025), DOI: https://doi.org/10.1038/s41591-024-03329-4
Colite ulcerosa e poliposi: stop alla rimozione di colon e retto grazie a innovativa biostampante colonoscopica che ricrea le mucose dell’intestino, grazie al progetto Tentacle
L’Università di Pisa partner del nuovo progetto europeo Tentacle che svilupperà il dispositivo
Una biostampante colonscopica, la prima mai realizzata, per ricreare la mucosa e la sottomucosa dell’intestino ed evitare la rimozione chirurgica del colon e del retto nei pazienti affetti da colite ulcerosa e poliposi adenomatosa familiare. Il rivoluzionario dispositivo sarà realizzato nei prossimi quattro anni grazie a Tentacle, un progetto europeo in partenza a gennaio 2025 che annovera fra i partner l’Università di Pisa.
Le malattie del colon-retto sono molto diffuse a livello globale ed attualmente in Europa ne sono affetti circa 2.2 milioni di individui. Tra queste ci sono la colite ulcerosa e la poliposi adenomatosa familiare. Chi è colpito da queste patologie spesso viene sottoposto a una proctocolectomia, un intervento chirurgico molto invasivo che prevede la rimozione della parte terminale del colon e del retto con gravi conseguenze sulla qualità della vita.
Per ovviare a questo scenario, il progetto TENTACLE mira a sviluppare una strategia innovativa e personalizzata in grado di sostituire la proctocolectomia attraverso la rigenerazione del tessuto mucoso e sottomucoso.
“La biostampante colonoscopica che vogliamo progettare e costruire – spiega il professore Giovanni Vozzi dell’Ateneo pisano – potrà operare direttamente nell’intestino attraverso una procedura minimamente invasiva. Il dispositivo sarà potenziato da un sistema di intelligenza artificiale per monitorare la qualità della stampa e personalizzare l’intervento sulle esigenze del singolo paziente. TENTACLE svilupperà inoltre dei biomateriali all’avanguardia con proprietà avanzate, come la capacità di cambiare forma nel tempo per mimare la morfologia intestinale e di rilasciare agenti antibiotici e antibatterici in maniera controllata e graduale”.
TENTACLE è finanziato dall’Unione Europea nell’ambito del programma di ricerca e innovazione HORIZON Health 2024. Il finanziamento previsto è di poco meno di 8 milioni di euro, di cui circa un milione sono destinati al Centro di Ricerca E. Piaggio dell’Università di Pisa.
Il consorzio del progetto è costituito da dieci partner accademici e industriali. Insieme all’Ateneo pisano ci sono l’Università di Wurzburg (Germania) come coordinatrice del progetto, l’Università di Ghent (Belgio), l’Università di Torino e il Politecnico di Torino. Si aggiungono quattro partner industriali, affiancati dall’Istituto Superiore di Sanità italiano, che forniranno al consorzio l’esperienza e le competenze necessarie per tradurre i risultati in prodotti all’avanguardia, vicini al paziente e al mercato: ADBioink (Turchia), ThioMatrix (Austria), BeWarrant (Belgio), Scinus Cell Expansion Netherland B.V. (Olanda).
Progetto Tentacle: una biostampante colonscopica per ricreare la mucosa e la sottomucosa dell’intestino; stop alla rimozione di colon e retto. Il team UniPi
Testo e foto dall’Ufficio stampa dell’Università di Pisa.
Studio dell’Università di Padova pone le basi per una nuova generazione di strumenti diagnostici e terapeutici che combinano la scienza delle reti, la biologia computazionale e la medicina digitale
Il futuro della medicina personalizzata sta assumendo una nuova forma grazie a un approccio trasparente basato su modelli computazionali che superano i limiti delle tradizionali metodologie di intelligenza artificiale.
Un team internazionale guidato da ricercatori dell’Università di Padova del Padua Center for Network Medicine ha proposto un nuovo quadro concettuale per l’uso dei gemelli digitali (digital twins) in medicina di precisione. Il gemello digitale è un modello virtuale di un oggetto fisico che segue il ciclo di vita dell’oggetto e utilizza i dati in tempo reale inviati dai sensori sull’oggetto stesso per simularne il comportamento e monitorare le operazioni.
I gemelli digitali per la medicina personalizzata; uno studio pubblicato sulla rivista NPJ Digital Medicine
I risultati della ricerca dal titolo Challenges and opportunities for digitaltwins in precision medicine from acomplex systems perspective sono stati pubblicati sulla rivista scientifica «NPJ Digital Medicine», del gruppo editoriale Nature, e pongono le basi per una nuova generazione di strumenti diagnostici e terapeutici che combinano la scienza delle reti, la biologia computazionale e la medicina digitale.
«Il nostro approccio non è un semplice esercizio di modellazione predittiva – spiega Manlio De Domenico, primo autore dello studio e docente al dipartimentodi Fisica e Astronomia dell’Università di Padova –. Si basa su modelli computazionali complessi guidati da ipotesi biologiche esplicite, che consentono di simulare e analizzare interventi terapeutici in modo trasparente e interpretabile, migliorando la comprensione dei meccanismi sottostanti ai processi biologici. La sfida, adesso, è farli comunicare bene tra loro».
Manlio De Domenico
Una piattaforma interdisciplinare per la medicina del futuro
Lo studio si distingue per la sua interdisciplinarietà, poiché integra concetti e tecniche della fisica statistica con la biologia e la medicina. I gemelli digitali descritti nel lavoro non sono semplici riproduzioni statistiche di dati clinici ma veri e propri modelli esplicativi che, in linea di principio, sono in grado di replicare in-silico il comportamento di cellule, organi o interi organismi utilizzando simulazioni basate su meccanismi biologici multiscala e multilivello. Questo consente di esplorare strategie terapeutiche dinamiche e ottimizzare le decisioni cliniche in tempo reale.
La ricerca, condotta in collaborazione con l’Università Ca’ Foscari di Venezia, la Binghamton University (USA), il London Institute for Mathematical Sciences e la Universidade Católica Portuguesa di Lisbona, mette in evidenza come questi modelli possano colmare le lacune delle tecniche basate sull’intelligenza artificiale “opaca”, definita tale in quanto la sua complessità impedisce agli utenti umani di comprendere e spiegare pienamente i meccanismi che la guidano, suscitando una certa diffidenza nel suo utilizzo. Questa complessità ostacola la diffusione dell’intelligenza artificiale in settori cruciali come medicina e sicurezza.
«Il nostro obiettivo è rendere la medicina personalizzata più affidabile e comprensibile, evitando l’opacità delle soluzioni puramente data-driven», aggiunge Valeria d’Andrea, ricercatrice del dipartimento di Fisica e Astronomia dell’Ateneo patavino, che ha contribuito allo studio.
Valeria D’Andrea
Impatti pratici e applicazioni future
Grazie all’uso di modelli generativi ipotesi-guidati, questo approccio promette di migliorare l’efficacia delle terapie personalizzate, riducendo i rischi associati a diagnosi e trattamenti non ottimali. L’integrazione di “big data” biologici, storici e ambientali consente inoltre di catturare la complessità delle interazioni biologiche e dell’esposoma (l’insieme degli stimoli ambientali che entrano in contatto con il corpo), aprendo nuove possibilità nella lotta contro malattie complesse come il cancro, le malattie neurodegenerative e molte patologie croniche.
«I gemelli digitali non solo simulano scenari clinici realistici, ma permettono di testare interventi terapeutici in modo sicuro ed efficiente, fornendo uno spettro di alternative clinicamente rilevanti per supportare le decisioni dei medici», conclude De Domenico.
Questa ricerca rappresenta un punto di incontro tra fisica dei sistemi complessi, medicina e biologia dei sistemi e delinea nuove prospettive per lo sviluppo di una medicina più equa, efficace e sostenibile, segnando un passo importante verso la realizzazione del potenziale della medicina di precisione. L’impegno del Padua Center for Network Medicine dell’Università di Padova in questa direzione sottolinea il ruolo centrale della ricerca interdisciplinare nella trasformazione della medicina moderna.
Riferimenti bibliografici:
Autori: Manlio De Domenico, Luca Allegri, Guido Caldarelli, Valeria d’Andrea, Barbara Di Camillo, Luis M. Rocha, Jordan Rozum, Riccardo Sbarbati, & Francesco Zambelli, Challenges and opportunities for digitaltwins in precision medicine from acomplex systems perspective – «NPJ Digital Medicine» – 2025
Ricercatori dell’Università di Milano-Bicocca scoprono una nuova emoglobina grazie alla tecnologia più avanzata: è l’Emoglobina Monza
Si chiama Emoglobina Monza ed è una nuova variante di emoglobina instabile associata ad anemia emolitica acuta in età pediatrica: è stata identificata alla Fondazione IRCCS San Gerardo dei Tintori di Monza e studiata grazie all’intelligenza artificiale e ad altre tecniche avanzate.
Milano, 19 dicembre 2024 – Una nuova variante emoglobinica, denominata “Emoglobina Monza”, è stata individuata da un gruppo di ricercatori dell’Università di Milano-Bicocca. Questa variante, causata da una duplicazione di 23 aminoacidi nel gene dell’emoglobina (HBB), comporta instabilità della proteina, provocando episodi di anemia emolitica acuta, soprattutto in occasione di episodi febbrili. La scoperta, pubblicata sulla rivista Med di Cell Press, apre il campo a nuove prospettive per lo studio di queste rare patologie grazie all’utilizzo di tecniche di Intelligenza artificiale.
Il modello tridimensionale della catena beta dell’emoglobina Monza
(in oro), ricostruito utilizzando l’intelligenza artificiale (AlphaFold), è stato
sovrapposto alla catena beta di un’emoglobina normale (in blu). Si può notare come
la struttura generale sia preservata, fatta eccezione per la duplicazione genetica
che sporge chiaramente al di fuori della proteina (in alto a destra)
L’emoglobina è una proteina fondamentale per il trasporto
dell’ossigeno nel sangue. Nei globuli rossi, è solitamente composta da quattro
subunità: due catene alfa e due catene beta, che insieme formano la struttura
quaternaria, una sorta di impalcatura che ne assicura la funzionalità.
In questo modello, l’emoglobina Monza, pur presentando una duplicazione
genetica nella catena beta, mantiene la capacità di legarsi alle due catene alfa
“normali”, formando una struttura quaternaria funzionale (in oro). La figura mostra la
sovrapposizione tra la struttura quaternaria dell’emoglobina Monza e una struttura
normale (in blu), evidenziando le differenze introdotte dalla mutazione, come le
duplicazioni che sporgono in alto
In un fluido che simula la salinità del sangue umano e portato a
38°C, come durante un episodio febbrile, è stato osservato il comportamento
dell’emoglobina Monza. All’inizio della simulazione (immagine in alto), l’atomo di
ferro (sfera rossa) è in stretto contatto con la proteina.
Alla fine della simulazione (immagine in basso), l’aumento di temperatura provoca la
perdita di contatto tra l’atomo di ferro e gli aminoacidi, evidenziando
l’instabilità termica di questa variante emoglobinica
Il caso clinico che ha portato alla scoperta è stato quello di una bambina di origine cinese che, a seguito di un episodio febbrile, ha sviluppato una grave anemia emolitica, condizione patologica caratterizzata da una distruzione accelerata dei globuli rossi, a un ritmo superiore alla capacità del midollo osseo di produrli. Le conseguenze della patologia possono essere gravi, specialmente in età pediatrica quando gli episodi acuti possono compromettere seriamente lo stato di salute dei piccoli pazienti.
«Esistono varianti emoglobiniche, note come “emoglobine instabili”, che tendono a essere degradate (ovvero distrutte) sotto stress fisici, come gli episodi febbrili, scatenando così crisi emolitiche. A causarle generalmente sono alterazioni puntiformi nella sequenza amminoacidica dell’emoglobina, che modifica la stabilità e la funzionalità della proteina stessa», spiega Carlo Gambacorti-Passerini, direttore del reparto di Ematologia della Fondazione IRCCS San Gerardo dei Tintori di Monza e professore presso l’Università di Milano-Bicocca, che ha coordinato il progetto di ricerca.
La piccola paziente è stata seguita presso la Fondazione IRCCS San Gerardo dei Tintori di Monza dalla pediatra Paola Corti e dal tecnico Amedeo Messina, che hanno realizzato che l’anemia era dovuta a una variante anomala di emoglobina con un comportamento instabile in situazioni di stress. Indagini successive hanno rivelato che anche la madre e i due fratelli della bambina possedevano la stessa variante e manifestavano episodi simili nel corso di episodi febbrili. Un’analisi genetica specifica ha mostrato che la variante non solo era inedita, ma era anche caratterizzata da una duplicazione molto lunga (23 aminoacidi) del gene che codifica la catena beta dell’Emoglobina (HBB), una caratteristica mai osservata prima in altre emoglobine instabili.
Le duplicazioni lunghe nel gene HBB sono molto rare e sono state sempre associate a un’altra malattia, la beta-talassemia. Infatti, si è sempre ritenuto che le lunghe duplicazioni comportino un’alterata interazione tra le due catene che compongono l’emoglobina, Beta e Alfa. Il dottor Ivan Civettini, ematologo, ora dottorando presso l’IRCCS Ospedale San Raffaele, e la dottoressa Arianna Zappaterra, medico presso la divisione di Ematologia della Fondazione IRCCS San Gerardo dei Tintori di Monza, si sono quindi chiesti come una mutazione di tale portata potesse comunque consentire all’emoglobina di mantenere una funzionalità normale, almeno in condizioni fisiologiche.
«La struttura della variante emoglobinica è stata ricreata utilizzando tecniche di modeling tridimensionale e intelligenza artificiale (reti neurali), recentemente premiate con il Nobel per la chimica», precisa Ivan Civettini. «In condizioni normali, il legame tra le due catene dell’emoglobina è preservato e la duplicazione si presenta come una lunga protrusione che sbatte un po’ come una banderuola nel vento, al di fuori della struttura proteica dell’emoglobina. Inoltre abbiamo osservato che questa mutazione non compromette il centro attivo dell’emoglobina, dove avviene il legame con ossigeno e ferro. In sintesi, in condizioni normali, l’emoglobina Monza resta stabile e il legame preservato tra le catene dell’emoglobina non causa beta-talassemia».
Che cosa avviene dunque nel sangue durante l’episodio febbrile? Per ricreare questa condizione sono state utilizzate ulteriori tecniche computazionali avanzate, note come “dinamica molecolare”. È stato ricreato un fluido con la stessa “salinità” del sangue umano, dove è stata inserita l’emoglobina normale e l’emoglobina Monza e che è stato portato alla temperatura di 38°C, come durante un episodio febbrile. Risultato? L’Emoglobina Monza si degrada più velocemente di quella normale, perdendo il contatto con l’atomo di ferro. Questi esperimenti sono stati eseguiti in collaborazione col professor Alfonso Zambon dell’Università di Modena e Reggio Emilia.
«La scoperta offre nuovi spunti per comprendere meglio varianti rare di emoglobina, ma che diverranno sempre più frequenti in Italia con l’aumento di etnie diverse da quella caucasica», aggiunge Carlo Gambacorti-Passerini. «L’uso di tecniche computazionali moderne e l’ausilio dell’intelligenza artificiale hanno reso questo tipo di studi più rapido ed economico rispetto a metodi tradizionali come, per esempio, la cristallografia a raggi X. Un’ulteriore prova dell’importanza della collaborazione tra diverse istituzioni nella medicina moderna».
Testo e immagini dall’Ufficio Stampa dell’Università di Milano-Bicocca
La via italiana ai chatbot del futuro: presentata Minerva 7B, l’ultima versione del modello linguistico IA targato Sapienza, addestrato con 1.5 trilioni di parole e che alza lo standard di sicurezza degli LLM italiani
Minerva 7B stata sviluppata in ambito FAIR (Future Artificial Intelligence Research) e in collaborazione con CINECA
Roma, 26 novembre 2024 – L’eccellenza della ricerca Sapienza nel campo dell’Intelligenza artificiale: è stato annunciato oggi il rilascio di Minerva 7B, l’ultima versione della famiglia dei modelli Minerva, i Large Language Model (LLM) addestrati “da zero” per la lingua italiana. Il nuovo modello linguistico Minerva è stato realizzato dal gruppo di ricerca Sapienza NLP (Natural Language Processing), guidato dal Prof. Roberto Navigli, all’interno di FAIR (Future Artificial Intelligence Research), il progetto che realizza la strategia nazionale sull’intelligenza artificiale grazie ai fondi PNRR, e in collaborazione con CINECA che ha reso disponibile il supercomputer Leonardo. Alla presentazione la Rettrice della Sapienza Antonella Polimeni, il Presidente FAIR Giuseppe De Pietro, la Direttrice Generale CINECA Alessandra Poggiani e il docente alla guida del gruppo Sapienza NLP Roberto Navigli, che ha illustrato le caratteristiche della nuova versione, con il supporto di una demo.
Minerva 7B è una versione più potente di quella messa in rete lo scorso aprile, forte di 7 miliardi di parametri contro i 3 della precedente, e quindi con maggior capacità di memorizzazione e rielaborazione dei testi, sempre basata su fonti aperte di dati, elemento distintivo nel panorama degli LLM. Dopo oltre 5 mesi di lavoro incessante, il team di ricerca è approdato a questa nuova versione per un totale di oltre 2 trilioni (migliaia di miliardi) di token, corrispondenti a circa 1,5 trilioni di parole. Mediante un nuovo mix di istruzioni create appositamente in italiano, Minerva 7B è stato sottoposto al cosiddetto processo di instruction tuning, una tecnica avanzata di addestramento per i modelli di intelligenza artificiale che mira a fornire la capacità di seguire le istruzioni e di colloquiare con l’utente in italiano.
Grazie appunto all’instruction tuning Minerva è in grado di interpretare meglio le richieste e di generare risposte più pertinenti, coerenti e adattate al contesto, evitando per quanto possibile le cosiddette allucinazioni e la generazione di contenuti di tipo volgare, sessuale, discriminatorio e sensibile. Si tratta di un tema cruciale che riguarda tutti i chatbot, particolarmente sentito dai ricercatori del team della Sapienza. Il Prof. Navigli ha mostrato durante la demo diverse conversazioni con il modello, tra cui la richiesta di scrivere una favola, di tradurre e riassumere un breve testo, e ha mostrato la robustezza del modello a richieste che potrebbero generare contenuti sensibili o discriminatori.
“Il nostro impegno è continuare a lavorare per massimizzare la sicurezza e gli aspetti conversazionali in una sorta di laboratorio permanente, con la consapevolezza scientifica che il rilascio di oggi non è un traguardo ma un punto di partenza – sottolinea Roberto Navigli – La scarsità di dati di qualità in italiano, sia per il preaddestramento linguistico che per le conversazioni e le istruzioni, è uno dei temi chiave che intendiamo affrontare nei prossimi mesi. In quest’ottica auspichiamo che il progetto possa crescere aprendosi a nuove collaborazioni, coinvolgendo ad esempio il mondo editoriale ed enti pubblici per l’impiego di Minerva in ambiti istituzionali. Minerva è il primo – e a oggi unico – modello completamente aperto, che si presta a essere utilizzato dalle Pubbliche Amministrazioni, proprio per la trasparenza delle fonti e del processo di addestramento. Inoltre sono molto orgoglioso del trasferimento tecnologico che si realizza grazie a Babelscape – spin-off di successo di Sapienza – che sta lavorando alacremente a versioni industriali più potenti e sofisticate dell’LLM e alle sue applicazioni.”
Dichiara Antonella Polimeni, Rettrice di Sapienza Università di Roma:
“La Sapienza ha una lunga tradizione di eccellenza nell’ambito della ricerca tecnologica e scientifica. Negli ultimi anni, abbiamo rafforzato il nostro impegno nello sviluppo di competenze avanzate in settori strategici come l’intelligenza artificiale, promuovendo un approccio interdisciplinare che combina il rigore accademico con una visione orientata all’innovazione. Con il progetto Minerva, confermiamo la nostra missione: essere un motore di innovazione e progresso al servizio della società e del futuro.”
Dichiara Giuseppe De Pietro, Presidente di FAIR – Future AI Research:
“La realizzazione di Minerva, oltre a costituire un risultato scientifico di indubbio valore, rappresenta un’esperienza di successo del modello di cooperazione tra la Fondazione ed i propri soci. FAIR, infatti, ha tra i suoi compiti quello di supportare le attività e i prodotti di eccellenza della ricerca svolta all’interno del partenariato, come Minerva e molti altri. Crediamo davvero che Minerva abbia tutte le potenzialità per diventare il Large Language Model di riferimento per la Pubblica Amministrazione e lavoreremo come Fondazione per valorizzarlo.”
Dichiara Alessandra Poggiani, Direttrice generale di Cineca:
“Siamo felici di mettere le nostre competenze e l’infrastruttura a disposizione di un progetto di ricerca d’avanguardia nel campo dell’intelligenza artificiale, che offre significativi potenziali benefici a tutto il sistema Paese – in particolare alla sua pubblica amministrazione. È un progetto che interpreta bene la vocazione di Cineca a creare le condizioni di contesto ideali verso una più compiuta e ampia cittadinanza digitale.”
Il modello è accessibile al pubblico all’indirizzo https://minerva-llm.org e sarà possibile scaricarlo nelle settimane successive. Questa fase di test permetterà di svolgere un ulteriore affinamento sulla base delle conversazioni effettuate nei prossimi giorni.
Il team che ha lavorato allo sviluppo di Minerva 7B include ben 15 ricercatori e dottorandi (in ordine alfabetico): Edoardo Barba, Tommaso Bonomo, Simone Conia, Pere-Lluís Huguet Cabot, Federico Martelli, Luca Moroni, Roberto Navigli, Riccardo Orlando, Alessandro Scirè, Simone Tedeschi; hanno anche contribuito Stefan Bejgu, Fabrizio Brignone, Francesco Cecconi, Ciro Porcaro, Simone Stirpe. Si ringraziano anche Giuseppe Fiameni (NVIDIA) e Sergio Orlandini (Cineca).
Fiumi e torrenti: grazie all’intelligenza artificiale ora è possibile prevedere le alluvioni fino a sei ore di anticipo
Lo studio dell’Università di Pisa e del Consorzio di Bonifica Toscana Nord pubblicato su Scientific Reports
Nuovi modelli previsionali basati sull’intelligenza artificiale consentono di prevedere fino a sei ore di anticipo le alluvioni provocate da fiumi minori e torrenti, corsi d’acqua che sono ad oggi i più difficili da gestire e monitorare. La notizia arriva da uno studio dell’Università di Pisa e del Consorzio di Bonifica Toscana Nord pubblicato su Scientific Reports, rivista del gruppo Nature.
“Le forti precipitazioni concentrate in breve tempo e su aree ristrette rendono difficile la gestione dei corsi d’acqua minori, dove la rapidità di deflusso delle acque piovane aumenta il rischio di piene improvvise, basti pensare agli eventi alluvionali avvenuti nel novembre 2023 nella provincia di Prato dove sono esondati i torrenti Furba e Bagnolo e, più recentemente, a quelli che hanno colpito la Valdera e la provincia di Livorno” spiega Monica Bini, professoressa del Dipartimento di Scienze della Terra dell’Università di Pisa che ha coordinato la ricerca.
I modelli predittivi basati sull’intelligenza artificiale sono stati addestrati a partire dalla banca dati pluviometrica e idrometrica fornita del Servizio Idrologico Regionale della Toscana. Il passo successivo sarà quindi di sviluppare software semplici e facili da usare per anticipare le criticità dei corsi d’acqua e di mitigare i danni.
“L’intelligenza artificiale si è rivelata uno strumento prezioso per dare preallerta in piccoli bacini anche con sei ore di anticipo, ma resta fondamentale che le decisioni operative siano sempre supervisionate da esperti,” ha sottolineato il dottor Marco Luppichini, primo autore dell’articolo e assegnista di ricerca del Dipartimento di Scienze della Terra dell’Ateneo pisano.
“La disponibilità di dati pluviometrici forniti dal Servizio Idrologico Regionale e il finanziamento del Consorzio di Bonifica, per cui ringraziamo il presidente Ismaele Ridolfi, sono stati fondamentali per il successo della ricerca a cui ha collaborato sempre per il Consorzio l’ingegnere Lorenzo Fontana – dice Monica Bini – è per me inoltre motivo di orgoglio la partecipazione al lavoro di Giada Vailati, studentessa del corso di laurea magistrale in Scienze Ambientali del quale sono presidente, credo sia l’esempio tangibile di come il corso affronti tematiche di estrema attualità e come i nostri studenti possano da subito diventare protagonisti di ricerche internazionali e incidere sulla gestione del territorio”.
“È un risultato che ci rende orgogliosi del lavoro fatto e della collaborazione stretta in questi anni con un’eccellenza come il Dipartimento di Scienze della Terra dell’Università di Pisa – sottolinea il presidente del Consorzio di Bonifica Toscana Nord, Ismaele Ridolfi – In queste settimane, l’emergenza climatica in atto ha dato una terribile dimostrazione degli effetti disastrosi che può avere sulle nostre vite con i casi di Emilia-Romagna, Marche, la stessa Toscana fino ad arrivare alle più recenti alluvioni che hanno colpito la Spagna e in particolare il territorio di Valencia. Oltre alle necessarie manutenzioni ordinarie e alle opere straordinarie per ridurre il rischio, abbiamo il dovere di sfruttare al meglio i nuovi strumenti in grado di prevedere il prima possibile eventi pericolosi e gli eventuali effetti sui nostri territori. La collaborazione continuerà – conclude Ridolfi -, grazie alla nuova convenzione sottoscritta nei mesi scorsi, per approfondire il tema ed estendere gli studi ad altri corsi d’acqua”.
Monica Bini e Ismaele Ridolfi
Riferimenti bibliografici:
Luppichini, M., Vailati, G., Fontana, L. et al. Machine learning models for river flow forecasting in small catchments, Sci Rep14, 26740 (2024), DOI: https://doi.org/10.1038/s41598-024-78012-2
Testo e foto dall’Ufficio stampa dell’Università di Pisa.
LA COMPLESSITÀ, LE BIFORCAZIONI SALIENTI, IL SENSO. IL PENSIERO LATERALE NELL’ERA DELL’INTELLIGENZA ARTIFICIALE
Ore otto del mattino: suona la campanella e siamo tutti nel microsistema classe (Bronfenbrenner, 1979).
Le voci impazzano, i bambini accorrono in file maldestramente assestate dalle maestre che, con amorevole cura, accompagnano le anime (e i cervelli!) dei piccoli studenti curiosi.
Obiettivo giornaliero: scoprire, svelare, abbracciare qualche novità del mondo. Almeno una, si spera.
Ma la domanda martellante del docente è sempre la stessa: come faccio a raggiungere tutti in un’ora di lezione?
La maestra assennata e cordiale decide di percorrere la via più tortuosa e meno battuta indossando, orgogliosa, i panni del professor John Keating ne “L’attimo fuggente”. Impara anch’ella a guardare da altre prospettive, al di là di desuete cattedre pullulanti di libri e sportine raccattate da viaggi avventurosi e formazioni dense di senso.
Inizia l’avvincente sessione mattutina con un pensiero solo: personalizzare in base alle peculiarità di ciascuno studente. Decide, pertanto, di dare libera espressione a quel che Edward De Bono magistralmente descrive nel suo libro intitolato Il pensiero laterale (Lateral Thinking) che ha cambiato radicalmente il modo di fare scuola e la sinergia ecologica tra insegnamento e apprendimento.
la copertina del saggio di Edward De Bono, Il pensiero laterale, edito da BUR (2000). Foto di Federica Illuzzi
Il pensiero laterale, sviluppato alla fine degli anni ‘60, rappresenta un approccio innovativo al problem solving e si basa su metodologie non convenzionali. A differenza del pensiero logico-lineare, che segue sequenze precostituite, il pensiero creativo incoraggia l’esplorazione di opzioni alternative, facilitando l’emergere di esiti davvero inediti. Questa forma di approccio stimola la creatività, offrendo nuove prospettive per raggiungere il medesimo obiettivo.
Spesso, i nostri studenti impugnano la penna in modo insolito, tuttavia riescono a scrivere benissimo, nonostante ci sembri bislacco.
Siamo soliti dire: “Occorrerebbero degli elastici e potenziare la motricità fine!”
Ma delle volte è meglio lasciare che sia, poiché il risultato potrebbe essere sorprendente.
Come ci rammenta la neuroscienziata Daniela Lucangeli, in un contesto educativo che cambia “in millesimi di secondo”, il pensiero “imprevisto” per gestire situazioni nuove e complesse è di fondamentale importanza.
Gli studenti (insieme agli insegnanti) allenano la flessibilità mentale per reinterpretare la realtà circostante, attribuendole nuovi significati. Ogni strada, anche la più tortuosa, può portare a scoperte inattese e sorprendenti: durante il processo di codifica e transcodifica delle evidenze contestuali, i bambini non solo raggiungono l’obiettivo finale ma, durante la scarpinata accidentata, colgono panorami e “raccolgono” oggetti inaspettati da portare con sé per raggiungere quelle che la Commissione Europea ha ribattezzato come “Life Skills”.
A scuola oggi non basta più imparare a leggere, scrivere e far di conto, come ci raccomandava il documento programmatico gentiliano nel 1925. L’Europa ci chiede un upgrade di sistema: imparare a esistere, per giunta nel mondo della complessità e dei Big Data. E John Dewey, nel suo saggio Esperienza e Educazione, edito poco più di dieci anni dopo, già lo preannunciava.
Attraverso il cooperative learning, lo storytelling interattivo e le sfide di problem solving, questa metodologia prepara i giovani ad affrontare le sfide contemporanee con una mentalità aperta e accogliente.
In aula, gli insegnanti possono promuovere la serendipity, ossia la scoperta fortuita di soluzioni, creando un ambiente che valorizzi la sperimentazione e l’innovazione. Incoraggiando a vedere i problemi da angolazioni nuove e inaspettate, si favorisce lo sviluppo di una comprensione più profonda della realtà. Questo approccio trasforma ogni situazione complessa in un terreno fertile per idee innovative, rendendo i nostri alunni dei pensatori critici e acuti, in grado di navigare in un mondo in rapido cambiamento e non meri esecutori. Perché lo svolgimento pedissequo di un compito è della macchina, l’elaborazione saliente è dell’ Homo sapiens (o cogitans?).
Come sottolinea la scrittrice e matematica Chiara Valerio, la techné dei tempi moderni (IA Conversazionale) deve servirci a eliminare o, almeno, a ridurre il carico meccanico, ripetitivo e burocratico del nostro lavoro quotidiano per restituirci il tempo di pensare bene.
Il pensiero laterale, così, acquisisce un’evidente importanza nell’era delle reti generative probabilistiche, poiché offre un approccio complementare e necessario per affrontare le sfide e le opportunità che questa tecnologia presenta.
In un contesto in cui l’Intelligenza Artificiale è in grado di analizzare enormi quantità di dati e generare soluzioni basate su algoritmi predittivi, il pensiero critico permette di esplorare idee che potrebbero sfuggire a un’analisi puramente logica. Mentre l’IA può fornire risposte rapide e precise a problemi ben definiti, il pensiero divergente umano incoraggia gli individui a considerare variabili emozionali e contestuali che possono influenzare i risultati. Questo è fondamentale in situazioni in cui le domande sono complesse e le risposte non hanno soluzioni binarie.
Percorrere selciati, a volte, dissestati per arrivare a esiti imprevedibili è centrale nel pensiero di De Bono. Se stimoliamo i nostri ragazzi con brainstorming che fungano da attivatori cognitivi, prima dell’inizio di una lezione, la generazione di idee avrà una portata virale. In questo modo, saranno motivati a pensare “fuori dagli schemi”, esplorando soluzioni che potrebbero inizialmente sembrare inusuali o non pertinenti. Questo processo comporterà la combinazione di diverse soluzioni possibili o l’analisi di problemi da prospettive culturali, sociali o scientifiche diverse.
Ma l’adozione di tale approccio non si limita alla generazione di ipotesi: esso si estende anche alla fase di implementazione. Le soluzioni derivanti da percorsi diversi ma complementari, tendono a essere più resilienti e adattivi, poiché sono state testate attraverso diverse lenti e contesti. Questo approccio permette di anticipare e affrontare le sfide che possono sorgere durante il deployment, rendendo le strategie più robuste (il deployment, in ambito tecnologico, si riferisce al processo con cui un software o un sistema viene distribuito e reso operativo in un ambiente reale. Fuor di metafora, il termine specifico in ambito educativo può descrivere l’implementazione pratica di un progetto formativo o didattico).
L’esplorazione di cammini distinti non solo arricchisce il processo creativo, ma porta anche a strategie più complete e sistemiche. Questo metodo incoraggia non solo l’innovazione, ma anche un atteggiamento positivo nei confronti dell’incertezza e della complessità, aspetti fondamentali nel mondo attuale.
Insegnare a pensare in modo originale è fondamentale per preparare i cittadini del domani ad affrontare le sfide di una società complessa e interconnessa. Come educatori, è importante riconoscere che il vero apprendimento va oltre l’acquisizione di competenze meccaniche; si tratta di sviluppare la capacità di adattarsi e reinventarsi di fronte a nuove situazioni. Dobbiamo accogliere la complessità come una fonte di crescita e vedere le difficoltà come opportunità per affinare la capacità di analisi del reale.
Nell’era dell’Intelligenza Artificiale, mentre gli algoritmi possono gestire i dati, il ruolo umano rimane essenziale per interpretare le sfumature e dare significato alle soluzioni. La nostra missione è coltivare menti curiose, aperte e resilienti, pronte a esplorare non solo per trovare risposte, ma per comprendere meglio il mondo. In un contesto in cui le macchine “intelligenti” sono sempre più presenti, è nostro compito guidare con saggezza e immaginazione verso una conoscenza che sia, prima di tutto, profondamente umana e sensibile poiché, come disse J. Dewey, imparare significa, in prima istanza, “apprendere a vivere“.
BIBLIOGRAFIA
Bronfenbrenner, U. (1979). Ecologia dello sviluppo umano: Esperimenti in natura e progettazione. Il Mulino.
De Bono, E. (1970). Il pensiero laterale: Creatività passo dopo passo. Rizzoli.
Dewey, J. (1938). Esperienza e educazione. Rizzoli.
Lucangeli, D. (2021). La mente che sente: A tu per tu: dialogando in vicinanza, nonostante tutto. Erickson.
Valerio, C. (2023). La tecnologia è religione. Einaudi.
la copertina del saggio di Edward De Bono, Il pensiero laterale, edito da BUR (2000)
“Nel presente articolo, per ragioni di economia linguistica e coerenza stilistica, si è scelto di utilizzare il maschile sovraesteso come forma inclusiva, riferendosi indistintamente a soggetti di genere maschile e femminile.”