News
Ad
Ad
Ad
Author

ScientifiCult

Browsing

Pietro D. Omodeo (Univ. Ca’ Foscari) ricostruisce la vicenda del famoso esperto di idrodinamica del ‘600 e del dibattito sulla salvaguardia della laguna

BENEDETTO CASTELLI, LO SCIENZIATO CHE VOLEVA SALVARE VENEZIA CON LA MATEMATICA

Storia di una rivoluzione basata su modelli riduttivi, senza considerare gli aspetti ambientali e di contesto

Benedetto Castelli
Benedetto Castelli. L’immagine è della biblioteca del Museo Galileo di Firenze

VENEZIA – Benedetto Castelli, chi era costui? Allievo prediletto di Galileo con il quale condivideva osservazioni telescopiche, matematico eccelso e fisico, tra gli scienziati più in vista della sua generazione, docente de La Sapienza di Roma, uno dei fondatori della moderna idrodinamica in quanto autore del Della misura dell’acque correnti (1628), la sua figura si ritrova collegata nella prima metà del ‘600 alla storia della laguna di Venezia.

La sua famosissima opera di idrodinamica sviluppa la teoria di come misurare la quantità delle acque correnti applicando le teorie galileiane, un punto di vista estremamente innovativo con aspetti pratici e che prende in considerazione la sezione del fiume e la velocità dell’acqua, elemento mai introdotto prima.

Castelli arriva a Venezia nel 1641 chiamato dai Senatori della Serenissima che già allora si trovavano ad affrontare dei problemi di salvaguardia della laguna quali il restringimento del perimetro lagunare, l’abbassamento del livello delle acque con rischio di progressivo impaludamento e il rischio che le bocche di porto di Malamocco non fossero più navigabili. Oltre a questo, esisteva anche un problema di difesa, visto che le acque sono sempre state considerate dalla Repubblica “le mura di Venezia”.

Castelli, accademico illustre ed accreditato anche presso la Curia papale, interviene nei dibattiti scientifici della Repubblica alla ricerca della soluzione migliore dal punto di vista idrologico. La politica di Venezia era sempre stata quella di dirottare i fiumi all’esterno della laguna ed era già stata adottata nel 1610 deviando il corso del Brenta, ma i problemi persistevano.

Ed è qui che si inserisce la ricerca di Pietro Daniel Omodeo, docente di epistemologia storica presso il Dipartimento di Filosofia e Beni Culturali dell’Università Ca’ Foscari Venezia e vincitore di due progetti di storia della scienza nella prima età moderna: EarlyModernCosmology, Consolidator Grant finanziato dal Consiglio Europeo della Ricerca (ERC, Horizon 2020, GA 725883) ed EarlyGeoPraxis, progetto FARE finanziato dal MIUR. Nelle sue indagini nell’Archivio di Stato di Venezia ha rinvenuto una copia manoscritta di una sua relazione, Considerazione intorno alla laguna di Venezia (testo noto quale appendice all’edizione postuma del Della misura dell’acque correnti) non ancora studiata, ma ciò che è ancora più interessante, la trova in un contesto archivistico di documenti del Magistrato alle Acque, in cui i proti della laguna raccolgono quasi un secolo di studi, indagini, consulenze, questionari, relazioni per valutare la situazione e le misure da prendere. L’urgenza dei problemi affrontati è indicata con estrema chiarezza all’inizio del fascicolo che include la relazione del Castelli:

 

[I Senatori] hanno con una loro scr[rittur]a

veduta da me, pianto le miserie della laguna, et

detestata la malvagità degl’huomini, et per ben

esseguire le commissioni della Ser[enit]à

v[ostr]a, vorebbono levar le cause, et non si

possono per modo alcuno levare per esser già

inveterate, et per dir così, naturate.

 

In questo mare di documenti, la consulenza di Castelli doveva contribuire a chiarire i termini e le prospettive di gestione ambientale della laguna di Venezia e permettere al potere politico di decidere su come intervenire per il bene della Repubblica.

Castelli produce in questo contesto, quello che oggi chiameremmo un “report” che spiega le cause della “malattia” della laguna e le possibili soluzioni da adottare. I suoi studi di matematico lo avevano portato a scoprire per primo la formula per calcolare la portata di un fiume dalla sezione del suo letto e dalla velocità dell’acqua. “Ha offerto dimostrazioni geometriche volte a rendere possibile la misurazione delle acque correnti (la “misura”) spiega Omodeo – attraverso l’isolamento di poche variabili: la sezione di una via d’acqua e la sua velocità rappresentando un’altra applicazione di successo della fisica Galileiana”. Dai suoi calcoli matematici applicati alle acque correnti, aveva dedotto che deviare il Brenta fuori dalla laguna era stato un errore e proponeva una soluzione opposta: riportarne il corso all’interno perché la laguna aveva bisogno di più acqua. La prova della sua tesi era la quantificazione dell’innalzamento del livello dell’acqua grazie a questo aumento dell’immissione.

Ma Castelli non aveva tenuto conto di aspetti geologici fondamentali del problema della laguna: il fatto che il suo livello dipende dalle acque marine e dai sedimenti e che inevitabilmente il fiume avrebbe gettato in laguna. Egli aveva seguito la sua strada di matematico, ma aveva trascurato l’aspetto ambientale. In questa tesi mancava del tutto l’osservazione della laguna, l’osservazione diretta di chi in questo ambiente era nato e aveva vissuto: i veneziani.

La Repubblica rigettò la sua tesi e rifiutò la sua proposta; lo scorno fu grande. Ma perché la Serenissima prese questa decisione? I documenti ritrovati da Omodeo ci aiutano a capirlo: tra le carte che compongono il “dossier laguna” del 1600 figurano oltre ai pareri degli esperti di idrodinamica, degli ingegneri, dei costruttori, anche quelli della comunità dei pescatori veneziani, i Nicolotti. Vi sono infatti dei veri e propri questionari fatti ai pescatori della zona per capire direttamente dalle loro osservazioni quali fossero le dinamiche della laguna.

Ecco le domande di quello che sembra un moderno sondaggio:

 

“Qual sia la sua peschazione / Dove son soliti pescare / Che osservatione han fatto del stato della lag[un]a doppo levata la Br[ent]a / In quai luochi perticolarmente sia seguita alterazione /Per qual causa sia seguita / Se li tagli […] ha fatto benef[ici]o / Se le velme si sono abbassate / Se li canali si sono alterati / Se le barene si sono diminuite / Se il porto ha ricevuto danno o beneficio / Se sarebbe d’utile della lag[un]a il cessar di tagli o pure servan i tagli […] / Che cosa in generale o in particolare si potria fare per rimediar ai danni seguiti, et per giovar alla lag[un]a et porti / Come possino essere seguiti dan[n]i alla lag[un]a mentre essendo stata ampliata doverebbesi haverne ricevuto giovam[ent]o così per la salsedine dell’acque, come per il ricettacolo ch’è fatto maggiore / Se per dette novità si sono alterati i corsi delle acque / Se il cammin ha ricevuto alterazione / Se li fondi si sono diversificati nella qualità / Se le pesche sono le medesime.”

 

Splendida l’espressione di Dominio Vincentio, un pescatore di 54 anni che aveva visto la laguna prima della deviazione del Brenta e che ora notava che “l’acqua non può caminar e portar via il sporchesso nel reflusso”.

 

“Emesso di Dom[in]o Vincentio de S. Nicolo pescador d’anni 54 come

disse et dall’aspetto dimostra. Int[errogat]o in che stato si trovi la

lag[una] di V[enezi]a et se ha fatto alteratione dopo levata la B[rent]a,

[dis]se: Il terreno si è alzato assai […].

Io non so dir altro se non che quando l’acqua non può caminar la non

può portar via il sporchesso nel riflusso.

e.d. adunqe i tagli per se stessi non fanno alcun pregiud[iudizi]o alla

lag[un]a?

[dis]se: non vi fanno niente di utile.”

 

Gli amministratori veneziani entrano in discussione con i pescatori sulle cause delle variazioni e sui possibili interventi di miglioria che loro proponevano.

La raccolta di documenti è eccezionale in quanto propone uno dei primi esempi di quella che oggi magari chiameremmo “citizen science”, scienza partecipativa, in cui si crea una forma di condivisione dell’analisi per arrivare ad una decisione che tiene conto di vari fattori e di molteplici punti di vista ed è interessante anche capire in che misura l’interazione tra tecnici e pescatori serva a creare forme di consenso.

Omodeo spiega: “Quello che è interessante dal punto di vista di storia della scienza è che qui si contrappongono due modelli di scienza: il modello tecnocratico di Castelli che si fonda su basi matematiche e scientifiche e il modello democratico che prevede parti diverse che vengono interpellate che si confrontano integrando i saperi, si tiene conto di una pluralità di voci che si affiancano in sistemi complessi”.

Castelli aveva, dall’alto della sua scienza, forte dei principi e delle leggi fisiche, cercato di dare una risposta applicando la sua teoria matematica ai problemi della laguna, ma la sua rivoluzione, basata solo su modelli riduttivi era fallita, scontrandosi con le opinioni dei Senatori che si erano formate “dal popolo volgare”, come lui stesso sottolinea: “avrei stimato di più tesi ben organizzate di un unico uomo esperto, sebbene solo, piuttosto che le opinioni del volgo” “Avevo provato a proporre una cosa totalmente contraria alla maggior parte delle opinioni antiquate”.

“Castelli porta nelle sue valutazioni la scienza galileiana che gli permette di fare determinati calcoli matematici, ma non valuta i molteplici fattori ambientali. La cultura scientifica veneziana invece attinge ad un patrimonio più ampio di conoscenze ed esperienze complesse che guardano la laguna come un sistema, come un organismo, non si interviene solo da una parte, è tutto interconnesso, i fiumi, il mare, gli interventi umani sono elementi da valutare nella loro reciproca interazione. Castelli perde di vista la complessità sistemica del problema e non riesca a proporre una soluzione all’altezza”.

La vicenda della rivoluzione fallita di Benedetto Castelli è indicativa di come possono nascere errori dall’eccessiva fiducia in metodi che non tengono conto dei contesti a cui vanno ad applicarsi.

Il problema di allora forse ha molte analogie ai fatti contemporanei e ci si può insegnare qualcosa, poiché anche oggi, siamo testimoni di errori nella gestione dell’ambiente lagunare che non tengono conto dei contesti.

Ancora una volta, lo studio della storia ed in questo caso della storia della scienza, ci può aiutare a comprendere il presente e guardare al futuro.

 

Testo e immagine sullo studio di Benedetto Castelli dall’Ufficio Comunicazione e Promozione di Ateneo Università Ca’ Foscari Venezia

Uno studio apre nuovi scenari per l’approccio terapeutico dell’infertilità di coppia

è coordinato dal professor Giovanni Luca dell’Ateneo di Perugia

FSH terapeutico infertilità di coppia
Il professor Giovanni Luca dell’Università degli Studi di Perugia

È stata pubblicata sulla prestigiosa rivista internazionale “Frontiers in Endocrinology” una ricerca, frutto di una collaborazione italo-spagnola, che, per la prima volta, ha studiato gli effetti di 3 diversi tipi di ormone follicolo stimolante (FSH) disponibili sul mercato: FSH alfa, FSH beta e urinario, su un modello cellulare unico “in vitro”: le cellule del Sertoli di suino.

Mentre i primi due tipi (alfa e beta) vengono ottenuti “industrialmente”, in laboratorio, con una tecnologia chiamata DNA ricombinante, il terzo (l’urinario) viene ottenuto tramite urine di donne in menopausa altamente purificate.

L’ormone follicolo-stimolante (FSH), principale regolatore della follicologenesi nella donna e della spermatogenesi nel maschio, svolge un ruolo chiave nell’induzione della fertilità maschile e femminile. Mentre il suo utilizzo nelle pazienti infertili è ormai ampiamente standardizzato nell’induzione dell’ovulazione, nei maschi il suo utilizzo è ancora controverso seppure recenti studi metanalitici ne confermino l’efficacia sui parametri seminali e sul tasso di gravidanza.

Finora non esistono studi che dimostrino differenze di efficacia fra le tre differenti tipologie di FSH disponibili.

 

Lo studio è stato coordinato dal Prof. Giovanni Luca, Direttore del “Centro Biotecnologico Internazionale di Ricerca Traslazionale ad Indirizzo Endocrino, Metabolico ed Embrio-riproduttivo” dell’Università degli Studi di Perugia e dai colleghi dell’Università Cattolica del Sacro Cuore di Roma, Domenico Milardi e Giuseppe Grande, afferenti Gruppo del Prof. Alfredo Pontecorvi, Professore Ordinario di Endocrinologia della stessa Università.

 La ricerca, che si è avvalsa della collaborazione del Gruppo del Prof. Rafael Oliva dell’Università di Barcellona, presso il cui Laboratorio di Genetica tramite complesse metodiche di coltura cellulare e di biologia molecolare e proteomica, ha permesso di dimostrare che le differenti preparazioni di FSH posseggono differenti caratteristiche e pertanto non possono essere considerati equivalenti.

 

“Si tratta di risultati pre-clinici molto promettenti – dichiara il Prof. Riccardo Calafiore, co-Autore del lavoro e Direttore della Struttura Complessa di Endocrinologia e Malattie del Metabolismo, dell’Università degli Studi di Perugia, – in quanto aprono interessanti scenari per il potenziale impiego di un trattamento ‘personalizzato’, con le varie formulazioni di FSH in relazione ai target clinico-terapeutici nei pazienti affetti da infertilità”.

 

 

Perugia,  22 giugno 2020

Testo e foto sul recente studio per un nuovo approccio terapeutico all’infertilità di coppia dall’Ufficio Comunicazione istituzionale social media e grafica Università degli Studi di Perugia

Nuovo modello epidemico da economisti di Ca’ Foscari e Cambridge 

COVID-19: MISURE ‘SOFT’ POSSONO EVITARE SECONDO PICCO

CONFERMA DA STUDIO CHE CONSIDERA I CASI ‘SOMMERSI’

In Lombardia e a Londra censita solo una minima parte dei casi.

Mascherine, distanze, igiene e isolamento degli infetti possono prevenire una nuova ondata di decessi

VENEZIA – Mascherine e distanziamento fisico possono sostituire il lockdown in modo efficace, scongiurando una seconda ondata dell’epidemia, in Lombardia come a Londra. Due economisti italiani sono giunti a questa conclusione considerando sia i dati ufficiali di contagi, guarigioni e decessi, sia i numeri, più difficili da stimare, dei casi non osservati (almeno il doppio di quelli censiti) e delle morti per Covid-19 non rilevate (il 35% in più del dato ufficiale in Lombardia, il 17% in più a Londra). Lo studio è stato pubblicato nei giorni scorsi su Covid Economics, una pubblicazione speciale del Centre for Economic Policy Research.

“Il modello epidemico che proponiamo è stimato in Lombardia e a Londra, due regioni particolarmente colpite dal virus – spiega Dario Palumbo, “Carlo Giannini” Fellow al Dipartimento di Economia dell’Università Ca’ Foscari di Venezia e coautore dello studio con Salvatore Lattanzio dell’Università di Cambridge – tiene conto anche degli stati non osservati e delle politiche sulla mobilità e prevede l’evoluzione della malattia in base a diverse politiche. Mostriamo come mitigare la probabilità di contagio con misure ‘soft’, riducendola fino al 20/40% rispetto a uno scenario senza misure, abbia effetti positivi paragonabili a quelli di un prolungamento del lockdown”.

Per i ricercatori, è evidente come le statistiche ufficiali abbiano sottostimato casi e decessi. Per questo, hanno elaborato un modello matematico che prevede quattro possibili stati delle persone rispetto all’epidemia (suscettibile, esposto, infetto e deceduto), ma introducendo per infetti, guariti e deceduti due tipologie: osservati e non osservati.

Alla fine del periodo su cui è stato testato il modello (9 aprile in Lombardia e 15 aprile per Londra), stimano che fossero stati contagiati il 5,7% dei lombardi e il 2% dei londinesi. Significa che i ‘non osservati’ sarebbero stati il doppio dei casi riportati dalle statistiche, che i guariti sarebbero stati tra le 20 e le 26 volte in più rispetto a quelli censiti e che il numero di decessi per Covid-19 sia stato sottovalutato del 35% in Lombardia e del 17% a Londra.

Grazie al modello, poi, gli economisti hanno calcolato scenari di progressivo riavvio della mobilità, ipotizzando una ripresa della circolazione delle persone fino al 75% del livello pre-pandemia.

Senza alcuna misura di contenimento, vediamo inevitabile un secondo picco dell’epidemia e una ripresa dei decessi – afferma Palumbo – tuttavia, agendo sulla probabilità di contagio il secondo picco diventa meno probabile. In particolare, riducendo tale probabilità del 40% in Lombardia e tra il 20 e il 30% a Londra, il bilancio delle vittime torna in linea con quello di un lockdown permanente”.

La rimozione delle restrizioni del lockdown, dimostra la ricerca, non implica una ripresa della curva epidemica in presenza di politiche attive che promuovono la riduzione della probabilità di infezione come distanziamento fisico, mascherine, migliore igiene e isolamento dei casi infetti.

“Non adottare queste misure di mitigazione – conclude Palumbo – significa rischiare un secondo picco anche in scenari in cui il lockdown viene allentato in modo molto graduale, come avvenuto in Italia”.

Il metodo

La novità dello studio sta anche nella metodologia sviluppata dai due economisti, che a un modello epidemiologico di tipo SEIRD (Susceptible-Infected-Exposed-Recovered-Dead) applica una tecnica statistica chiamata Kalman Filtering, che in modo dinamico adatta le stime correggendole per ogni punto nel tempo anche per i casi non osservati. L’alternativa, più comune, è assumere che i casi ‘sommersi’ siano una certa proporzione fissa degli osservati. Aggiustare questo calcolo nel tempo riduce l’incertezza dei risultati.

Lo studio: https://cepr.org/sites/default/files/news/CovidEconomics18.pdf#Paper1

COVID-19 soft mascherine distanziamento sociale
Foto di Mohamed Hassan

 

Testo dall’Ufficio Comunicazione e Promozione di Ateneo Università Ca’ Foscari Venezia

Ibridazione lupo-cane in Europa: un rischio per la biodiversità

 

Un nuovo studio internazionale richiama l’attenzione dei paesi europei sul rischio di perdita dell’identità genetica delle popolazioni di lupo per effetto dell’ibridazione con il cane e promuove l’adozione di misure adeguate per la corretta gestione del fenomeno. La ricerca è stata pubblicata sulla rivista Biological Conservation

ibridazione lupo cane
Photo credits: L. Boitani – “Gli ibridi tra lupo e cane sono il prodotto dell’ibridazione antropogenica, un fenomeno che interessa anche altre specie animali e vegetali e causa rilevante della perdita di biodiversità”

Il cane è un animale domestico associato all’uomo ma in condizioni ecologiche degradate può accoppiarsi con il lupo e produrre ibridi fertili. Questo fenomeno, se diffuso e con frequenza elevata, potrebbe portare alla perdita dell’identità genetica delle popolazioni di lupo, rischiando di condizionare l’ecologia, l’aspetto esteriore e il comportamento della specie, nonché i valori socioculturali e di conservazione a essa associati.

Grazie agli sforzi di conservazione che si sono susseguiti negli ultimi decenni, come la protezione legale e la tutela degli habitat naturali, il lupo ha spontaneamente ricolonizzato molte aree in Europa da cui era scomparso all’inizio del secolo scorso. Tale espansione però sta portando il lupo a stabilirsi in aree rurali in cui le probabilità d’interazione con i cani sono più elevate. Allo stesso tempo, il bracconaggio e il controllo numerico delle popolazioni di lupo, nei paesi dove consentito, possono portare alla dissoluzione sociale dei branchi, aumentando la probabilità di accoppiamenti misti.

La ricerca, guidata da Valeria Salvatori dell’Istituto di Ecologia applicata di Roma e supervisionata da Paolo Ciucci del Dipartimento di Biologia e biotecnologie della Sapienza, ha coinvolto anche diversi esperti internazionali che hanno documentato, nei paesi di propria competenza, l’eventuale presenza di ibridi e le risposte gestionali attuate. Lo studio, pubblicato sulla rivista Biological Conservation, ha evidenziato che ibridi tra lupo e cane sono presenti in tutte le popolazioni lupine d’Europa e che molti paesi, compresa l’Italia, non stanno intervenendo per monitorare né contrastare il fenomeno, come invece prescritto da trattati legalmente vincolanti a livello internazionale, come la Direttiva Habitats e la Convenzione di Berna.

Nella maggior parte dei paesi presi in esame, gli ibridi rappresentano ancora una piccola porzione della popolazione di lupo e ciò rende possibile programmare e realizzare interventi efficaci di prevenzione e controllo. Ciò che la ricerca ha però messo in luce è la mancanza di protocolli o standard operativi di riferimento a livello internazionale, che sono invece necessari per indirizzare gli interventi.

Dallo studio sono emersi ulteriori aspetti che destano preoccupazione negli esperti. In primo luogo, la mancanza di un monitoraggio sistematico dell’ibridazione in molti paesi europei, Italia inclusa, rende difficile la rilevazione dei casi e gli eventuali interventi per evitarne la diffusione su ampia scala.

In secondo luogo, la mancanza di tecniche di analisi confrontabili tra laboratori per identificare geneticamente gli ibridi fa sì che, ad oggi, lo stesso individuo potrebbe essere riconosciuto come ibrido o come lupo a seconda del laboratorio in cui vengono svolte le analisi sui campioni biologici. Questa eterogeneità non facilita un’adeguata analisi e mitigazione del fenomeno, sia a livello nazionale che comunitario.

“Gli ibridi tra lupo e cane – spiega Paolo Ciucci – sono fertili e a loro volta possono reincrociarsi con i lupi, diffondendo, con il progredire delle generazioni di reincrocio, varianti genetiche tipiche del cane all’interno del genoma lupino. Questo pone la questione di come stabilire una soglia oltre la quale gli ibridi non sono più da considerare come tali. In questi termini, non esiste ad oggi una definizione di ibrido che sia stata accettata a livello internazionale ed è questa la cosa più urgente da cui partire per poter dare risposte concrete sul fronte gestionale”.

In conclusione, gli autori della ricerca suggeriscono di includere nei trattati internazionali indicazioni più chiare sulla gestione degli ibridi e dei cani vaganti, evidenziando che gli ibridi tra lupo e cane vanno comunque protetti per legge e la loro gestione affidata alle sole autorità competenti: il fine è di evitare che avvengano casi di bracconaggio sul lupo, camuffati da interventi gestionali sulla base dell’incerta identificazione di individui ritenuti ibridi.

Riferimenti:

 

European agreements for nature conservation need to explicitly address wolf-dog hybridization – Valeria Salvatori, Valerio Donfrancesco, Arie Trouwborst, Luigi Boitani, John D.C.Linnell, Francisco Alvares, Mikael Åkesson, Vaidas Balysh, Juan Carlos Blanco, Silviu Chiriac, Dusko Cirovic, Claudio Groff, Murielle Guinot Ghestem, Djuro Huber, Ilpo Kojola, Josip Kusak, Miroslav Kutal, Yorgos Iliopulos…Paolo Ciucci – Biological Conservation (2020) https://doi.org/10.1016/j.biocon.2020.108525

 

Testo e immagine dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

Obesità e COVID-19: una relazione pericolosa

Un lavoro dei ricercatori di Università Politecnica delle Marche, Statale di Milano e Università di Brescia formula un’ipotesi sull’associazione tra obesità e conseguenze dell’infezione COVID-19.

Obesità e sovrappeso colpiscono oltre il 50% della popolazione europea e circa il 70% di quella degli Stati Uniti, configurandosi come una vera e propria pandemia che l’Organizzazione Mondiale della Sanità reputa responsabile di più di 3 milioni di morti all’anno. Questo dato impressionante merita oggi di essere letto in relazione all’epidemia di COVID-19.
Proprio nelle regioni del mondo dove l’obesità è più diffusa, infatti, la malattia che consegue all’infezione è caratterizzata da un elevato indice di mortalità. Inoltre, è stato osservato che nelle persone obese, anche in giovane età, questa nuova malattia infettiva ha un decorso più grave e comporta più frequentemente il ricorso alla terapia intensiva.

Il team guidato dal professor Saverio Cinti dell’Università Politecnica delle Marche (Ancona), un gruppo di ricercatori dell’Università degli Studi di Milano, guidati da Enzo Nisoli, docente del dipartimento di Biotecnologie Mediche e Medicina Traslazionale e i ricercatori dell’Università degli Studi di Brescia hanno proposto una nuova ipotesi patogenetica che può spiegare questa associazione non casuale. Il loro lavoro è stato pubblicato su International Journal of Obesity, del gruppo Nature.

L’ipotesi degli studiosi fa riferimento a decenni di studio condotti dagli stessi ricercatori sul tessuto adiposo dei soggetti obesi, studi dai quali sono scaturite interpretazioni fisiopatologiche e cliniche oggi accettate a livello internazionale. Ma soprattutto, gli studiosi hanno potuto formulare la loro nuova ipotesi grazie alle osservazioni al microscopio di campioni polmonari ottenuti da soggetti sovrappeso recentemente deceduti per COVID-19.
I campioni esaminati infatti presentavano evidenti embolie “grassose” – cioè costituite da gocce lipidiche – nel microcircolo polmonare. Questo tipo di embolia, nota anche con il termine inglese “fat embolism” è più frequentemente riscontrabile in soggetti politraumatizzati per gravi incidenti stradali, e deriva dalla fuoriuscita nel sangue di gocce lipidiche dalle ossa fratturate. Le embolie grassose possono interessare anche il microcircolo di altri organi e tessuti, oltre che i polmoni, provocando sintomi neurologici, cutanei o sistemici, fino a determinare una vera e propria “sindrome da embolia grassosa” o FES (Fat Embolism Syndrome).

Come dimostrato dal nostro gruppo nel 2005 – afferma Saverio Cinti – il tessuto adiposo dei soggetti con obesità contiene molte cellule adipose morte, così che il grasso in esse contenuto fuoriesce nella matrice extracellulare e, almeno all’inizio, viene smaltito da cellule “spazzino” denominate macrofagi. I macrofagi non sono altro che cellule infiammatorie; dunque, il tessuto adiposo del soggetto obeso è un tessuto infiammato, caratterizzato da goccioline grasse che si accumulano nello spazio intracellulare e stimolano una risposta infiammatoria che cerca di eliminare le gocce stesse e riportare il tessuto alle condizioni normali“.

Gli adipociti – aggiunge Alessandra Valerio dell’Università degli Studi di Brescia – esprimono sulla propria membrana cellulare il recettore ACE2 che favorisce l’entrata del virus SARS-CoV-2 e, per motivi ancora sconosciuti, tale recettore aumenta negli adipociti ipertrofici (giganti), tipici dei soggetti con obesità”. Tale entrata del virus favorirebbe la morte di un numero ancora maggiore di cellule adipose. Quindi, quello che sembra succedere è che oltre all’infiammazione del tessuto adiposo tipica dell’obesità, nel paziente COVID-19 si aggiungerebbe quella promossa dal virus; tale meccanismo amplificherebbe la fuoriuscita dalle cellule di residui grassi e, quindi, il rischio di embolie grassose.

Infatti, “i quadri polmonari che si trovano nei pazienti COVID-19 si manifestano spesso con lesioni bilaterali, proprio come quelle causate dalle embolie grassose che possono far seguito alle fratture multiple” commentano Antonio Giordano Laura Graciotti dell’Università politecnica delle Marche. Tale ipotesi potrebbe avere importanti ripercussioni terapeutiche, oltre che patogenetiche.

A questo proposito – aggiunge Enzo Nisoli dell’Università Statale di Milano – le nostre evidenze suggeriscono estrema cautela nell’affrontare terapeuticamente la polmonite da SARS-CoV-2 – particolarmente nei soggetti con sovrappeso e obesità”.

Gli interventi comunemente adottati nei pazienti con la sindrome da embolismo grassoso (tra cui l’ossigeno-terapia, l’eparina a basso peso molecolare, i cortisonici e altri farmaci antiinfiammatori) sono in parte sovrapponibili a quelli variamente messi in atto su base sperimentale in caso di COVID-19. In particolare, l’eparina è stata utilizzata nella FES con risultati contraddittori. Oltre all’effetto anticoagulante (arma a doppio taglio in quanto espone a rischio di emorragie, maggiormente in soggetti obesi con alterata coagulabilità del sangue) il farmaco stimola la lipasi, un enzima che favorisce il metabolismo dei grassi. Questo meccanismo potrebbe favorire lo scioglimento delle gocce lipidiche depositate nel polmone e in altri organi, ma anche liberare acidi grassi che peggiorerebbero lo stato infiammatorio. “Il quadro è molto complesso e la nostra ipotesi merita di essere ulteriormente approfondita” conclude Cinti.

Testo dall’Università Statale di Milano

Ipermemoria: un ricordo per ogni giorno. Nel cervello di “chi non dimentica” svelato il meccanismo che ordina la memoria

Un nuovo studio italiano, pubblicato sulla rivista Cortex, rivela l’esistenza di un’area cerebrale che permette alle persone dotate di ipermemoria autobiografica di “datare” i ricordi

Foto di Alexas_Fotos 

Un nuovo studio interamente italiano e pubblicato sulla rivista Cortex ha rilevato cosa rende il cervello degli individui “ipermemori” capace di ricordare anche i più piccoli dettagli di ogni giorno della loro vita. Grazie all’analisi di questi individui sono state identificate le aree del cervello specificamente deputate a dare una dimensione temporale ai ricordi, organizzando quelle informazioni che nelle persone comuni restano memorie indistinte e sfocate.

La ricerca, condotta presso i laboratori della Fondazione Santa Lucia IRCCS di Roma, è stata coordinata dall’equipe composta dai ricercatori Patrizia Campolongo, Valerio Santangelo, Tiziana Pedale e Simone Macrì, e ha coinvolto la Sapienza Università di Roma, l’Istituto Superiore di Sanità e l’Università di Perugia.

Per realizzare lo studio è stato chiesto a 8 soggetti ipermemori, già protagonisti nel 2018 di un altro lavoro della stessa equipe di ricerca, di ricordare un evento molto lontano nel tempo, di circa 20 anni prima. L’attività neuronale di questi 8 soggetti è stata quindi rilevata in tempo reale attraverso la risonanza magnetica funzionale, una tecnica non invasiva che permette ai ricercatori di osservare il cervello in azione e identificarne le aree più attive durante il ricordo dell’evento passato. Al gruppo di ipermemori è stato affiancato un gruppo di controllo composto da 21 persone senza particolari abilità o deficit della memoria.

I ricercatori hanno poi utilizzato una tecnica molto innovativa, chiamata Multivoxel Pattern Analysis (MVPA) per verificare che la migliore rappresentazione neurale dei ricordi nelle persone ipermemori fosse associata al ruolo funzionale di specifiche aree del cervello.

“I risultati dell’indagine – spiegano gli autori – hanno mostrato che nel discriminare tra ricordi autobiografici vecchi e nuovi, per le persone con ipermemoria si rileva un’elevata specializzazione della porzione ventro-mediale della corteccia prefrontale del cervello, un’area che si ritiene sia deputata all’organizzazione delle funzioni cognitive superiori. Questa stessa regione del cervello sembra essere meno precisa nelle persone con una memoria normale, fino a farci “confondere” la dimensione temporale del ricordo, vecchio o nuovo”.

“La memoria autobiografica permette di rievocare esperienze relative a tutto l’arco della vita consentendoci di conferire una dimensione temporale e narrativa alla nostra esistenza – continuano gli autori – e qui per la prima volta al mondo sono stati studiati i meccanismi neurobiologici associati alla dimensione temporale dei ricordi tramite una metodologia innovativa e, soprattutto, in un gruppo di persone ‘speciali’”.

Il dato che emerge da questo nuovo avanzamento scientifico è cruciale, non solo per l’analisi delle doti speciali di queste persone, ma soprattutto per aprire nuove frontiere di ricerca per la neuroriabilitazione della memoria e per la ricerca sulle funzioni mnesiche, in pazienti con una lesione del sistema nervoso centrale.

“Comprendere i sistemi neurobiologici alla base dell’iper-funzionamento della memoria – concludono i ricercatori – fornisce importanti indicazioni su quali aree è necessario intervenire per stimolare il ripristino di un funzionamento adeguato della memoria in persone con deficit o lesioni neurologiche”.

Riferimenti:

Enhanced cortical specialization to distinguish older and newer memories in highly superior autobiographical memory – Valerio Santangelo, Tiziana Pedale, Simone Macrì, Patrizia Campolongo. – Cortex 2020 https://doi.org/10.1016/j.cortex.2020.04.029

 

Il testo viene congiuntamente da: Ufficio Stampa Sapienza Università di Roma, Ufficio Stampa Fondazione Santa Lucia IRCCS, Ufficio stampa Istituto Superiore di Sanità, Ufficio Comunicazione Istituzionale, Social media e Grafica Università degli Studi di Perugia

Un nuovo studio della Sapienza e del Policlinico Umberto I di Roma fornisce per la prima volta una interpretazione del rischio trombotico nei pazienti Covid-19, aprendo la strada a una identificazione precoce dei soggetti ad alto rischio e a nuove prospettive terapeutiche.

Foto di Michal Jarmoluk 

Eruzioni cutanee, gambe gonfie, cateteri ostruiti e morte improvvisa.  La “tempesta” di coaguli di sangue è una complicazione letale in una buona percentuale di coloro che si ammalano gravemente di COVID-19.

Alcuni studi stanno iniziando a chiarire i meccanismi alla base di questa correlazione, ma fino a oggi la strategia terapeutica giusta per una guarigione era ancora lontana.

In un nuovo lavoro coordinato da Francesco Violi del Dipartimento di Medicina interna e specialità mediche e pubblicato sulla rivista Circulation Research, il team di ricercatori della Sapienza e del Policlinico Umberto ha osservato valori molto bassi di albumina sierica nei pazienti Covid-19 e ne ha quindi indagato, confermandola, una relazione con le complicanze trombotiche.

Partendo dall’assunto che, in qualsiasi condizione clinica, quando l’albumina nel sangue è inferiore a un certo livello – che corrisponde a <35g/L – il rischio di trombosi arteriosa e venosa aumenta, i ricercatori hanno verificato questi dati nei pazienti Covid-19. Lo studio, condotto su 73 pazienti ricoverati presso i reparti di Malattie infettive e di Terapia intensiva del Policlinico Umberto I, diretti rispettivamente da Claudio Mastroianni e Francesco Pugliese, ha dimostrato che i pazienti Covid-19, soprattutto quelli gravi o che andavano incontro a complicanze trombotiche, avevano valori di albumina più bassi, appunto, di 35g/L.

L’albumina è una importante proteina del sangue che svolge una potente attività antinfiammatoria grazie alla capacità di antagonizzare gli effetti dello stress ossidativo nel nostro organismo. L’importanza di queste funzioni è confermata dal fatto che quando vi è una riduzione dei livelli di albumina plasmatica, le cellule producono elevate quantità di radicali di ossigeno, portando a una attivazione incontrollata delle cellule fino alla loro morte.

“Il nostro lavoro – spiega Francesco Violi del Dipartimento di Medicina interna e specialità mediche della Sapienza e Direttore della I Clinica Medica del Policlinico – oltre a dare una interpretazione, fino a ora non chiarita, del rischio trombotico dei pazienti Covid-19, apre la strada a una identificazione precoce dei soggetti ad alto rischio e a nuove prospettive terapeutiche per ridurne le trombosi”.

Riferimenti:

Hypoalbuminemia, Coagulopathy and Vascular Disease in Covid-19 – Francesco Violi, Giancarlo Ceccarelli  Roberto Cangemi, Francesco Alessandri, Gabriella d’Ettorre, Alessandra Oliva, Daniele Pastori, Lorenzo Loffredo, Pasquale Pignatelli, Franco Ruberto, Mario Venditti, Francesco Pugliese, and Claudio Maria Mastroianni – Circulation Research Jun 2020 https://doi.org/10.1161/CIRCRESAHA.120.317173

 

Testo dal Settore Ufficio stampa e comunicazione Università Sapienza di Roma

Lo studio che lo dimostra mettendo insieme due teorie finora discordanti è stato pubblicato su Physical Review X
Sferici, lisci e semplici secondo la teoria della relatività o estremamente complessi e ricchissimi d’informazione come, seguendo le leggi quantistiche, diceva Stephen Hawking: su questi misteriosi oggetti cosmici una risposta univoca non c’è. Una nuova ricerca propone ora una soluzione al dilemma. Davvero sorprendente
buchi neri ologramma
Credits: Gerd Altmann da Pixabay

Tutti abbiamo negli occhi la prima incredibile immagine di un buco nero che ha fatto il giro del mondo circa un anno fa. Eppure, secondo una nuova ricerca targata Sissa, Ictp e Infn, i buchi neri sarebbero come un ologramma, dove tutte le informazioni sono ammassate su una superficie a due dimensioni capace di riprodurre un’immagine tridimensionale.

In questo modo questi corpi cosmici, come sostenuto dalle teorie quantistiche, potrebbero essere incredibilmente complessi e concentrare un’enorme quantità di informazione al proprio interno, come “il più grande hard disk che esista in Natura”, in due dimensioni. E questo senza contrapporsi alla relatività di Einstein che li vorrebbe in tre dimensioni, semplici, sferici, lisci, come si presentano in quella celebre immagine. Insomma, i buchi neri “appaiono” come non sono, proprio come gli ologrammi. Lo studio che lo dimostra, e che mette insieme due teorie finora discordanti, è da poco stato pubblicato su Physical Review X.

Il mistero dei buchi neri

Per gli scienziati, i buchi neri rappresentano un grosso punto interrogativo per diversi aspetti. Sono, per esempio, ottimi rappresentanti delle grosse difficoltà della fisica teorica nel mettere insieme i principi della teoria della relatività generale di Einstein con quelli della fisica quantistica quando si parla di gravità. Secondo la prima teoria sarebbero corpi semplici e senza informazione. Secondo l’altra, come sostenuto da Jacob Bekenstein e Stephen Hawking, sarebbero invece “i sistemi più complessi esistenti” perché caratterizzati da un enorme “entropia”, che misura la complessità di un sistema, e quindi con moltissima informazione al loro interno.

Il principio olografico applicato ai buchi neri

Per studiare i buchi neri, i due autori della ricerca Francesco Benini e Paolo Milan hanno utilizzato un’idea vecchia di quasi trent’anni ma ancora sorprendente detta “Principio olografico”. Raccontano i ricercatori: “Questo principio, rivoluzionario e un po’ controintuitivo, propone che il comportamento della gravità in una determinata regione di spazio si possa alternativamente descrivere in termini di un diverso sistema, che vive solo lungo il bordo di quella regione e quindi in una dimensione in meno. E, cosa più importante, in questa descrizione alternativa (detta appunto olografica) la gravità non compare esplicitamente. In altre parole, il principio olografico ci permette di descrivere la gravità usando un linguaggio che non contiene la gravità, evitando così frizioni con la meccanica quantistica”.

Quello che Benini e Milan hanno fatto in questo studio “è applicare la teoria del principio olografico ai buchi neri. In questo modo le loro misteriose proprietà termodinamiche sono diventate più comprensibili:
focalizzandoci sulla previsione che questi corpi abbiano una grande entropia, e osservandoli dal punto di vista della meccanica quantistica, si può descriverli proprio come un ologramma: sono a due dimensioni, in cui la gravità sparisce, ma riproducono un oggetto in tre dimensioni”.

Dalla teoria all’osservazione

“Questo studio” spiegano i due scienziati “è solo il primo passo verso una comprensione più profonda di questi corpi cosmici e delle proprietà che li caratterizzano quando la meccanica quantistica si incrocia con la relatività generale. Il tutto è ancora più importante ora, nel momento in cui le osservazioni in astrofisica stanno conoscendo un incredibile sviluppo. Basti pensare all’osservazione delle onde gravitazionali provenienti dalla fusione di buchi neri frutto della collaborazione LIGO e Virgo o, per l’appunto, quella del buco nero fatta dall’Event Horizon Telescope che ha prodotto quella straordinaria immagine. In un futuro vicino potremo forse mettere alla prova dell’osservazione le nostre predizioni teoriche riguardo la gravità quantistica, come quelle fatte in questo studio. E questo, dal punto di vista scientifico, sarebbe una cosa assolutamente eccezionale”.

Comunicato stampa sui buchi neri come ologramma dalla Scuola Internazionale Superiore di Studi Avanzati

Un nuovo studio del Dipartimento di Biologia e Biotecnologie Charles Darwin della Sapienza ha valutato l’impatto delle attività umane sull’estinzione locale dei mammiferi negli ultimi 50 anni. Solo poche specie sono riuscite a trarre vantaggio dalla convivenza con l’uomo colonizzando nuove aree. Il lavoro è pubblicato su Nature Communications

mammiferi estinzione
Rinoceronte bianco, una delle specie il cui areale di distribuzione ha subito gli impatti maggiori dovuti alle attività antropiche.

L’impatto delle attività umane sull’ambiente, che ha avuto un notevole incremento a partire dagli anni ‘70 del secolo scorso con la terza rivoluzione industriale, sta alterando sensibilmente i processi ecologici alla base della vita sulla Terra.

Uno degli effetti principali dell’intensificarsi delle attività antropiche è la progressiva scomparsa di alcune specie autoctone, con risvolti drammatici sugli equilibri ecosistemici a esse associati. I mammiferi, in particolare, sono stati oggetto di importanti diminuzioni, con il 25% delle specie viventi ritenuto oggi a rischio di estinzione.

In un nuovo studio pubblicato sulla rivista Nature Communications, il team di ricercatori coordinato da Michela Pacifici del Dipartimento di Biologia e biotecnologie Charles Darwin ha confrontato le distribuzioni di un campione rappresentativo di mammiferi terrestri negli anni ‘70 e oggi, riscontrando che circa il 75% di queste ha subito cambiamenti.

I ricercatori hanno inoltre individuato i fattori associati al declino e all’espansione dell’areale, ovvero della superfice normalmente abitata da una specie, includendo tra queste variabili sia quelle di natura antropica sia quelle legate alla biologia delle specie, come il peso e le strategie riproduttive.

“Abbiamo scoperto – spiega Michela Pacifici – che una specie su cinque ha subito contrazioni dell’areale di oltre il 50%. I principali responsabili sembrano essere l’incremento della temperatura globale, la perdita di aree naturali e l’aumento della densità umana, fattori che influiscono soprattutto su specie di grandi dimensioni come il rinoceronte bianco, l’elefante asiatico e l’antilope Addax”.

Comprendere quali variabili siano implicate nel declino dei mammiferi è fondamentale per focalizzare le azioni di conservazione necessarie, specialmente in considerazione delle molteplici minacce alle quali i mammiferi sono soggetti, incluso il cambiamento climatico.

“Studi precedenti – commenta Carlo Rondinini, coautore dello studio e coordinatore del Global Mammal Assessment, una partnership tra Sapienza e l’Unione internazionale per la conservazione della natura (Iucn) – evidenziano che le uniche specie in grado di spostarsi abbastanza velocemente per seguire il clima che cambia sono i grandi mammiferi. Da questo studio si evidenzia che proprio i grandi mammiferi hanno maggiormente sofferto l’azione diretta dell’uomo. Resta quindi fondamentale, per evitare la scomparsa dei grandi mammiferi, mettere in atto tutte le misure per consentire il loro spostamento naturale alla ricerca di ambienti adatti”.

Per quanto riguarda l’espansione di areale, i risultati dello studio evidenziano che le specie che ne hanno beneficiato sono in numero inferiore e che le variabili determinanti sono maggiormente legate alle caratteristiche intrinseche, favorendo le specie con tassi riproduttivi veloci, dieta generalista e massa corporea inferiore.

“Questo studio – aggiunge Moreno Di Marco, autore senior dello studio – dimostra ancora una volta che ci sono molte specie di mammiferi che declinano rapidamente in seguito alla pressione antropica, mentre poche specie riescono, per le loro caratteristiche biologiche, ad adattarsi ed eventualmente approfittare del cambiamento globale”.

“I nostri dati – conclude Pacifici – dimostrano che una percentuale elevata di mammiferi, tra cui molte specie carismatiche, sta scomparendo da zone in cui questi erano presenti fino a meno di 50 anni fa. Questo risultato allarmante evidenzia come sia di fondamentale importanza comprendere quali siano i fattori di rischio che hanno portato le specie a estinguersi localmente, in modo tale da agire in maniera proattiva e ridurre il rischio di ulteriori perdite”.

Riferimenti:

Global correlates of range contractions and expansions in terrestrial mammals – Michela Pacifici, Carlo Rondinini, Jonathan R. Rhodes, Andrew A. Burbidge, Andrea Cristiano, James E. M. Watson, John C. Z. Woinarski & Moreno Di Marco – Nature Communications volume 11, Article number: 2840 (2020) https://doi.org/10.1038/s41467-020-16684-w

https://www.nature.com/articles/s41467-020-16684-w 

 

Testo e foto dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma

I buchi neri come fari sulla materia oscura

Una nuova luce sulla strada della ricerca della materia ultraleggera dell’Universo arriva dai buchi neri. È quanto suggerisce lo studio del Dipartimento di Fisica della Sapienza pubblicato sulla rivista Physical Review Letters

buchi neri materia oscura
Il buco nero supermassiccio nel nucleo della galassia ellittica Messier 87 nella costellazione della Vergine. Si tratta della prima foto diretta di un buco nero, realizzata dal progetto internazionale Event Horizon Telescope. Foto modificata Event Horizon Telescope, CC BY 4.0

Le osservazioni sulla cosiddetta materia oscura del nostro Universo sono sempre più numerose e significative, ma sono ancora tante le incognite in questo affascinante campo della fisica moderna.

La particella elementare massiccia più leggera conosciuta in natura è il neutrino, con una massa qualche milione di volte più piccola di quella di un elettrone. Alcuni modelli di materia oscura hanno però suggerito l’esistenza di particelle elementari anche molto più leggere, le cui masse che possono essere miliardi di volte più piccole di quella di un neutrino.

Rilevare queste sfuggenti particelle è impossibile sulla Terra, a causa delle loro debolissime interazioni con la materia “conosciuta”, cosiddetta ordinaria.

In un nuovo lavoro recentemente pubblicato sulla rivista Physical Review Letters, il team di ricercatori coordinato da Paolo Pani del Dipartimento di Fisica della Sapienza, ha identificato nei buchi neri un metodo innovativo per la ricerca di questa materia oscura ultraleggera.

I buchi neri possono amplificare radiazione in un certo range di frequenze generando un sorprendente effetto chiamato superradianza. Finora la superradianza e il suo segnale emesso in onde gravitazionali sono stati studiati solo per una certa famiglia di particelle con proprietà simili al fotone, per riprodurre onde elettromagnetiche, qui, per la prima volta sono stati applicati a particelle con proprietà simili al gravitone, trasformando i buchi neri in veri e propri “fari di onde gravitazionali”.

Secondo i ricercatori, se tali particelle esistono in natura e hanno una massa minuscola, potenzialmente qualsiasi buco nero nell’universo potrebbe emettere periodicamente onde gravitazionali a una data frequenza (direttamente correlata alla massa delle particelle di materia oscura), analogamente a uno strumento musicale che ripete sempre la stessa singola nota con cadenza regolare.

“Cercando questo segnale – commenta Paolo Pani – i rivelatori di onde gravitazionali come LIGO e Virgo (e la futura missione spaziale LISA, supportata da ESA e NASA) cercheranno la materia oscura ultraleggera in un nuovo regime, finora praticamente inesplorato. E forse, dopo tutto, la risposta al problema della materia oscura verrà proprio dai buchi neri”.

Lo studio è parte del progetto Marie Skłodowska Curie “FunGraW” (PI: Richard Brito) e del progetto ERC DarkGRA (PI: Paolo Pani) entrambi ospitati presso il Dipartimento di Fisica della Sapienza.

 

Riferimenti:

Black Hole Superradiant Instability from Ultralight Spin-2 Fields – Richard Brito, Sara Grillo, and Paolo Pani – Phys. Rev. Lett. 124, 211101 – Published 27 May 2020 DOI:https://doi.org/10.1103/PhysRevLett.124.211101

 

Testo dal Settore Ufficio stampa e comunicazione Sapienza Università di Roma