Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Category

Interviste TraScienza&Coscienza

ANATOMIA DI UN BARIONE, INTERVISTA A FABRIZIO NICASTRO

 

Vent’anni di ricerca conclusi in uno studio pubblicato sull’ultimo numero di Nature. Ecco come i barioni, previsti da una teoria, sono stati trovati esattamente dove ci si aspettava di vederli.

La scoperta è stata realizzata grazie all’osservazione di un singolo quasar da parte del telescopio XMM-Newton dell’ESA.

A guidare la ricerca è stato Fabrizio Nicastro dell’INAF di Roma, noi l’abbiamo intervistato per capire al meglio le implicazioni di questo studio.

 

 

 

IL FUTURO DI LHC- INTERVISTA A NADIA PASTRONE

HI-LHC è un orizzonte che va ben oltre il semplice progetto scientifico.

Il futuro di LHC è radioso e va oltre il bosone di Higgs. Dal 2026 High Luminosity LHC osserverà le più inaccessibili particelle e potrebbe essere in grado di riscrivere la nostra comprensione dell’universo.

Abbiamo parlato di questo con Nadia Pastrone che attualmente è la coordinatrice nazionale dei fisici italiani che lavorano all’esperimento CMS dell’acceleratore di particelle LHC al Cern di Ginevra.

 

 
– Con quali accorgimenti tecnici si va a migliorare uno strumento incredibile come LHC?

Tutto il complesso di acceleratori del CERN è in un processo di ammodernamento per poter avviare la nuova fase di LHC ad alta luminosita’ (HiLumi LHC). In particolare lungo l’anello di 27 km di circonferenza, verranno inseriti nuovi magneti superconduttori più potenti sia per deflettere le traiettorie dei fasci circolanti nei due anelli, che per focalizzare i fasci nelle zone di collisione. Verranno installati nuovi collimatori e si utilizzeranno cavità a radio frequenza superconduttrici speciali.

I nuovi componenti della macchina sono il frutto di studi e prototipi preparati al CERN e in vari Paesi del mondo.

Sono già cominciati i lavori di ingegneria civile per ottimizzare la gestione degli apparati criogenici che permetteranno ai nuovi componenti di operare nella nuove condizioni di lavoro.

Il progetto ha complessivamente un costo di 950 MCHF in 10 anni.

– Come l’aggiornamento degli strumenti migliorerà la comprensione sul bosone di Higgs?

LHC ad alta luminosità produrrà  15 milioni di bosoni di Higgs per anno, cda confrontarsi con i 1.2 milioni prodotti nel  2011 e 2012, che hanno portato alla scoperta. In questo modo la misura di tutti i canali di decadimento e delle caratteristiche di questa particella potranno essere adeguatamente studiati.

– Cosa significa e in che modo è importante aumentare la luminosità di LHC?

La luminosità di un collisore di particelle come LHC è proporzionale al numero di collisioni al secondo. Maggiore è la luminosità e più dati vengono raccolti dagli esperimenti per studiare eventi rari. Ogni fascio e’ costituito da circa 3000 pacchetti equispaziati di 25 ns e contenenti ciascuno circa mille miliardi di protoni.

– Quali performance raggiungerà LHC?
LHC, dopo il 2025, raggiungerà una luminosità istantanea incrementata di un fattore 10 rispetto alle attuali
prestazioni. Questo permetterà di raccogliere ogni anno una quantita’ di dati pari a quanto ottenuto fino ad allora da LHC.
In un arco temporale di circa 10 anni i dati raccolti saranno 10 volte superiori.

– In che modo HiLumi LHC migliorerà lo studio delle collisioni?

HiLumi LHC, grazie alla mole di dati raccolti consentira’ di studiare con precisione i processi fisici piu’ rari, di esplorare i confini della Fisica delle particelle oltre il Modello Stnadard, di cercare la materia oscura, la supersimmetria e le extra-dimensioni. Ma soprattutto fornirà misure di precisione sulle caratteristiche del bosone di Higgs.

– Quali esperimenti sono in cantiere per l’upgrade dello strumento?

ATLAS e CMS, dopo aver scoperto il bosone di Higgs nel 2012, hanno continuato ad analizzare i dati raccolti per studiare con precisione il quark top e il bosone di Higgs, ma anche per studiare il Modello Standard e i decadimenti rari che indicherebbero la presenza di nuovi fenomeni non ancora previsti dalla teoria.

– In che modo sono usate le cavità a granchio e perché sono fondamentali?

Le cavità superconduttrici a granchio, ora in fase di test, consentiranno di manipolare i fasci di protoni, massimizzando l’area di sovrapposizione dei due pacchetti al momento della collisione, aumentando di fatto la luminosità.
La struttura dei fascio nell’area di collisione ricorda il movimento di un granchio.

Fonte foto: CERN

ALLE PORTE DELLA VITA CON SAIJA FRANZ- COME SI SONO FORMATE LA PRIME MOLECOLE?

Abbiamo parlato con Saija Franz del CNR per farci spiegare la sua ultima ricerca apparsa su Chemical Communications, della Royal Society of Chemistry. L’obiettivo dello studio è stato quello di riprodurre il processo chimico che potrebbe aver determinato la sintesi primordiale dell’eritrosio, antenato del ribosio, lo zucchero che compone l’Rna.

Con lo scienziato abbiamo parlato in una lunga chiacchierata di molecole, origine della vita e tanti altri aspetti interessanti dei processi che sono alla base della vita.

– Come si sono formate le prime molecole?

Le molecole che hanno avuto un ruolo fondamentale nella formazione delle prime strutture biologiche sono tutti i composti che si basano sulla chimica del carbonio. In chimica prebiotica (quel campo della chimica che si occupa di comprendere quei processi che portarono alla formazione di composti organici partendo da molecole inorganiche) oltre al carbonio, sono fondamentali l’ossigeno, l’azoto, il fosforo e lo zolfo e, ovviamente l’idrogeno, che è l’atomo più abbondante nell’universo. Partendo da questi elementi, sintetizzati nei nuclei delle stelle e disseminati nello spazio dalle esplosione delle supernove, si sono formate le molecole inorganiche più importanti per la vita come la conosciamo oggi noi: acqua, ammoniaca, monossido di carbonio, idrogeno e azoto molecolare, metano e molte altre. Partendo da queste, il passaggio successivo è stato quello della sintesi di molecole poco più complesse come la formaldeide CH2O, l’acido cianidrico HCN, l’acido formico HCOOH, la formammide (NH2COH), etc. Da queste si è passati a sistemi via via più complessi e meglio organizzati fino ad arrivare alle macromolecole biologiche.

-Che ruolo ha avuto il ribosio (e derivati) nella formazione dell’RNA?

Una delle più discusse reazioni chimiche per spiegare il passaggio da molecole semplici, come la formaldeide, agli zuccheri, come il ribosio, è la nota Formose Reaction, conosciuta anche come reazione di Butlerov (Aleksandr Butlerov fu il chimico russo che la descrisse per la prima volta nel 1861). Quest’ultima è una reazione autocatalitica che avviene attraverso alcuni specifici stadi definibili come reazioni di aldolisi e retroaldolisi (il termine formose deriva da formaldeide e aldoso). Per la chimica prebiotica la formazione degli zuccheri da molecole semplici riveste particolare importanza, in quanto le struttura sia dell’RNA (acido ribonucleico) sia del DNA (acido desossiribonucleico) sono costituite dal ribosio e dal desossiribosio (la differenza fra i due è un atomo di ossigeno che dona una maggiore capacità catalitica all’RNA rispetto al DNA). Essa coinvolge dunque la formazione di un primo legame Carbonio-Carbonio a partire da una soluzione acquosa più o meno diluita di formaldeide che, tramite un cosiddetto umpolung (inversione di polarità), dà luogo all’unico possibile diosio (che contiene due atomi di carbonio): la glicolaldeide. Il primo step della formose reaction è caratterizzato da un evento sostanzialmente improbabile anche in condizioni alcaline particolari e non a caso rappresenta la cosiddetta “parte lenta” di tale catena di reazioni. Infatti, una volta formata la glicolaldeide, essa agisce da catalizzatore e la reazione procede in modo rapidissimo; così, la glicolaldeide, interagendo con una molecola di formaldeide, può dar luogo alla gliceraldeide, che è il primo triosio (tre atomi di carbonio) ad essere osservato. L’anello successivo di tale catena di reazioni è rappresentato dalla formazione di un qualche tetrosio come, ad esempio, l’eritrosio. Esso può formarsi direttamente dalla reazione di una gliceraldeide con una formaldeide o attraverso la reazione diretta di due molecole di glicolaldeide. Una volta formatosi un tetrosio, basta una semplice reazione tra esso e una formaldeide per dar luogo al ribosio e/o ad uno qualunque dei suoi isomeri (ribulosio, deossiribosio, ecc…). Come già evidenziato, il punto a sfavore della formose reaction è il primo passaggio dalla formaldeide alla glicoaldeide. Diversi sono stati nei decenni i tentativi sperimentali di trovare catalizzatori capaci di rendere probabile la reazione. La glicoaldeide, però, è stata anche osservata sia nello spazio interstellare sia nel gas che circonda una giovanissima stella di massa simile a quella del Sole, indicando che alcuni dei composti chimici necessari per la vita esistevano in questo sistema nel momento in cui avrebbe potuto aver luogo la formazione dei pianeti. Partendo da questa considerazione, nel nostro laboratorio “virtuale” abbiamo simulato una miscela di acqua e glicoaldeide ed usato come catalizzatore un campo elettrico di intensità così elevata da mimare il fenomeno della fulminazione. L’uso di un campo elettrico esterno che funga da catalizzatore delle reazioni primarie che portano dalle molecole semplici presenti, in una terra primordiale, a molecole più complesse è stato già testato in un esperimento numerico dal nostro gruppo nel 2014 (pubblicato sulla rivista PNAS dell’Accademia delle Scienze degli Stati Uniti d’America) ed ha portato alla formazione di un aminoacido.

– Cosa dobbiamo sapere delle famose pozze primordiali per capire al meglio il vostro studio?

L’ipotesi della pozza primordiale fu introdotta da Charles Darwin alla fine del 1800. Nel suo libro, l’Origine delle Specie per Selezione Naturale Darwin non si era spinto molto avanti nell’affrontare il concetto dell’origine della vita. E’ un libro in cui i commenti ad una materia che a quel tempo era molto delicata furono “distillati” in alcuni punti del testo per rabbonire i critici dei circoli religiosi. Però, lo scienziato inglese aveva una sua idea e la espresse solamente in una lettera privata ad un suo caro amico e collega, il botanico Joseph D. Hooker, solo nel 1871. In questa missiva egli scrisse esplicitamente:” … ma se (oh, quale grande se) potessimo concepire che in qualche stagno caldo, in presenza di ogni sorta di ammoniaca e di sali fosforici, luce, calore, elettricità, ecc, si sia formato un qualche componente proteico già pronto a subire mutamenti ancora più complessi …” Darwin, quindi, immaginava questo stagno ricco di quelle molecole inorganiche, di cui ho parlato prima, che a causa di un fattore esterno (luce, calore, elettricità, …) hanno reagito chimicamente formando molecole via via più complesse. Ma esistono numerosi altri modelli prebiotici, alcuni dei quali implicano che la vita si sia formata nelle profondità del mare a livello di sorgenti idrotermali o sui cristalli di pirite. Un’altra ipotesi ritiene che i mattoni della vita siano giunti sulla superficie terrestre dallo spazio. In realtà su frammenti di meteoriti giunti sulla terra sono state trovate tracce di molecole basate sulla chimica del carbonio. Addirittura la teoria della Panspermia propone che le prime forme di vita sulla terra siano arrivate proprio dallo spazio trasportate da asteroidi e comete.

– Come è stata usata la simulazione per ricreare un ambiente del genere?

E’ ben noto a tutti che la materia che ci circonda è costituita da atomi tenuti insieme fra di loro attraverso legami chimici che si instaurano tramite la colla della materia: gli elettroni.

Su un qualunque calcolatore, note le leggi che governano la dinamica di un qualsiasi insieme di atomi, è possibile farli evolvere nel tempo. Per fare questo dobbiamo, però, scegliere che livello di comprensione vogliamo raggiungere. Se siamo interessati a proprietà che non coinvolgono la rottura e la formazione di legami fra atomi e molecole possiamo usare la dinamica molecolare classica: si tratta in parole molto semplici di far riprodurre al calcolatore un fenomeno che assomigli il più possibile a quello che succede nella realtà facendo evolvere dinamicamente i costituenti il nostro sistema seguendo le equazioni del moto di Newton. Quindi risolvendo queste equazioni del moto al calcolatore è possibile seguire la traiettoria degli atomi o molecole e vedere con una specie di microscopio teorico cosa succede nella materia reale. Viceversa, se siamo interessati a studiare delle reazioni chimiche e quindi la rottura e formazione di nuovi legami dobbiamo trattare il problema mediante l’uso della meccanica quantistica che è la teoria fisica che regola il comportamento del mondo a livello atomico. Descrivere correttamente come e perché due molecole possono produrre una reazione chimica è piuttosto complicato e solo in alcuni casi il problema è risolvibile analiticamente. Oggi è possibile eseguire delle simulazioni in cui il problema quantistico viene risolto numericamente, seguendo la dinamica del sistema, grazie ad alcuni metodi che prendono il nome di simulazioni numeriche da principi primi (spesso si usa la locuzione latina ab initio), intendendo con principi primi il fatto che la dinamica è quantistica. Il grande passo in avanti che ha permesso a cavallo degli anni ’60 e ’70 di applicare le leggi della meccanica quantistica alle proprietà microscopiche della materia fu fatto da Walter Kohn, premio Nobel per la chimica nel 1998, che introdusse la teoria del funzionale densità. Tale approccio teorico ha lo straordinario vantaggio di poter essere implementato numericamente permettendo la risoluzione delle complicate equazioni della meccanica quantistica. La teoria del funzionale densità richiede comunque risorse di calcolo estremamente performanti. Nel 1985 i fisici italiani Roberto Car e Michele Parrinello, allora entrambi alla SISSA (Scuola Internazionale Superiore di Studi Avanzati) di Trieste, svilupparono l’omonimo metodo che permette di seguire in silico (termine che è sinonimo di simulazione) l’evoluzione dinamica di un sistema di molecole per tempi confrontabili a quelli delle esperienze di laboratorio.

– Come stanno migliorando i super computer in questi anni? Quali future applicazioni avranno nel vostro campo?

Oggigiorno la simulazione numerica rappresenta il terzo paradigma della scienza (insieme all’esperimento e alla teoria) e il suo scopo non è quello di produrre freddi numeri, bensì quello di fornire un ulteriore strumento di comprensione della natura. Una delle più recenti sfide tecnologiche è la costruzione di calcolatori sempre più potenti. Quando si parla di potenza di un computer si intende la velocità nell’eseguire delle operazioni e la sua capacità di immagazzinare informazione. Continua a valere la famosa legge di Moore (Gordon Moore cofondatore della Intel) secondo il quale ogni diciotto mesi la potenza di un computer raddoppia. Tutto questo, però, potrebbe subire un’accelerazione incredibile se si riuscisse a costruire un calcolatore basato sulle legge della meccanica quantistica, meglio conosciuto oggi come quantum computer. Si sta facendo molta ricerca in questo campo e si cominciano a vedere i primi risultati.

Oggi esistono dei super centri di calcolo utilizzati per scopi di tipo militare oppure per le previsioni metereologiche, solo per fare qualche esempio.

Nel nostro campo i progressi sono stati notevoli. Oggi si riescono ad eseguire simulazioni numeriche che dieci anni fa sarebbero state impossibili. Ciò vuol dire poter eseguire esperimenti “numerici” molto più accurati che aiutano a comprendere meglio e interpretare i risultati degli esperimenti compiuti nei laboratori. Ma la simulazione numerica non serve solo come banco di prova ma suggerisce nuovi esperimenti in condizioni spesso molto ardue da ottenere in laboratorio.

Nel campo della chimica prebiotica le potenzialità dell’approccio computazionale sono enormi. Le applicazioni future riguarderanno lo studio di altri processi chimico-fisici relati alla costituzione di molecole sempre più complesse come la sintesi delle basi azotate e lo studio del legame peptidico, che è responsabile della formazione delle proteine partendo dai semplici aminoacidi.

– Cosa resta di veramente fondamentale da scoprire in quest’area di studio?

Lo studio della chimica prebiotica è un campo di ricerca con grandi prospettive. Ci sono moltissime ipotesi riguardo alla nascita delle prime molecole biologiche. Ognuna di loro ha una propria validità scientifica e riuscire a trovare quale di queste sia la più verosimile è un compito particolarmente impegnativo ma anche molto affascinante che vede collaborare scienziati con estrazioni culturali molto diversi fra loro. E’ sicuramente una tematica multidisciplinare dove saperi differenti cooperano per cercare di trovare una soluzione comune. Un aspetto fondamentale di particolare rilevanza al momento è lo studio di quei processi chimico-fisici che hanno permesso a molecole biologiche semplici come gli zuccheri e le basi azotate di auto assemblarsi in strutture molecolari con capacità auto replicanti. Uno degli approcci innovativi e originali che sta permettendo di ottenere risultati molto promettenti è proprio quello computazionale.

Gianluigi Marsibilio

LE FRONTIERE E LE SFIDE DELL’EPIGENETICA: INTERVISTA A GIUSEPPE MACINO

Parlare di temi come la biologia molecolare o l’epigenetica in modo corretto, divulgativo e serio è un compito che pochi scienziati riescono ad assumere.

Ci sono, fortunatamente, delle menti illuminate come Giuseppe Macino, dell’Università La Sapienza, che da anni è impegnato nella divulgazione e nella comunicazione delle novità scientifiche legate alla genetica e a tutta una serie di temi, che per alcuni sembrano oscuri o controversi.

Noi abbiamo parlato con lui per farci spiegare in sommi capi tutti gli sviluppi odierni e futuri legati allo studio del DNA e dell’RNA.

 

 

 

– Tante volte ho come l’impressione che si diano delle interpretazioni sbagliate dell’epigenetica, quindi può spiegarci qual è l’area di studio di questa scienza e perché oggi è estremamente importante?

L’annuncio che il genoma umano era stato completamente, o quasi, sequenziato ci fece sperare di poter finalmente capire meglio il funzionamento ed il mal funzionamento delle nostre cellule e dei nostri organi. Presto ci rendemmo conto che non era così e che c’erano molte altre cose da capire per poter interpretare i dati che si andavano accumulando. Il DNA, come ormai tutti sanno, è la molecola che codifica per tutta l’informazione necessaria per il corretto sviluppo degli organismi e per il loro funzionamento per l’intero l’arco della vita. Questa enorme quantità di informazione deve essere usata in momenti diversi della vita di ogni singola cellula ed in modo diverso a seconda del tipo cellulare. Le nostre cellule sono molto diverse, si pensi alle cellule ossee, muscolari, epatiche, neuronali per fare degli esempi e si capisce subito che diversa funzione e diversa forma sono realizzate con l’uso di informazioni diverse. Allora se il DNA è lo stesso in ogni cellula come fanno ad essere così diverse? Il DNA nelle cellule è organizzato in modo molto complesso insieme a proteine, chiamate istoni,  che ne permettono l’avvolgimento regolare ed altre proteine che lo ricoprono. Queste strutture , che noi chiamiamo cromatina, possono essere più compatte o più lasche permettendo quindi di oscurare, silenziare, o di esporre le diverse parti del DNA che contengono i geni che codificano per le proteine, e non solo, necessarie per il funzionamento di ogni tipo di cellula. Il tutto in modo altamente regolato nel tempo e per ogni singola cellula. Tutto ciò lo si ottiene attraverso meccanismi che noi chiamiamo epigenetici che determinano quale porzione del DNA può essere utilizzata e quale no. In breve questi meccanismi fanno uso di modifiche chimiche di alcuni singoli aminoacidi che costituiscono le proteine intorno alle quali è avvolto il DNA. Queste modifiche, come la metilazione o l’acetilazione degli aminoacidi  lisina o arginina convogliano sul DNA altre proteine che rendono la struttura del DNA più accessibile o meno accessibile, con il risultato che il gene contenuto in quella specifica porzione della molecola di DNA sarà utilizzabile oppure sarà silenziato.

L’importanza dello studio dei meccanismi epigenetici appare quindi chiara se si pensa che le patologie, come il cancro, dipendono dalla utilizzazione di geni che non dovrebbero essere utilizzati che spingono le cellule a riprodursi anche quando non dovrebbero. Altre patologie importanti come quelle nervose spesso sono causate da meccanismi epigenetici mal funzionanti che alterano completamente il regolare funzionamento cellulare producendo danni sia strutturali che funzionale dei neuroni.

 

– Da Watson e Crick, passando per Roger Kornberg e il Nobel al Professor Craig C Mello. Come sta cambiando oggi la ricerca in genetica? Quali sono state, in questi ultimi anni delle tappe fondamentali?

Da quando conosciamo la struttura del DNA tutte le nostre idee sulla biologia sono radicalmente cambiate. Gli studi che ne sono seguiti ci hanno fatto capire che dal DNA era possibile estrarre le informazioni attraverso la sua trascrizione in RNA e che non tutto il DNA era trascritto in ogni momento ma solamente le regioni che contenevano i geni nel momento che il prodotto del gene, spesso una proteina, era necessario per il funzionamento corretto delle cellule. Da questi studi pioneristici si è passati successivamente a capire che ci sono dei meccanismi cellulari che non solamente utilizzano le informazioni contenute nel DNA ma che raccolgono messaggi che derivano dall’ambiente sia extra cellulare che extra corporeo. Tra questi messaggi ci sono anche i virus e non solo che provengono dall’esterno, da cui le cellule si devono difendere. La scoperta di Mello, sul silenziamento genico, svelava un meccanismo di difesa da invasori esterni che serve a proteggere l’integrità del DNA che possediamo. Da allora è stato possibile comprendere che oltre al DNA anche l’RNA gioca un ruolo estremamente importante nel funzionamento delle cellule e che anzi ogni giorno di più assume ruoli che prima venivano considerati tipici delle proteine. Si è capito che gli RNA interagiscono tra loro, che sono indispensabili per la regolazione dell’espressione dei geni sia a livello trascrizionale che post trascrizionale. Si è scoperto che esistono in ogni cellula RNA tanto piccoli da essere definiti microRNA che sono indispensabili per il coordinamento della funzione di produzione di proteine, per regolarne la quantità ed anche la localizzazione cellulare.

Oggi la nuova frontiera è la determinazione della variabilità individuale sia a livello di DNA che a livello di espressione dei nostri geni. Non solo noi siamo tutt diversi geneticamente ma lo siamo anche epigeneticamente, come dimostrato nel caso dei gemelli monozigoti, identici geneticamente ma diversi epigeneticamente.

Inoltre le nuove tecnologie hanno permesso di generare strumenti di intervento mirato sul DNA capaci di modificare il genoma delle cellule di ogni organismo, inclusi gli organismi umani. Lo sviluppo di queste tecnologie produrrà un ulteriore accelerazione delle conoscenze sul funzionamento e mal funzionamento cellulare con ricadute nel campo della medicina prima impensabili.

– Come viene acquisita e cos’è l’identità cellulare?

Ciascuno di noi, per parlare di umani, possiede un genoma unico, diploide,che ci deriva in parti uguali dai due genitori. La sequenza di centinaia di migliaia di genomi umani completi ci ha rivelato che ciascuno di noi condivide con gli individui della nostra specie il 99.9% della sequenza di DNA. Il residuo 0.1% ci rende unici e determina le caratteristiche fenotipiche che possiamo osservare. Questi 3 milioni di coppie di basi, che sono diverse tra ciascun  individuo, sono rappresentate da singoli nucleotidi, o qualche volta da sequenze di pochi nucleotidi, diffusi su tutto il genoma. Raramente sono presenti nei geni, più frequetemente al di fuori dei geni, nelle loro sequenze vicine che controllano  l’espressione del gene stesso. Queste alterazioni producono degli sfasamenti, durante lo sviluppo embrionale, e successivamente nella vita di ogni singola cellula, nella produzione di proteine il cui risultato è la  differenza di aspetto e funzionamento dei nostri apparati vitali.

– Per aiutare il pubblico a comprendere questi processi genetici e cellulari può spiegare semplicemente come si studiano concretamente in laboratorio?

In poche righe non è certo possibile spiegare qualcosa che richiederebbe delle enciclopedie. Tuttavia semplicemente si può spiegare che attualmente nei laboratori di genetica molecolare è possibile determinare la sequenza del DNA e di tutti, o quasi, gli RNA di ogni singola cellula di qual si voglia tessuto o organismo. Con lo sviluppo tecnologico sempre più veloce possiamo fare questi esperimenti in pochi giorni, e non molti anni come in passato, producendo conoscenza profonda su cosa accade momento per momento nelle cellule. Naturalmente possiamo anche determinare quali proteine sono presenti, anche se con maggiori difficoltà, e  quali complessi molecolari producono. Il confronto tra cellule sane e patologiche ci permette di ipotizzare quale meccanismo non funziona correttamente e proporre una ipotesi di intervento per evitare il problema derivante dalla patologia.

Si studiano contemporaneamente circa 50.000 geni negli organismi  sia animali che vegetali e si correla la loro funzione attraverso tecnologie bioinformatiche che permettono di estrarre significati importanti da una massa di dati semplicemente straordinaria. Sempre più la bioinformatica è indispensabile per analizzare i dati e proporre modelli di funzionamento cellulare da provare poi in pratica nel laboratorio.

– Qual è il legame tra l’epigenetica e i tumori? Cosa si sta sviluppando in questo settore di ricerca?

Le cellule tumorali sono molto diverse dalle cellule da cui derivano perchè un numero molto grande di geni vengono espressi in modo non corretto. Raramente la causa è determinata di un singolo gene mutato, più spesso le alterazioni sono di tipo epigenetico che modificano profondamente il livello di espressione di tantissimi geni e di conseguenza degli apparati di controllo che determinano il corretto accrescimento cellulare. Oggi spesso si definisce il cancro come una malattia epigenetica, tanto che si stanno sviluppando farmaci , chiamati epifarmaci, che incidendo sulle modifiche chimiche a carico degli istoni possono ripristinare il corretto funzionamento della struttura della cromatina nelle regioni geniche di interesse.

– Come si può manipolare il ciclo cellulare? Come questo è utile da un punto di vista sanitario?

Il ciclo cellulare deriva da una miriade di controlli incriciati sia intra che intercellulare. Attualmente non si può controllare per fini sanitari. Non sapremmo bene quali effetti potrebbe scatenare.

– Nel preparare questa breve intervista mi sono imbattuto spesso in un termine: homology-dependent gene silencing (HDGS). Cosa significa questo meccanismo di silenziamento per i geni?

Il silenziamento genico richiede una precisione assoluta che solamente gli acidi nucleici possono avere attraverso il riconoscimento di sequenze specifiche come conseguenza della complementarietà di legame tra le basi. Quindi silenziamento da sequenze omologhe significa che un RNA può essere riconosciuto da un altro RNA, raramente DNA, attraverso l’uso di sequenze complementari. Questo riconoscimento attiva delle nucleasi specifiche che tagliano l’RNA bersaglio e ne impediscono la funzione( silenziamento post trascrizionale). Per quello trascrizionale vale lo stesso concetto che implica che il DNA viene riconosciuto da un RNA complementare e questo istruisce proteine che ora possono sia modificare chimicamente le citosine del DNA, metilandole, sia modificare gli istoni dermminando un cambiamento della struttura della cromatina e un silenziamento della trascrizione del DNA coinvolto.

 

COMPLETARE LA RELATIVITÀ CON LA GRAVITA’ QUANTISTICA- INTERVISTA A MAURO PATERNOSTRO

La gravità quantistica è una teoria che ha sviluppato, in questi anni, predizioni accurate e particolari di effetti quantistici molto deboli da registrare. Partendo dalla relatività di einsteiniana memoria si è sviluppata in un contesto teorico che sta mettendo in mostra le più interessanti menti del nostro tempo. Noi abbiamo intervistato il giovane ricercatore Mauro Paternostro, della Queen University of Belfast, che sta studiando le implicazioni e i possibili indizi sperimentali per testare sempre più accuratamente questa teoria.

– Perchè la gravità quantistica in questo periodo, secondo te, è vista come una delle possibili risposte alla tanto cercata Teoria del Tutto? – Quali sono le proprietà quantistiche che si cercano nella gravità?

La teoria della relatività generale formulata da Einstein è incompleta: è in grado di fornire predizioni accurate solo per effetti quantistici molto deboli. Sebbene ciò sia il caso, in genere, la formulazione Einsteiniana della relatività generale fallisce nel descrivere lo spazio-tempo in presenza di effetti quantistici forti. La teoria della gravità quantistica che si ricerca dovrebbe dunque generalizzare la bellissima, seppur incompleta, relatività Einsteiniana.

– Quali implicazioni avrebbe per lo studio del nostro universo sapere che la gravità viene da una qualche fluttuazione/interazione quantistica?

Sono parecchie le implicazioni. Giusto per elencarne qualcuna di particolarmente significativa; 1) lo spazio tempo potrebbe essere connesso “non-localmente” attraverso connessioni, scorciatoie, che attraversano l’universo; 2) in presenza di effetti forti, che inducano forti curvature dello spazio-tempo (as esempio in un buco nero), il tempo potrebbe diventare spazio a causa del forte accoppiamento tra queste ‘dimensioni’; 3) molte delle formulazioni di una teoria della gravità quantistica vedono lo spazio ed il tempo come grandezze risultanti da entità più fondamentali (stringhe, loops, perfino quantum-bits); 4) in meccanica quantistica vale il principio di sovrapposizione; una natura quantistica della gravità dovrebbe comprendere il principio di sovrapposizione in maniera naturale; 5) fluttuazioni dello spazio-tempo dovrebbero avvenire anche in assenza di materia: quantisticamente, il vuoto fluttua, e quindi dovrebbe farlo anche lo spazio tempo. Quella che a me piace di più è affatto detto che una teoria quantistica della gravità risulti in una rivisitazione della gravità. potrebbe essere il contrario: potremmo dover modificare la teoria quantistica, scoprendola non completa. A quel punto, una serie di conclusioni tratte nell’ultimo secolo dovrebbero essere riesaminate criticamente.

– Come si può testare in laboratorio tutto l’amplesso teorico intorno alla gravità quantistica?

Questo è un punto piuttosto delicato. Credo infatti non sia possibile testare ogni aspetto, ogni sfaccettatura di una data teoria quantistica della gravità con un solo esperimento. La fenomenologia è ricchissima e complicata. Spesso, la scala di energie in gioco è troppo elevata per essere testabile in laboratorio. Quel che parte della comunità interessata a questo problema sta realizzando è che possibili aspetti di una plausibile teoria quantistica della gravità (soprattutto a basse energie) possono essere ‘dedotti’ a un approccio in cui la teoria dell’informazione ed i suoi strumenti vengono utilizzati in modo innovativo. Tipicamente implica la formulazione di test di natura interferometrica i cui risultati possono confermare, o confutare, una data assunzione sulla natura della gravità. Questi test sembrano realizzabili sperimentalmente (sebbene richiedano un livello molto alto di controllo e manipolazione del set-up sperimentale di volta in volta proposto).

– I modelli che voi costruite sull’universo come vi aiutano a testare le teorie?Non rischiano, i modelli di universo, di essere troppo semplificati?

Certamente: il rischio di una semplificazione eccessiva è sempre in agguato. In questo senso, è fondamentale riuscire a identificare test sperimentali che confutino un dato modello. Procediamo per ‘sviluppi successivi’: a partire da un modello semplice, procediamo a ‘complicarlo’ per passi successivi, basandoci sull’evidenza di esperimenti. Al momento, il primo passo è testare la plausibilità’ dell’assunzione “la gravita’ va quantizzata”. Il resto, verrà nel tempo. O nello spazio!!

Gianluigi Marsibilio

COME L’ARTE TOCCA LA SCIENZA: INTERVISTA A LUCA POZZI

Abbiamo parlato con Luca Pozzi, brillante artista che da anni indaga il confine a cavallo tra arte e scienza cercando di raccontare in modo avvincente e tramite dei capolavori visuali le avventure della scienza. L’artista vanta delle collaborazioni con NASA, CERN e ESA ed è sempre attento a ciò che succede nel mondo della ricerca.

Nel nostro colloquio abbiamo parlato del connubio tra artista e scienziati, cercando di capire come la creatività influenza l’attività dei migliori uomini di scienza del pianeta.

Il connubio tra scienza e arte non è semplice o immediato per tutti. Tu come hai cominciato a orientarti in questo campo?

 

Inizialmente coltivando il “Dubbio” innato che avevo per le cose, alimentando e potenziando una specie di curiosità resiliente. Nutrivo semplicemente la necessità di immaginare le cose oltre le finestre sensoriali del mio corpo. L’arte lo ha sempre fatto ma a un certo punto della ricerca l’esperienza è diventata così poco intuitiva da aver bisogno di nuovi strumenti immaginativi su cui poter contare per poter evolvere.

Un giorno mi sono imbattuto in una frase di Paul Dirac, uno dei fondatori della meccanica quantistica nonché padre dell’anti-materia, secondo cui era possibile scoprire nuove leggi di natura, cito testualmente: “Giocando con le equazioni, modi diversi di scrivere la stessa equazione possono suggerire cose diverse sebbene logicamente equivalenti”. Così che è iniziato il mio interesse per la scienza, leggendo. Ho scoperto i libri di fisica teorica, i grandi classici come “la strada che porta alla realtà” di Roger Penrose, “l’universo elegante” di Brian Greene, “la rinascita del tempo” di Lee Smolin passando per “la leggerezza dell’essere” di Frank Wilczek e “La realtà non è come ci appare” di Carlo Rovelli per citarne alcuni. La cosa strana è che più li approfondivo e più riscoprivo la genesi di opere del passato più o meno recente. Ricalcando le orme delle problematiche di alcuni scienziati emergevano soluzioni formali in abito artistico. Questa correlazione mi ha dato molta fiducia e mi ha spinto ad andare oltre la letteratura verso un progressivo avvicinamento con la comunità scientifica, sia in ambito teorico che sperimentale.

 

In che modo l’arte completa la scienza? Quali sono i punti in comune tra un artista e uno scienziato?

 

Penso vivano in rapporto simbiotico e siano alimentate dallo stesso sforzo immaginativo, ma che rispondano ad attitudini diverse per certi versi complementari.

I punti in comune li si può rintracciare negli sforzi dei ricercatori che ci hanno preceduto. L’arte e la fisica durante il ventesimo secolo hanno cercato di descrivere come le cose si comportano nella grande e nella piccola scala. Entrambe a modo loro hanno forzato I nostri limiti immaginativi e ci hanno parlato dell’esistenza di barriere energetiche invisibili.

Incredibilmente semplificando la quesitone, la relatività generale, attraverso l’arte ad essa connessa, ci ha dischiuso il mondo dei pianeti e delle galassie, dei viaggi nello spazio, dove il concetto di simultaneità degli eventi non è permesso e dove il significato di forma e grandezza perde ogni senso di verità assoluta. Pensiamo a Picasso, Brancusi e Giacometti per esempio…grazie all’idea di movimento relativo, I viaggi nel tempo ci appaiono come qualcosa di concreto, quasi inevitabile, sappiamo dell’interconnessione tra figura e sfondo e che la velocità di un corpo produce una distorsione della forma. La meccanica quantistica invece, e l’arte ad essa connessa è capace di teletrasportarci in un mondo totalmente diverso dove è impossibile conoscere al tempo stesso la posizione e la velocità di un oggetto, dove ogni cosa che succede è probabilistica e dove il solo fatto di osservare la realtà provoca un inevitabile perdita di informazione. L’invenzione del dripping di Jackson Pollock è eclatante in questa prospettiva, sgocciolamenti casuali e sovrapposti generati dal movimento di un corpo nello spazio di probabilità di un campo circoscritto.

Ovviamente come in passato anche il nostro presente è ricco di sfide.

Nel 2018 ci troviamo di fronte ad altrettanto validi e sorprendenti interrogativi che, com’è accaduto in passato, coinvolgono indiscriminatamente ogni disciplina. Oggi ci fa riflettere l’incompatibilità profonda tra relatività generale e meccanica quantistica e ci confonde vedere l’incoerenza che nasce dallo scontro del molto grande e del molto piccolo in regimi energetici prossimi alla scala di planck. Le domande che la fisica teorica si pone in ambito di gravità quantistica trascendono la matematica e stimolano problemi immaginativi profondi. La teoria delle stringhe per esempio ci obbliga a riconsiderare, insieme ai pilastri della fisica moderna, anche la percezione della realtà a 360° parlandoci di dimensioni arrotolate e stringhe vibranti. La Loop Quantum Gravity, d’altro canto, mette persino in dubbio l’esistenza del tempo come fenomeno fondamentale della natura postulando l’esistenza di un network di pura topologia da cui emergerebbe il campo gravitazionale.

La fisica delle particelle nel suo processo di definizione del modello standard stà espandendo la conoscenza dei comportamenti intimi della natura fino a parlarci di come emerge la massa grazie al campo di Higgs, ma sappiamo che potrebbe esserci una fisica oltre tale modello…

C’è davvero tantissimo lavoro da fare, il problema è colmare il gap esperienziale dell’individuo che, mediamente tende a difendere i suoi sensi piuttosto che metterli in discussione.

 

Abbiamo spesso parlato nelle nostre interviste con vari scienziati del ruolo della creatività nelle scienze. Qual è per te uno scienziato, uno studioso modello?

 

Sicuramente Carlo Rovelli, con cui ho avuto il piacere di conversare dal 2010 a oggi. Ma anche Daniele Oriti, Francesca Vidotto ed Eugenio Bianchi! Tra i ricercatori stranieri Aurelien Barrau e Joao Magueijo.

 

Luoghi come il CERN, i laboratori NASA e tanti altri posti importanti dal punto di vista scientifico, come si legano alla creatività e all’arte?

Sono i templi della ricerca, ed hanno la capacità di catalizzare e aggregare l’attenzione delle menti più brillanti del pianeta come in passato è accaduto a Parigi per le avanguardie storiche e a New York per l’espressionismo astratto.

 

Nell’ultimo decennio si è parlato tanto di teorie sull’inflazione cosmica che generano ipotesi come il multiverso. L’arte però immagina universi paralleli e rimbalzi cosmici da tempo, nel tuo lavoro hai la percezione di riuscire a ispirare gli scienziati?

 

Nutro la speranza di contribuire alla “Global Picture” in quanto parte interna e non esterna di un sistema, senza avere la pretesa di sapere come funzioni questa complessa rete di influenze reciproche ricorsive più o meno subliminali.

In Italia si parla spesso di una scorretta divulgazione che genera notizie false come nel caso dei vaccini, scie chimiche e altro. Qual è il compito dell’artista in questo momento storico difficile dove fidarsi è un’impresa?

 

Bella domanda, non lo so. Anche se ragiono spesso sul concetto di SPAM e di “Storia”. In fin dei conti quello che è falso oggi potrebbe essere vero domani e viceversa. Una falsa notizia, come una vera notizia sostanzialmente può fare due cose: provocare interesse oppure no. Io mi concentrerei più sulla natura profonda dell’interesse piuttosto che sulla attendibilità o no di una notizia. Se c’è l’interesse poi se la notizia è sbagliata ne si verrà a capo, se non c’è interesse non lo sapremo mai.

Cosa stai programmando per il prossimo futuro? Su cosa stai lavorando?

 

Sto realizzando una serie di nuove sculture in bronzo equipaggiate di rivelatori di particelle studiati in collaborazione con l’Istituto Nazionale di fisica Nucleare (INFN). Vorrei arrivare ad integrare linguaggi espressivi provenienti dalla cosmologia multi-messaggera ai formalismi arcaici dell’arte a cui siamo abituati, al fine di riconsiderare le obsolete categorie di “disegno”, “Pittura” e “scultura” a cui siamo abituati. Un’opera secondo me va oltre queste definizioni, per analogia credo che si comporti piuttosto come un diamante: trattiene, potenzia e rilascia l’informazione che, nel caso della pietra preziosa si misura in luminosità, nel caso dell’opera…è indicibile.

 

Questo slideshow richiede JavaScript.

ALLA SCOPERTA DEL GHIACCIO E DELLE SUE CURIOSE FORME – INTERVISTA A FEDERICA COPPARI

La dottoressa in fisica Federica Coppari al Lawrence Livermore National Laboratory ha partecipato ad una scoperta estremamente interessante. È infatti stato prodotto per la prima volta il ghiaccio superionico con una combinazione di impulsi laser applicati a un campione di acqua ghiacciata ad alta pressione. L’importante ricerca è stata pubblicata su Nature Physics e noi per capirne al meglio l’importanza abbiamo raggiunto la ricercatrice facendole alcune domande sulle implicazioni dello studio

 

 

Come riescono gli ioni nello stato di superionicità a presentarsi in forma solida?

E’ una competizione tra gli effetti della pressione e della temperatura sulla struttura dell’acqua. Al variare di pressione e temperature la struttura stabile e’ quella che minimizza l’energia interna del sistema, e per l’acqua a ~200 GPa e ~3000 K questa struttura e’ formata da ossigeno allo stato solido e idrogeno, liberi di muoversi come in un liquido.

Come siete riusciti a formare questo stato del ghiaccio? Cosa ti emoziona particolarmente del tuo lavoro a queste temperature estreme?

La fase superionica si manifesta a specifiche condizioni di pressione e temperatura. Per ottenerla abbiamo preso un campione di acqua, l’abbiamo compresso a 2.5 Gpa, usando una cella a incudini di diamante, fino a formare il ghiaccio chiamato Ice VII, che e’ piu’ denso del ghiaccio che abbiamo in frigorifero del 60%. Siamo poi andati a fare i nostri esperimenti di compressione shock all’ Omega Laser Facility al Laboratory for Laser Energetics in Rochester (NY). Qui abbiamo messo la cella a incudini di diamante nella target chamber e abbiamo focalizzato circa 2000 J di energia laser su uno dei diamanti per formare un’onda di shock che si propaga attraverso la cella comprimendo e scaldando l’acqua ulteriormente.

Mi affascina e incuriosisce vedere come le proprietà della materia cambiano sotto l’effetto di pressione e temperatura. In aggiunta le condizioni che riusciamo ad ottenere con la compressione laser sono uniche e molto spesso studiamo la materia in condizioni che non sono mai state riprodotte sperimentalmente. Pensare che in un esperimento che dura qualche nano-secondo si possono ricreare le condizioni esistenti all’interno dei pianeti e’ estremamente emozionante!

 

Qual è il legame tra questo stato della materia e pianeti come Urano e Nettuno?

Nei nostri esperimenti abbiamo osservato la formazione del ghiaccio superionico a pressioni di 100-200 GPa e temperature di 3000-4000 K e secondo modelli di struttura planetaria: queste sono le condizioni che si troverebbero all’interno di Urano e Nettuno, per cui l’”acqua” all’interno di questi pianeti assumerebbe la fase superionica.

 

Quali proprietà e applicazioni ha questo stato del ghiaccio?

Questo stato del ghiaccio non esiste alle condizioni terrestri: siamo riusciti a ricrearlo in laboratorio, ma solo per qualche nanosecondo, quindi e’ difficile pensare a delle applicazioni tecnologiche. Invece, essendo stabile alle condizioni che ci aspettiamo all’interno di Urano e Nettuno, ha delle forti implicazioni per le teorie di formazione e evoluzione di questi pianeti, che invece di avere una struttura interna allo stato fluido, potrebbero essere formati da ghiaccio superionico. Questo potrebbe spiegare le anomalie del campo magnetico osservate per questi due pianeti.

 

Nel vostro team di ricerca quale altro comportamento bizzarro vi aspettate dal ghiaccio?

L’acqua e’ una molecola piu’ complessa di quanto ci si possa aspettare. Ad oggi si conoscono 17 diverse strutture solide che sono stabili a diverse condizioni di pressione e temperatura. La formazione di acqua o ghiaccio superionico e’ un altro esempio di quanto strana questa sostanza possa essere. A pressioni ancora piu’ elevate (dell’ordine del tera-pascal) di quelle esplorate in questo lavoro, studi teorici prevedono che l’acqua assuma delle strutture cristalline estremamente complesse, con densita’ ancora piu’ elevate. Sara’ interessante vedere se gli esperimenti confermano queste previsioni.

 

Lei sta lavorando in uno dei più importanti laboratori del pianeta. Come si trova negli USA, cosa è cambiato per lei rispetto all’Italia?

In California si sta bene e il lavoro che faccio e’ sicuramente emozionante e pieno di sorprese. E’ difficile per me fare un paragone con l’Italia, perche’ essendo partita all’estero subito dopo la tesi di laurea, non ho una vera esperienza lavorativa come ricercatrice in Italia.

Gianluigi Marsibilio
crediti foto: S. Hamel / M. Millot / J. Wickboldt / Llnl / Nif

BIOMARCATORI DELL’OBESITÀ, NELLE URINE LA RISPOSTA

Siamo tornati con la prima intervista Tra Scienza & Coscienza del 2018, abbiamo parlato con Rosaria Cozzolino del CNR che ha portato avanti una ricerca insieme all’Istituto di scienze dell’alimentazione del Consiglio nazionale delle ricerche (Isa-Cnr) di Avellino culminata con una pubblicazione su Scientific Reports, rivista del gruppo Nature.

Lo studio si è concentrato sulle  urine di bambini sovrappeso o obesi analizzando il profilo dei composti organici volatili (Vocs), prodotti nei normali processi metabolici dal nostro organismo,

 

– Come sta cambiando nel tempo il problema dell’obesità infantile?

Secondo l’Organizzazione Mondiale della Sanità l’incidenza dell’obesità infantile è globalmente aumentata ad un ritmo allarmante negli ultimi decenni. Anche se in alcuni paesi occidentali sembra che tale fenomeno abbia raggiunto livelli stabili, esso rimane una sfida importante e una priorità per la salute pubblica

– Quali parti dell’organismo sono più coinvolte in presenza di obesità?

L’obesità durante l’infanzia è associata ad un aumentato rischio di morbilità e mortalità a causa di malattie non trasmissibili nell’età adulta, quali il diabete di tipo 2, l’ipertensione, le malattie cardiovascolari ed alcuni tipi di tumore.

-Ci sono diversi tipi di obesità?

L’obesità, dal latino, “obedo”, mangiare in eccesso, consiste in un aumento di peso e di volume corporeo, (rispetto ai valori ideali), dovuto ad accumulo di grasso nel tessuto adiposo.

La causa principale del sovrappeso e dell’obesità è un apporto calorico degli alimenti ingeriti attraverso la dieta superiore al dispendio energetico che presenta l’organismo.

Il parametro che ci dice se si è in sovrappeso è l’indice di massa corporea (IMC), ottenuto dividendo il peso, espresso in chili, per il quadrato dell’altezza, in metri, (kg/m2). Si considera sovrappeso un IMC tra 25 e 29,9 kg/m2.

In generale è possibile distinguere tre tipi di obesità:

-androide, quando il grasso si distribuisce nella parte superiore del corpo (viso, torace e addome). Gli individui appartenenti a questo tipo di obesità sono più facilmente soggetti a ipertensione, malattie cardiovascolari e diabete.

-ginoide, quando il grasso si accumula nella parte inferiore del corpo (fianchi e cosce). Tali individui sono più facilmente soggetti problemi di varici, artrosi, insufficienza respiratoria e scompenso cardiaco.

-tipo misto, quando il grasso è distribuito in modo uniforme in tutto il corpo.

-Come si arriva e come si blocca una malattia del genere?

Il continuo e progressivo aumento dei casi di obesità nei paesi industrializzati registrato negli ultimi decenni e la gravità delle manifestazioni morbose a esse correlate creano grossi problemi di ordine sanitario, psicologico e socioeconomico.

L’obesità, infatti, è il risultato dell’interazione tra fattori genetici e ambientali. Il rapido incremento del sovrappeso/obesità osservato in tutte le fasce di età della popolazione mondiale suggerisce che i fattori ambientali, quali lo stile di vita sedentario (scarsa o assente attività fisica) e l’eccessivo introito energetico attraverso la dieta rispetto alle reali esigenze dell’organismo, sono i principali promotori di questa pandemia.

La prevenzione è sicuramente il mezzo più valido per limitare la prevalenza di sovrappeso/obesità modificando lo stile di vita:

-incrementando l’attività fisica non solo attraverso la pratica di sport, ma anche nella quotidianità (fare le scale a piedi, praticare giardinaggio, raggiungere la scuola o il posto di lavoro a piedi, quando possibile, etc),

-seguendo un’alimentazione a minore densità energetica, caratterizzata dal consumo prevalente di cereali integrali e di alimenti vegetali quali frutta, verdura e, soprattutto, limitando il consumo di alimenti particolarmente ricchi di grassi ed evitando bevande zuccherate e dolciumi.

-Quali marcatori avete rintracciato nelle urine?

Nello studio dal titolo “Urinary volatile organic compounds in overweight compared to normalweight children: results from the Italian I.Family cohort”, pubblicato su Scientific Reports, rivista del gruppo Nature, sono stati studiati i composti organici volatili (VOCs) estratti da urine. Tali composti sono un insieme molto eterogeneo di sostanze chimiche (aldeidi, chetoni, terpeni, acidi carbossilici, terpeni, alcoli, etc) che ha in comune una bassa temperatura di ebollizione.

 

-Dal punto di vista chimico cosa cambia nei nostri fluidi biologici in presenza di obesità?

In particolare, il mio studio mostra che il profilo dei VOCs delle urine dei bambini obesi/sovrappeso differisce da quello dei bambini normopeso per una diversa concentrazione di alcune sostanze volatili. Tale differenza può essere spiegata con una ormai ben nota disbiosi (alterazione della microflora, prevalentemente batterica, che alberga nell’intestino umano) a carico dei soggetti obesi/sovrappeso che ospitano a livello intestinale alcune specie batteriche in quantità maggiore o minore rispetto ai bambini normopeso. Inoltre, l’alterazione della concentrazione di alcuni VOCs è in accordo con ciò che si riscontra in studi condotti sull’analisi di sostanze volatili in bambini affetti da alterata funzione epatica, indicando che i VOCs possono essere considerati potenziali biomarcatori di disordini epatici e metabolici.

Gianluigi Marsibilio

LA LOTTA AL PARKINSON SPIEGATA DA ELVIRA DE LEONIBUS

Un team formato da Elvira De Leonibus, responsabile del Laboratorio di neuropsicofarmacologia dell’Istituto di genetica e biofisica del Consiglio nazionale delle ricerche (Igb-Cnr) di Napoli e Faculty presso l’Istituto Telethon di genetica e medicina (Tigem) di Pozzuoli, Barbara Picconi e Paolo Calabresi della Fondazione Santa Lucia Irccs e dell’Università di Perugia, ha scoperto un nuovo meccanismo di memoria cellulare attivato dall’apprendimento motorio, che viene alterato nelle fasi iniziali della malattia di Parkinson. Il lavoro, finanziato dalla Fondazione con il Sud e dal Miur, è stato pubblicato sulla rivista Brain. Noi abbiamo intervistato la ricercatrice per parlare del lavoro appena pubblicato e delle nuove frontiere della ricerca nelle malattie neurodegenerative.

– Cosa accade a livello strutturale, molecolare, nei primi istanti dell’alterazione del Parkinson?

Noi abbiamo studiato gli effetti dell’accumulo della proteina alfa-sinucleina. Questa proteina si trova normalmente nel nostro cervello e serve per svolgere alcune delle sue funzioni fisiologiche. Tuttavia, quando è in eccesso, come nel nostro modello, oppure quando il gene che la produce subisce delle mutazioni, si aggrega (forma una specie di matassa) che impedisce la normale comunicazione tra le cellule. L’alfa-sinucleina per le cellule nervose è come il colesterolo per le arterie, quello buono serve, quello cattivo le occlude e le fa degenerare.

– In quali ricerche bisognerebbe insistere di più nei prossimi anni?

Tutte! Le malattie del sistema nervoso centrale sono molto spesso multifattoriali e vanno attaccate su più fronti. La prevenzione e le terapie comportamentali (come l’attività fisica) che sembrano avere un ruolo protettivo; i geni coinvolti nella patologia, e i meccanismi attraverso cui le loro alterazioni portano alla morte delle cellule; i meccanismi attraverso cui l’attività di comunicazione tra i neuroni viene alterata, e l’effetto di farmaci che oggi abbiamo a disposizione per ripristinare la normale attività; la diagnosi precoce, che è l’unico modo per provare attraverso questi attacchi su mille fronti a rallentare il decorso della malattia e migliorare la qualità della vita del paziente.

– Qual è il ruolo del corpo striato nella malattia e che ruolo svolge nel cervello?

Il corpo striato, insieme agli altri gangli della base, è un po’ come il manager del cervello. Rende esecutivi gli obiettivi a lungo termine presi dalle parti alte dell’organizzazione, la corteccia cerebrale; sceglie quali azioni devono essere attuate e quali inibite, se bisogna cambiare piano d’azione o continuare sullo stesso, serve per costruire le abitudini: quello che funziona non si cambia, si perfeziona fino all’automatismo. Serve, quindi, per imparare a ballare, a scrivere, a suonare il piano, serve per consentirci di percorrere il tragitto da casa a lavoro fermandoci con il semaforo rosso e passando con il verde, evitando il pedone e lo scooter che ci passa di fianco in modo del tutto automatico, mentre la nostra corteccia è impegnata a sostenere una conversazione accesa con i nostri figli.

– Cosa impedisce la formazione di una memoria cellulare durante la malattia?

L’eccesso di alfa-sinucleina nelle fasi iniziali della malattia modifica i livelli del trasportatore della dopamina. La dopamina è la molecola che consente la comunicazione tra i neuroni dello striato, in particolare per la memoria c’è bisogno di quella che si chiama plasticità sinaptica, cioè la capacità dell’attività elettrica delle cellule di modificarsi in funzione degli stimoli ricevuti in precedenza. In questo studio abbiamo visto che in animali normali le prime fasi dell’apprendimento motorio fanno si che le cellule dello striato invece di rispondere ad un impulso elettrico con la depressione (inibiscono l’attività elettrica di risposta al segnale ricevuto) a lungo termine, rispondono con il potenziamento (aumentano l’attività elettrica di risposta al segnale ricevuto). Questa alterazione nella risposta persiste per giorni dopo l’addestramento. Quando l’apprendimento raggiunge un livello ottimale, si torna alla depressione a lungo termine.

L’eccesso di alfa-sinucleina impedisce ai neuroni di passare dalla depressione al potenziamento e questo si traduce in un’incapacità di apprendimento motorio ottimale. Riteniamo che l’alfa-sinucleina impedisca questa forma di plasticità cellulare, modificando i livelli del traportatore della dopamina, una specie di vigile che controlla il traffico delle molecole di dopamina tra due neuroni che stanno comunicando per apprendere un compito motorio. Abbassando i livelli del trasportatore il traffico delle vescicole di dopamina va il tilt e i neuroni non sono più in grado di rispondere in modo plastico, ovvero cambiare la loro risposta in funzione del tipo addestramento che hanno ricevuto in precedenza e del tipo di comando cellulare che ricevono dalla corteccia.

– Quando arriva la neuro-degenerazione nel corso della malattia? Quali sono gli indicatori molecolari di questa degenerazione?

Quello che sappiamo oggi è che quando compaiono i sintomi motori tipici della malattia di Parkinson la degenerazione è già ad uno stadio avanzato. La stima dei livelli di degenerazione ad oggi viene fatta con tecniche di visualizzazione cerebrale che misurano proprio i livelli del trasportatore della dopamina, sulla base dell’equivalenza meno trasportatore uguale meno neuroni dopaminergici. Nei nostri modelli noi vediamo meno trasportatore ma non vediamo meno neuroni dopaminergici; i livelli di trasportatore sono invece legati alla quantità di alfa-sinucleina. I nostri dati suggeriscono che sarebbe importante combinare i dati sul livello di trasportatore con quelli dei livelli di alfa-sinucleina nel liquor dei pazienti.

– Se vuole si lanci in una previsione, in un buon proposito: tra dieci anni dove sarà la ricerca sul Parkinson?

Dipenderà molto dai finanziamenti, perché la ricerca scientifica costa. Tra dieci anni, con l’aumento dell’aspettativa di vita, le malattie neurodegenerative avranno un’incidenza drammatica sui costi del sistema sanitario. L’obiettivo a breve termine, perché 10 anni nella ricerca scientifica sono un obiettivo a breve termine, è quello di avere un buon armamentario di mezzi e persone per combattere questa guerra su più fronti: prevenzione, diagnosi precoce, terapie sintomatiche e forse anche qualche terapia che sia in grado di rallentare la morte dei neuroni.

 

Powered by WordPress.com.

Up ↑