UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Category

Interviste TraScienza&Coscienza

BIOMARCATORI DELL’OBESITÀ, NELLE URINE LA RISPOSTA

Siamo tornati con la prima intervista Tra Scienza & Coscienza del 2018, abbiamo parlato con Rosaria Cozzolino del CNR che ha portato avanti una ricerca insieme all’Istituto di scienze dell’alimentazione del Consiglio nazionale delle ricerche (Isa-Cnr) di Avellino culminata con una pubblicazione su Scientific Reports, rivista del gruppo Nature.

Lo studio si è concentrato sulle  urine di bambini sovrappeso o obesi analizzando il profilo dei composti organici volatili (Vocs), prodotti nei normali processi metabolici dal nostro organismo,

 

– Come sta cambiando nel tempo il problema dell’obesità infantile?

Secondo l’Organizzazione Mondiale della Sanità l’incidenza dell’obesità infantile è globalmente aumentata ad un ritmo allarmante negli ultimi decenni. Anche se in alcuni paesi occidentali sembra che tale fenomeno abbia raggiunto livelli stabili, esso rimane una sfida importante e una priorità per la salute pubblica

– Quali parti dell’organismo sono più coinvolte in presenza di obesità?

L’obesità durante l’infanzia è associata ad un aumentato rischio di morbilità e mortalità a causa di malattie non trasmissibili nell’età adulta, quali il diabete di tipo 2, l’ipertensione, le malattie cardiovascolari ed alcuni tipi di tumore.

-Ci sono diversi tipi di obesità?

L’obesità, dal latino, “obedo”, mangiare in eccesso, consiste in un aumento di peso e di volume corporeo, (rispetto ai valori ideali), dovuto ad accumulo di grasso nel tessuto adiposo.

La causa principale del sovrappeso e dell’obesità è un apporto calorico degli alimenti ingeriti attraverso la dieta superiore al dispendio energetico che presenta l’organismo.

Il parametro che ci dice se si è in sovrappeso è l’indice di massa corporea (IMC), ottenuto dividendo il peso, espresso in chili, per il quadrato dell’altezza, in metri, (kg/m2). Si considera sovrappeso un IMC tra 25 e 29,9 kg/m2.

In generale è possibile distinguere tre tipi di obesità:

-androide, quando il grasso si distribuisce nella parte superiore del corpo (viso, torace e addome). Gli individui appartenenti a questo tipo di obesità sono più facilmente soggetti a ipertensione, malattie cardiovascolari e diabete.

-ginoide, quando il grasso si accumula nella parte inferiore del corpo (fianchi e cosce). Tali individui sono più facilmente soggetti problemi di varici, artrosi, insufficienza respiratoria e scompenso cardiaco.

-tipo misto, quando il grasso è distribuito in modo uniforme in tutto il corpo.

-Come si arriva e come si blocca una malattia del genere?

Il continuo e progressivo aumento dei casi di obesità nei paesi industrializzati registrato negli ultimi decenni e la gravità delle manifestazioni morbose a esse correlate creano grossi problemi di ordine sanitario, psicologico e socioeconomico.

L’obesità, infatti, è il risultato dell’interazione tra fattori genetici e ambientali. Il rapido incremento del sovrappeso/obesità osservato in tutte le fasce di età della popolazione mondiale suggerisce che i fattori ambientali, quali lo stile di vita sedentario (scarsa o assente attività fisica) e l’eccessivo introito energetico attraverso la dieta rispetto alle reali esigenze dell’organismo, sono i principali promotori di questa pandemia.

La prevenzione è sicuramente il mezzo più valido per limitare la prevalenza di sovrappeso/obesità modificando lo stile di vita:

-incrementando l’attività fisica non solo attraverso la pratica di sport, ma anche nella quotidianità (fare le scale a piedi, praticare giardinaggio, raggiungere la scuola o il posto di lavoro a piedi, quando possibile, etc),

-seguendo un’alimentazione a minore densità energetica, caratterizzata dal consumo prevalente di cereali integrali e di alimenti vegetali quali frutta, verdura e, soprattutto, limitando il consumo di alimenti particolarmente ricchi di grassi ed evitando bevande zuccherate e dolciumi.

-Quali marcatori avete rintracciato nelle urine?

Nello studio dal titolo “Urinary volatile organic compounds in overweight compared to normalweight children: results from the Italian I.Family cohort”, pubblicato su Scientific Reports, rivista del gruppo Nature, sono stati studiati i composti organici volatili (VOCs) estratti da urine. Tali composti sono un insieme molto eterogeneo di sostanze chimiche (aldeidi, chetoni, terpeni, acidi carbossilici, terpeni, alcoli, etc) che ha in comune una bassa temperatura di ebollizione.

 

-Dal punto di vista chimico cosa cambia nei nostri fluidi biologici in presenza di obesità?

In particolare, il mio studio mostra che il profilo dei VOCs delle urine dei bambini obesi/sovrappeso differisce da quello dei bambini normopeso per una diversa concentrazione di alcune sostanze volatili. Tale differenza può essere spiegata con una ormai ben nota disbiosi (alterazione della microflora, prevalentemente batterica, che alberga nell’intestino umano) a carico dei soggetti obesi/sovrappeso che ospitano a livello intestinale alcune specie batteriche in quantità maggiore o minore rispetto ai bambini normopeso. Inoltre, l’alterazione della concentrazione di alcuni VOCs è in accordo con ciò che si riscontra in studi condotti sull’analisi di sostanze volatili in bambini affetti da alterata funzione epatica, indicando che i VOCs possono essere considerati potenziali biomarcatori di disordini epatici e metabolici.

Gianluigi Marsibilio

LA LOTTA AL PARKINSON SPIEGATA DA ELVIRA DE LEONIBUS

Un team formato da Elvira De Leonibus, responsabile del Laboratorio di neuropsicofarmacologia dell’Istituto di genetica e biofisica del Consiglio nazionale delle ricerche (Igb-Cnr) di Napoli e Faculty presso l’Istituto Telethon di genetica e medicina (Tigem) di Pozzuoli, Barbara Picconi e Paolo Calabresi della Fondazione Santa Lucia Irccs e dell’Università di Perugia, ha scoperto un nuovo meccanismo di memoria cellulare attivato dall’apprendimento motorio, che viene alterato nelle fasi iniziali della malattia di Parkinson. Il lavoro, finanziato dalla Fondazione con il Sud e dal Miur, è stato pubblicato sulla rivista Brain. Noi abbiamo intervistato la ricercatrice per parlare del lavoro appena pubblicato e delle nuove frontiere della ricerca nelle malattie neurodegenerative.

– Cosa accade a livello strutturale, molecolare, nei primi istanti dell’alterazione del Parkinson?

Noi abbiamo studiato gli effetti dell’accumulo della proteina alfa-sinucleina. Questa proteina si trova normalmente nel nostro cervello e serve per svolgere alcune delle sue funzioni fisiologiche. Tuttavia, quando è in eccesso, come nel nostro modello, oppure quando il gene che la produce subisce delle mutazioni, si aggrega (forma una specie di matassa) che impedisce la normale comunicazione tra le cellule. L’alfa-sinucleina per le cellule nervose è come il colesterolo per le arterie, quello buono serve, quello cattivo le occlude e le fa degenerare.

– In quali ricerche bisognerebbe insistere di più nei prossimi anni?

Tutte! Le malattie del sistema nervoso centrale sono molto spesso multifattoriali e vanno attaccate su più fronti. La prevenzione e le terapie comportamentali (come l’attività fisica) che sembrano avere un ruolo protettivo; i geni coinvolti nella patologia, e i meccanismi attraverso cui le loro alterazioni portano alla morte delle cellule; i meccanismi attraverso cui l’attività di comunicazione tra i neuroni viene alterata, e l’effetto di farmaci che oggi abbiamo a disposizione per ripristinare la normale attività; la diagnosi precoce, che è l’unico modo per provare attraverso questi attacchi su mille fronti a rallentare il decorso della malattia e migliorare la qualità della vita del paziente.

– Qual è il ruolo del corpo striato nella malattia e che ruolo svolge nel cervello?

Il corpo striato, insieme agli altri gangli della base, è un po’ come il manager del cervello. Rende esecutivi gli obiettivi a lungo termine presi dalle parti alte dell’organizzazione, la corteccia cerebrale; sceglie quali azioni devono essere attuate e quali inibite, se bisogna cambiare piano d’azione o continuare sullo stesso, serve per costruire le abitudini: quello che funziona non si cambia, si perfeziona fino all’automatismo. Serve, quindi, per imparare a ballare, a scrivere, a suonare il piano, serve per consentirci di percorrere il tragitto da casa a lavoro fermandoci con il semaforo rosso e passando con il verde, evitando il pedone e lo scooter che ci passa di fianco in modo del tutto automatico, mentre la nostra corteccia è impegnata a sostenere una conversazione accesa con i nostri figli.

– Cosa impedisce la formazione di una memoria cellulare durante la malattia?

L’eccesso di alfa-sinucleina nelle fasi iniziali della malattia modifica i livelli del trasportatore della dopamina. La dopamina è la molecola che consente la comunicazione tra i neuroni dello striato, in particolare per la memoria c’è bisogno di quella che si chiama plasticità sinaptica, cioè la capacità dell’attività elettrica delle cellule di modificarsi in funzione degli stimoli ricevuti in precedenza. In questo studio abbiamo visto che in animali normali le prime fasi dell’apprendimento motorio fanno si che le cellule dello striato invece di rispondere ad un impulso elettrico con la depressione (inibiscono l’attività elettrica di risposta al segnale ricevuto) a lungo termine, rispondono con il potenziamento (aumentano l’attività elettrica di risposta al segnale ricevuto). Questa alterazione nella risposta persiste per giorni dopo l’addestramento. Quando l’apprendimento raggiunge un livello ottimale, si torna alla depressione a lungo termine.

L’eccesso di alfa-sinucleina impedisce ai neuroni di passare dalla depressione al potenziamento e questo si traduce in un’incapacità di apprendimento motorio ottimale. Riteniamo che l’alfa-sinucleina impedisca questa forma di plasticità cellulare, modificando i livelli del traportatore della dopamina, una specie di vigile che controlla il traffico delle molecole di dopamina tra due neuroni che stanno comunicando per apprendere un compito motorio. Abbassando i livelli del trasportatore il traffico delle vescicole di dopamina va il tilt e i neuroni non sono più in grado di rispondere in modo plastico, ovvero cambiare la loro risposta in funzione del tipo addestramento che hanno ricevuto in precedenza e del tipo di comando cellulare che ricevono dalla corteccia.

– Quando arriva la neuro-degenerazione nel corso della malattia? Quali sono gli indicatori molecolari di questa degenerazione?

Quello che sappiamo oggi è che quando compaiono i sintomi motori tipici della malattia di Parkinson la degenerazione è già ad uno stadio avanzato. La stima dei livelli di degenerazione ad oggi viene fatta con tecniche di visualizzazione cerebrale che misurano proprio i livelli del trasportatore della dopamina, sulla base dell’equivalenza meno trasportatore uguale meno neuroni dopaminergici. Nei nostri modelli noi vediamo meno trasportatore ma non vediamo meno neuroni dopaminergici; i livelli di trasportatore sono invece legati alla quantità di alfa-sinucleina. I nostri dati suggeriscono che sarebbe importante combinare i dati sul livello di trasportatore con quelli dei livelli di alfa-sinucleina nel liquor dei pazienti.

– Se vuole si lanci in una previsione, in un buon proposito: tra dieci anni dove sarà la ricerca sul Parkinson?

Dipenderà molto dai finanziamenti, perché la ricerca scientifica costa. Tra dieci anni, con l’aumento dell’aspettativa di vita, le malattie neurodegenerative avranno un’incidenza drammatica sui costi del sistema sanitario. L’obiettivo a breve termine, perché 10 anni nella ricerca scientifica sono un obiettivo a breve termine, è quello di avere un buon armamentario di mezzi e persone per combattere questa guerra su più fronti: prevenzione, diagnosi precoce, terapie sintomatiche e forse anche qualche terapia che sia in grado di rallentare la morte dei neuroni.

 

UN GETTO LUMINOSO NELLO SPAZIO: LA STORIA DI CTA 102 è UNA PIETRA MILIARE DELL’ASTROFISICA

CTA 102 è un blazar, cioè un nucleo galattico attivo, che ha però una grande particolarità: essere il più luminoso mai osservato.

L’osservazione è avvenuta con l’aiuto di 40 strumenti e ha prodotto un paper su Nature; la ricerca è stata guidata da Claudia M. Raiteri, prima autrice dello studio uscito sulla prestigiosa rivista e in forze all’osservatorio di Torino. Noi l’abbiamo intervistata e lei ha compilato per noi la “carta d’identità” di CTA 102.

La scienziata nell’intervista ci ha raccontato come è avvenuta la scoperta. Il monitoraggio di CTA 102 è una pietra angolare in questo campo dell’astrofisica che negli anni sta portando alla luce tante buone provenienti dal cielo.

– Sembra che CTA 102 sia il blazar più potente mai registrato. Cos’ha di tanto speciale? Cos’è esattamente un blazar?

Un blazar è un nucleo galattico attivo, potente sorgente di radiazione il cui motore è situato al centro della galassia ospite. La sua particolarità è data dal fatto che uno dei due getti di plasma che fuoriescono dal motore centrale è rivolto verso di noi, per cui la sua emissione di onde elettromagnetiche viene amplificata a causa di effetti relativistici.
Il blazar CTA 102 si è distinto perchè alla fine del 2016 e` diventato così luminoso da battere tutti i record precedenti. La nostra interpretazione, pubblicata in un articolo su Nature, è che questo sia stato possibile perché il suo getto, da cui proviene la luce osservata, si sia allineato con la linea di vista, spingendo al massimo gli effetti relativistici di cui sopra.

– Come lavorano oltre 40 telescopi per rintracciare un evento del genere?

Esiste una collaborazione internazionale , il Whole Earth Blazar Telescope (WEBT; http://www.oato.inaf.it/blazars/webt/), di cui Massimo Villata dell’INAF-Osservatorio Astrofisico di Torino è diventato Presidente nel 2000, che organizza e coordina campagne osservative su questi oggetti. Gli astronomi di tutto il mondo che vogliono partecipare devono rispettare certe procedure e mandare i loro dati a chi si occupa di analizzarli e di pubblicarli su riviste scientifiche internazionali. Nel caso della campagna su CTA 102 io e Massimo abbiamo assunto questo compito.

– Come si è comportato Cta 102 dal punto di vista della variabilità delle sue emissioni?

Nella banda ottica CTA 102 aveva mostrato un flare (aumento di emissione importante) nel 2012, dopodiché era rimasto in stato basso fino al 2016, quando abbiamo assistito ad un’improvvisa crescita della sua luminosità ottica che lo ha portato ai livelli straordinari di fine 2016.
Come WEBT abbiamo registrato un aumento di luminosità importante anche nell’infrarosso e nelle onde radio millimetriche, mentre nelle onde radio centimetriche la variazione non e` stata cosi` estrema. CTA 102 si è quindi comportato in modo diverso in bande osservative differenti. Questo ci ha suggerito l’immagine di un getto sinuoso, in cui la parte di getto che produceva l’emissione osservata nella banda ottica  puntava verso di noi, mentre la parte radio era meno allineata.

– Che ruolo hanno i buchi neri in queste esplosioni?

Il motore centrale di un nucleo galattico attivo e` un buco nero con massa da milioni a miliardi di volte quella del nostro Sole. Intorno ad esso ruota un disco di polveri e gas che vengono progressivamente risucchiate dal buco nero, rilasciando energia. Parte di questa energia puo` essere convogliata in due getti di plasma che escono dal buco nero in direzione perpendicolare al disco.

– Quali altri eventi degni di nota avete registrato con la collaborazione internazionale WEBT?

Il WEBT è nato nel 1997 e in 20 anni di attività abbiamo condotto decine di campagne osservative, molto spesso avvalendoci anche delle osservazioni di satelliti per osservazioni astronomiche lanciati dall’ente spaziale europeo, l’ESA, o da quello americano, la NASA. Un altro oggetto, per esempio, che ci ha dato molta soddisfazione è stato il blazar 3C 454.3, soprannominato “Crazy Diamond”, che abbiamo studiato a lungo anche in collaborazione con i colleghi del team del satellite italiano per astronomia gamma AGILE.

 

Gianluigi Marsibilio

Crediti: Gianluigi Bodo e Paola Rossi (INAF)

BIG BANG, NO GRAZIE: L’UNIVERSO è FRUTTO DI UN RIMBALZO COSMICO?

 

In settimana la pubblicazione dell’articolo Bouncing cosmology inspired by regular black holes da parte del professor J.C.S Neves dell’Instituto del Matemática, Estatística e Computação Científica dell’ Universidade Estadual ha ispirato tanti a riconsiderare e a tornare a parlare di teorie alternative al Big Bang, noi nella notte abbiamo sentito lo scienziato che ci ha spiegato il ruolo dei buchi neri nel suo modello, introducendoci a tanti concetti estremamente interessanti, ma anche leggermente complessi.

Il professor Neves ha tenuto un tono sempre molto divulgativo e ha spiegato punto dopo punto il suo modello che prevede, come ogni big bounce che si rispetti, fasi continue di contrazione e espansione per l’universo.

 

– Quali sono i principali problemi nella teoria del big bang?

Il modello standard della cosmologia è chiamato modello Lambda-Cold-Dark-Matter (Lambda-CDM). In generale per le persone (non specialiste) la teoria è stata nominata come : “big bang”. Per i ricercatori, il big bang è solo la singolarità iniziale e rappresenta il problema più importante nel modello standard.

Perché?

La singolarità iniziale promuove un fallimento nella teoria della gravità di Einstein. La relatività generale è la base della cosmologia moderna e con una singolarità, allo stato primoridiale dell’universo, il modello standard fallisce. Le grandezze fisiche e geometriche nella singolarità iniziale non hanno valori finiti per questo, il big bang inteso come singolaritò è il più grande problema in cosmologia, un qualcosa di impossibile!

– Qual è il ruolo dei buchi neri nella cosmologia del big bounce?

Per risolvere questo problema, sono apparsi modelli di cosmologie che prevedono i rimbalzi (bounce). La singolarità iniziale viene dunque sostituita da un rimbalzo regolare, una transizione tra le fasi di contrazione e di espansione. La relatività generale non soffrirà quindi del problema delle singolarità nelle varie teorie del big bounce.

Se l’universo rimbalza, è possibile supporre l’esistenza di buchi neri nella fase precedente, cioè quella di contrazione. I buchi neri non vanno completamente distrutti dopo il rimbalzo, o almeno le loro onde gravitazionali, per questo una sorta di segnale dai buchi neri, tramite onde gravitazionali può essere rintracciato oggi.

– Quali sono le peculiarità di questo modello?

Cosmologie del genere sono una vecchia idea. Il mio modello, in particolare, risolve il problema della singolarità iniziale introducendo nel modello i buchi neri regolari.

I buchi neri regolari sono senza una singolarità all’interno del loro orizzonte degli eventi.

– Che ruolo ha il tempo nel tuo modello?

Nel mio modello, il tempo ha lo stesso ruolo rispetto al modello standard. È una coordinata nelle equazioni di campo di Einstein. Il tempo non ripristina il suo “flusso” nella fase di contrazione.

– Che cos’è un “fattore di scala” in relatività?

In cosmologia, il fattore di scala misura la variazione del tessuto spazio-temporale. Indica se l’universo si sta espandendo, contraendo o se è statico. È solo una funzione nelle soluzioni delle equazioni di Einstein. Nel modello standard, il fattore di scala dipende dal tempo. Nel mio modello, dipende dal tempo e dalla scala cosmologica.

A causa di una diversa concezione del fattore di scala, il mio modello potrebbe descrivere il nostro universo in diversi modi. Sappiamo che per le scale di grandi dimensioni, l’universo è quasi omogeneo mentre per le più piccole è disomogeneo.

Questa caratteristica è osservativa e il modello standard non la descrive a a differenza dal modello che prevede il bounce.

Dove si potrebbero trovare le prove concrete della tua teoria?

Come ho detto, per mezzo dei buchi neri si potrebbe trovare la prova di una fase precedente, uno strumento chiave sono le annesse onde gravitazionali prodotte dalla contrazione dell’universo.

Gianluigi Marsibilio

SOX A 360°, ECCO COME FUNZIONA L’ESPERIMENTO AI LABORATORI DEL GRAN SASSO

L’esperimento SOX, dedicato allo studio dei neutrini che userà l’apparato di Borexino (già presente nei Laboratori del Gran Sasso- INFN) è un vero portare verso una nuova idea di fisica fondamentale.

Il rilevatore di neutrini è sensibilissimo e la radiopurezza è assolutamente fondamentale per svolgere l’esperimento collocato sotto i 1400 metri di roccia del Gran Sasso, noi abbiamo parlato con il coordinatore dell’esperimento Marco Pallavicini che ha risposto a ogni nostra domanda in modo da fornire ai nostri lettori un quadro completo e divulgativo della situazione.

Come ha specificato l’INFN, Sox NON è un esperimento nucleare che prevede la manipolazione di atomi, come accade per esempio in una centrale nucleare, ma un esperimento scientifico che usa una sorgente radioattiva sigillata, costituita da circa 40 grammi di polvere di Cerio 144.

– Come funzionerà SOX?

SOX è un esperimento di fisica del neutrino che vuole verificare l’esistenza o meno di neutrini aggiuntivi rispetto a quelli noti in natura. Sarà realizzato con una sorgente artificiale di neutrini (una sorgente radioattiva completamente schermata e sigillata) e l’apparato di Borexino per rivelare i neutrini stessi. Si prenderanno dati per 18 mesi.

– Come interagirà con Borexino?

Il generatore sarà posto a circa 8 m dal centro del rivelatore di Borexino, all’interno di un tunnel di cemento armato e chiuso da una porta in acciaio. Non vi sarà alcuna interazione né alcun contatto con alcuna parte degli apparati di Borexino. La sorgente è realizzata in modo da essere completamente sicura anche qualora si verificassero eventi incidentali come allagamenti (sia di acqua o dello scintillatole presente in Borexino), incendi (la capsula interna è certificata fino a 800 gradi centigradi e la schermatura biologica di tungsteno fonde a più di 1500 gradi), o terremoti.

– Come è stata realizzata la schermatura per l’esperimento?

Il generatore è realizzato da due parti inseparabili: una capsula (doppia) in acciaio anti-corrosione e resistente a alte temperature (800 C) in cui è sigillato in modo permanente il Cerio-144; una schermatura in tungsteno (tungsteno, ferro e nichel per essere esatti) dello spessore minimo di 19 cm che garantisce la completa schermatura delle radiazioni al livello necessario a poter usare lo strumento in piena sicurezza per le persone, per l’ambente e per la popolazione.

– Su cosa si concentrerà SOX, rispetto a strumenti simili in giro per il mondo, per avere delle novità sul neutrino sterile?

La unicità di SOX è quella di essere l’unico esperimento che non usa come sorgente di neutrini un reattore nucleare ma appunto una sorgente. Una sorgente è un oggetto molto più semplice e molto meglio conosciuto per quanto riguarda il flusso di neutrini emesso, e quindi rende possibile un esperimento più preciso e meno soggetto a incertezze nella misura.

– Il totale isolamento di SOX è fondamentale per avere una buona riuscita dell’esperimento. Quando si progettano esperimenti del genere quanto guadagno si ha in termini di sviluppi tecnologico?

Le ricerche in fisica fondamentale come questa non sempre hanno applicazioni ovvie o immediate. SOX è un progetto molto innovativo in cui si dimostra proprio la capacità di realizzare sorgenti di neutrini di semplice uso. Sarà il tempo a dire se questo potrà avere ricadute tecnologiche o industriali. L’assoluta sigillatura della sorgente è cruciale per l’esperimento e per il laboratorio. La sorgente sarà installata all’interno della camera pulita di Borexino e DarkSide, due esperimenti che hanno come elemento chiave la bassissima radioattività, milioni o miliardi di volte inferiore a quella naturale presente in aria, acqua e materiali. La camera pulita in oggetto, tanto per fare un esempio, è equipaggiata con un impianto di purificazione dell’aria che riduce il Radon radioattivo di più di mille volte. Si può immaginare se ci possiamo permettere di disperdere un singolo atomo di Cerio 144.

– All’esperimento è connesso un qualche rischio ambientale per le zone circostanti?

Assolutamente no. La sorgente è sicura, sigillata, poco radioattiva (gli operatori più esposti prenderanno una dose di molto inferiore a quella di una radiografia), a prova di incidente. Anche l’ipotesi dell’attacco terroristico o dell’azione deliberata non ha senso. La sorgente sarà chiusa in luogo inaccessibile, chiuso a chiave, sotto guardia armata 24h/24h, e sarà scortata dalle forze dell’ordine durante tutti i trasporti. Per aprire ipoteticamente il contenitore servono strumenti appositi, un paranco per sollevare un tappo di centinaia di kg, molte ore di tempo indisturbate senza che nessuno intervenga o faccia qualcosa. Uno scenario semplicemente ridicolo. Tutti gli altri scenari incidentali più sensati (allagamento, terremoto, incendio) sono stati valutati e le misure necessarie adottate per annullare ogni rischio.

– Qual è il sogno, che tutti gli scienziati del laboratorio, sperano di veder realizzato con SOX?

La ricerca si fa passo passo. Esiste un dubbio (debole, tutto da confermare) che esistano altri neutrini. Indipendentemente dalle opinioni personali, l’unico modo che la scienza ammette per togliere il dubbio è quello di fare un esperimento serio. SOX è questo. Quali saranno i risultati lo decide la natura. Se scoprissimo i neutrini sterili sarebbe un risultato importantissimo per la fisica e per la cosmologia. Se non li scopriremo, la ricerca batterà altre strade.

 

Gianluigi Marsibilio

ANATOMIA DI ‘OUMUAMUA, INTERVISTA A MARCO MICHELI

Il caso ‘Oumuamua ha interessato tutti, noi ne abbiamo parlato a inizio settimana, ecco perché ci siamo sentiti in dovere di approfondire sull’origine e la carta d’identità di questo strano oggetto di origine interstellare.

Abbiamo per questo parlato con Marco Micheli Marco Micheli, del NEO Coordination Centre dell’ESA e dell’Osservatorio Astronomico di Roma, che è anche autore dello studio pubblicato su Nature, al centro della nostra intervista sono stati anche gli scenari futuri nello studio di questi particolari corpi.

– Come è stato possibile capire la natura e le caratteristiche di ‘Oumuamua?

La prima e più interessante caratteristica di ʻOumuamua, cioè la sua origine interstellare, è divenuta chiara quasi subito, quando ci siamo accorti che le osservazioni di scoperta e quelle di conferma ottenute poco dopo non erano “interpolabili” con una normale orbita ellittica o parabolica, ma solo con un’orbita di eccentricità più elevata, cioè nettamente iperbolica. Tutti gli oggetti originati nel sistema solare hanno orbite ellittiche o paraboliche, oppure occasionalmente lievemente iperboliche se deformate dal passaggio ravvicinato con qualche pianeta. Nel caso di ʻOumuamua però, l’orbita era troppo iperbolica per poter essere frutto di una deflessione planetaria, e l’unica possibile interpretazione è rimasta quella che provenga da fuori del Sistema Solare.

– Questi oggetti provenienti dal di fuori del sistema solare cosa ci potrebbero dire sul nostro passato?

Ci potrebbero sicuramente dire tantissimo, perché se analizzati in dettaglio ci fornirebbero informazioni su come si sono formati altri sistemi stellari diversi dal nostro, fornendoci per la prima volta delle indicazioni su aspetti comuni o diversi nella formazione dei vari sistemi planetari.

– Quali similitudini e differenze può avere questo oggetto con i 750000 esempi di comete e asteroidi che abbiamo nel nostro sistema solare?

L’analisi spettrale della luce riflessa dall’asteroide ci ha rivelato che, per quanto possibile vedere da Terra, la sua composizione è compatibile con quella di corpi analoghi del nostro Sistema Solare
esterno. La forma molto allungata invece è estremamente peculiare, molto più estrema di gran parte degli asteroidi e comete del nostro Sistema Solare che abbiamo studiato.

– Con quale incidenza questi oggetti arrivano nel nostro sistema solare?

Difficile stimarlo sulla base di un solo caso osservato. In precedenza erano state fatte stime teoriche molto variabili, da molti oggetti all’anno a occorrenze più rare. Se nei prossimi anni o decenni se ne
scoprissero altri sarà più facile modellizzare meglio questo fenomeno e capire con più precisione la frequenza dei passaggi.

– Quali programmi futuri potranno studiare meglio questi oggetti di passaggio?

Vista la rarità di questi oggetti credo che l’obiettivo principale nei prossimi anni sarà di scoprirne altri e cercare di individuare similarità e differenze. Probabilmente futuri telescopi più potenti
permetteranno di aumentare non solo il numero di scoperte, ma anche la qualità delle osservazioni possibili per studiarne meglio le caratteristiche.

-Come si è comportato ‘Oumuamua dopo essere entrato nel nostro piccolo quartiere?

Si è comportato seguendo le normali leggi della gravità: è arrivato provenendo da una specifica direzione, ma avvicinandosi al Sole è stato deflesso dall’attrazione gravitazionale di quest’ultimo, che ne ha significativamente alterato la direzione del moto. Ora si sta allontanando dal Sole in una direzione molto diversa dal quella iniziale, e proseguirà lungo quella traiettoria fino a sfuggire
nuovamente all’attrazione solare.

Gianluigi Marsibilio

Crediti foto: ESO

A SPASSO TRA LE KILONOVAE CON ALESSANDRA CORSI

La rilevazione della Kilonova ha messo in moto tantissimi ricercatori, studiosi, dottorandi e studenti in tutto il mondo, tra questi c’è una massiccia quantità di giovani scienziate e scienziati italiani, tra loro c’è Alessandra Corsi, co-autrice dell’articolo uscito sul The Astrophysical Journal proprio sull’incredibile fenomeno registrato.

La professoressa lavora come docente presso il Dipartimento di Fisica e Astronomia della Texas Tech University. Le sue ricerche si concentrano sull’astrofisica e in particolare sulla fisica delle onde gravitazionali. È membro della LIGO Scientific Collaboration e della collaborazionesquadra di GROWTH (Global Relay of Observatories Watching Transients Happen). Nel 2015 ha ricevuto un prestigioso premio NSF “CAREER ” per i suoi studi sulle onde gravitazionali. Noi abbiamo fatto alcune domande per addentrarci ancora di più in questa che si candida ad essere la scoperta scientifica del 2017.

Come è stato possibile coordinare tutti i team di lavoro per osservare un evento del genere?

LIGO e Virgo si erano preparati attentamente per questo evento. Alla fine del 2013, le due collaborazioni avevano di LIGO e Virgo hanno emesso un invito formale per gli astronomi professionisti a firmare accordi per i follow-up delle onde gravitazionali a partire dal 2015, quando i rivelatori avanzati sarebbero stati messi in linea per la loro prima corsa scientifica.

Questo ci ha permesso di disporre di un sistema tramite il qualein cui gli astronomi partner potessero comunicare tra loro e scambiare le loro scoperte in tempo reale emettendo quelleo che chiamiamo “circolari interne LIGO / Virgo”  interni (messaggi facilmente inviabiliti tramite e-mail).

Da cosa deriva l’incredibile potenza rilasciata da queste stelle di neutroni, sotto forma di onde gravitazionali?Quali sono le particolarità di queste stelle?

L’accelerazione di oggetti massicci produce onde gravitazionali. Queste onde sono molto deboli, quindi qui sulla Terra non possiamo generare onde gravitazionaliquelli rilevabili. L’Universo, però, è pieno di oggetti incredibilmente massicci che subiscono accelerazioni rapide. Un paio di stelle di neutroni che si orbitano l’una intorno all’altrao rappresenta un esempio di un sistema che emette efficientemente onde gravitazionali. Le stelle di neutronineutrone sono degli oggetti molto densi nel cimitero stellare. Immagina una massa paragonabile a quella del nostro Sole, impacchettata in una regione di spazio di soli confezionata nella regione a 20 km di distanza: queste stelle ormai “defunte” sono di fatto gli oggettile celesti più densie tra gli oggetti tra quelli cheche chiamiamo chiamiamo “stelle”.

Come le precedenti teorie vi hanno aiutato a scoprire questa Kilonova, quali sono le discrepanze tra le osservazioni e le precedenti teorie?

La teoria precedente ci ha dettoprevedeva che, dopo la collisione tra le due stelle di neutroni, un’emissione diuna “kilonova” da ottico a infrarossi si sarebbe attivata sotto forma di radiazione ottica e infrarossadopo la . Questa emissione sarebbe fusione e poi rapidamente sarebbe scomparsa nel giro di pochi giorni. La teoria ha permesso agli astronomi di organizzarsi e di avere una serie di diversi telescopi pronti a osservare l’area del cielo dove è stato a rivelato il segnale d’onda gravitazionale. Tuttavia, in questi modelli c’erano molte incertezze, e solo ora che abbiamo dati possiamo iniziare a mettere in evidenza la fisica dietro questi modelli. Abbiamo anche rilevato alcune altre cose inaspettate: un flash associato di raggi gamma associato all’evento gravitazionale, molto meno energico di quanto ci aspettassimo; un lampo di luce UV che svanisce rapidamente nel primo giorno dalla fusione;  un riavvio dell’un’emissione ritardata di raggi X (in raggi X (9 giorni dopo la fusionefusione) e nel ) eradio ( della radio (16 giorni dopo la fusione). Tutte queste osservazioni hanno prodotto diverse decine di articoli pubblicati in giornali prestigiosidecine di ricerche. I raggi gamma deboli e il ritardo nell’attivazione dei raggi X  e nel radio, in particolare, suggeriscono che, oltre al materiale ricco di neutroni che alimenta la kilonova, è stato lanciato anche un jet veloce nel mezzo interstellare burst.

 

Dopo la fusione delle due stelle come è stata cambiata la chimica nell’ambiente circostante?

Crediamo che, dopo la collisione delle due stellesmashup, il sito dove è avvenuta lai fusione si sia è arricchito con gli elementi più pesanti della tavola periodica, come l’oro e il platino. Pensiamo che le collisioni binarie di stelle di neutronineutroniche contribuiscano sostanzialmente all’abbondanza di tali elementi nel nostro sistema solare. Quanto esattamente contribuiscaono, però, diventerà più chiari, mentrepiù chiaro quando saremo in grado di rivelare rileviamo altri sistemi del genere con LIGO e Virgo, e con  i vari telescopi che da un angolo all’altro del mondo partecipano a questa avventurain tutto il mondo!

Gianluigi Marsibilio

IL GRAFENE A ZERO G, IL FUTURO SPAZIALE DELL’INNOVATIVO MATERIALE

Portare il grafene nello spazio. Questo è l’obiettivo di una delle più grandi e innovative iniziative che unisce il CNR e l’Agenzia Spaziale Europea.

La collaborazione ha dato vita al progetto Flagship Graphene ea novembre partirà il grande esperimento che testerà il grafene in condizioni di assenza di gravità a bordo di un volo parabolico.
Noi abbiamo parlato con la comunità dei ricercatori dell’esperimento e delle sue implicazioni, a rispondere alle nostre domande sono stati Vincenzo Palermo, vicedirettore del progetto  e Maddalena Scandola, responsabile della comunicazione del CNR.

Come è strutturato esattamente l’esperimento Zero Gravity Graphene?

Il programma ZeroGravity Graphene si compone di due ambiziosi esperimenti, promossi dalla iniziativa europea Graphene Flagship in collaborazione con l’Agenzia Spaziale Europea (ESA), per valutare le prestazioni del grafene in condizioni di gravità zero. L’Italia, con il Cnr, ha un ruolo di primo piano in uno degli esperimenti in programma.

Entrambi gli esperimenti si svolgeranno tra il 6 e il 17 novembre 2017, e testeranno il grafene in condizioni di micro-gravità per valutare il suo potenziale nelle applicazioni spaziali, in particolare per la propulsione con la luce (vele solari) e per la gestione termica di satelliti.

L’esperimento ‘Solar sails’ (Vele solari) testerà il grafene come materiale per realizzare vele solari, un ambizioso metodo di propulsione delle navicelle spaziali che sfrutta la luce dal sole o dai laser a terra. Quando la luce è riflessa o assorbita da una superficie, esercita una forza che spinge la superficie lontano dalla sorgente luminosa: questa pressione di radiazione può essere sfruttata per spingere oggetti nello spazio senza utilizzare combustibili. Poichè la spinta della pressione di radiazione è molto bassa, per avere una propulsione efficace la “vela” deve avere una grande superficie e essere il più leggera possibile. Il grafene è molto leggero e al contempo resistente e potrebbe essere un buon candidato per le vele solari. Il team di ‘Solar sails’ studierà come il graphene possa funzionare come una vela solare in un esperimento che simula le condizioni di gravità e vuoto di spazio.

L’esperimento ‘Satellite Heat Pipes’ testerà il grafene a bordo di un volo parabolico che simula le condizioni di assenza di gravità per verificare il suo impiego nei dispositivi termici impiegati nei satelliti. La gestione termica è molto importante nei satelliti, poiché la mancanza di aria richiede soluzioni tecnologiche specifiche per disperdere il calore verso lo spazio profondo. La differenza di temperatura tra due lati di un satellite, quello rivolto verso il sole e quello al buio può arrivare fino a 200 gradi. Gli scambiatori di calore (Heat Pipes) trasferiscono il calore dalle parti calde a quelle fredde, e disperdono quello in eccesso verso lo spazio.

Frutto di una collaborazione tra l’italiana Leonardo Spa, leader mondiale nel settore aerospaziale, due istituti del CNR, l’Istituto per la Sintesi Organica e Fotoreattività (ISOF) e l’Istituto per la Microelettronica e i Microsistemi di Bologna (IMM-Bo), l’Università libera di Bruxelles e l’Università di Cambridge, l’esperimento indagherà come i rivestimenti a base di grafene possono migliorare l’efficienza negli scambiatori di calore, noti come loop heat pipes, fondamentali sistemi di raffreddamento usati nei satelliti e negli strumenti aerospaziali.

Il team si riunirà a Bordeaux, in Francia, tra il 6 e il 17 novembre 2017 per testare gli scambiatori di calore contenti grafene in condizioni di microgravità in un volo parabolico, gestito dall’Agenzia spaziale europea (ESA) e da Novespace (Francia).

Il team di ricercatori dell’esperimento ‘Satellite Heat Pipes’ intende sfruttare le proprietà termiche e fisiche del grafene per migliorare l’efficienza degli scambiatori di calore.

Questi infatti raffreddano i dispositivi a bordo grazie all’evaporazione di un liquido che si trova all’interno di una struttura di materiale poroso, solitamente di metallo. Sostituendo il materiale metallico con un composito a base di grafene e metallo, i ricercatori mirano a migliorare il trasferimento di calore tra le unità elettroniche e il fluido che lo attraversa.

Cos’è la tecnica del volo parabolico usata per portare il valore della gravità vicino allo zero?

Il volo parabolico è il metodo utilizzato per portare il valore della gravità vicino allo zero senza andare in orbita: mentre l’aereo segue una traiettoria parabolica si può arrivare ad avere fino a 25 secondi di assenza di peso. Ogni volo, che avrà la durata di 3 ore, comporterà circa 30 archi parabolici. Oltre all’assenza di gravità, a bordo si sperimenta anche fino al doppio della forza gravitazionale terrestre quando l’aereo si prepara alla parabola successiva, come su un gigantesco ottovolante.

Alle successive domande ha risposto per noi Vincenzo Palermo

Vincenzo Palermo è il responsabile del Laboratorio di Nanochimica dell’istituto ISOF-CNR di Bologna e vice direttore del progetto europeo Graphene Flagship, la più grande iniziativa di ricerca europea sul grafene.

Perché è importante studiare il grafene a gravità zero?


Lo scopo del nostro esperimento è studiare il comportamento di un liquido, e la sua evaporazione, all’interno di un materiale poroso ricoperto di grafene. Questi esperimenti rientrano nel settore generale della micro-fluidica, cioé lo studio del comportamento dei liquidi.
In un laboratorio è possibile modificare molti parametri come temperatura, umidità, presenza di campi elettrici o magnetici; è però impossibile modificare la forza di gravità che agisce su questi fluidi; per questo, bisogna usare i voli parabolici in cui, per pochi secondi, la drammatica discesa di quota dell’aereo permette di diminuire o annullare la forza di gravità; l’effetto è simile alla di perdita di peso che sentiamo in un ascensore che scende velocemente.

Quali applicazioni potrebbe avere un materiale del genere nella ricerca spaziale?

Depositiamo il grafene all’interno di un blocco di metallo poroso. Questo materiale è il cuore di un dispositivo chiamato “heath loop pipe” un tipo molto particolare di radiatore, capace di dissipare calore grazie all’evaporazione e al ricircolo di un liquido.
Le heath loop pipes sono molto utili sui satelliti in orbita, per raffreddare ad esempio dispositivi elettronici, perché funzionano senza bisogno di pompe o di energia esterna.
Quando un satellite è nello spazio, l’assenza di aria rende difficile dissipare il calore nello spazio. Quando un lato del satellite è esposto al sole, la differenza di temperatura tra lato al sole e lato in ombra può superare i 200 gradi, danneggiando seriamente i componenti elettronici.

Quali sono le proprietà termiche del grafene in grado di migliorare il trasferimento di calore e l’efficienza dei dispositivi?

Il grafene è composto da atomi di carbonio legati assieme per formare un reticolo esagonale. Ogni atomo del reticolo è connesso ad altri tre da legami chimici molto robusti e stabili, e l’intera struttura trasmette molto bene le minuscole vibrazioni atomiche che noi percepiamo, su scala macroscopica, come calore. Grazie a questa sua struttura cristallina il grafene ha un’ottima conducibilità termica, sino a dieci volte meglio di quella, ad esempio, del rame. A differenza di altri materiali, i foglietti di grafene possono essere estratti dalla grafite, dispersi in una soluzione e depositati su qualsiasi substrato, come ad esempio il metallo poroso che noi testeremo durante i voli.

Gianluigi Marsibilio

L’ARTE DI SCRIVERE DATI, INTERVISTA A PIETRO GAMBARDELLA

L’ETH di Zurigo è un punto di riferimento nello sviluppo della tecnologia e l’ingegneria informatica, noi abbiamo sentito uno dei professori del centro di eccellenza svizzero, Pietro Gambardella, del dipartimento di scienze dei materiali e alcuni giorni fa ha presentato una ricerca su Nature Nanotechnology per migliorare le capacità di memoria e scrittura di dati. Oggi vi parliamo a tutto campo delle applicazioni e l’arte della scrittura della memoria.

 

-Come si possono immagazzinare più velocemente dati? Cosa ha bloccato gli studi fino ad oggi?

Ogni sistema di memoria è composto da un supporto fisico su cui si possono immagazzinare scrivere e leggere dati. Nel caso della memoria di un computer i dati sono rappresentati dall’assenza o presenza di carica (memorie RAM e flash) o dalla direzione della magnetizzazione, ovvero dall’orientamento Nord-Sud o Sud-Nord di un magnete (memorie a disco rigido). In quest’ultimo caso, un bit è rappresentato da una minuscola regione di un film magnetico, in cui la direzione della magnetizzazione può essere controllata indipendentemente da quella dei bit vicini.

Ogni memoria ha procedimenti di scrittura diversi. Nelle memorie magnetiche tradizionali, le operazioni di scrittura e lettura vengono effettuate da una testina composta da una bobina miniaturizzata (in grado di creare un campo magnetico capace di invertire la magnetizzazione di un bit) e da un sensore che misura (legge) la direzione della magnetizzazione. In questo modo, la scrittura e lettura dei dati sono seriali, in quanto la testina si deve spostare fisicamente da un punto all’altro del supporto magnetico per accedere ai diversi bit. Ciò richiede tempo ed energia, ed è la regione per cui le memorie a disco rigido sono più lente delle memorie flash, che non hanno parti mobili.

Fortunatamente, in anni recenti sono emerse nuove tecnologie per scrivere e leggere bit magnetici, che eliminano del tutto le parti mobili e sono potenzialmente molto più rapide di quelle di qualsiasi altra memoria. Queste tecnologie, dette spintroniche, si basano sull’iniezione di deboli correnti elettriche direttamente all’interno di un film magnetico. Esistono vari fenomeni per cui una corrente elettrica può agire direttamente sulla magnetizzazione di un bit, determinandone la direzione. La nostra ricerca ne mette in evidenza uno in particolare, basato sull’interazione spin-orbita, che si è dimostrato molto rapido, con tempi di inversione della magnetizzazione inferiori ad un nanosecondo, e riproducibile, fino a mille miliardi di volte.

 

-Cos’è la magnetizzazione controllata?

Controllare la magnetizzazione significa essere in grado di determinare come e quando si inverte l’orientazione dell’asse Nord-Sud di un magnete. In un materiale magnetico questo processo può avvenire in molti modi. Per esempio, diversamente dall’ago di una bussola che ruota su stesso, la magnetizzazione si può “rompere” in domini che si propagano a velocità diverse, a seconda della propria orientazione. Nel nostro studio, questa velocità di propagazione è estremamente elevata, fino a 500 m/s. Questo significa che la magnetizzazione di un bit di 50 nanometri si può invertire su tempi dell’ordine di un decimo di nanosecondo.

 

-Come si può coniugare un’alta velocità di scrittura con un basso consumo energetico?

Bisogna considerare due fattori. Il primo è che le memorie magnetiche sono per propria natura “non volatili”, ovvero stabili nel tempo e quindi “salva-energia”. Non è questo il caso delle memorie RAM attualmente in uso, che hanno bisogno di essere rinfrescate costantemente per evitare la perdita di dati. La seconda è che, ad una maggiore velocità di scrittura, corrisponde una minor durata dell’impulso elettrico, e quindi della corrente totale di cui si ha bisogno per cambiare lo stato della memoria.

 

-Come sfruttate i campi magnetici attraverso le bobine?

Questo è proprio quello che cerchiamo di evitare. Le bobine sono ingombranti e poco efficienti dal punto di vista energetico, in quanto gran parte del campo magnetico da loro prodotto si disperde nello spazio. L’obiettivo è proprio quello di eliminare le bobine e le parti mobili di una memoria magnetica.

 

 

-Quali ricadute ci saranno sulle memorie dei pc?

L’introduzione di memorie magnetiche controllate da impulsi elettrici può rivoluzionare il settore delle memorie RAM, introducendo la non volatilità unita ad una grande velocità e resistenza all’uso. Una conseguenza tangibile sarebbe, per esempio, un computer che si accende e si spegne istantaneamente. Vi sono già grandi aziende del calibro di Samsung, Qualcomm e Toshiba che si muovono in questa direzione, utilizzando per ora una tecnologia diversa dalla nostra.

 

-Faccia una previsione, nei prossimi dieci anni come si evolverà questo settore?

Vedremo. Alla fine, le scelte industriali sono determinate dal rapporto tra perfomances e costi. Vi sono molte tecnologie in competizione tra loro, ed è un bene che sia così. Personalmente credo che le MRAMs (Magnetic Random Access Memories) avranno un ruolo importante nel nostro futuro.

 

 Gianluigi Marsibilio

Powered by WordPress.com.

Up ↑