UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

LE FRONTIERE E LE SFIDE DELL’EPIGENETICA: INTERVISTA A GIUSEPPE MACINO

Parlare di temi come la biologia molecolare o l’epigenetica in modo corretto, divulgativo e serio è un compito che pochi scienziati riescono ad assumere.

Ci sono, fortunatamente, delle menti illuminate come Giuseppe Macino, dell’Università La Sapienza, che da anni è impegnato nella divulgazione e nella comunicazione delle novità scientifiche legate alla genetica e a tutta una serie di temi, che per alcuni sembrano oscuri o controversi.

Noi abbiamo parlato con lui per farci spiegare in sommi capi tutti gli sviluppi odierni e futuri legati allo studio del DNA e dell’RNA.

 

 

 

– Tante volte ho come l’impressione che si diano delle interpretazioni sbagliate dell’epigenetica, quindi può spiegarci qual è l’area di studio di questa scienza e perché oggi è estremamente importante?

L’annuncio che il genoma umano era stato completamente, o quasi, sequenziato ci fece sperare di poter finalmente capire meglio il funzionamento ed il mal funzionamento delle nostre cellule e dei nostri organi. Presto ci rendemmo conto che non era così e che c’erano molte altre cose da capire per poter interpretare i dati che si andavano accumulando. Il DNA, come ormai tutti sanno, è la molecola che codifica per tutta l’informazione necessaria per il corretto sviluppo degli organismi e per il loro funzionamento per l’intero l’arco della vita. Questa enorme quantità di informazione deve essere usata in momenti diversi della vita di ogni singola cellula ed in modo diverso a seconda del tipo cellulare. Le nostre cellule sono molto diverse, si pensi alle cellule ossee, muscolari, epatiche, neuronali per fare degli esempi e si capisce subito che diversa funzione e diversa forma sono realizzate con l’uso di informazioni diverse. Allora se il DNA è lo stesso in ogni cellula come fanno ad essere così diverse? Il DNA nelle cellule è organizzato in modo molto complesso insieme a proteine, chiamate istoni,  che ne permettono l’avvolgimento regolare ed altre proteine che lo ricoprono. Queste strutture , che noi chiamiamo cromatina, possono essere più compatte o più lasche permettendo quindi di oscurare, silenziare, o di esporre le diverse parti del DNA che contengono i geni che codificano per le proteine, e non solo, necessarie per il funzionamento di ogni tipo di cellula. Il tutto in modo altamente regolato nel tempo e per ogni singola cellula. Tutto ciò lo si ottiene attraverso meccanismi che noi chiamiamo epigenetici che determinano quale porzione del DNA può essere utilizzata e quale no. In breve questi meccanismi fanno uso di modifiche chimiche di alcuni singoli aminoacidi che costituiscono le proteine intorno alle quali è avvolto il DNA. Queste modifiche, come la metilazione o l’acetilazione degli aminoacidi  lisina o arginina convogliano sul DNA altre proteine che rendono la struttura del DNA più accessibile o meno accessibile, con il risultato che il gene contenuto in quella specifica porzione della molecola di DNA sarà utilizzabile oppure sarà silenziato.

L’importanza dello studio dei meccanismi epigenetici appare quindi chiara se si pensa che le patologie, come il cancro, dipendono dalla utilizzazione di geni che non dovrebbero essere utilizzati che spingono le cellule a riprodursi anche quando non dovrebbero. Altre patologie importanti come quelle nervose spesso sono causate da meccanismi epigenetici mal funzionanti che alterano completamente il regolare funzionamento cellulare producendo danni sia strutturali che funzionale dei neuroni.

 

– Da Watson e Crick, passando per Roger Kornberg e il Nobel al Professor Craig C Mello. Come sta cambiando oggi la ricerca in genetica? Quali sono state, in questi ultimi anni delle tappe fondamentali?

Da quando conosciamo la struttura del DNA tutte le nostre idee sulla biologia sono radicalmente cambiate. Gli studi che ne sono seguiti ci hanno fatto capire che dal DNA era possibile estrarre le informazioni attraverso la sua trascrizione in RNA e che non tutto il DNA era trascritto in ogni momento ma solamente le regioni che contenevano i geni nel momento che il prodotto del gene, spesso una proteina, era necessario per il funzionamento corretto delle cellule. Da questi studi pioneristici si è passati successivamente a capire che ci sono dei meccanismi cellulari che non solamente utilizzano le informazioni contenute nel DNA ma che raccolgono messaggi che derivano dall’ambiente sia extra cellulare che extra corporeo. Tra questi messaggi ci sono anche i virus e non solo che provengono dall’esterno, da cui le cellule si devono difendere. La scoperta di Mello, sul silenziamento genico, svelava un meccanismo di difesa da invasori esterni che serve a proteggere l’integrità del DNA che possediamo. Da allora è stato possibile comprendere che oltre al DNA anche l’RNA gioca un ruolo estremamente importante nel funzionamento delle cellule e che anzi ogni giorno di più assume ruoli che prima venivano considerati tipici delle proteine. Si è capito che gli RNA interagiscono tra loro, che sono indispensabili per la regolazione dell’espressione dei geni sia a livello trascrizionale che post trascrizionale. Si è scoperto che esistono in ogni cellula RNA tanto piccoli da essere definiti microRNA che sono indispensabili per il coordinamento della funzione di produzione di proteine, per regolarne la quantità ed anche la localizzazione cellulare.

Oggi la nuova frontiera è la determinazione della variabilità individuale sia a livello di DNA che a livello di espressione dei nostri geni. Non solo noi siamo tutt diversi geneticamente ma lo siamo anche epigeneticamente, come dimostrato nel caso dei gemelli monozigoti, identici geneticamente ma diversi epigeneticamente.

Inoltre le nuove tecnologie hanno permesso di generare strumenti di intervento mirato sul DNA capaci di modificare il genoma delle cellule di ogni organismo, inclusi gli organismi umani. Lo sviluppo di queste tecnologie produrrà un ulteriore accelerazione delle conoscenze sul funzionamento e mal funzionamento cellulare con ricadute nel campo della medicina prima impensabili.

– Come viene acquisita e cos’è l’identità cellulare?

Ciascuno di noi, per parlare di umani, possiede un genoma unico, diploide,che ci deriva in parti uguali dai due genitori. La sequenza di centinaia di migliaia di genomi umani completi ci ha rivelato che ciascuno di noi condivide con gli individui della nostra specie il 99.9% della sequenza di DNA. Il residuo 0.1% ci rende unici e determina le caratteristiche fenotipiche che possiamo osservare. Questi 3 milioni di coppie di basi, che sono diverse tra ciascun  individuo, sono rappresentate da singoli nucleotidi, o qualche volta da sequenze di pochi nucleotidi, diffusi su tutto il genoma. Raramente sono presenti nei geni, più frequetemente al di fuori dei geni, nelle loro sequenze vicine che controllano  l’espressione del gene stesso. Queste alterazioni producono degli sfasamenti, durante lo sviluppo embrionale, e successivamente nella vita di ogni singola cellula, nella produzione di proteine il cui risultato è la  differenza di aspetto e funzionamento dei nostri apparati vitali.

– Per aiutare il pubblico a comprendere questi processi genetici e cellulari può spiegare semplicemente come si studiano concretamente in laboratorio?

In poche righe non è certo possibile spiegare qualcosa che richiederebbe delle enciclopedie. Tuttavia semplicemente si può spiegare che attualmente nei laboratori di genetica molecolare è possibile determinare la sequenza del DNA e di tutti, o quasi, gli RNA di ogni singola cellula di qual si voglia tessuto o organismo. Con lo sviluppo tecnologico sempre più veloce possiamo fare questi esperimenti in pochi giorni, e non molti anni come in passato, producendo conoscenza profonda su cosa accade momento per momento nelle cellule. Naturalmente possiamo anche determinare quali proteine sono presenti, anche se con maggiori difficoltà, e  quali complessi molecolari producono. Il confronto tra cellule sane e patologiche ci permette di ipotizzare quale meccanismo non funziona correttamente e proporre una ipotesi di intervento per evitare il problema derivante dalla patologia.

Si studiano contemporaneamente circa 50.000 geni negli organismi  sia animali che vegetali e si correla la loro funzione attraverso tecnologie bioinformatiche che permettono di estrarre significati importanti da una massa di dati semplicemente straordinaria. Sempre più la bioinformatica è indispensabile per analizzare i dati e proporre modelli di funzionamento cellulare da provare poi in pratica nel laboratorio.

– Qual è il legame tra l’epigenetica e i tumori? Cosa si sta sviluppando in questo settore di ricerca?

Le cellule tumorali sono molto diverse dalle cellule da cui derivano perchè un numero molto grande di geni vengono espressi in modo non corretto. Raramente la causa è determinata di un singolo gene mutato, più spesso le alterazioni sono di tipo epigenetico che modificano profondamente il livello di espressione di tantissimi geni e di conseguenza degli apparati di controllo che determinano il corretto accrescimento cellulare. Oggi spesso si definisce il cancro come una malattia epigenetica, tanto che si stanno sviluppando farmaci , chiamati epifarmaci, che incidendo sulle modifiche chimiche a carico degli istoni possono ripristinare il corretto funzionamento della struttura della cromatina nelle regioni geniche di interesse.

– Come si può manipolare il ciclo cellulare? Come questo è utile da un punto di vista sanitario?

Il ciclo cellulare deriva da una miriade di controlli incriciati sia intra che intercellulare. Attualmente non si può controllare per fini sanitari. Non sapremmo bene quali effetti potrebbe scatenare.

– Nel preparare questa breve intervista mi sono imbattuto spesso in un termine: homology-dependent gene silencing (HDGS). Cosa significa questo meccanismo di silenziamento per i geni?

Il silenziamento genico richiede una precisione assoluta che solamente gli acidi nucleici possono avere attraverso il riconoscimento di sequenze specifiche come conseguenza della complementarietà di legame tra le basi. Quindi silenziamento da sequenze omologhe significa che un RNA può essere riconosciuto da un altro RNA, raramente DNA, attraverso l’uso di sequenze complementari. Questo riconoscimento attiva delle nucleasi specifiche che tagliano l’RNA bersaglio e ne impediscono la funzione( silenziamento post trascrizionale). Per quello trascrizionale vale lo stesso concetto che implica che il DNA viene riconosciuto da un RNA complementare e questo istruisce proteine che ora possono sia modificare chimicamente le citosine del DNA, metilandole, sia modificare gli istoni dermminando un cambiamento della struttura della cromatina e un silenziamento della trascrizione del DNA coinvolto.

 

UNA SIMULAZIONE SVELA L’ORIGINE DELLE PRIME MOLECOLE ORGANICHE

Ricercatori dell’Istituto per i processi chimico-fisici (Ipcf) del Cnr di Messina hanno riprodotto, mediante avanzate tecniche numeriche, il processo chimico che potrebbe aver determinato la sintesi primordiale dell’eritrosio, precursore del ribosio, lo zucchero che compone l’RNA, facendo così luce sull’origine delle prime molecole biologiche e quindi sull’inizio della vita sulla Terra. I risultati sono stati pubblicati su Chemical Communications della Royal Society of Chemistry, in collaborazione con l’Accademia delle scienze della Repubblica Ceca di Brno e la Sorbona di Parigi.

Uno dei tasselli cruciali nel puzzle dell’origine della vita è rappresentato dalla comparsa delle prime molecole biologiche sulla Terra come l’RNA, l’acido ribonucleico. Uno studio dell’Istituto per i processi chimico-fisici del Consiglio nazionale delle ricerche (Ipcf-Cnr) di Messina ha descritto, mediante avanzate tecniche di simulazione numerica, un processo chimico che da molecole semplici e presenti in enorme abbondanza nell’Universo, come l’acqua e la glicolaldeide, potrebbe aver portato alla sintesi primordiale dell’eritrosio, precursore diretto del ribosio, lo zucchero che compone l’RNA. Lo studio è stato pubblicato sulla rivista Chemical Communications, della Royal Society of Chemistry, da un team che coinvolge anche l’Accademia delle scienze della Repubblica Ceca di Brno e l’Università di Parigi Sorbonne.

“Nello studio dimostriamo per la prima volta che determinate condizioni prebiotiche, tipiche delle cosiddette ‘pozze primordiali’ in cui erano presenti le molecole inorganiche più semplici, sono in grado di favorire la formazione non solo degli aminoacidi, i mattoni fondamentali delle proteine, ma anche di alcuni zuccheri semplici come l’eritrosio, precursore delle molecole che compongono l’ossatura dell’RNA”, spiega Franz Saija, ricercatore Ipcf-Cnr e coautore del lavoro. “La sintesi degli zuccheri a partire da molecole più semplici, che possono essere state trasportate sul nostro pianeta da meteoriti in epoche primordiali, rappresenta una grossa sfida per gli scienziati che si occupano di chimica prebiotica. La formazione dei primi legami carbonio-carbonio da molecole molto semplici come la formaldeide non può avvenire senza la presenza di un agente esterno capace di catalizzare la reazione: la presenza di tali catalizzatori in ambienti prebiotici, tuttavia, è ancora un mistero”.

L’approccio computazionale alla chimica prebiotica già nel 2014 consentì al team di ricerca, con uno studio pubblicato su Pnas, di simulare il famoso esperimento di Miller, cioè la formazione di aminoacidi dalle molecole inorganiche contenute nel ‘brodo primordiale’ sottoposte a intensi campi elettrici. “Nel nostro esperimento, facendo uso di metodi avanzati di simulazione numerica al super-computer, una soluzione acquosa di glicolaldeide è stata sottoposta a campi elettrici dell’ordine di grandezza dei milioni di volt su centimetro, capaci di catalizzare quella reazione che in chimica viene chiamata formose reaction e che porta alla formazione di zuccheri a partire dalla formaldeide”, prosegue Giuseppe Cassone dell’Institute of Biophysics, Czech Academy of Sciences e primo autore dell’articolo scientifico.

“Oggi l’approccio computazionale alla chimica prebiotica è di fondamentale rilevanza perché permette di analizzare in modo molto specifico i meccanismi molecolari delle reazioni chimiche alla base dei processi che hanno portato alla formazione delle molecole della vita”, conclude Saija.

 

CNR

COELUM ASTRONOMIA 221, IL NUOVO NUMERO ONLINE

E se parlassimo di… STELLE?

…e di Prime Stelle?

Forse potrà sembrare ovvio parlare di stelle in una rivista di astronomia, eppure, a ben guardare, la presenza della luce di quegli splendidi puntini luccicanti, che ogni notte ci “guardano” dall’alto, non è poi così scontata… Questa volta non stiamo parlando di inquinamento luminoso, ma ci riferiamo al fatto che, effettivamente, c’è stato un lungo periodo, nel lontano passato del nostro Universo, in cui di stelle non c’era alcuna traccia. Parliamo di un periodo talmente lontano da essere anche difficile da immaginare: l’alba del Cosmo. Se potessimo raggiungere quel periodo, a bordo di una fantascientifica navicella spaziale, ciò che potremmo vedere (ammesso che sia possibile) non sarebbe altro che un fluido uniforme e indistinto di particelle e idrogeno, tutto attorno a noi, senza alcuna struttura oggi a noi familiare, come le galassie o le nebulose o, appunto, le stelle. Ma allora, quando sono nate le prime stelle?

Questa domanda, apparentemente banale, nasconde in realtà un enigma difficile da dipanare. Gli astronomi sanno come cercare la risposta, ma le difficoltà tecniche sono estreme, al punto da mettere alla prova anche le più sofisticate tecnologie oggi a disposizione. Tuttavia, un team di ricercatori sembra aver individuato quel flebile segnale che costituisce proprio la firma dell’accensione delle prime stelle. Si tratta quindi di un viaggio intrigante, all’alba dei tempi, con dei possibili risvolti in campi esotici della conoscenza, che coinvolgono – secondo alcuni ricercatori – niente meno che la famigerata materia oscura. Trovate tutti i dettagli nell’articolo “La Firma delle Prime Stelle dell’Universo“, con i preziosi commenti degli esperti del settore.

E ancora stelle nell’articolo “I nomi delle Stelle” di Stefano Schirinzi: che origine hanno i nomi delle stelle? Esiste un nome ufficiale e riconosciuto a livello internazionale? E “Nuove Stelle” prese in flagrante in “Una supernova colta sul nascere“, per la prima volta è stato osservato e ripreso in modo amatoriale l’esatto momento in cui una stella si trasforma in supernova.

Parlando di stelle, non possiamo non pensare anche alla triste notizia della scomparsa del grande Stephen Hawking. Molto è stato detto in queste settimane ma a noi piace ricordarlo con la sua vita, le sue conquiste scientifiche ma anche con i suoi insuccessi che, inevitabilmente presenti nella vita di tutti noi, costituiscono però importanti “mattoni della conoscenza”.
E ora lo immaginiamo proprio lì, tra quelle infinite stelle…

Come sempre non finisce qui, qualche altra anteprima la trovate qui sotto, e il resto… solo leggendolo!

Articoli in evidenza – Coelum Astronomia n. 221 di aprile 2018

  • Addio Stephen Hawking, grazie di tutto! La vita, le scoperte e gli… insuccessi di una delle più grandi menti dei nostri tempi.
  • LA FIRMA delle PRIME STELLE dell’Universo. Un viaggio all’alba del nostro Universo, quando la luce delle prime stelle si è accesa e ha interagito con quanto le circondava, ma un viaggio anche, e sembra un ossimoro, alle prime tracce di materia oscura? Approfondiamo la notizia con i commenti degli esperti.
  • Una Supernova colta sul nascere. Di come un appassionato di caccia alle supernovae è riuscito a cogliere quell’istante sfuggito finora anche alla ricerca professionale.
  • I NOMI delle STELLE: da dove derivano e quali sono i nomi ufficiali delle stelle?
  • FRB Live! Un’infarinatura sugli sfuggenti Fast Radio Burst in vista di una diretta con Astronomiamo e Marta Burgay. Preparate le domande!
  • Novità dal Mercato. Torna la rubrica sulle principali novità del mercato della strumentazione amatoriale, da questo numero a cura di Riccardo Cappellaro.
  • E Tornano anche i Test di strumentazione amatoriale: Telescopio Dobson Omegon Push+.
  • L’osservazione amatoriale di PIANETI EXTRASOLARI, oggi (seconda parte).
  • ASTROFOTOGRAFIA: Venere incontra le Pleiadi
  • Incredibile e misteriosa aurora STEVE
  • Tutti gli appuntamenti con il CIELO di APRILE!
  • ISS da non perdere! I transiti principali questo mese particolarmente luminosi e spettacolari.
  • PHOTOCOELUM Le vostre migliori immagini del mese!
  • LA LUNA di aprile. Guida all’osservazione del cratere Janssen e della Vallis Rheita

Coelum Astronomia è gratuito per la lettura digitale su PC, tablet e smartphone ed è disponibile anche per il download in PDF. Leggilo online gratis: https://goo.gl/T7VAkz

Resta aggiornato con tutte le ultime notizie di astronomia e astronautica, seguici su:

ICARO, LA STELLA ALL’ALBA DELL’UNIVERSO

In attesa di capire di più sul lancio del James Webb Telescope dalla NASA ci godiamo questa ulteriore e nuova scoperta del telescopio Hubble: è stata infatti scattata una foto di Icaro, la stella più lontana mai individuata grazie all’aiuto di una particolarissima tecnica di cui spesso vi abbiamo parlato, quella della lente gravitazionale.

NASA e ESA hanno trasmesso questa immagine ottenuta grazie all’importante effetto delle lenti gravitazionali.

La ricerca è stata presentata da Patrick Kelly dell’università del Minnesota e da altri suoi colleghi su Nature Astronomy. L’importanza della scoperta è racchiusa anche nel fatto che si tratta di una prima storica volta in cui un’unica stella viene ingrandita da un effetto del genere, fino ad oggi erano state viste solo delle singole galassie o interi ammassi.

Icaro è una supergigante blu ed è molto più calda e grande del nostro sole. Per carpire i segreti di questa singola stella è stato importante capire gli allineamenti tra le galassie e le stelle nello sfondo, studiandone anche il redshift.

La stella si trova a 9 miliardi di anni luce, che apparentemente sembrano una distanza insondabile per catturare immagini di una singola stella singola, fino ad oggi infatti erano state prese delle immagini solo di alcune supernove a tali distanze.

Il lensing, utilizzato per studiare a distanze così ampie, si verifica quando un oggetto di grande dimensione (come una stella gigante o un ammasso di galassie) passa esattamente davanti ad oggetti sullo sfondo nettamente più lontani dal punto di vista della nostra terra. Quando questo accade è possibile rilevare la luce emessa dagli oggetti di sfondo ampliata dall’intenso campo gravitazionale degli oggetti stessi.

Icaro si trova dietro un enorme ammasso di galassie a 5 miliardi di anni luce dalla Terra, il superammasso è praticamente un telescopio cosmico super produttivo che amplifica la luce degli oggetti sullo sfondo.

La stella ha un redshift di 1.5, caratteristica che rende ancora più interessante studiare questo tipo di oggetti. Sostanzialmente stiamo parlando di una grande fucina di informazioni.

Con gli strumenti di oggi è difficile riuscire a combinare il puzzle delle molte migliaia di immagini di corpi e stelle all’alba dell’universo, ma in futuro con un approccio tecnico migliore sarà possibile ricomporre veramente, immagine dopo immagine, le fasi iniziali dell’universo.

Crediti foto:

NASA/ESA/P. Kelly

Gianluigi Marsibilio

L’EQUIVALENZA STRUTTURALE: COME NASCE UNO SCONTRO IN FORMULA 1?

L’equivalenza strutturale è alla base del conflitto anche in competizioni automobilistiche e sportive come la Formula 1. La vicinanza in griglia e in classifica, come fa notare uno studio su PNAS, è un indicatore importantissimo per prevedere i futuri scontri del nostro pilota preferito o casa automobilistica preferita.

Abbiamo chiesto a Matthew S. Bothner della School of Management and Technology di Berlino cosa fosse alla base del concetto di equivalenza : “ L’equivalenza strutturale è un concetto molto utilizzato nella ricerca sulle reti sociali, risale agli anni ’70. Questo tema lo utilizziamo (in questo documento) in modo intercambiabile con il concetto di somiglianza di stato.”

 

Per intenderci meglio c’è da capire come: “Due piloti sono strutturalmente equivalenti quando hanno battuto o perso con gli altri competitori nelle precedenti gare della stagione”. Sinteticamente due piloti si ritrovano in questa condizioni quando si ritrovano in una situazione di classifica/griglia simile.

 

Il caso si applica anche alle realtà aziendali e non semplicemente a quelle sportive: “Due dirigenti in un’azienda sono strutturalmente equivalenti: ad esempio se altri manager li cercano per un consiglio o se questi due hanno bisogno di consigli dagli stessi membri del consiglio di amministrazione di tale società. Se questi due dirigenti hanno posizioni simili in una gerarchia informale costruita, prevediamo, che saranno particolarmente inclini al conflitto. Non è chiaro chi dovrebbe mollare la presa durante una discussione”.

 

Tornando al caso dell’analisi fatta sui dati del campionato di F1, tra il 1970 e il 2014 : i due piloti più vicini in termini di status hanno dieci possibilità in più di scontrarsi rispetto agli altri in gara.

Anche l’essere coetanei è un fattore incisivo, infatti i ricercatori indicano l’età come qualcosa che va ad intensificare la rivalità.

Lo studio fa notare come avere scontri e collisioni è molto più facile durante la parte centrale della stagione, quando le gare sono veramente importanti per indirizzare il campionato e la classifica.

 

 

Uno dei fattori più importanti – ha spiegato il ricercatore- è semplicemente la vicinanza in termini di posizione di partenza. Sembra abbastanza ovvio: due piloti devono essere vicini l’uno all’altro sulla pista per poter scontrarsi, ma al di là di questo, abbiamo scoperto come il maltempo, l’esperienza inferiore o più punti totali (in classifica) sono associati spesso alle collisioni. Per noi, tuttavia, il fattore più interessante rimane l’equivalenza strutturale”

 

La guerra a diretti concorrenti è uno degli aspetti più interessanti non solo dello sport ma dell’intera esperienza umana: “Casi ben noti vanno dal bullismo e la calunnia di Thomas Edison nei confronti di Nikola Tesla, a Tyson che morde l’orecchio di Evander Holyfield sul ring”.

 

Gianluigi Marsibilio

 

 

 

TUTTE LE COSE DA SAPERE SUL RIENTRO DELLA TIANGONG-1

La stazione spaziale cinese Tiangong-1 ha deciso di ritornare a casa base (la Terra) per il fine settimana di pasqua. Una nota dell’Istituto di scienza e tecnologie dell’informazione ‘A. Faedo’ del Cnr (Isti-Cnr), fornisce alcune risposte alle domande più frequenti sul tema, tra cui: dove può avvenire il rientro, quanto è grande il rischio, come si distribuiscono i frammenti, com’è fatta e quanto è grande la stazione spaziale cinese.

Tiangong-1 è stata la prima stazione spaziale cinese, lanciata il 29 settembre 2011 su un’orbita approssimativamente circolare, a circa 350 km di altezza e inclinata di poco meno di 43 gradi rispetto all’equatore terrestre. Nel novembre dello stesso anno è stata raggiunta e agganciata dalla navicella Shenzhou-8 senza equipaggio, mentre i primi tre astronauti vi sono saliti a bordo, trasportati da Shenzhou-9, nel giugno 2012, trascorrendovi 9 giorni e mezzo. Il secondo e ultimo equipaggio di tre astronauti si è agganciato alla stazione, con Shenzhou-10, nel giugno 2013, trascorrendovi 11 giorni e mezzo.

Da allora Tiangong-1 ha continuato a essere utilizzata, disabitata, per condurre una serie di test tecnologici, con l’obiettivo di de-orbitarla, a fine missione, con un rientro guidato nella cosiddetta South Pacific Ocean Unpopulated Area (SPOUA), una specie di cimitero dei satelliti in una zona pressoché deserta dell’Oceano Pacifico meridionale. Purtroppo, però, il 16 marzo 2016, il centro di controllo a terra ha perso la capacità, pare in maniera irreversibile, di comunicare e impartire comandi al veicolo spaziale.

Nei due anni trascorsi da allora, Tiangong-1 ha perciò perduto progressivamente quota, perché il continuo impatto con le molecole di atmosfera residua presenti anche a quelle altezze le ha sottratto incessantemente energia. Ed è questo processo completamente naturale che farà alla fine precipitare la stazione spaziale sulla terra senza controllo, non potendo essere più programmata un’accensione dei motori per un rientro guidato.

Come è fatta e quanto è grande?

Tiangong-1 consiste approssimativamente di due moduli cilindrici montati uno sull’altro: quello di servizio, con un diametro di 2,5 m, e quello abitabile, con un diametro di 3,4 m. La lunghezza complessiva è di 10,5 m. Su lati opposti del modulo di servizio sono anche attaccati, perpendicolarmente all’asse di simmetria dei cilindri, due pannelli solari rettangolari, larghi 3 m e lunghi 7 m.

Che massa ha?

Quando è stata lanciata, Tiangong-1 aveva una massa di 8506 kg, di cui circa una tonnellata di propellente per le manovre. Nel corso della missione la massa è però diminuita, principalmente per due motivi: 1) una parte significativa del propellente è stata consumata per le manovre orbitali e per contrastare la progressiva sottrazione di energia meccanica da parte dell’atmosfera residua; 2) i due equipaggi, durante le loro permanenze sulla stazione, hanno consumato buona parte delle scorte di cibo, acqua e ossigeno stivate a bordo. Cercando di calcolare questi consumi, abbiamo stimato che la massa attuale di Tiangong-1 dovrebbe aggirarsi sui 7500-7550 kg. Non sarebbe quindi molto diversa da quella della nave cargo russa Progress-M 27M, di cui abbiamo seguito il rientro incontrollato nel 2015.

Si tratta di un evento eccezionale?

Assolutamente no. Di rientri senza controllo di stadi o satelliti con una massa superiore alle 5 tonnellate ne avvengono, in media, 1 o 2 all’anno, quindi sono relativamente frequenti. Per esempio, il 27 gennaio scorso, uno stadio russo-ucraino di circa 8500 kg, quindi con una massa superiore a quella di Tiangong-1, è rientrato sul Perù e dei componenti sono precipitati nell’estremità meridionale del paese, nella regione del lago Titicaca. Il 10 marzo, uno stadio del lanciatore cinese Lunga Marcia 3B è invece rientrato sul Paraguay e un serbatoio è stato recuperato nei pressi della città di Canindeyú, vicino al confine con il Brasile.

Quanto è grande il rischio rappresentato da un rientro incontrollato?

La soglia di attenzione comunemente adottata a livello internazionale corrisponde a un rischio estremamente ridotto per un singolo individuo che risiede in un’area sorvolata dal satellite: la probabilità corrispondente di essere colpiti da un frammento è infatti un numero piccolissimo, dell’ordine di uno su centomila miliardi (cioè 1:100.000.000.000.000). Confrontata con i rischi cui andiamo incontro nella vita di tutti i giorni, si tratta di una soglia bassissima. Tanto per fare un paio di esempi, la probabilità di essere colpiti da un fulmine è 130.000 volte maggiore, mentre quella di rimanere vittima di un incidente domestico, nei paesi sviluppati, è addirittura più grande di 3 milioni di volte. E’ per questo che, in oltre 60 anni di attività spaziali, e nonostante siano rientrati in media 1-2 stadi o satelliti alla settimana, nessuno è mai rimasto ferito, finora, per il rientro incontrollato di un oggetto artificiale dall’orbita terrestre.

È possibile quantificare il rischio rappresentato dal rientro di Tiangong-1?

Al momento non siamo al corrente di stime quantitative ufficiali di fonte cinese. Per analogia con casi precedenti, possiamo però affermare con ragionevole sicurezza che la soglia di attenzione comunemente adottata a livello internazionale sarà superata, anche se il rischio individuale resterà comunque bassissimo. Ci vorrebbero, infatti, da 500 a 1000 rientri come questo perché ci sia un’elevata probabilità che un frammento colpisca qualcuno in giro per il mondo. E la probabilità di una collisione con un aereo in volo è almeno 200 volte più piccola di quella che sia colpita una persona all’aperto.

Cosa si intende per rientro nell’atmosfera?

Non esiste un confine netto e preciso tra l’atmosfera e lo spazio: la prima svanisce progressivamente, con continuità, nel secondo. Ecco perché i satelliti in orbita bassa ne subiscono gli effetti e anche la Stazione Spaziale Internazionale, che vola a 400 km di altezza, deve periodicamente accendere i motori per contrastare la perdita di quota provocata dall’atmosfera residua. Esiste comunque un’interfaccia convenzionale, fissata alla quota di 120 km, al di sopra della quale un’orbita circolare è ancora marginalmente possibile, anche se di brevissima durata, mentre al di sotto no. In generale si parla quindi di rientro nell’atmosfera quando un veicolo spaziale scende alla quota di 120 km. Ma siccome in gran parte dei casi la struttura principale di un satellite rimane integra fino alla quota di 80 km, spesso, quando si parla di previsioni di rientro, ci si riferisce appunto al raggiungimento della quota di 80 km.

Che cosa succede durante il rientro?

In un caso come quello di Tiangong-1, si parla di rientro nell’atmosfera quando l’oggetto scende a 120 km di quota. Da quel punto in avanti l’attrito dell’aria diventa sempre più significativo, e le strutture esposte di grande area e massa contenuta, come i pannelli solari e le antenne sporgenti, possono staccarsi tra i 110 e i 90 km di altezza. Il corpo del satellite, dove è concentrata gran parte della massa, rimane però generalmente intatto fino a 80 km di quota. Solo in seguito, a causa dell’azione combinata delle forze aerodinamiche e del riscaldamento prodotti dall’attrito dell’aria, la struttura principale si disintegra e i singoli componenti si trovano a loro volta esposti alle condizioni proibitive dell’ambiente circostante. Il destino dei vari pezzi dipende dalla composizione, dalla forma, dalla struttura, dal rapporto area su massa, e dal momento in cui vengono rilasciati durante la discesa. Gran parte della massa si vaporizza ad alta quota, ma se il satellite è sufficientemente massiccio e contiene componenti particolari, come serbatoi di acciaio o titanio e masse metalliche in leghe speciali, la caduta al suolo di frammenti solidi a elevata velocità, fino a qualche centinaio di km/h, è possibile.

Come si distribuiscono i frammenti?

I frammenti in grado di sopravvivere alle proibitive condizioni del rientro precipitano su un’area di forma approssimativamente rettangolare, lunga dagli 800 ai 2000 km, nella direzione del moto, e larga circa 70 km, perpendicolarmente alla direzione del moto. Su Tiangong-1 sono tuttavia ancora presenti circa 3 quintali e mezzo di propellente usato per le manovre. Nel caso (improbabile) che si verifichino delle esplosioni ad alta quota durante il rientro, alcuni frammenti potrebbero quindi essere proiettati lateralmente anche a un centinaio di km di distanza dalla traiettoria originaria. E’ inoltre importante sottolineare alcuni punti: 1) poiché i frammenti macroscopici sarebbero al massimo poche decine, e con proprietà assai diverse, colpirebbero il suolo molto sparpagliati, a distanze di decine o centinaia di km gli uni dagli altri; 2) quelli più “pesanti” tenderebbero, in genere, ad allontanarsi di più dal punto di rientro a 80 km di quota, ma colpirebbero il suolo prima degli altri, nel giro di 6-7 minuti, e a una velocità confrontabile con quella di un’auto di Formula 1 in rettilineo; 3) i frammenti più “leggeri” cadrebbero invece più vicini, ma ci metterebbero una ventina di minuti e colpirebbero il suolo a una cinquantina di km/h.

Qual è la natura del rischio?

Per Tiangong-1 i rischi potenziali sono di due tipi: meccanico e chimico. Il rischio meccanico è quello derivante dall’urto di frammenti massicci a elevata velocità con veicoli in movimento, strutture vulnerabili e persone all’aperto. Quello chimico dipende dal fatto che, sulla base delle nostre stime, dovrebbero trovarsi ancora a bordo, non sappiamo se allo stato liquido o solido, circa 230 kg di tetrossido di azoto e 120 kg di monometilidrazina, sostanze molto tossiche (soprattutto la seconda). E’ difficile che ne arrivi a terra anche una piccola frazione, ma una contaminazione residua di alcuni frammenti non può essere completamente esclusa a priori, per cui, nel caso qualcuno si imbattesse in uno di essi, sarebbe prudente non avvicinarsi, evitare qualsiasi contatto, tenere lontani i curiosi e limitarsi ad avvertire le autorità.

Dove può avvenire il rientro?

In linea di principio, il rientro potrebbe avvenire in qualunque località del pianeta compresa tra i 43 gradi di latitudine sud e i 43 gradi di latitudine nord. Tuttavia, tenendo conto che i frammenti, a causa di un’eventuale esplosione ad alta quota, potrebbero allontanarsi anche di un centinaio di km rispetto alla traiettoria originaria, le zone potenzialmente a rischio per la caduta di detriti devono essere estese di un grado di latitudine, quindi l’area da tenere sotto osservazione è in realtà quella compresa tra i 44 gradi di latitudine sud e i 44 gradi di latitudine nord. L’Italia è quindi divisa in due, con le località a nord del 44° parallelo escluse a priori da qualunque conseguenza, e quelle a sud potenzialmente a rischio. Tenendo conto della distribuzione degli oceani e delle terre emerse, e dell’inclinazione dell’orbita rispetto all’equatore, se i detriti di distribuissero su un arco di 800 km, la probabilità a priori che cadano tutti in mare è del 62%. Ma se i detriti si disperdessero su un arco di 2000 km, la probabilità che nessuno di essi precipiti sulla terraferma scenderebbe al di sotto del 50%. Quanto infine alla probabilità a priori che il rientro avvenga nella fascia di latitudine compresa tra i 35 e i 43 gradi nord, essa si aggira intorno al 18%.

Perché non è possibile prevedere il rientro con largo anticipo?

Gran parte dei satelliti che rientrano nell’atmosfera lo fanno da orbite basse quasi circolari, si muovono cioè quasi tangenzialmente rispetto agli strati atmosferici di densità crescente. Piccole variazioni di questo angolo, già vicino allo zero, possono produrre delle traiettorie ben diverse, un po’ come succede quando tiriamo un sasso nell’acqua di uno stagno. Se l’angolo di incidenza è poco più che radente, il sasso si inabissa nel punto di contatto con l’acqua, ma se il sasso colpisce la superficie di striscio, può rimbalzare una o più volte e non è facile prevedere a priori dove potrà alla fine immergersi. A parte questo effetto, che dipende dalla particolare geometria della traiettoria, esistono diverse altre sorgenti di incertezza, quali: 1) l’orbita di partenza, determinata da radar e telescopi basati a terra, è affetta da un certo errore; 2) l’orientazione nello spazio dell’oggetto non è costante, ma può evolvere in maniera complicata e spesso imprevedibile; 3) anche i migliori modelli di atmosfera sono affetti da errori, che variano in funzione del tempo e delle condizioni ambientali; 4) le previsioni dell’attività solare e geomagnetica, che influiscono sulla densità atmosferica, sono affette da incertezze, un po’ come succede per le previsioni meteorologiche. Tenendo conto di tutte queste variabili, non è possibile e non ha senso calcolare “dove” e “quando” il satellite precipiterà sulla terra, anche perché tutto è ulteriormente complicato dalla grande velocità con cui questi oggetti si spostano. Facciamo un esempio. Se un giorno diventasse possibile prevedere, anche sei ore prima, un terremoto con l’incertezza di un’ora e mezza, la cosa verrebbe considerata, e giustamente, un risultato straordinario. Ma se, cosa già possibile, facessimo lo stesso per il rientro incontrollato di un satellite, un’ora e mezza di incertezza corrisponderebbe a più di 40.000 km lungo la traiettoria, cioè a più di un giro del mondo!

Che cosa è possibile prevedere?

Il calcolo di affidabili finestre temporali di incertezza, che si restringono progressivamente, mano a mano che ci si avvicina al rientro, permette di affrontare il problema in maniera completamente diversa. Non bisogna infatti trovare dove e quando l’oggetto rientrerà, cosa fisicamente impossibile in questi casi, bensì dove non cadrà. Nelle ultime 36 ore si può infatti cominciare a escludere progressivamente delle aree del pianeta sempre più vaste, via via che ci si avvicina al rientro, sperando di eliminare alla fine più del 97% delle aree inizialmente considerate a rischio. In questo modo, per esempio, l’Italia può essere esclusa quasi sempre almeno diverse ore prima che il rientro abbia luogo. Per le aree residuali che restano invece all’interno della finestra temporale di incertezza fino alla fine, non resta che assumere le misure precauzionali decise preventivamente, aspettare, e vedere, tenendo comunque conto che il rischio effettivo rimane piccolissimo.

Che cosa si intende per sorveglianza spaziale?

Si tratta del processo attraverso il quale si individuano e si identificano gli oggetti artificiali che si trovano nello spazio intorno alla terra, determinandone lo stato dinamico (cioè l’orbita, e magari anche l’orientazione nello spazio e lo stato rotazionale).

Che strumentazione è richiesta?

Condizione necessaria è la disponibilità di potenti radar (soprattutto per le orbite basse, cioè quelle che interessano nel caso dei rientri nell’atmosfera), di telescopi sensibili nell’ottico e nell’infrarosso (soprattutto per le orbite più alte) e, eventualmente, di satelliti in grado di svolgere le osservazioni richieste. Per poter essere efficace, la rete dei sensori basati a terra, cioè i radar e i telescopi, deve avere la massima distribuzione geografica possibile, in longitudine e latitudine, il che comporta un numero di installazioni non piccolo su scala globale (circa una ventina nel caso degli Stati Uniti). A ciò bisogna aggiungere almeno un centro di controllo per l’elaborazione dei dati raccolti e per pianificare al meglio l’osservazione degli oggetti.

Chi è in grado di effettuarla?

Questo tipo di attività è stata finora gestita prevalentemente da organizzazioni militari. I sistemi di sorveglianza più sviluppati sono figli della Guerra Fredda e sono appannaggio degli Stati Uniti e della Russia. Oggi, comunque, anche l’Europa (Italia compresa) dispone di sensori e di capacità, seppur più limitate, in questo ambito.

Chi sta monitorando il rientro?

Il rientro di Tiangong-1 è monitorato da numerosi soggetti, pubblici e privati in tutto il mondo, Italia compresa, in primis il tavolo tecnico coordinato dal Dipartimento della Protezione Civile. Il Laboratorio di Dinamica del Volo Spaziale dell’Istituto Isti del Consiglio nazionale delle ricerche (Isti-Cnr), a Pisa, attivo in questo settore dal 1979, da molti mesi ormai analizza l’evoluzione orbitale dell’oggetto ed elabora autonomamente previsioni di rientro distribuite a enti nazionali e internazionali.

Fonte CNR

LE GRANDI LEGHE SPORTIVE COMBATTONO LE CATTIVE ABITUDINI ALIMENTARI?

Le bevande e i cibi che vanno a sponsorizzare le maggiori federazioni sportive del mondo come NCAA, NBA, NFL e altre leghe; sono stati considerati, da uno studio uscito sulla rivista Pediatrics, come in gran parte pericolosi perché infatti potrebbero contribuire pericolosamente all’aumento dell’obesità nei bambini e negli adolescenti.

 

Secondo i dati dell’OMS: “Il numero di persone obese nel mondo è raddoppiato a partire dal 1980: nel 2014 oltre 1,9 miliardi di adulti erano in sovrappeso, tra cui oltre 600 milioni obesi”.

 

I ricercatori hanno analizzato le statistiche Nielsen dei programmi sportivi televisivi, concentrandosi particolarmente sulla fascia d’età 2-17.

Lo studio ha rilevato che, tra le 10 organizzazioni sportive più seguite, la maggior parte dei prodotti alimentari promossi è stata giudicata “malsana” secondo le linee guida del Nutrient Profile Model e di un indice chiamato NPI.

L’indice è costituito da una scala che va da 0 a 100 e denomina il profilo nutritivo di un alimento. Un NPI maggiore o pari a 64 indica che un cibo è sano, quando sono state studiate le sponsorizzazioni di National Football League (NFL), la Major League Baseball (MLB), la National Hockey League (NHL), la National Basketball Association (NBA), Fédération Internationale de Football Association (FIFA), National Collegiate Athletic Association (NCAA), Little League Baseball e Ultimate Fighting Championship (UFC), i ricercatori hanno riscontrato un risultato profondamente preoccupante: infatti più di tre quarti degli alimenti non è riuscito a soddisfare gli standard minimi per la nutrizione con un punteggio medio NPI di circa 38-39 per alimenti come patatine o caramelle.

I ricercatori hanno utilizzato le classificazioni televisive Nielsen per i programmi sportivi trasmessi nel corso del 2015 per identificare le 10 organizzazioni sportive più seguite dai giovani. Per ognuna delle prime 10, è stato compilato un elenco di tutti gli sponsor con una successiva suddivisione in 11 categorie, ad esempio “retail”, “automotive” e “food / beverage”.

Gli annunci “food / beverage” sono stati quindi identificati tramite YouTube e un database di annunci chiamato AdScope.

I dati di audience del pubblico Nielsen hanno indicato che oltre 412 milioni di giovani di età compresa tra 2 e 17 hanno visto programmi sportivi associati a 10 organizzazioni sportive nel 2015 e oltre 234 sponsor sono stati associati ai 500 programmi più visti. La bevanda / bevande analcoliche era la seconda categoria di pubblicità più diffusa (quasi il 19%), seconda solo alle pubblicità relative al settore automobilistico (quasi il 20%). Dei 173 casi in cui sono stati mostrati cibo e bevande non alcoliche, oltre il 76% ha promosso prodotti con punteggi NPM-derivati ​​inferiori a 64.

“Le organizzazioni (sportive) – ha specificato Marie Bragg, PhD, assistente professore di Population Health alla NYU School of Medicine- devono fare uno sforzo migliore per proteggere i loro fan più giovani e impressionabili”.

 

Gianluigi Marsibilio

 

NYU

IL PICCOLO TOUR NEL LABORATORIO CHE PREPARA InSight A MARTE

L’importante lander NASA InSight atterrerà su Marte il prossimo novembre e il suo braccio-gru sarà usato per spostare oggetti, per la prima volta su un altro pianeta.

Gli Ingegneri e scienziati hanno una replica di InSight presso il Jet Propulsion Laboratory della NASA a Pasadena, in California. La replica è un banco di prova per simulare tutte le funzioni del veicolo spaziale, il team si sta preparando a qualsiasi scenario che potrebbe incontrare una volta arrivati sul pianeta rosso.

Ora immergetevi nel laboratorio di InSight insieme a decine di scienziati.

Crediti: Nasa

 

COMPLETARE LA RELATIVITÀ CON LA GRAVITA’ QUANTISTICA- INTERVISTA A MAURO PATERNOSTRO

La gravità quantistica è una teoria che ha sviluppato, in questi anni, predizioni accurate e particolari di effetti quantistici molto deboli da registrare. Partendo dalla relatività di einsteiniana memoria si è sviluppata in un contesto teorico che sta mettendo in mostra le più interessanti menti del nostro tempo. Noi abbiamo intervistato il giovane ricercatore Mauro Paternostro, della Queen University of Belfast, che sta studiando le implicazioni e i possibili indizi sperimentali per testare sempre più accuratamente questa teoria.

– Perchè la gravità quantistica in questo periodo, secondo te, è vista come una delle possibili risposte alla tanto cercata Teoria del Tutto? – Quali sono le proprietà quantistiche che si cercano nella gravità?

La teoria della relatività generale formulata da Einstein è incompleta: è in grado di fornire predizioni accurate solo per effetti quantistici molto deboli. Sebbene ciò sia il caso, in genere, la formulazione Einsteiniana della relatività generale fallisce nel descrivere lo spazio-tempo in presenza di effetti quantistici forti. La teoria della gravità quantistica che si ricerca dovrebbe dunque generalizzare la bellissima, seppur incompleta, relatività Einsteiniana.

– Quali implicazioni avrebbe per lo studio del nostro universo sapere che la gravità viene da una qualche fluttuazione/interazione quantistica?

Sono parecchie le implicazioni. Giusto per elencarne qualcuna di particolarmente significativa; 1) lo spazio tempo potrebbe essere connesso “non-localmente” attraverso connessioni, scorciatoie, che attraversano l’universo; 2) in presenza di effetti forti, che inducano forti curvature dello spazio-tempo (as esempio in un buco nero), il tempo potrebbe diventare spazio a causa del forte accoppiamento tra queste ‘dimensioni’; 3) molte delle formulazioni di una teoria della gravità quantistica vedono lo spazio ed il tempo come grandezze risultanti da entità più fondamentali (stringhe, loops, perfino quantum-bits); 4) in meccanica quantistica vale il principio di sovrapposizione; una natura quantistica della gravità dovrebbe comprendere il principio di sovrapposizione in maniera naturale; 5) fluttuazioni dello spazio-tempo dovrebbero avvenire anche in assenza di materia: quantisticamente, il vuoto fluttua, e quindi dovrebbe farlo anche lo spazio tempo. Quella che a me piace di più è affatto detto che una teoria quantistica della gravità risulti in una rivisitazione della gravità. potrebbe essere il contrario: potremmo dover modificare la teoria quantistica, scoprendola non completa. A quel punto, una serie di conclusioni tratte nell’ultimo secolo dovrebbero essere riesaminate criticamente.

– Come si può testare in laboratorio tutto l’amplesso teorico intorno alla gravità quantistica?

Questo è un punto piuttosto delicato. Credo infatti non sia possibile testare ogni aspetto, ogni sfaccettatura di una data teoria quantistica della gravità con un solo esperimento. La fenomenologia è ricchissima e complicata. Spesso, la scala di energie in gioco è troppo elevata per essere testabile in laboratorio. Quel che parte della comunità interessata a questo problema sta realizzando è che possibili aspetti di una plausibile teoria quantistica della gravità (soprattutto a basse energie) possono essere ‘dedotti’ a un approccio in cui la teoria dell’informazione ed i suoi strumenti vengono utilizzati in modo innovativo. Tipicamente implica la formulazione di test di natura interferometrica i cui risultati possono confermare, o confutare, una data assunzione sulla natura della gravità. Questi test sembrano realizzabili sperimentalmente (sebbene richiedano un livello molto alto di controllo e manipolazione del set-up sperimentale di volta in volta proposto).

– I modelli che voi costruite sull’universo come vi aiutano a testare le teorie?Non rischiano, i modelli di universo, di essere troppo semplificati?

Certamente: il rischio di una semplificazione eccessiva è sempre in agguato. In questo senso, è fondamentale riuscire a identificare test sperimentali che confutino un dato modello. Procediamo per ‘sviluppi successivi’: a partire da un modello semplice, procediamo a ‘complicarlo’ per passi successivi, basandoci sull’evidenza di esperimenti. Al momento, il primo passo è testare la plausibilità’ dell’assunzione “la gravita’ va quantizzata”. Il resto, verrà nel tempo. O nello spazio!!

Gianluigi Marsibilio

Powered by WordPress.com.

Up ↑