UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Author

Tra Scienza & Coscienza

Com’è il CUORE di un ESOPIANETA?

Scavare nel cuore di pianeti extrasolari è possibile grazie ad una nuova serie di simulazioni fatte da Ray Smith e dal suo team del Lawrence livermore National laboratory in California.

Per simulare il cuore di un pianeta extrasolare gli scienziati hanno puntato 176 laser su una piccola pallina di ferro, spessa qualche micrometro, con un’energia tale che in circa 30 miliardesimi di secondo è stato possibile comprimere il ferro fino a pressioni 14 milioni di volte superiore a quella atmosferica terrestre a livello del mare.

Le pressioni all’interno di un esopianeta sono di gran lunga superiori rispetto a quelle che si trovano nel nostro nucleo terrestre, per capirci meglio, c’è stato spiegato da Ray che : “Un pianeta extrasolare con 5 volte la massa della terra ha circa 2 TPA ovvero 20 milioni di atmosfere in più ,rispetto alle 0.36 TPA della terra”

L’esperimento portato avanti nel laboratorio è la continuazione di un lavoro già compiuto da Smith e colleghi che aveva, tramite una compressione, portato dei diamanti a pressioni estremamente superiori, sappiamo comunque con una buone dose di certezza che i diamanti non si trovano a tali profondità negli esopianeti.

L’esperimento è utilissimo anche perché la missione lanciata alcuni giorni fa dalla NASA, TESS, prevede di studiare proprio esopianeti di questa grandezza.

Gli scienziati hanno indagato pianeti dal raggio da 1 a 4 volte quello terrestre e hanno scoperto, grazie alle osservazioni di Kepler, che questa tipologia di corpi è estremamente presente nella nostra galassia.

I futuri esperimenti estenderanno lo studio sulle materie planetarie (materiali che compongo i pianeti al di fuori del nostro sistema solare) a successive pressioni atmosferiche.

Sarà estremamente interessante. tramite le tecnologie a raggi-x, determinare anche come le strutture dei cristalli si evolvono con queste pressioni estreme e difficili da concepire.

Credito foto

Gianluigi Marsibilio

TESS, IL NUOVO CACCIATORE DI MONDI VIAGGIA VERSO LA SUA ORBITA

Dopo un ultimo ritardo di 48 ore per problemi al razzo vettore, questa notte alle 00:51 ora italiana, il Falcon 9 della Space X è partito con successo dallo Space Launch Complex 40 della Air Force di Cape Canaveral in Florida, con a bordo il suo prezioso carico, il nuovo cercatore di pianeti extrasolari della NASA TESS.

All’1:53 i due pannelli solari gemelli che alimenteranno la sonda si sono aperti con successo.

«Siamo elettrizzati all’idea che TESS sia sulla buona strada per aiutarci a scoprire mondi che dobbiamo ancora immaginare, mondi che potrebbero essere abitabili o ospitare già la vita», ha dichiarato Thomas Zurbuchen, amministratore associato del consiglio direttivo delle missione scientifiche della NASA a Washington. «Con missioni come il James Webb Space Telescope,  che ci aiuterà a studiare in dettaglio questi pianeti, siamo sempre più vicini a scoprire se siamo soli nell’universo».

Nel corso di diverse settimane, TESS userà sei volte il propulsore per spostarsi in una serie di orbite sempre più allungate per raggiungere la Luna, dalla quale avrà un aiuto gravitazionale per potersi trasferire nella sua defintiva orbita scientifica di 13,7 giorni attorno alla Terra. Dopo altri  60 giorni circa di check-out e test della strumentazione a bordo, TESS sarà pronto per iniziare il suo lavoro.

«Un elemento fondamentale per il ritorno scientifico di TESS è l’elevata velocità di trasmissione dati associata alla sua orbita», spiega George Ricker, Principal Investigator di TESS presso il Kavli Institute for Astrophysics and Space Research Kavli  al MIT.  «Ogni volta che la sonda passa vicino alla Terra, trasmetterà immagini full frame scattate con le camere a bordo. Questa è una delle particolarità di TESS, che era mai stato possibile fare prima».

Per saperne di più sulla missione leggi anche Pronto a partire TESS il nuovo cercatore di esopianeti della NASA

Esploratori di esopianeti

Contestualmente alla riuscita del lancio, la NASA ricorda e invita a partecipare a un progetto di citizen science dedicati alla ricerca dei pianeti extrasolari, all’interno del famoso portale web ZooUniverse, utilizzando per il momento l’incredibile mole di dati della sonda Kepler, ormai in via di pensionamento.

I cittadini scienziati (ovvero chiunque abbia voglia di cimentarsi con questo tipo di ricerca dal proprio computer di casa) sono invitati a esaminare i dati della missione K2 di Kepler, per scoprire eventuali esopianeti in transito. Un lavoro di questo tipo, decisamente certosino, permetterà ai ricercatori professionisti di misurare i tassi di occorrenza dei diversi tipi di pianeti in orbita attorno diversi tipi di stelle.

Si potrà aiutare a rispondere a domande tipo: i piccoli pianeti (della taglia di Venere) sono più comuni di quelli grandi (tipo Saturno)? I pianeti a breve periodo (come Mercurio) sono più comuni di quelli su orbite lunghe (come Marte)? Abbiamo più possibilità di trovare pianeti attorno a stelle come il Sole o  attorno alle “nane rosse” più fredde e piccole ma anche più numerose?

Si tratta quindi di controllare e vagliare le numerose curve di luce raccolte da Kepler, alla ricerca di quei cali di luminosità che possono indicare la presenza di un pianeta in transito davanti alla sua stella. Aderendo al progetto si verrà guidati passo passo, prima con qualche semplice accenno alla teoria e poi nella ricerca vera e propria. Ovviamente sarà necessaria la conoscenza dell’inglese, ma niente di troppo complesso in realtà.

Ma i progetti di citizen science della NASA non sono gli unici che permetto agli appassionati di partecipare alla ricerca di pianeti extrasolari. Sono tante le occasioni per mettere alla prova la propria strumentazione amatorale, magari non da principianti, ma per astrofili più esperti… ma si deve sempre inziare da qualche parte, no? Una trattazione diffusa dello stato della ricerca amatoriale oggi di pianeti extrasolari e delle opportunità a disposizione la trovate in un lungo e completo articolo di Rodolfo Calanca, sui numeri 220 e 221 di Coelum Astronomia (come sempre in formato digitale e gratuito).

Quando cominceranno ad arrivare i dati da TESS, non è da escludere che anche quelli verranno messi a disposizione della comunità per permettere agli appassionati di affiancarsi alla ricerca porfessionale.

«Gli oggetti che TESS individuerà saranno materiale fantastico per la ricerca per i decenni a venire», ha affermato Stephen Rinehart, del team di missione TESS presso il Goddard Space Flight Center della NASA. «È l’inizio di una nuova era della ricerca sui pianeti extrasolari».

Coelum

UNA CERVICE IN 3D PER COMPRENDERE MEGLIO IL CANCRO

 

Il cancro alla cervice uccide quasi 300.000 donne all’anno in tutto il mondo, con circa l’85% dei decessi che si verificano nei paesi in via di sviluppo.

Oggi un nuovo test sviluppato dalla Rice University può aiutare i giovani ricercatori a capire come si sviluppa e come intervenire con il cancro alla cervice.

Il dispositivo fornisce un modello interattivo, e soprattutto a basso costo, che riesce a imitare la regione pelvica di una donna.

Questa tipologia di test può essere utile per gli scienziati dei paesi in via di sviluppo che possono imparare a prevenire questa forma di cancro.

Il 90% dei casi di cancro alla cervice è prevenibile, il video di Brandon Martin della Rice University offre una visione più chiara e completa del dispositivo e del suo utilizzo.

 

Crediti video: Brandon Martin

TUTTO PRONTO PER IL LANCIO DI TESS

Il sostituto di Kepler è sempre più vicino al suo lancio: la missione TESS, che amplierà il catalogo degli esopianeti conosciuti, è infatti ai blocchi di lancio a Cape Canaveral.

A mandarlo in orbita sarà il razzo Falcon 9 della Space X, che già dalla scorsa settimana aveva fatto alcuni test.

Una volta compiuto il suo lavoro lo stadio principale del missile tornerà a terra su una nave drone situata nell’Atlantico.

Tess avrà bisogno di alcuni mesi per prepararsi al meglio alla ricerca e raggiungere l’orbita adatta per cacciare pianeti, il F9 metterà in condizione il satellite di cogliere e sfruttare la gravità lunare per raggiungere la sua posizione più velocemente.

Qui potete vedere il lancio previsto per le 6:32 pm EDT.

https://youtu.be/aY-0uBIYYKk

IL NUOVO CACCIATORE DI PIANETI TESS è PRONTO PER IL LANCIO

Dopo lo straordinario lavoro di Kepler, avviato alla pensione, grazie al quale dal 2009 sono stati individuati oltre 5000 pianeti extrasolari, il testimone passerà a TESS (Transiting Exoplanet Survey Satellite), il cui compito sarà, proprio come per il suo predecessore, quello di segnalare nuovi candidati pianeti da confermare poi con ulteriori studi e dati da altri telescopi. Quello che ci si aspetta è che nell’arco dei prossimi due anni ne individui fino a 20.000!

TESS si concentrerà su stelle vicine e luminose, in modo da  facilitare il compito a telescopi che, dallo spazio e da terra, dovranno poi confermare o smentire la natura planetaria dei candidati individuati. Sempre parlando di aspettative e probabilità, ci si aspetta che tra questi ventimila candidati almeno 500 siano di taglia confrontabile al nostro pianeta (entro il doppio delle dimensioni della Terra), e che quindi possano essere buoni candidati anche per la ricerca di forme di vita.

Il nuovo cacciatore di esopianeti è pronto quindi a partire, dal 16 aprile, dallo Space Launch Complex 40a di Cape Canaveral (in Florida) a bordo del razzo SpaceX Falcon 9. Una volta nello spazio, TESS percorrerà un’orbita elittica particolare attorno a Terra e Luna. Inserito nella sua orbita finale, sarà infatti in grado di utilizzare la gravità della Luna per stabilizzarsi per decenni nella sua orbita senza usare carburante extra. La missione è nominalmente destinata a durare due anni, ma potrebbe continuare a ricevere dati quasi indefinitamente!

Ci vorranno alcuni mesi prima che TESS entri nella sua orbita operativa e inizi a raccogliere dati, ma a quel punto avrà a disposizione un punto di vista privilegiato che le consentirà di osservare fino all’85% del cielo, quasi 350 volte il cielo a disposizione di Kepler. Coprirà ben 26 diversi settori ognuno di 24 x 96 gradi. Le potenti camere a bordo avranno 27 giorni per coprire ogni settore, al ritmo di due brillanti stelle al minuto.

Come dicevamo, più luminosa è la stella, più facile è determinare le caratteristiche dei suoi pianeti, come la sua massa o se ha un’atmosfera, usando un’analogia l’astronoma del MIT Sara Seager spiega: «I fotoni sono la nostra moneta – più se ne ha, meglio è!».

E in effetti è così… Uno dei problemi che ha dovuto affrontare Kepler, infatti, è il fatto che alcune delle stelle studiate erano così lontane e così flebili che l’unico modo per confermare alcuni dei candidati da lui individuati è stato attraverso tecniche statistiche, più che da osservazioni dirette fatte da altri telescopi, e quindi con alti margini di errore. Molti di quei pianeti potrebbero, a un’esame più approfondito, non essere più considerati tali.  Un recente articolo pubblicato su arXiv.org ha mostrato, ad esempio, che Kepler 452b, un pianeta di dimensioni terrestri che orbita attorno a una stella simile al Sole, alla stessa distanza della Terra, potrebbe rivelarsi solo un miraggio.

Ma la maggiorparte delle stelle considerate da Kepler si trovavano a più di 1000 anni luce di distanza, per questo TESS si concentrerà invece su un campione di 200 mila stelle ad al massimo poche centinaia di anni luce da noi, e con una luminosità compresa tra le 30 e le 100 volte più alta di quelle osservate da Kepler.

Al di là del campione che andrà ad indagare, il modo in cui TESS cercherà gli esopianeti è lo stesso di Kepler, come dice anche il nome: il metodo dei transiti, ovvero il satellite osserverà le stelle cercando cali nelle curve di luce, che potrebbero indicare il transito di un pianeta di fronte alla stella. La misura di questi cali di luminosità può dare ai ricercatori un’idea delle dimensioni del pianeta.

Una volta individuato, gli astronomi avranno bisogno di più informazioni per comprenderne le caratteristiche, ad esempio se è roccioso o gassoso, e per fare questo servirà l’uso di altri strumenti.  I telescopi terrestri misureranno l’effetto gravitazionale di un pianeta sulla sua stella ospite, ad esempio, per misurarne la densità, sperando di individuare pianeti di dimensioni minori a quelle di Nettuno e di natura rocciosa, potenzialmente quindi abitabili.

Per analizzarne poi le atmosfere, e cercare molecole che possano suggerire la presenza di vita, sarà invece necessario attendere il telescopio spaziale della NASA James Webb, al momento previsto per il lancio nel 2020, sperando non intervengano ulteriori problemi.

Viste le potenzialità di TESS, ci sia aspetta quindi che la sua missione venga estesa numerose volte. Il lavoro di TESS non dipende da nulla che possa consumarsi nel tempo (come il carburante) e, come conclude Ricker: «Sarà sostanzialmente limitato da quanto a lungo la NASA avrà la pazienza di finanziare la missione».

La NASA seguirà il lancio del satellite come sempre con un nutrito programma di interventi e conferenze in streaming su NASA TV, a partire dal giorno precedente al lancio. Per maggiori informazioni sulla missione e seguirne i prossimi passi:

http://www.nasa.gov/tess

 

Coelum Astronomia

MATERIA OSCURA, ADMX è LA SVOLTA NECESSARIA ALLA RICERCA?

Inutile nasconderlo, la materia oscura è una vera chimera per i ricercatori di cosmologia e fisica che negli ultimi 30 anni si sono avvicendati tra esperimenti e laboratori per cercare di trovarne un vago sentore.

L’ Axion Dark Matter experiment (ADMX) che si trova a Washington, ha riportato e pubblicato dei risultati importantissimi su Physical Review Letters, infatti si tratta del primo esperimento al mondo ad aver sviluppato la necessaria sensibilità per sentire i vagiti della materia oscura, più precisamente sarà il primo esperimento a cercare di scovare le traccie degli assioni.

Andrew Sonnenschein, membro fondamentale della collaborazione ADMX, ci ha spiegato a fondo il significato di questo nuovo esperimento: ” Gli assioni sono particelle ipotetiche inventate negli anni 70 dai teorici Roberto Peccei e Helen Queen come sottoprodotto dei loro tentativi di risolvere i problemi tra le interazioni tra i Quark e i gluoni”. I ricercatori hanno aspettato molto tempo per scoprire che, tramite queste particelle, potevano risolvere il problema della materia oscura o per farla breve cercare di capire di più sulla parte di universo che noi oggi non conosciamo, ovvero quello oscura.

“Queste particelle -ha spiegato il ricercatore- hanno masse molto piccole e possono interagire in modo debolissimo con la materia ordinaria e quindi sono molto difficili da rilevare”.

ADMX funziona grazie ad un fortissimo campo magnetico che converte gli assioni in fotoni ordinari in modo da permettere di essere rilevati più facilmente da quello che è il ricevitore radio più sensibile al mondo.

“Ora- come ci ha spiegato lo studioso- c’è una reale possibilità di sondare la materia oscura. Abbiamo dimostrato un grande salto di qualità nella sensibilità e questo trasforma il problema della rilevazione da quasi impossibile a estremamente impegnativo”.

L’esperimento utilizza dei componenti isolati da fonti esterne,ipersensibili e raffreddati a temperature vicine allo zero assoluto. Gli scienziati si aspettano e sperano di vedere interagire i fotoni con queste particelle enigmatiche.

Dal lontano 1933, anno in cui Fritz Zwicky propose per la prima volta la materia oscura come un sistema per spiegare la discrepanza tra le velocità di rotazione delle galassie, ancora si riesce ad avere una visione chiara di questa parte enigmatica e affascinante dell’universo.

Quello raggiunto dalla collaborazione ADMX è sicuramente una svolta tecnica che potrà produrre risultati fino ad ora irraggiungibili.

Crediti foto: Mark Stone/University of Washington

ALLE PORTE DELLA VITA CON SAIJA FRANZ- COME SI SONO FORMATE LA PRIME MOLECOLE?

Abbiamo parlato con Saija Franz del CNR per farci spiegare la sua ultima ricerca apparsa su Chemical Communications, della Royal Society of Chemistry. L’obiettivo dello studio è stato quello di riprodurre il processo chimico che potrebbe aver determinato la sintesi primordiale dell’eritrosio, antenato del ribosio, lo zucchero che compone l’Rna.

Con lo scienziato abbiamo parlato in una lunga chiacchierata di molecole, origine della vita e tanti altri aspetti interessanti dei processi che sono alla base della vita.

– Come si sono formate le prime molecole?

Le molecole che hanno avuto un ruolo fondamentale nella formazione delle prime strutture biologiche sono tutti i composti che si basano sulla chimica del carbonio. In chimica prebiotica (quel campo della chimica che si occupa di comprendere quei processi che portarono alla formazione di composti organici partendo da molecole inorganiche) oltre al carbonio, sono fondamentali l’ossigeno, l’azoto, il fosforo e lo zolfo e, ovviamente l’idrogeno, che è l’atomo più abbondante nell’universo. Partendo da questi elementi, sintetizzati nei nuclei delle stelle e disseminati nello spazio dalle esplosione delle supernove, si sono formate le molecole inorganiche più importanti per la vita come la conosciamo oggi noi: acqua, ammoniaca, monossido di carbonio, idrogeno e azoto molecolare, metano e molte altre. Partendo da queste, il passaggio successivo è stato quello della sintesi di molecole poco più complesse come la formaldeide CH2O, l’acido cianidrico HCN, l’acido formico HCOOH, la formammide (NH2COH), etc. Da queste si è passati a sistemi via via più complessi e meglio organizzati fino ad arrivare alle macromolecole biologiche.

-Che ruolo ha avuto il ribosio (e derivati) nella formazione dell’RNA?

Una delle più discusse reazioni chimiche per spiegare il passaggio da molecole semplici, come la formaldeide, agli zuccheri, come il ribosio, è la nota Formose Reaction, conosciuta anche come reazione di Butlerov (Aleksandr Butlerov fu il chimico russo che la descrisse per la prima volta nel 1861). Quest’ultima è una reazione autocatalitica che avviene attraverso alcuni specifici stadi definibili come reazioni di aldolisi e retroaldolisi (il termine formose deriva da formaldeide e aldoso). Per la chimica prebiotica la formazione degli zuccheri da molecole semplici riveste particolare importanza, in quanto le struttura sia dell’RNA (acido ribonucleico) sia del DNA (acido desossiribonucleico) sono costituite dal ribosio e dal desossiribosio (la differenza fra i due è un atomo di ossigeno che dona una maggiore capacità catalitica all’RNA rispetto al DNA). Essa coinvolge dunque la formazione di un primo legame Carbonio-Carbonio a partire da una soluzione acquosa più o meno diluita di formaldeide che, tramite un cosiddetto umpolung (inversione di polarità), dà luogo all’unico possibile diosio (che contiene due atomi di carbonio): la glicolaldeide. Il primo step della formose reaction è caratterizzato da un evento sostanzialmente improbabile anche in condizioni alcaline particolari e non a caso rappresenta la cosiddetta “parte lenta” di tale catena di reazioni. Infatti, una volta formata la glicolaldeide, essa agisce da catalizzatore e la reazione procede in modo rapidissimo; così, la glicolaldeide, interagendo con una molecola di formaldeide, può dar luogo alla gliceraldeide, che è il primo triosio (tre atomi di carbonio) ad essere osservato. L’anello successivo di tale catena di reazioni è rappresentato dalla formazione di un qualche tetrosio come, ad esempio, l’eritrosio. Esso può formarsi direttamente dalla reazione di una gliceraldeide con una formaldeide o attraverso la reazione diretta di due molecole di glicolaldeide. Una volta formatosi un tetrosio, basta una semplice reazione tra esso e una formaldeide per dar luogo al ribosio e/o ad uno qualunque dei suoi isomeri (ribulosio, deossiribosio, ecc…). Come già evidenziato, il punto a sfavore della formose reaction è il primo passaggio dalla formaldeide alla glicoaldeide. Diversi sono stati nei decenni i tentativi sperimentali di trovare catalizzatori capaci di rendere probabile la reazione. La glicoaldeide, però, è stata anche osservata sia nello spazio interstellare sia nel gas che circonda una giovanissima stella di massa simile a quella del Sole, indicando che alcuni dei composti chimici necessari per la vita esistevano in questo sistema nel momento in cui avrebbe potuto aver luogo la formazione dei pianeti. Partendo da questa considerazione, nel nostro laboratorio “virtuale” abbiamo simulato una miscela di acqua e glicoaldeide ed usato come catalizzatore un campo elettrico di intensità così elevata da mimare il fenomeno della fulminazione. L’uso di un campo elettrico esterno che funga da catalizzatore delle reazioni primarie che portano dalle molecole semplici presenti, in una terra primordiale, a molecole più complesse è stato già testato in un esperimento numerico dal nostro gruppo nel 2014 (pubblicato sulla rivista PNAS dell’Accademia delle Scienze degli Stati Uniti d’America) ed ha portato alla formazione di un aminoacido.

– Cosa dobbiamo sapere delle famose pozze primordiali per capire al meglio il vostro studio?

L’ipotesi della pozza primordiale fu introdotta da Charles Darwin alla fine del 1800. Nel suo libro, l’Origine delle Specie per Selezione Naturale Darwin non si era spinto molto avanti nell’affrontare il concetto dell’origine della vita. E’ un libro in cui i commenti ad una materia che a quel tempo era molto delicata furono “distillati” in alcuni punti del testo per rabbonire i critici dei circoli religiosi. Però, lo scienziato inglese aveva una sua idea e la espresse solamente in una lettera privata ad un suo caro amico e collega, il botanico Joseph D. Hooker, solo nel 1871. In questa missiva egli scrisse esplicitamente:” … ma se (oh, quale grande se) potessimo concepire che in qualche stagno caldo, in presenza di ogni sorta di ammoniaca e di sali fosforici, luce, calore, elettricità, ecc, si sia formato un qualche componente proteico già pronto a subire mutamenti ancora più complessi …” Darwin, quindi, immaginava questo stagno ricco di quelle molecole inorganiche, di cui ho parlato prima, che a causa di un fattore esterno (luce, calore, elettricità, …) hanno reagito chimicamente formando molecole via via più complesse. Ma esistono numerosi altri modelli prebiotici, alcuni dei quali implicano che la vita si sia formata nelle profondità del mare a livello di sorgenti idrotermali o sui cristalli di pirite. Un’altra ipotesi ritiene che i mattoni della vita siano giunti sulla superficie terrestre dallo spazio. In realtà su frammenti di meteoriti giunti sulla terra sono state trovate tracce di molecole basate sulla chimica del carbonio. Addirittura la teoria della Panspermia propone che le prime forme di vita sulla terra siano arrivate proprio dallo spazio trasportate da asteroidi e comete.

– Come è stata usata la simulazione per ricreare un ambiente del genere?

E’ ben noto a tutti che la materia che ci circonda è costituita da atomi tenuti insieme fra di loro attraverso legami chimici che si instaurano tramite la colla della materia: gli elettroni.

Su un qualunque calcolatore, note le leggi che governano la dinamica di un qualsiasi insieme di atomi, è possibile farli evolvere nel tempo. Per fare questo dobbiamo, però, scegliere che livello di comprensione vogliamo raggiungere. Se siamo interessati a proprietà che non coinvolgono la rottura e la formazione di legami fra atomi e molecole possiamo usare la dinamica molecolare classica: si tratta in parole molto semplici di far riprodurre al calcolatore un fenomeno che assomigli il più possibile a quello che succede nella realtà facendo evolvere dinamicamente i costituenti il nostro sistema seguendo le equazioni del moto di Newton. Quindi risolvendo queste equazioni del moto al calcolatore è possibile seguire la traiettoria degli atomi o molecole e vedere con una specie di microscopio teorico cosa succede nella materia reale. Viceversa, se siamo interessati a studiare delle reazioni chimiche e quindi la rottura e formazione di nuovi legami dobbiamo trattare il problema mediante l’uso della meccanica quantistica che è la teoria fisica che regola il comportamento del mondo a livello atomico. Descrivere correttamente come e perché due molecole possono produrre una reazione chimica è piuttosto complicato e solo in alcuni casi il problema è risolvibile analiticamente. Oggi è possibile eseguire delle simulazioni in cui il problema quantistico viene risolto numericamente, seguendo la dinamica del sistema, grazie ad alcuni metodi che prendono il nome di simulazioni numeriche da principi primi (spesso si usa la locuzione latina ab initio), intendendo con principi primi il fatto che la dinamica è quantistica. Il grande passo in avanti che ha permesso a cavallo degli anni ’60 e ’70 di applicare le leggi della meccanica quantistica alle proprietà microscopiche della materia fu fatto da Walter Kohn, premio Nobel per la chimica nel 1998, che introdusse la teoria del funzionale densità. Tale approccio teorico ha lo straordinario vantaggio di poter essere implementato numericamente permettendo la risoluzione delle complicate equazioni della meccanica quantistica. La teoria del funzionale densità richiede comunque risorse di calcolo estremamente performanti. Nel 1985 i fisici italiani Roberto Car e Michele Parrinello, allora entrambi alla SISSA (Scuola Internazionale Superiore di Studi Avanzati) di Trieste, svilupparono l’omonimo metodo che permette di seguire in silico (termine che è sinonimo di simulazione) l’evoluzione dinamica di un sistema di molecole per tempi confrontabili a quelli delle esperienze di laboratorio.

– Come stanno migliorando i super computer in questi anni? Quali future applicazioni avranno nel vostro campo?

Oggigiorno la simulazione numerica rappresenta il terzo paradigma della scienza (insieme all’esperimento e alla teoria) e il suo scopo non è quello di produrre freddi numeri, bensì quello di fornire un ulteriore strumento di comprensione della natura. Una delle più recenti sfide tecnologiche è la costruzione di calcolatori sempre più potenti. Quando si parla di potenza di un computer si intende la velocità nell’eseguire delle operazioni e la sua capacità di immagazzinare informazione. Continua a valere la famosa legge di Moore (Gordon Moore cofondatore della Intel) secondo il quale ogni diciotto mesi la potenza di un computer raddoppia. Tutto questo, però, potrebbe subire un’accelerazione incredibile se si riuscisse a costruire un calcolatore basato sulle legge della meccanica quantistica, meglio conosciuto oggi come quantum computer. Si sta facendo molta ricerca in questo campo e si cominciano a vedere i primi risultati.

Oggi esistono dei super centri di calcolo utilizzati per scopi di tipo militare oppure per le previsioni metereologiche, solo per fare qualche esempio.

Nel nostro campo i progressi sono stati notevoli. Oggi si riescono ad eseguire simulazioni numeriche che dieci anni fa sarebbero state impossibili. Ciò vuol dire poter eseguire esperimenti “numerici” molto più accurati che aiutano a comprendere meglio e interpretare i risultati degli esperimenti compiuti nei laboratori. Ma la simulazione numerica non serve solo come banco di prova ma suggerisce nuovi esperimenti in condizioni spesso molto ardue da ottenere in laboratorio.

Nel campo della chimica prebiotica le potenzialità dell’approccio computazionale sono enormi. Le applicazioni future riguarderanno lo studio di altri processi chimico-fisici relati alla costituzione di molecole sempre più complesse come la sintesi delle basi azotate e lo studio del legame peptidico, che è responsabile della formazione delle proteine partendo dai semplici aminoacidi.

– Cosa resta di veramente fondamentale da scoprire in quest’area di studio?

Lo studio della chimica prebiotica è un campo di ricerca con grandi prospettive. Ci sono moltissime ipotesi riguardo alla nascita delle prime molecole biologiche. Ognuna di loro ha una propria validità scientifica e riuscire a trovare quale di queste sia la più verosimile è un compito particolarmente impegnativo ma anche molto affascinante che vede collaborare scienziati con estrazioni culturali molto diversi fra loro. E’ sicuramente una tematica multidisciplinare dove saperi differenti cooperano per cercare di trovare una soluzione comune. Un aspetto fondamentale di particolare rilevanza al momento è lo studio di quei processi chimico-fisici che hanno permesso a molecole biologiche semplici come gli zuccheri e le basi azotate di auto assemblarsi in strutture molecolari con capacità auto replicanti. Uno degli approcci innovativi e originali che sta permettendo di ottenere risultati molto promettenti è proprio quello computazionale.

Gianluigi Marsibilio

LE FRONTIERE E LE SFIDE DELL’EPIGENETICA: INTERVISTA A GIUSEPPE MACINO

Parlare di temi come la biologia molecolare o l’epigenetica in modo corretto, divulgativo e serio è un compito che pochi scienziati riescono ad assumere.

Ci sono, fortunatamente, delle menti illuminate come Giuseppe Macino, dell’Università La Sapienza, che da anni è impegnato nella divulgazione e nella comunicazione delle novità scientifiche legate alla genetica e a tutta una serie di temi, che per alcuni sembrano oscuri o controversi.

Noi abbiamo parlato con lui per farci spiegare in sommi capi tutti gli sviluppi odierni e futuri legati allo studio del DNA e dell’RNA.

 

 

 

– Tante volte ho come l’impressione che si diano delle interpretazioni sbagliate dell’epigenetica, quindi può spiegarci qual è l’area di studio di questa scienza e perché oggi è estremamente importante?

L’annuncio che il genoma umano era stato completamente, o quasi, sequenziato ci fece sperare di poter finalmente capire meglio il funzionamento ed il mal funzionamento delle nostre cellule e dei nostri organi. Presto ci rendemmo conto che non era così e che c’erano molte altre cose da capire per poter interpretare i dati che si andavano accumulando. Il DNA, come ormai tutti sanno, è la molecola che codifica per tutta l’informazione necessaria per il corretto sviluppo degli organismi e per il loro funzionamento per l’intero l’arco della vita. Questa enorme quantità di informazione deve essere usata in momenti diversi della vita di ogni singola cellula ed in modo diverso a seconda del tipo cellulare. Le nostre cellule sono molto diverse, si pensi alle cellule ossee, muscolari, epatiche, neuronali per fare degli esempi e si capisce subito che diversa funzione e diversa forma sono realizzate con l’uso di informazioni diverse. Allora se il DNA è lo stesso in ogni cellula come fanno ad essere così diverse? Il DNA nelle cellule è organizzato in modo molto complesso insieme a proteine, chiamate istoni,  che ne permettono l’avvolgimento regolare ed altre proteine che lo ricoprono. Queste strutture , che noi chiamiamo cromatina, possono essere più compatte o più lasche permettendo quindi di oscurare, silenziare, o di esporre le diverse parti del DNA che contengono i geni che codificano per le proteine, e non solo, necessarie per il funzionamento di ogni tipo di cellula. Il tutto in modo altamente regolato nel tempo e per ogni singola cellula. Tutto ciò lo si ottiene attraverso meccanismi che noi chiamiamo epigenetici che determinano quale porzione del DNA può essere utilizzata e quale no. In breve questi meccanismi fanno uso di modifiche chimiche di alcuni singoli aminoacidi che costituiscono le proteine intorno alle quali è avvolto il DNA. Queste modifiche, come la metilazione o l’acetilazione degli aminoacidi  lisina o arginina convogliano sul DNA altre proteine che rendono la struttura del DNA più accessibile o meno accessibile, con il risultato che il gene contenuto in quella specifica porzione della molecola di DNA sarà utilizzabile oppure sarà silenziato.

L’importanza dello studio dei meccanismi epigenetici appare quindi chiara se si pensa che le patologie, come il cancro, dipendono dalla utilizzazione di geni che non dovrebbero essere utilizzati che spingono le cellule a riprodursi anche quando non dovrebbero. Altre patologie importanti come quelle nervose spesso sono causate da meccanismi epigenetici mal funzionanti che alterano completamente il regolare funzionamento cellulare producendo danni sia strutturali che funzionale dei neuroni.

 

– Da Watson e Crick, passando per Roger Kornberg e il Nobel al Professor Craig C Mello. Come sta cambiando oggi la ricerca in genetica? Quali sono state, in questi ultimi anni delle tappe fondamentali?

Da quando conosciamo la struttura del DNA tutte le nostre idee sulla biologia sono radicalmente cambiate. Gli studi che ne sono seguiti ci hanno fatto capire che dal DNA era possibile estrarre le informazioni attraverso la sua trascrizione in RNA e che non tutto il DNA era trascritto in ogni momento ma solamente le regioni che contenevano i geni nel momento che il prodotto del gene, spesso una proteina, era necessario per il funzionamento corretto delle cellule. Da questi studi pioneristici si è passati successivamente a capire che ci sono dei meccanismi cellulari che non solamente utilizzano le informazioni contenute nel DNA ma che raccolgono messaggi che derivano dall’ambiente sia extra cellulare che extra corporeo. Tra questi messaggi ci sono anche i virus e non solo che provengono dall’esterno, da cui le cellule si devono difendere. La scoperta di Mello, sul silenziamento genico, svelava un meccanismo di difesa da invasori esterni che serve a proteggere l’integrità del DNA che possediamo. Da allora è stato possibile comprendere che oltre al DNA anche l’RNA gioca un ruolo estremamente importante nel funzionamento delle cellule e che anzi ogni giorno di più assume ruoli che prima venivano considerati tipici delle proteine. Si è capito che gli RNA interagiscono tra loro, che sono indispensabili per la regolazione dell’espressione dei geni sia a livello trascrizionale che post trascrizionale. Si è scoperto che esistono in ogni cellula RNA tanto piccoli da essere definiti microRNA che sono indispensabili per il coordinamento della funzione di produzione di proteine, per regolarne la quantità ed anche la localizzazione cellulare.

Oggi la nuova frontiera è la determinazione della variabilità individuale sia a livello di DNA che a livello di espressione dei nostri geni. Non solo noi siamo tutt diversi geneticamente ma lo siamo anche epigeneticamente, come dimostrato nel caso dei gemelli monozigoti, identici geneticamente ma diversi epigeneticamente.

Inoltre le nuove tecnologie hanno permesso di generare strumenti di intervento mirato sul DNA capaci di modificare il genoma delle cellule di ogni organismo, inclusi gli organismi umani. Lo sviluppo di queste tecnologie produrrà un ulteriore accelerazione delle conoscenze sul funzionamento e mal funzionamento cellulare con ricadute nel campo della medicina prima impensabili.

– Come viene acquisita e cos’è l’identità cellulare?

Ciascuno di noi, per parlare di umani, possiede un genoma unico, diploide,che ci deriva in parti uguali dai due genitori. La sequenza di centinaia di migliaia di genomi umani completi ci ha rivelato che ciascuno di noi condivide con gli individui della nostra specie il 99.9% della sequenza di DNA. Il residuo 0.1% ci rende unici e determina le caratteristiche fenotipiche che possiamo osservare. Questi 3 milioni di coppie di basi, che sono diverse tra ciascun  individuo, sono rappresentate da singoli nucleotidi, o qualche volta da sequenze di pochi nucleotidi, diffusi su tutto il genoma. Raramente sono presenti nei geni, più frequetemente al di fuori dei geni, nelle loro sequenze vicine che controllano  l’espressione del gene stesso. Queste alterazioni producono degli sfasamenti, durante lo sviluppo embrionale, e successivamente nella vita di ogni singola cellula, nella produzione di proteine il cui risultato è la  differenza di aspetto e funzionamento dei nostri apparati vitali.

– Per aiutare il pubblico a comprendere questi processi genetici e cellulari può spiegare semplicemente come si studiano concretamente in laboratorio?

In poche righe non è certo possibile spiegare qualcosa che richiederebbe delle enciclopedie. Tuttavia semplicemente si può spiegare che attualmente nei laboratori di genetica molecolare è possibile determinare la sequenza del DNA e di tutti, o quasi, gli RNA di ogni singola cellula di qual si voglia tessuto o organismo. Con lo sviluppo tecnologico sempre più veloce possiamo fare questi esperimenti in pochi giorni, e non molti anni come in passato, producendo conoscenza profonda su cosa accade momento per momento nelle cellule. Naturalmente possiamo anche determinare quali proteine sono presenti, anche se con maggiori difficoltà, e  quali complessi molecolari producono. Il confronto tra cellule sane e patologiche ci permette di ipotizzare quale meccanismo non funziona correttamente e proporre una ipotesi di intervento per evitare il problema derivante dalla patologia.

Si studiano contemporaneamente circa 50.000 geni negli organismi  sia animali che vegetali e si correla la loro funzione attraverso tecnologie bioinformatiche che permettono di estrarre significati importanti da una massa di dati semplicemente straordinaria. Sempre più la bioinformatica è indispensabile per analizzare i dati e proporre modelli di funzionamento cellulare da provare poi in pratica nel laboratorio.

– Qual è il legame tra l’epigenetica e i tumori? Cosa si sta sviluppando in questo settore di ricerca?

Le cellule tumorali sono molto diverse dalle cellule da cui derivano perchè un numero molto grande di geni vengono espressi in modo non corretto. Raramente la causa è determinata di un singolo gene mutato, più spesso le alterazioni sono di tipo epigenetico che modificano profondamente il livello di espressione di tantissimi geni e di conseguenza degli apparati di controllo che determinano il corretto accrescimento cellulare. Oggi spesso si definisce il cancro come una malattia epigenetica, tanto che si stanno sviluppando farmaci , chiamati epifarmaci, che incidendo sulle modifiche chimiche a carico degli istoni possono ripristinare il corretto funzionamento della struttura della cromatina nelle regioni geniche di interesse.

– Come si può manipolare il ciclo cellulare? Come questo è utile da un punto di vista sanitario?

Il ciclo cellulare deriva da una miriade di controlli incriciati sia intra che intercellulare. Attualmente non si può controllare per fini sanitari. Non sapremmo bene quali effetti potrebbe scatenare.

– Nel preparare questa breve intervista mi sono imbattuto spesso in un termine: homology-dependent gene silencing (HDGS). Cosa significa questo meccanismo di silenziamento per i geni?

Il silenziamento genico richiede una precisione assoluta che solamente gli acidi nucleici possono avere attraverso il riconoscimento di sequenze specifiche come conseguenza della complementarietà di legame tra le basi. Quindi silenziamento da sequenze omologhe significa che un RNA può essere riconosciuto da un altro RNA, raramente DNA, attraverso l’uso di sequenze complementari. Questo riconoscimento attiva delle nucleasi specifiche che tagliano l’RNA bersaglio e ne impediscono la funzione( silenziamento post trascrizionale). Per quello trascrizionale vale lo stesso concetto che implica che il DNA viene riconosciuto da un RNA complementare e questo istruisce proteine che ora possono sia modificare chimicamente le citosine del DNA, metilandole, sia modificare gli istoni dermminando un cambiamento della struttura della cromatina e un silenziamento della trascrizione del DNA coinvolto.

 

UNA SIMULAZIONE SVELA L’ORIGINE DELLE PRIME MOLECOLE ORGANICHE

Ricercatori dell’Istituto per i processi chimico-fisici (Ipcf) del Cnr di Messina hanno riprodotto, mediante avanzate tecniche numeriche, il processo chimico che potrebbe aver determinato la sintesi primordiale dell’eritrosio, precursore del ribosio, lo zucchero che compone l’RNA, facendo così luce sull’origine delle prime molecole biologiche e quindi sull’inizio della vita sulla Terra. I risultati sono stati pubblicati su Chemical Communications della Royal Society of Chemistry, in collaborazione con l’Accademia delle scienze della Repubblica Ceca di Brno e la Sorbona di Parigi.

Uno dei tasselli cruciali nel puzzle dell’origine della vita è rappresentato dalla comparsa delle prime molecole biologiche sulla Terra come l’RNA, l’acido ribonucleico. Uno studio dell’Istituto per i processi chimico-fisici del Consiglio nazionale delle ricerche (Ipcf-Cnr) di Messina ha descritto, mediante avanzate tecniche di simulazione numerica, un processo chimico che da molecole semplici e presenti in enorme abbondanza nell’Universo, come l’acqua e la glicolaldeide, potrebbe aver portato alla sintesi primordiale dell’eritrosio, precursore diretto del ribosio, lo zucchero che compone l’RNA. Lo studio è stato pubblicato sulla rivista Chemical Communications, della Royal Society of Chemistry, da un team che coinvolge anche l’Accademia delle scienze della Repubblica Ceca di Brno e l’Università di Parigi Sorbonne.

“Nello studio dimostriamo per la prima volta che determinate condizioni prebiotiche, tipiche delle cosiddette ‘pozze primordiali’ in cui erano presenti le molecole inorganiche più semplici, sono in grado di favorire la formazione non solo degli aminoacidi, i mattoni fondamentali delle proteine, ma anche di alcuni zuccheri semplici come l’eritrosio, precursore delle molecole che compongono l’ossatura dell’RNA”, spiega Franz Saija, ricercatore Ipcf-Cnr e coautore del lavoro. “La sintesi degli zuccheri a partire da molecole più semplici, che possono essere state trasportate sul nostro pianeta da meteoriti in epoche primordiali, rappresenta una grossa sfida per gli scienziati che si occupano di chimica prebiotica. La formazione dei primi legami carbonio-carbonio da molecole molto semplici come la formaldeide non può avvenire senza la presenza di un agente esterno capace di catalizzare la reazione: la presenza di tali catalizzatori in ambienti prebiotici, tuttavia, è ancora un mistero”.

L’approccio computazionale alla chimica prebiotica già nel 2014 consentì al team di ricerca, con uno studio pubblicato su Pnas, di simulare il famoso esperimento di Miller, cioè la formazione di aminoacidi dalle molecole inorganiche contenute nel ‘brodo primordiale’ sottoposte a intensi campi elettrici. “Nel nostro esperimento, facendo uso di metodi avanzati di simulazione numerica al super-computer, una soluzione acquosa di glicolaldeide è stata sottoposta a campi elettrici dell’ordine di grandezza dei milioni di volt su centimetro, capaci di catalizzare quella reazione che in chimica viene chiamata formose reaction e che porta alla formazione di zuccheri a partire dalla formaldeide”, prosegue Giuseppe Cassone dell’Institute of Biophysics, Czech Academy of Sciences e primo autore dell’articolo scientifico.

“Oggi l’approccio computazionale alla chimica prebiotica è di fondamentale rilevanza perché permette di analizzare in modo molto specifico i meccanismi molecolari delle reazioni chimiche alla base dei processi che hanno portato alla formazione delle molecole della vita”, conclude Saija.

 

CNR

Powered by WordPress.com.

Up ↑