UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Tag

novità

Com’è il CUORE di un ESOPIANETA?

Scavare nel cuore di pianeti extrasolari è possibile grazie ad una nuova serie di simulazioni fatte da Ray Smith e dal suo team del Lawrence livermore National laboratory in California.

Per simulare il cuore di un pianeta extrasolare gli scienziati hanno puntato 176 laser su una piccola pallina di ferro, spessa qualche micrometro, con un’energia tale che in circa 30 miliardesimi di secondo è stato possibile comprimere il ferro fino a pressioni 14 milioni di volte superiore a quella atmosferica terrestre a livello del mare.

Le pressioni all’interno di un esopianeta sono di gran lunga superiori rispetto a quelle che si trovano nel nostro nucleo terrestre, per capirci meglio, c’è stato spiegato da Ray che : “Un pianeta extrasolare con 5 volte la massa della terra ha circa 2 TPA ovvero 20 milioni di atmosfere in più ,rispetto alle 0.36 TPA della terra”

L’esperimento portato avanti nel laboratorio è la continuazione di un lavoro già compiuto da Smith e colleghi che aveva, tramite una compressione, portato dei diamanti a pressioni estremamente superiori, sappiamo comunque con una buone dose di certezza che i diamanti non si trovano a tali profondità negli esopianeti.

L’esperimento è utilissimo anche perché la missione lanciata alcuni giorni fa dalla NASA, TESS, prevede di studiare proprio esopianeti di questa grandezza.

Gli scienziati hanno indagato pianeti dal raggio da 1 a 4 volte quello terrestre e hanno scoperto, grazie alle osservazioni di Kepler, che questa tipologia di corpi è estremamente presente nella nostra galassia.

I futuri esperimenti estenderanno lo studio sulle materie planetarie (materiali che compongo i pianeti al di fuori del nostro sistema solare) a successive pressioni atmosferiche.

Sarà estremamente interessante. tramite le tecnologie a raggi-x, determinare anche come le strutture dei cristalli si evolvono con queste pressioni estreme e difficili da concepire.

Credito foto

Gianluigi Marsibilio

TUTTE LE COSE DA SAPERE SUL RIENTRO DELLA TIANGONG-1

La stazione spaziale cinese Tiangong-1 ha deciso di ritornare a casa base (la Terra) per il fine settimana di pasqua. Una nota dell’Istituto di scienza e tecnologie dell’informazione ‘A. Faedo’ del Cnr (Isti-Cnr), fornisce alcune risposte alle domande più frequenti sul tema, tra cui: dove può avvenire il rientro, quanto è grande il rischio, come si distribuiscono i frammenti, com’è fatta e quanto è grande la stazione spaziale cinese.

Tiangong-1 è stata la prima stazione spaziale cinese, lanciata il 29 settembre 2011 su un’orbita approssimativamente circolare, a circa 350 km di altezza e inclinata di poco meno di 43 gradi rispetto all’equatore terrestre. Nel novembre dello stesso anno è stata raggiunta e agganciata dalla navicella Shenzhou-8 senza equipaggio, mentre i primi tre astronauti vi sono saliti a bordo, trasportati da Shenzhou-9, nel giugno 2012, trascorrendovi 9 giorni e mezzo. Il secondo e ultimo equipaggio di tre astronauti si è agganciato alla stazione, con Shenzhou-10, nel giugno 2013, trascorrendovi 11 giorni e mezzo.

Da allora Tiangong-1 ha continuato a essere utilizzata, disabitata, per condurre una serie di test tecnologici, con l’obiettivo di de-orbitarla, a fine missione, con un rientro guidato nella cosiddetta South Pacific Ocean Unpopulated Area (SPOUA), una specie di cimitero dei satelliti in una zona pressoché deserta dell’Oceano Pacifico meridionale. Purtroppo, però, il 16 marzo 2016, il centro di controllo a terra ha perso la capacità, pare in maniera irreversibile, di comunicare e impartire comandi al veicolo spaziale.

Nei due anni trascorsi da allora, Tiangong-1 ha perciò perduto progressivamente quota, perché il continuo impatto con le molecole di atmosfera residua presenti anche a quelle altezze le ha sottratto incessantemente energia. Ed è questo processo completamente naturale che farà alla fine precipitare la stazione spaziale sulla terra senza controllo, non potendo essere più programmata un’accensione dei motori per un rientro guidato.

Come è fatta e quanto è grande?

Tiangong-1 consiste approssimativamente di due moduli cilindrici montati uno sull’altro: quello di servizio, con un diametro di 2,5 m, e quello abitabile, con un diametro di 3,4 m. La lunghezza complessiva è di 10,5 m. Su lati opposti del modulo di servizio sono anche attaccati, perpendicolarmente all’asse di simmetria dei cilindri, due pannelli solari rettangolari, larghi 3 m e lunghi 7 m.

Che massa ha?

Quando è stata lanciata, Tiangong-1 aveva una massa di 8506 kg, di cui circa una tonnellata di propellente per le manovre. Nel corso della missione la massa è però diminuita, principalmente per due motivi: 1) una parte significativa del propellente è stata consumata per le manovre orbitali e per contrastare la progressiva sottrazione di energia meccanica da parte dell’atmosfera residua; 2) i due equipaggi, durante le loro permanenze sulla stazione, hanno consumato buona parte delle scorte di cibo, acqua e ossigeno stivate a bordo. Cercando di calcolare questi consumi, abbiamo stimato che la massa attuale di Tiangong-1 dovrebbe aggirarsi sui 7500-7550 kg. Non sarebbe quindi molto diversa da quella della nave cargo russa Progress-M 27M, di cui abbiamo seguito il rientro incontrollato nel 2015.

Si tratta di un evento eccezionale?

Assolutamente no. Di rientri senza controllo di stadi o satelliti con una massa superiore alle 5 tonnellate ne avvengono, in media, 1 o 2 all’anno, quindi sono relativamente frequenti. Per esempio, il 27 gennaio scorso, uno stadio russo-ucraino di circa 8500 kg, quindi con una massa superiore a quella di Tiangong-1, è rientrato sul Perù e dei componenti sono precipitati nell’estremità meridionale del paese, nella regione del lago Titicaca. Il 10 marzo, uno stadio del lanciatore cinese Lunga Marcia 3B è invece rientrato sul Paraguay e un serbatoio è stato recuperato nei pressi della città di Canindeyú, vicino al confine con il Brasile.

Quanto è grande il rischio rappresentato da un rientro incontrollato?

La soglia di attenzione comunemente adottata a livello internazionale corrisponde a un rischio estremamente ridotto per un singolo individuo che risiede in un’area sorvolata dal satellite: la probabilità corrispondente di essere colpiti da un frammento è infatti un numero piccolissimo, dell’ordine di uno su centomila miliardi (cioè 1:100.000.000.000.000). Confrontata con i rischi cui andiamo incontro nella vita di tutti i giorni, si tratta di una soglia bassissima. Tanto per fare un paio di esempi, la probabilità di essere colpiti da un fulmine è 130.000 volte maggiore, mentre quella di rimanere vittima di un incidente domestico, nei paesi sviluppati, è addirittura più grande di 3 milioni di volte. E’ per questo che, in oltre 60 anni di attività spaziali, e nonostante siano rientrati in media 1-2 stadi o satelliti alla settimana, nessuno è mai rimasto ferito, finora, per il rientro incontrollato di un oggetto artificiale dall’orbita terrestre.

È possibile quantificare il rischio rappresentato dal rientro di Tiangong-1?

Al momento non siamo al corrente di stime quantitative ufficiali di fonte cinese. Per analogia con casi precedenti, possiamo però affermare con ragionevole sicurezza che la soglia di attenzione comunemente adottata a livello internazionale sarà superata, anche se il rischio individuale resterà comunque bassissimo. Ci vorrebbero, infatti, da 500 a 1000 rientri come questo perché ci sia un’elevata probabilità che un frammento colpisca qualcuno in giro per il mondo. E la probabilità di una collisione con un aereo in volo è almeno 200 volte più piccola di quella che sia colpita una persona all’aperto.

Cosa si intende per rientro nell’atmosfera?

Non esiste un confine netto e preciso tra l’atmosfera e lo spazio: la prima svanisce progressivamente, con continuità, nel secondo. Ecco perché i satelliti in orbita bassa ne subiscono gli effetti e anche la Stazione Spaziale Internazionale, che vola a 400 km di altezza, deve periodicamente accendere i motori per contrastare la perdita di quota provocata dall’atmosfera residua. Esiste comunque un’interfaccia convenzionale, fissata alla quota di 120 km, al di sopra della quale un’orbita circolare è ancora marginalmente possibile, anche se di brevissima durata, mentre al di sotto no. In generale si parla quindi di rientro nell’atmosfera quando un veicolo spaziale scende alla quota di 120 km. Ma siccome in gran parte dei casi la struttura principale di un satellite rimane integra fino alla quota di 80 km, spesso, quando si parla di previsioni di rientro, ci si riferisce appunto al raggiungimento della quota di 80 km.

Che cosa succede durante il rientro?

In un caso come quello di Tiangong-1, si parla di rientro nell’atmosfera quando l’oggetto scende a 120 km di quota. Da quel punto in avanti l’attrito dell’aria diventa sempre più significativo, e le strutture esposte di grande area e massa contenuta, come i pannelli solari e le antenne sporgenti, possono staccarsi tra i 110 e i 90 km di altezza. Il corpo del satellite, dove è concentrata gran parte della massa, rimane però generalmente intatto fino a 80 km di quota. Solo in seguito, a causa dell’azione combinata delle forze aerodinamiche e del riscaldamento prodotti dall’attrito dell’aria, la struttura principale si disintegra e i singoli componenti si trovano a loro volta esposti alle condizioni proibitive dell’ambiente circostante. Il destino dei vari pezzi dipende dalla composizione, dalla forma, dalla struttura, dal rapporto area su massa, e dal momento in cui vengono rilasciati durante la discesa. Gran parte della massa si vaporizza ad alta quota, ma se il satellite è sufficientemente massiccio e contiene componenti particolari, come serbatoi di acciaio o titanio e masse metalliche in leghe speciali, la caduta al suolo di frammenti solidi a elevata velocità, fino a qualche centinaio di km/h, è possibile.

Come si distribuiscono i frammenti?

I frammenti in grado di sopravvivere alle proibitive condizioni del rientro precipitano su un’area di forma approssimativamente rettangolare, lunga dagli 800 ai 2000 km, nella direzione del moto, e larga circa 70 km, perpendicolarmente alla direzione del moto. Su Tiangong-1 sono tuttavia ancora presenti circa 3 quintali e mezzo di propellente usato per le manovre. Nel caso (improbabile) che si verifichino delle esplosioni ad alta quota durante il rientro, alcuni frammenti potrebbero quindi essere proiettati lateralmente anche a un centinaio di km di distanza dalla traiettoria originaria. E’ inoltre importante sottolineare alcuni punti: 1) poiché i frammenti macroscopici sarebbero al massimo poche decine, e con proprietà assai diverse, colpirebbero il suolo molto sparpagliati, a distanze di decine o centinaia di km gli uni dagli altri; 2) quelli più “pesanti” tenderebbero, in genere, ad allontanarsi di più dal punto di rientro a 80 km di quota, ma colpirebbero il suolo prima degli altri, nel giro di 6-7 minuti, e a una velocità confrontabile con quella di un’auto di Formula 1 in rettilineo; 3) i frammenti più “leggeri” cadrebbero invece più vicini, ma ci metterebbero una ventina di minuti e colpirebbero il suolo a una cinquantina di km/h.

Qual è la natura del rischio?

Per Tiangong-1 i rischi potenziali sono di due tipi: meccanico e chimico. Il rischio meccanico è quello derivante dall’urto di frammenti massicci a elevata velocità con veicoli in movimento, strutture vulnerabili e persone all’aperto. Quello chimico dipende dal fatto che, sulla base delle nostre stime, dovrebbero trovarsi ancora a bordo, non sappiamo se allo stato liquido o solido, circa 230 kg di tetrossido di azoto e 120 kg di monometilidrazina, sostanze molto tossiche (soprattutto la seconda). E’ difficile che ne arrivi a terra anche una piccola frazione, ma una contaminazione residua di alcuni frammenti non può essere completamente esclusa a priori, per cui, nel caso qualcuno si imbattesse in uno di essi, sarebbe prudente non avvicinarsi, evitare qualsiasi contatto, tenere lontani i curiosi e limitarsi ad avvertire le autorità.

Dove può avvenire il rientro?

In linea di principio, il rientro potrebbe avvenire in qualunque località del pianeta compresa tra i 43 gradi di latitudine sud e i 43 gradi di latitudine nord. Tuttavia, tenendo conto che i frammenti, a causa di un’eventuale esplosione ad alta quota, potrebbero allontanarsi anche di un centinaio di km rispetto alla traiettoria originaria, le zone potenzialmente a rischio per la caduta di detriti devono essere estese di un grado di latitudine, quindi l’area da tenere sotto osservazione è in realtà quella compresa tra i 44 gradi di latitudine sud e i 44 gradi di latitudine nord. L’Italia è quindi divisa in due, con le località a nord del 44° parallelo escluse a priori da qualunque conseguenza, e quelle a sud potenzialmente a rischio. Tenendo conto della distribuzione degli oceani e delle terre emerse, e dell’inclinazione dell’orbita rispetto all’equatore, se i detriti di distribuissero su un arco di 800 km, la probabilità a priori che cadano tutti in mare è del 62%. Ma se i detriti si disperdessero su un arco di 2000 km, la probabilità che nessuno di essi precipiti sulla terraferma scenderebbe al di sotto del 50%. Quanto infine alla probabilità a priori che il rientro avvenga nella fascia di latitudine compresa tra i 35 e i 43 gradi nord, essa si aggira intorno al 18%.

Perché non è possibile prevedere il rientro con largo anticipo?

Gran parte dei satelliti che rientrano nell’atmosfera lo fanno da orbite basse quasi circolari, si muovono cioè quasi tangenzialmente rispetto agli strati atmosferici di densità crescente. Piccole variazioni di questo angolo, già vicino allo zero, possono produrre delle traiettorie ben diverse, un po’ come succede quando tiriamo un sasso nell’acqua di uno stagno. Se l’angolo di incidenza è poco più che radente, il sasso si inabissa nel punto di contatto con l’acqua, ma se il sasso colpisce la superficie di striscio, può rimbalzare una o più volte e non è facile prevedere a priori dove potrà alla fine immergersi. A parte questo effetto, che dipende dalla particolare geometria della traiettoria, esistono diverse altre sorgenti di incertezza, quali: 1) l’orbita di partenza, determinata da radar e telescopi basati a terra, è affetta da un certo errore; 2) l’orientazione nello spazio dell’oggetto non è costante, ma può evolvere in maniera complicata e spesso imprevedibile; 3) anche i migliori modelli di atmosfera sono affetti da errori, che variano in funzione del tempo e delle condizioni ambientali; 4) le previsioni dell’attività solare e geomagnetica, che influiscono sulla densità atmosferica, sono affette da incertezze, un po’ come succede per le previsioni meteorologiche. Tenendo conto di tutte queste variabili, non è possibile e non ha senso calcolare “dove” e “quando” il satellite precipiterà sulla terra, anche perché tutto è ulteriormente complicato dalla grande velocità con cui questi oggetti si spostano. Facciamo un esempio. Se un giorno diventasse possibile prevedere, anche sei ore prima, un terremoto con l’incertezza di un’ora e mezza, la cosa verrebbe considerata, e giustamente, un risultato straordinario. Ma se, cosa già possibile, facessimo lo stesso per il rientro incontrollato di un satellite, un’ora e mezza di incertezza corrisponderebbe a più di 40.000 km lungo la traiettoria, cioè a più di un giro del mondo!

Che cosa è possibile prevedere?

Il calcolo di affidabili finestre temporali di incertezza, che si restringono progressivamente, mano a mano che ci si avvicina al rientro, permette di affrontare il problema in maniera completamente diversa. Non bisogna infatti trovare dove e quando l’oggetto rientrerà, cosa fisicamente impossibile in questi casi, bensì dove non cadrà. Nelle ultime 36 ore si può infatti cominciare a escludere progressivamente delle aree del pianeta sempre più vaste, via via che ci si avvicina al rientro, sperando di eliminare alla fine più del 97% delle aree inizialmente considerate a rischio. In questo modo, per esempio, l’Italia può essere esclusa quasi sempre almeno diverse ore prima che il rientro abbia luogo. Per le aree residuali che restano invece all’interno della finestra temporale di incertezza fino alla fine, non resta che assumere le misure precauzionali decise preventivamente, aspettare, e vedere, tenendo comunque conto che il rischio effettivo rimane piccolissimo.

Che cosa si intende per sorveglianza spaziale?

Si tratta del processo attraverso il quale si individuano e si identificano gli oggetti artificiali che si trovano nello spazio intorno alla terra, determinandone lo stato dinamico (cioè l’orbita, e magari anche l’orientazione nello spazio e lo stato rotazionale).

Che strumentazione è richiesta?

Condizione necessaria è la disponibilità di potenti radar (soprattutto per le orbite basse, cioè quelle che interessano nel caso dei rientri nell’atmosfera), di telescopi sensibili nell’ottico e nell’infrarosso (soprattutto per le orbite più alte) e, eventualmente, di satelliti in grado di svolgere le osservazioni richieste. Per poter essere efficace, la rete dei sensori basati a terra, cioè i radar e i telescopi, deve avere la massima distribuzione geografica possibile, in longitudine e latitudine, il che comporta un numero di installazioni non piccolo su scala globale (circa una ventina nel caso degli Stati Uniti). A ciò bisogna aggiungere almeno un centro di controllo per l’elaborazione dei dati raccolti e per pianificare al meglio l’osservazione degli oggetti.

Chi è in grado di effettuarla?

Questo tipo di attività è stata finora gestita prevalentemente da organizzazioni militari. I sistemi di sorveglianza più sviluppati sono figli della Guerra Fredda e sono appannaggio degli Stati Uniti e della Russia. Oggi, comunque, anche l’Europa (Italia compresa) dispone di sensori e di capacità, seppur più limitate, in questo ambito.

Chi sta monitorando il rientro?

Il rientro di Tiangong-1 è monitorato da numerosi soggetti, pubblici e privati in tutto il mondo, Italia compresa, in primis il tavolo tecnico coordinato dal Dipartimento della Protezione Civile. Il Laboratorio di Dinamica del Volo Spaziale dell’Istituto Isti del Consiglio nazionale delle ricerche (Isti-Cnr), a Pisa, attivo in questo settore dal 1979, da molti mesi ormai analizza l’evoluzione orbitale dell’oggetto ed elabora autonomamente previsioni di rientro distribuite a enti nazionali e internazionali.

Fonte CNR

IL PICCOLO TOUR NEL LABORATORIO CHE PREPARA InSight A MARTE

L’importante lander NASA InSight atterrerà su Marte il prossimo novembre e il suo braccio-gru sarà usato per spostare oggetti, per la prima volta su un altro pianeta.

Gli Ingegneri e scienziati hanno una replica di InSight presso il Jet Propulsion Laboratory della NASA a Pasadena, in California. La replica è un banco di prova per simulare tutte le funzioni del veicolo spaziale, il team si sta preparando a qualsiasi scenario che potrebbe incontrare una volta arrivati sul pianeta rosso.

Ora immergetevi nel laboratorio di InSight insieme a decine di scienziati.

Crediti: Nasa

 

COMPLETARE LA RELATIVITÀ CON LA GRAVITA’ QUANTISTICA- INTERVISTA A MAURO PATERNOSTRO

La gravità quantistica è una teoria che ha sviluppato, in questi anni, predizioni accurate e particolari di effetti quantistici molto deboli da registrare. Partendo dalla relatività di einsteiniana memoria si è sviluppata in un contesto teorico che sta mettendo in mostra le più interessanti menti del nostro tempo. Noi abbiamo intervistato il giovane ricercatore Mauro Paternostro, della Queen University of Belfast, che sta studiando le implicazioni e i possibili indizi sperimentali per testare sempre più accuratamente questa teoria.

– Perchè la gravità quantistica in questo periodo, secondo te, è vista come una delle possibili risposte alla tanto cercata Teoria del Tutto? – Quali sono le proprietà quantistiche che si cercano nella gravità?

La teoria della relatività generale formulata da Einstein è incompleta: è in grado di fornire predizioni accurate solo per effetti quantistici molto deboli. Sebbene ciò sia il caso, in genere, la formulazione Einsteiniana della relatività generale fallisce nel descrivere lo spazio-tempo in presenza di effetti quantistici forti. La teoria della gravità quantistica che si ricerca dovrebbe dunque generalizzare la bellissima, seppur incompleta, relatività Einsteiniana.

– Quali implicazioni avrebbe per lo studio del nostro universo sapere che la gravità viene da una qualche fluttuazione/interazione quantistica?

Sono parecchie le implicazioni. Giusto per elencarne qualcuna di particolarmente significativa; 1) lo spazio tempo potrebbe essere connesso “non-localmente” attraverso connessioni, scorciatoie, che attraversano l’universo; 2) in presenza di effetti forti, che inducano forti curvature dello spazio-tempo (as esempio in un buco nero), il tempo potrebbe diventare spazio a causa del forte accoppiamento tra queste ‘dimensioni’; 3) molte delle formulazioni di una teoria della gravità quantistica vedono lo spazio ed il tempo come grandezze risultanti da entità più fondamentali (stringhe, loops, perfino quantum-bits); 4) in meccanica quantistica vale il principio di sovrapposizione; una natura quantistica della gravità dovrebbe comprendere il principio di sovrapposizione in maniera naturale; 5) fluttuazioni dello spazio-tempo dovrebbero avvenire anche in assenza di materia: quantisticamente, il vuoto fluttua, e quindi dovrebbe farlo anche lo spazio tempo. Quella che a me piace di più è affatto detto che una teoria quantistica della gravità risulti in una rivisitazione della gravità. potrebbe essere il contrario: potremmo dover modificare la teoria quantistica, scoprendola non completa. A quel punto, una serie di conclusioni tratte nell’ultimo secolo dovrebbero essere riesaminate criticamente.

– Come si può testare in laboratorio tutto l’amplesso teorico intorno alla gravità quantistica?

Questo è un punto piuttosto delicato. Credo infatti non sia possibile testare ogni aspetto, ogni sfaccettatura di una data teoria quantistica della gravità con un solo esperimento. La fenomenologia è ricchissima e complicata. Spesso, la scala di energie in gioco è troppo elevata per essere testabile in laboratorio. Quel che parte della comunità interessata a questo problema sta realizzando è che possibili aspetti di una plausibile teoria quantistica della gravità (soprattutto a basse energie) possono essere ‘dedotti’ a un approccio in cui la teoria dell’informazione ed i suoi strumenti vengono utilizzati in modo innovativo. Tipicamente implica la formulazione di test di natura interferometrica i cui risultati possono confermare, o confutare, una data assunzione sulla natura della gravità. Questi test sembrano realizzabili sperimentalmente (sebbene richiedano un livello molto alto di controllo e manipolazione del set-up sperimentale di volta in volta proposto).

– I modelli che voi costruite sull’universo come vi aiutano a testare le teorie?Non rischiano, i modelli di universo, di essere troppo semplificati?

Certamente: il rischio di una semplificazione eccessiva è sempre in agguato. In questo senso, è fondamentale riuscire a identificare test sperimentali che confutino un dato modello. Procediamo per ‘sviluppi successivi’: a partire da un modello semplice, procediamo a ‘complicarlo’ per passi successivi, basandoci sull’evidenza di esperimenti. Al momento, il primo passo è testare la plausibilità’ dell’assunzione “la gravita’ va quantizzata”. Il resto, verrà nel tempo. O nello spazio!!

Gianluigi Marsibilio

GALLENENE, COME IL 2D STA RIVOLUZIONANDO I MATERIALI

 

Il grafene non basta e allora su Science Advance è stata pubblicata una ricerca che introduce un nuovo materiale, che sfrutta sempre le potenzialità delle due dimensioni, derivato dal gallio: il gallenene.

Dalla scoperta del Grafene nel 2004 ad opera dei due fisici premi Nobel Andrej Gejm e Konstantin Novoselov, la ricerca orientata verso i materiali 2D costituiti da ‘layers’, cioè fogli di spessore atomico sovrapposti, è cresciuta anno dopo anno.

 

Più precisamente, il grafene è un allotropo del carbonio, termine che indica la proprietà dello stesso di esistere in diverse forme a seconda delle condizioni fisiche e delle reazioni chimiche di formazione dei suoi composti. La desinenza -ene fa riferimento alla condizione di ibridizzazione di tipo sp2 dei singoli atomi, caratteristica che consente loro di formare reticoli piani a maglie esagonali con altri atomi perfettamente identici. Rispetto alle dimensioni atomiche, questa struttura si ripete nello spazio per un numero di volte praticamente infinito, formando appunto dei ‘fogli’ che all’analisi macroscopica presentano sorprendenti caratteristiche di leggerezza, trasparenza, conducibilità elettrica e termica, resistenza meccanica e molte altre.

 

Questo genere di materiali presenta perciò pregi tali da destare enorme interesse nella ricerca scientifica, tanto che recentemente se ne stanno producendo molti altri che del grafene riprendono la struttura, ma sono composti da elementi chimici diversi.

Per citarne alcuni, negli ultimi dieci anni si è vista la comparsa del ‘fosforene’, allotropo bidimensionale del Fosforo e del ‘germanene’, analogo composto del Germanio.

Particolare interesse suscitano in queste applicazioni i metalli ed i semi conduttori, per le loro straordinarie capacità di conduzione elettrica e compattezza, che sono fondamentali per applicazioni in campo elettronico.

 

Come sempre però, compare un ostacolo all’utilizzo di questi sorprendenti materiali: un processo di produzione tale che riesca a coniugare una buona purezza e dimensione dei ‘layer’ con costi e tempi convenienti.

 

Nell’articolo comparso su Science il 9 Marzo 2018, si investiga la produzione di ‘layers’ di Gallio, un metallo, tramite un processo chimico denominato ‘Solid-Melt exfoliation’.

In sintesi questo processo consiste nel far depositare minuscole gocce di Gallio scaldato a circa 50 gradi Centigradi per ottenerne la fusione, sopra un substrato piano di Silicio e Diossido di Silicio. Il tutto viene poi raffreddato a temperatura ambiente. Successivamente, questo composto viene sottoposto a un vuoto spinto (circa 10^-8 mbar) mentre il layer di Gallio viene controllato nel suo processo di solidificazione tramite l’applicazione di un carico pressorio controllato tramite indentazione, che aiuta poi a ‘esfoliare’ il foglio prodotto portandolo via. Il processo è per certi versi simile al cucinare wafer tramite una piastra scaldata, ed anche i prodotti di questo metodo sono effettivamente dei ‘wafer’ composti da 4-6 fogli di Gallio di spessore totale circa 4 nanometri, sovrapposti in modo non ordinato.

Nel lavoro si fa riferimento inoltre alla probabile scalabilità del processo ed alla ottima qualità e stabilità dei wafer prodotti, che hanno dimensioni di circa qualche millimetro quadro, che risultano davvero rilevanti in questo campo di ricerca.

I wafer di ‘Gallenene’ presentano inoltre:

-Conducibilità termica bassa rispetto ad analoghi materiali 2D (circa<1 W/mK);

-Alta conducibilità elettrica.

 

Queste due caratteristiche pongono quindi il ‘Gallenene’ in primo piano nell’utilizzo di materiali 2D in diversi campi, per esempio l’elettronica; Inoltre il processo ideato risulta rispondere bene allo scale-up ed è quindi una buona promessa per il futuro di questi utilissimi e innovativi materiali.

 

 

 

Vittorio Ricci

 

15 NUOVI ESOPIANETI, UN CONTO CHE ORMAI ASPETTA SOLO LE NUOVE MISSIONI

Altro importante set di dati analizzato da K2, l’aggiornamento della missione Kepler che da ormai parecchi anni ci riserva sorprese, ha permesso agli scienziati di segnare sul tabellino degli esopianeti 15 nuovi corpi, inclusa una super terra molto promettente che potrebbe ospitare acqua liquida.

Il gruppo di ricerca è stato guidato da Teruyuki Hirano del Dipartimento di Scienze Planetarie del Tokyo Institute of Technology e ha convalidato questi pianeti in orbita attorno a vari sistemi di nane rosse.
Il team che ha guidato gli studi è KESPRINT, formato dalla fusione di KEST (Kepler Exoplanet Science Team) e ESPRINT (Equipo de Seguimiento de Planetas Rocosos Intepretando sus Transitos) avvenuta nel 2016.

Le stelle prese in considerazione sono tutte di piccola massa e sono state osservate e analizzate tramite l’analisi sulla curva di luce, l’imaging a ottica adattiva e la spettroscopia ottica a bassa e alta risoluzione.

I risultati sono stati pubblicati grazie a due articoli sul The Astronomical Journal.
Il pianeta potenzialmente più promettente è  K2-155d ma, come hanno spiegato i ricercatori, ci sarebbe bisogno di ulteriori stime sul raggio e la temperatura della stella per chiarire le ipotesi di abitabilità del pianeta.  Hirano, a capo della ricerca, esprime , sul comunicato stampa dello studio, sia entusiasmo che moderazione : “Nelle nostre simulazioni, l’atmosfera e la composizione del pianeta sono state ritenute simili alla Terra, ma non c’è alcuna garanzia che sia così.” .

Un’altra evidenza importante della ricerca riguarda il minor numero di pianeti che orbitano attorno alle nane rosse, rispetto a i pianeti che girano intorno a stelle di tipo solare.

Anche la dimensione dei corpi è assolutamente ridotta e per questo si punta il dito contro la foto-evaporazione, un effetto che va ad eliminare l’involucro dell’atmosfera planetaria.

Hirano crede fortemente nella missione TESS (NASA): “Si prevede che TESS trovi molti pianeti candidati attorno a stelle luminose più vicine alla Terra”, inoltre:”Ciò faciliterà enormemente le osservazioni di follow-up, compresa la ricerca di atmosfere planetarie e la determinazione dell’orbita precisa dei pianeti”.

 

Crediti: Tokyo Institute of Technology

L’ALBA DELLE PRIME STELLE, ECCO COME SI è ACCESO L’UNIVERSO

Un team di astronomi, che ha pubblicato due paper su Nature, ha rilevato le impronte digitali delle prime stelle che si sono accese nel nostro universo.

Scrutare nel freddo e nero Orizzonte del Big bang. e questo l’obiettivo degli astronomi che hanno intravisto l’alba dell’universo ha 13,6 miliardi di anni fa quando le prime stelle hanno cominciato a brillare nell’oscurità Cosmica.

A portare avanti questa ricerca sono stati due studi apparsi su nature. Noi abbiamo intervistato Rennan Barkana del Raymond e Beverly sackler School of physics and astronomy, che ha studiato la possibile interazione tra le particelle di materia oscura e I baroni presenti all’alba dell’universo.

Le domande cardine che hanno guidato lo studio sono state: come sono state formate le prime stelle e quando si sono formate? In che modo queste hanno influenzato tutto l’ambiente cosmico?

Il professor Barkana ci ha spiegato che: “I barioni e la materia oscura sono esistiti sin dai primordi dell’universo. Entrambi si sono espansi con l’universo, disperdendosi e raffreddandosi. Questa è la prima osservazione che arriva nell’era della formazione delle prime stelle”.

I due documenti separati partono da da uno studio profondo delle onde radio: “Ho trovato la spiegazione- di questi segnali- in termini di materia oscura e ho calcolato questo modello (spiegato nel paper di Nature). Il segnale che è stato trovato è l’assorbimento delle onde radio da parte del gas che ha riempito l’universo, quando le prime stelle si sono formate. L’assorbimento era molto più forte di quanto ci si aspettasse”.

I segnali sono stati trovati con un’antenna che è leggermente più grande di un frigorifero e costa meno di  5 milioni di dollari, ma può tornare molto più indietro nel tempo e nella distanza rispetto al celebre Telescopio spaziale Hubble.

Lo strumento è uno spettrometro radio, situato presso l’Osservatorio radioastronomico CSIRO nell’Australia occidentale. Attraverso il loro esperimento il team ha misurato lo spettro radio medio di tutti i segnali astronomici ricevuti nella maggior parte del cielo dell’emisfero sud e ha cercato piccoli cambiamenti di potenza in funzione della lunghezza d’onda (o della frequenza) .

Quando le onde radio entrano nell’antenna terrestre, vengono amplificate da un ricevitore e quindi digitalizzate e registrate dal computer, il concetto è lo stesso dei ricevitori radio FM o i ricevitori TV. La differenza è che lo strumento è calibrato con molta precisione e progettato per funzionare nel modo più uniforme possibile su molte lunghezze d’onda radio.

Il gas nell’universo era probabilmente molto più freddo del previsto (circa la metà della temperatura). Questo suggerisce che gli sforzi teorici degli astrofisici hanno trascurato qualcosa di significativo o che questa potrebbe essere la prima prova della fisica non standard.

I segnali raccolti vanno indagati sempre più profondamente per migliorare la comprensione dei segnali all’alba dell’universo.

ENCELADO, LA CACCIA ALLA VITA PASSA DALLA LUNA DI SATURNO

Abbiamo parlato spesso dell’importanza di Encelado, una delle più grandi lune di saturno, nella ricerca alla vita extraterrestre e nello studio della chimica al di fuori dal nostro pianeta.

La rivelazione della presenza di acqua e molecole organiche nei pennacchi ha reso la Luna ghiacciata un punto caldissimo per la ricerca di una potenziale vita extraterrestre.

Gli archea metanogenici sono tra gli organismi potenzialmente perfetti per essere ospitati in queste condizioni e spesso sono stati indicati come dei potenziali abitanti della Luna.
Delle ulteriori conferme sono arrivate da uno studio Nature Communications: il CH4 rilevato nel pennacchio di Encelado è infatti in linea con la presenza di metanogeni.

La missione che ha portato avanti tutte queste rilevazioni e ricerche è stata Cassini, che nel polo sud della Luna aveva trovato dei getti d’acqua che sono stati studiati a fondo da INMS, lo spettrometro di massa a bordo di Cassini.

Organismi monocellulari del genere sono stati spesso ritrovati negli ambienti più estremi della Terra, ad esempio in prossimità di bocche idrotermali o in acque profonde in cui si converte il biossido di carbonio e l’idrogeno in metano.

Come fa notare un articolo su Wired: i metanogeni non sono l’unica fonte possibile di metano sulla Luna: sulla Terra alcune bocche idrotermali riescono a produrre gas anche in assenza di vita, e le comete che non sono così diverse dalla Luna sembrano essere colme di metano raccolto dalle nubi interstellari.

Hunter Waite del Southwest Research Institute ha dichiarato: ” Probabilmente il microbo che cerchiamo non è simile ad uno terrestre e forse non è nemmeno basato sul DNA”.

L’idrogeno per sostenere queste piccole forme di vita, come è stato affermato nello studio, potrebbe essere preso dai processi geochimici nel nucleo roccioso di encelado.

Insomma alla deriva, vicino al sesto pianeta del sistema solare, c’è questa luna che, in mezzo ad un’altra dozzina di satelliti naturali, è un forte indiziato per la vita grazie ai cocktail di composti come metano anidride carbonica e ammoniaca: la loro forte attività idrotermale produce una combinazione estremamente interessante da approfondire.

Progettare future missioni su questa ed altre lune promettenti nel sistema solare passa da un’attenta analisi chimica fatta dagli scienziati con i dati presi dalle passate missioni Nasa e dalle future rilevazioni.

Crediti foto: NASA

 

SDO. LOTTE DI POTERE (MAGNETICO) SULLA SUPERFICIE DEL SOLE

Una drammatica battaglia di potere magnetico si combatte sulla superficie del Sole, proprio nel cuore delle eruzioni solari. È quanto emerge da un nuovo studio, pubblicato l’8 febbraio su Nature, su dati provenienti dal Solar Dynamics Observatory (SDO) della NASA, che evidenzia il ruolo della “geografia” magnetica (topografia) nello sviluppo delle eruzioni solari che possono scatenare eventi meteorologici nello spazio attorno alla Terra.

Guidati da Tahar Amari, astrofisico al Centro di Fisica Teorica dell’École Polytechnique di Palaiseau Cedex, in Francia, gli autori dello studio hanno osservato i brillamenti solari, intense esplosioni di radiazione e luce. Molti di questi, quando particolarmente intensi, sono seguiti da un’espulsione di massa coronale, chiamata CME, una massiccia eruzione a forma di bolla di materiale solare e campo magnetico. Ma non a tutti i brillamenti segue una CME… e il motivo non è ancora chiaramente compreso.

Usando i dati dell’SDO, gli scienziati hanno esaminato un gruppo di macchie solari grandi quanto Giove dell’ottobre 2014, in un’area di complessi campi magnetici, spesso sito di attività solare. Si è trattato del più grande gruppo di macchie degli ultimi due cicli solari e di una regione estremamente attiva.

Sebbene le condizioni sembrassero quelle ideali pronte per una nuova eruzione, la regione non ha mai prodotto un’importante CME, ma ha emesso un potente brillamento di classe X, la classe più intensa di questo tipo di fenomeno. Ma allora, cosa manca perché avvenga anche un’espulsione di massa coronale?

Il team ha utilizzato le osservazioni dell’SDO di campi magnetici sulla superficie del Sole, in potenti modelli che calcolano il campo magnetico della corona solare, o dell’alta atmosfera, e hanno osservato come si è evoluto nel tempo poco prima del brillamento. Il modello ha rivelato una lotta tra due strutture magnetiche chiave: una corda di campo (o di flusso) magnetico attorcigliata – già nota per essere associata all’inizio di una CME – e una densa gabbia di campi magnetici che sovrastano la corda.

Quello che si è scoperto è che questa gabbia magnetica impediva fisicamente l’espulsione di massa coronale, ovvero la produzione di una CME. Poche ore prima del brillamento, la rotazione naturale della macchia solare contorceva la corda magnetica che diventava sempre più attorcigliata e instabile. Ma la corda non è mai uscita dalla superficie, non aveva abbastanza energia per rompere la gabbia, pur riuscendo a sferzare una parte della gabbia, innescando il brillamento.

Modificando nel modello le condizioni iniziali della gabbia, gli autori dello studio hanno scoperto che se la gabbia fosse stata più debole in quel momento, il 24 ottobre 2014 avremmo assistito a una potente CME. Il prossimo passo sarà lo studio di questa interazione tra gabbia e corda magnetica in altre eruzioni.

«Siamo stati in grado di seguire l’evoluzione di una regione attiva, prevedere la probabilità di eruzione e calcolare la quantità massima di energia che l’eruzione può rilasciare», ha detto Amari. «Si tratta di un metodo pratico che potrebbe diventare importante, con l’aumento delle capacità computazionali, nella previsione del tempo meteorologico spaziale».

Previsioni importanti, perché questi eventi hanno forte impatto anche per noi, non tanto per noi sulla superficie (che siamo comunque protetti dalla magnetosfera del nostro pianeta), ma per la fitta rete di satelliti dedicati alle comunicazioni ad esempio, o per eventuali future missioni spaziali con esseri umani a bordo.

COELUM ASTRONOMIA

Crediti foto: Tahar Amari et al./Center for Theoretical Physics/École Polytechnique/NASA Goddard/Joy Ng

Powered by WordPress.com.

Up ↑