Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Tag

novità

#LESTELLEDALBORGO 2018- PROGRAMMA

Quest’anno il programma del festival di Tra Scienza e Coscienza, organizzato con la supervisione dell’Ente Mostra Dell’Artigianato Artistico Abruzzese, offre un programma ricco di incontri incredibili e appuntamenti per osservare il cielo, tramite la guida di astrofili esperti.

Per la prima volta, rispetto alle due precedenti edizioni, si è deciso di staccare i momenti degli incontri divulgativi da quelli puramente dedicati all’osservazione.

Nei prossimi giorni pubblicheremo la nostra locandina con un programma dettagliato che comprenderà tutti gli appuntamenti, molto particolari, scelti per le osservazioni.

Nel frattempo vi presentiamo i due superospiti che saranno con noi per incontri divulgativi e appassionanti.

6 AGOSTO, CINEMA GARDEN, GUARDIAGRELE- LUCA POZZI: The Messages of gravity

L’artista che da anni dialoga, in ogni modo, con la scienza e la divulgazione ci spiegherà molte cose sul suo processo creativo, ecco un piccolo assaggio di quello che Luca ci racconterà: “Lo spazio-tempo è un contenitore onnicomprensivo, dove tutto è accanto all’altro in senso olistico. C’è una strana sensazione di tempo circolare. Passato, presente e futuro sembrano indistinguibili. Una serie di corrispondenze cross-disciplinari converge in una rete di pura informazione oltre confini geografici, politici e linguistici. Emerge un crescente interesse verso gli aspetti meno intuitivi della realtà: gravità quantistica, teletrasporto, entanglement, viaggi nel tempo, cosmologia multi-messaggera. La ricerca specialistica svanisce lasciando il posto a un’inedita correlazione tra fisica teorica e sperimentale, informatica e storia dell’arte”.

Luca Pozzi ha realizzato moltissimi progetti innovativi a cavallo tra arte e scienza come il “The Dragon’s Egg” in esposizione all’Edicola Radetzky a Milano, vicino ai Navigli o il gigantesco progetto di “The Grandfather Platform”. Per conoscere al meglio Luca e venire preparati vi consigliamo di vedere bene il suo sito e immergervi nel suo mondo.

29 AGOSTO, CINEMA GARDEN, GUARDIAGRELE- MARCO PALLAVICINI: Il mondo invisibile. Neutrini, buchi neri e l’Universo oscuro.

Il professor Pallavicini, direttamente dall’Università di Genova e dall’INFN, è una delle massime istituzioni nel campo della fisica delle interazioni del nostro paese. Già nello staff di CUORE, BOREXINO e SOX, il professore terrà una conferenza sull’invisibile estremamente divulgativa. Noi siamo pronti a perderci nel confine tra visibile e invisibile.

Così ci ha presentato la sua idea: “Ci son più cose in cielo e in terra di quanto ne sogni la nostra filosofia. E’ senz’altro vero, e oggi sappiamo che ce ne sono molte che neppure si vedono. Il seminario racconta del mondo che non si vede, sia di quello che abbiamo finalmente visto usando gli occhi giusti (i neutrini, i buchi neri e le stelle di neutroni) sia di quello che per ora resta misterioso e invisibile e che per questo chiamiamo materia e energia oscura”

A breve sarà online la nostra locandina con orari dettagliati e lista delle osservazioni, come sempre guidate con sapienza dal team di Clodoveo Masciarelli e Giovanni De Sanctis.

SOPRAVVIVERE AD UNA SUPERNOVA

Diciassette anni fa, gli astronomi hanno visto una supernova esplodere a 40 milioni di anni luce da noi, nella galassia NGC 7424 situata nella costellazione meridionale della Gru. Ora, nello sbiadito bagliore di quell’esplosione, il telescopio spaziale Hubble ha catturato la prima immagine della compagna sopravvissuta di una supernova.

«Sappiamo che la maggior parte delle stelle massicce fanno parte di coppie binarie», ha dichiarato Stuart Ryder dell’Australian Astronomical Observatory (AAO) di Sydney, autore principale dello studio. «Molte di queste coppie binarie possono interagire e trasferire gas da una stella all’altra, se loro orbite si avvicinano a sufficenza».

La compagna della stella progenitrice della supernova non era quindi un’innocente spettatrice dell’esplosione. Ha sottratto nel tempo quasi tutto l’idrogeno dall’involucro stellare della stella condannata, da quella regione in cui l’energia viene trasportata dal nucleo della stella alla sua atmosfera. Milioni di anni prima che la stella primaria diventasse supernova, quindi, questa ladra stellare ha portato all’instabilità la stella primaria, strappandole poi via il bozzolo di idrogeno poco prima della catastrofe.

La supernova, denominata SN 2001ig è classificata come una supernova di tipo IIb, un tipo però relativamente raro e insolito di supernovae, perché solo la maggior parte, ma non la totalità, dell’idrogeno scompare poco prima prima dell’esplosione.

In che modo questo tipo di supernove perdano l’involucro esterno non è ancora del tutto chiaro. Inizialmente si pensava che provenissero da stelle solitarie, con un vento stellare abbastanza intenso e veloce da staccare l’involucro esterno di idrogeno. Il problema era che quando gli astronomi iniziarono a cercare le stelle primarie da cui si generavano le supernove, per la maggiorparte delle IIb non riuscirono a trovarle.

«Era un fatto particolarmente bizzarro, perché gli astronomi si aspettavano fossero stelle particolarmente massicce e brillanti», ha spiegato Ori Fox dello Space Telescope Science Institute di Baltimora. «In più, il numero di supernove di tipo IIb è molto più grande di quanto previsto». Questo ha portato gli scienziati a teorizzare che molte delle stelle primarie fossero quindi parte di sistemi binari, e quindi con massa inferiore, e si misero al lavoro per dimostrarlo.

Ma cercare la compagna binaria dopo l’esplosione in supernova non è un compito facile. In primo luogo, deve essere a una distanza relativamente vicina alla Terra, a portata degli occhi di Hubble, e all’interno di questa distanza non sono molte le supernove che esplodono. Ancora più importante poi, gli astronomi devono conoscere la posizione esatta ricavata da misurazioni molto precise.

Fortunatamente SN 2001ig e la sua compagna, pur essendo quasi al limite della portata del telescopio spaziale, sono ancora abbastanza vicine. L’esplosione è stata avvistata per la prima volta nel 2001, da un astronomo australiano non professionista. Nel 2002, la posizione precisa della supernova è stata individuata grazie al Very Large Telescope (VLT) dell’ESO, a Cerro Paranal, in Cile. Nel 2004, è stata poi osservata dal Gemini South Observatory a Cerro Pachón, in Cile, e per la prima volta si è accennato della possibile presenza di una compagna sopravvissuta.

Su questa base, conoscendo le coordinate esatte, Ryder e il suo team sono stati quindi in grado di  puntare Hubble nella posizione precisa 12 anni dopo l’esplosione, quando la luminosità della supernova andava ormai attenuandosi. In questo modo, grazie anche alla straordinaria risoluzione e alla possibilità di osservare nell’ultravioletto di Hubble, sono stati in grado di trovare e fotografare la sopravvissuta, grazie forse al minor effetto dell’urto dell’esplosione, attenuato da quella parte di guscio rimasto.

Già nel 2014, in realtà, Fox e il suo team avevano usato Hubble per rilevare la compagna di un’altra supernova di tipo IIb, la SN 1993J. Tuttavia, in quel caso, ne era stato ripreso solo uno spettro, non un’immagine diretta.

«Siamo stati finalmente in grado di catturare il ladro stellare, confermando il nostro sospetto che dovesse essercene uno”, ha dichiarato Filippenko.

L’obiettivo finale del team è ora di determinare con precisione quante supernove di tipo IIb hanno effettivamente una compagna, ipotizzando al momento che possano essere circa la metà. Il prossimo obiettivo è dunque quello di osservare le supernove che hanno perso completamente il loro guscio di idrogeno – al contrario di SN 2001ig e SN 1993J. In questo modo, le esplosioni di supernovae completamente “spogliate” dal loro involucro, non possono interagire con l’ambiente stellare circostante. Senza interazioni, si spengono quindi molto più velocemente, permettendo agli astronomi di provare a cercare la compagna anche solo dopo due o tre anni. Inoltre in futuro si avrà a disposizione anche il James Webb Space Telescope, che allargherà il campo di ricerca, permettendo di raggiungere stelle più lontane e compagne più deboli.

Coelum astronomia

Com’è il CUORE di un ESOPIANETA?

Scavare nel cuore di pianeti extrasolari è possibile grazie ad una nuova serie di simulazioni fatte da Ray Smith e dal suo team del Lawrence livermore National laboratory in California.

Per simulare il cuore di un pianeta extrasolare gli scienziati hanno puntato 176 laser su una piccola pallina di ferro, spessa qualche micrometro, con un’energia tale che in circa 30 miliardesimi di secondo è stato possibile comprimere il ferro fino a pressioni 14 milioni di volte superiore a quella atmosferica terrestre a livello del mare.

Le pressioni all’interno di un esopianeta sono di gran lunga superiori rispetto a quelle che si trovano nel nostro nucleo terrestre, per capirci meglio, c’è stato spiegato da Ray che : “Un pianeta extrasolare con 5 volte la massa della terra ha circa 2 TPA ovvero 20 milioni di atmosfere in più ,rispetto alle 0.36 TPA della terra”

L’esperimento portato avanti nel laboratorio è la continuazione di un lavoro già compiuto da Smith e colleghi che aveva, tramite una compressione, portato dei diamanti a pressioni estremamente superiori, sappiamo comunque con una buone dose di certezza che i diamanti non si trovano a tali profondità negli esopianeti.

L’esperimento è utilissimo anche perché la missione lanciata alcuni giorni fa dalla NASA, TESS, prevede di studiare proprio esopianeti di questa grandezza.

Gli scienziati hanno indagato pianeti dal raggio da 1 a 4 volte quello terrestre e hanno scoperto, grazie alle osservazioni di Kepler, che questa tipologia di corpi è estremamente presente nella nostra galassia.

I futuri esperimenti estenderanno lo studio sulle materie planetarie (materiali che compongo i pianeti al di fuori del nostro sistema solare) a successive pressioni atmosferiche.

Sarà estremamente interessante. tramite le tecnologie a raggi-x, determinare anche come le strutture dei cristalli si evolvono con queste pressioni estreme e difficili da concepire.

Credito foto

Gianluigi Marsibilio

TUTTE LE COSE DA SAPERE SUL RIENTRO DELLA TIANGONG-1

La stazione spaziale cinese Tiangong-1 ha deciso di ritornare a casa base (la Terra) per il fine settimana di pasqua. Una nota dell’Istituto di scienza e tecnologie dell’informazione ‘A. Faedo’ del Cnr (Isti-Cnr), fornisce alcune risposte alle domande più frequenti sul tema, tra cui: dove può avvenire il rientro, quanto è grande il rischio, come si distribuiscono i frammenti, com’è fatta e quanto è grande la stazione spaziale cinese.

Tiangong-1 è stata la prima stazione spaziale cinese, lanciata il 29 settembre 2011 su un’orbita approssimativamente circolare, a circa 350 km di altezza e inclinata di poco meno di 43 gradi rispetto all’equatore terrestre. Nel novembre dello stesso anno è stata raggiunta e agganciata dalla navicella Shenzhou-8 senza equipaggio, mentre i primi tre astronauti vi sono saliti a bordo, trasportati da Shenzhou-9, nel giugno 2012, trascorrendovi 9 giorni e mezzo. Il secondo e ultimo equipaggio di tre astronauti si è agganciato alla stazione, con Shenzhou-10, nel giugno 2013, trascorrendovi 11 giorni e mezzo.

Da allora Tiangong-1 ha continuato a essere utilizzata, disabitata, per condurre una serie di test tecnologici, con l’obiettivo di de-orbitarla, a fine missione, con un rientro guidato nella cosiddetta South Pacific Ocean Unpopulated Area (SPOUA), una specie di cimitero dei satelliti in una zona pressoché deserta dell’Oceano Pacifico meridionale. Purtroppo, però, il 16 marzo 2016, il centro di controllo a terra ha perso la capacità, pare in maniera irreversibile, di comunicare e impartire comandi al veicolo spaziale.

Nei due anni trascorsi da allora, Tiangong-1 ha perciò perduto progressivamente quota, perché il continuo impatto con le molecole di atmosfera residua presenti anche a quelle altezze le ha sottratto incessantemente energia. Ed è questo processo completamente naturale che farà alla fine precipitare la stazione spaziale sulla terra senza controllo, non potendo essere più programmata un’accensione dei motori per un rientro guidato.

Come è fatta e quanto è grande?

Tiangong-1 consiste approssimativamente di due moduli cilindrici montati uno sull’altro: quello di servizio, con un diametro di 2,5 m, e quello abitabile, con un diametro di 3,4 m. La lunghezza complessiva è di 10,5 m. Su lati opposti del modulo di servizio sono anche attaccati, perpendicolarmente all’asse di simmetria dei cilindri, due pannelli solari rettangolari, larghi 3 m e lunghi 7 m.

Che massa ha?

Quando è stata lanciata, Tiangong-1 aveva una massa di 8506 kg, di cui circa una tonnellata di propellente per le manovre. Nel corso della missione la massa è però diminuita, principalmente per due motivi: 1) una parte significativa del propellente è stata consumata per le manovre orbitali e per contrastare la progressiva sottrazione di energia meccanica da parte dell’atmosfera residua; 2) i due equipaggi, durante le loro permanenze sulla stazione, hanno consumato buona parte delle scorte di cibo, acqua e ossigeno stivate a bordo. Cercando di calcolare questi consumi, abbiamo stimato che la massa attuale di Tiangong-1 dovrebbe aggirarsi sui 7500-7550 kg. Non sarebbe quindi molto diversa da quella della nave cargo russa Progress-M 27M, di cui abbiamo seguito il rientro incontrollato nel 2015.

Si tratta di un evento eccezionale?

Assolutamente no. Di rientri senza controllo di stadi o satelliti con una massa superiore alle 5 tonnellate ne avvengono, in media, 1 o 2 all’anno, quindi sono relativamente frequenti. Per esempio, il 27 gennaio scorso, uno stadio russo-ucraino di circa 8500 kg, quindi con una massa superiore a quella di Tiangong-1, è rientrato sul Perù e dei componenti sono precipitati nell’estremità meridionale del paese, nella regione del lago Titicaca. Il 10 marzo, uno stadio del lanciatore cinese Lunga Marcia 3B è invece rientrato sul Paraguay e un serbatoio è stato recuperato nei pressi della città di Canindeyú, vicino al confine con il Brasile.

Quanto è grande il rischio rappresentato da un rientro incontrollato?

La soglia di attenzione comunemente adottata a livello internazionale corrisponde a un rischio estremamente ridotto per un singolo individuo che risiede in un’area sorvolata dal satellite: la probabilità corrispondente di essere colpiti da un frammento è infatti un numero piccolissimo, dell’ordine di uno su centomila miliardi (cioè 1:100.000.000.000.000). Confrontata con i rischi cui andiamo incontro nella vita di tutti i giorni, si tratta di una soglia bassissima. Tanto per fare un paio di esempi, la probabilità di essere colpiti da un fulmine è 130.000 volte maggiore, mentre quella di rimanere vittima di un incidente domestico, nei paesi sviluppati, è addirittura più grande di 3 milioni di volte. E’ per questo che, in oltre 60 anni di attività spaziali, e nonostante siano rientrati in media 1-2 stadi o satelliti alla settimana, nessuno è mai rimasto ferito, finora, per il rientro incontrollato di un oggetto artificiale dall’orbita terrestre.

È possibile quantificare il rischio rappresentato dal rientro di Tiangong-1?

Al momento non siamo al corrente di stime quantitative ufficiali di fonte cinese. Per analogia con casi precedenti, possiamo però affermare con ragionevole sicurezza che la soglia di attenzione comunemente adottata a livello internazionale sarà superata, anche se il rischio individuale resterà comunque bassissimo. Ci vorrebbero, infatti, da 500 a 1000 rientri come questo perché ci sia un’elevata probabilità che un frammento colpisca qualcuno in giro per il mondo. E la probabilità di una collisione con un aereo in volo è almeno 200 volte più piccola di quella che sia colpita una persona all’aperto.

Cosa si intende per rientro nell’atmosfera?

Non esiste un confine netto e preciso tra l’atmosfera e lo spazio: la prima svanisce progressivamente, con continuità, nel secondo. Ecco perché i satelliti in orbita bassa ne subiscono gli effetti e anche la Stazione Spaziale Internazionale, che vola a 400 km di altezza, deve periodicamente accendere i motori per contrastare la perdita di quota provocata dall’atmosfera residua. Esiste comunque un’interfaccia convenzionale, fissata alla quota di 120 km, al di sopra della quale un’orbita circolare è ancora marginalmente possibile, anche se di brevissima durata, mentre al di sotto no. In generale si parla quindi di rientro nell’atmosfera quando un veicolo spaziale scende alla quota di 120 km. Ma siccome in gran parte dei casi la struttura principale di un satellite rimane integra fino alla quota di 80 km, spesso, quando si parla di previsioni di rientro, ci si riferisce appunto al raggiungimento della quota di 80 km.

Che cosa succede durante il rientro?

In un caso come quello di Tiangong-1, si parla di rientro nell’atmosfera quando l’oggetto scende a 120 km di quota. Da quel punto in avanti l’attrito dell’aria diventa sempre più significativo, e le strutture esposte di grande area e massa contenuta, come i pannelli solari e le antenne sporgenti, possono staccarsi tra i 110 e i 90 km di altezza. Il corpo del satellite, dove è concentrata gran parte della massa, rimane però generalmente intatto fino a 80 km di quota. Solo in seguito, a causa dell’azione combinata delle forze aerodinamiche e del riscaldamento prodotti dall’attrito dell’aria, la struttura principale si disintegra e i singoli componenti si trovano a loro volta esposti alle condizioni proibitive dell’ambiente circostante. Il destino dei vari pezzi dipende dalla composizione, dalla forma, dalla struttura, dal rapporto area su massa, e dal momento in cui vengono rilasciati durante la discesa. Gran parte della massa si vaporizza ad alta quota, ma se il satellite è sufficientemente massiccio e contiene componenti particolari, come serbatoi di acciaio o titanio e masse metalliche in leghe speciali, la caduta al suolo di frammenti solidi a elevata velocità, fino a qualche centinaio di km/h, è possibile.

Come si distribuiscono i frammenti?

I frammenti in grado di sopravvivere alle proibitive condizioni del rientro precipitano su un’area di forma approssimativamente rettangolare, lunga dagli 800 ai 2000 km, nella direzione del moto, e larga circa 70 km, perpendicolarmente alla direzione del moto. Su Tiangong-1 sono tuttavia ancora presenti circa 3 quintali e mezzo di propellente usato per le manovre. Nel caso (improbabile) che si verifichino delle esplosioni ad alta quota durante il rientro, alcuni frammenti potrebbero quindi essere proiettati lateralmente anche a un centinaio di km di distanza dalla traiettoria originaria. E’ inoltre importante sottolineare alcuni punti: 1) poiché i frammenti macroscopici sarebbero al massimo poche decine, e con proprietà assai diverse, colpirebbero il suolo molto sparpagliati, a distanze di decine o centinaia di km gli uni dagli altri; 2) quelli più “pesanti” tenderebbero, in genere, ad allontanarsi di più dal punto di rientro a 80 km di quota, ma colpirebbero il suolo prima degli altri, nel giro di 6-7 minuti, e a una velocità confrontabile con quella di un’auto di Formula 1 in rettilineo; 3) i frammenti più “leggeri” cadrebbero invece più vicini, ma ci metterebbero una ventina di minuti e colpirebbero il suolo a una cinquantina di km/h.

Qual è la natura del rischio?

Per Tiangong-1 i rischi potenziali sono di due tipi: meccanico e chimico. Il rischio meccanico è quello derivante dall’urto di frammenti massicci a elevata velocità con veicoli in movimento, strutture vulnerabili e persone all’aperto. Quello chimico dipende dal fatto che, sulla base delle nostre stime, dovrebbero trovarsi ancora a bordo, non sappiamo se allo stato liquido o solido, circa 230 kg di tetrossido di azoto e 120 kg di monometilidrazina, sostanze molto tossiche (soprattutto la seconda). E’ difficile che ne arrivi a terra anche una piccola frazione, ma una contaminazione residua di alcuni frammenti non può essere completamente esclusa a priori, per cui, nel caso qualcuno si imbattesse in uno di essi, sarebbe prudente non avvicinarsi, evitare qualsiasi contatto, tenere lontani i curiosi e limitarsi ad avvertire le autorità.

Dove può avvenire il rientro?

In linea di principio, il rientro potrebbe avvenire in qualunque località del pianeta compresa tra i 43 gradi di latitudine sud e i 43 gradi di latitudine nord. Tuttavia, tenendo conto che i frammenti, a causa di un’eventuale esplosione ad alta quota, potrebbero allontanarsi anche di un centinaio di km rispetto alla traiettoria originaria, le zone potenzialmente a rischio per la caduta di detriti devono essere estese di un grado di latitudine, quindi l’area da tenere sotto osservazione è in realtà quella compresa tra i 44 gradi di latitudine sud e i 44 gradi di latitudine nord. L’Italia è quindi divisa in due, con le località a nord del 44° parallelo escluse a priori da qualunque conseguenza, e quelle a sud potenzialmente a rischio. Tenendo conto della distribuzione degli oceani e delle terre emerse, e dell’inclinazione dell’orbita rispetto all’equatore, se i detriti di distribuissero su un arco di 800 km, la probabilità a priori che cadano tutti in mare è del 62%. Ma se i detriti si disperdessero su un arco di 2000 km, la probabilità che nessuno di essi precipiti sulla terraferma scenderebbe al di sotto del 50%. Quanto infine alla probabilità a priori che il rientro avvenga nella fascia di latitudine compresa tra i 35 e i 43 gradi nord, essa si aggira intorno al 18%.

Perché non è possibile prevedere il rientro con largo anticipo?

Gran parte dei satelliti che rientrano nell’atmosfera lo fanno da orbite basse quasi circolari, si muovono cioè quasi tangenzialmente rispetto agli strati atmosferici di densità crescente. Piccole variazioni di questo angolo, già vicino allo zero, possono produrre delle traiettorie ben diverse, un po’ come succede quando tiriamo un sasso nell’acqua di uno stagno. Se l’angolo di incidenza è poco più che radente, il sasso si inabissa nel punto di contatto con l’acqua, ma se il sasso colpisce la superficie di striscio, può rimbalzare una o più volte e non è facile prevedere a priori dove potrà alla fine immergersi. A parte questo effetto, che dipende dalla particolare geometria della traiettoria, esistono diverse altre sorgenti di incertezza, quali: 1) l’orbita di partenza, determinata da radar e telescopi basati a terra, è affetta da un certo errore; 2) l’orientazione nello spazio dell’oggetto non è costante, ma può evolvere in maniera complicata e spesso imprevedibile; 3) anche i migliori modelli di atmosfera sono affetti da errori, che variano in funzione del tempo e delle condizioni ambientali; 4) le previsioni dell’attività solare e geomagnetica, che influiscono sulla densità atmosferica, sono affette da incertezze, un po’ come succede per le previsioni meteorologiche. Tenendo conto di tutte queste variabili, non è possibile e non ha senso calcolare “dove” e “quando” il satellite precipiterà sulla terra, anche perché tutto è ulteriormente complicato dalla grande velocità con cui questi oggetti si spostano. Facciamo un esempio. Se un giorno diventasse possibile prevedere, anche sei ore prima, un terremoto con l’incertezza di un’ora e mezza, la cosa verrebbe considerata, e giustamente, un risultato straordinario. Ma se, cosa già possibile, facessimo lo stesso per il rientro incontrollato di un satellite, un’ora e mezza di incertezza corrisponderebbe a più di 40.000 km lungo la traiettoria, cioè a più di un giro del mondo!

Che cosa è possibile prevedere?

Il calcolo di affidabili finestre temporali di incertezza, che si restringono progressivamente, mano a mano che ci si avvicina al rientro, permette di affrontare il problema in maniera completamente diversa. Non bisogna infatti trovare dove e quando l’oggetto rientrerà, cosa fisicamente impossibile in questi casi, bensì dove non cadrà. Nelle ultime 36 ore si può infatti cominciare a escludere progressivamente delle aree del pianeta sempre più vaste, via via che ci si avvicina al rientro, sperando di eliminare alla fine più del 97% delle aree inizialmente considerate a rischio. In questo modo, per esempio, l’Italia può essere esclusa quasi sempre almeno diverse ore prima che il rientro abbia luogo. Per le aree residuali che restano invece all’interno della finestra temporale di incertezza fino alla fine, non resta che assumere le misure precauzionali decise preventivamente, aspettare, e vedere, tenendo comunque conto che il rischio effettivo rimane piccolissimo.

Che cosa si intende per sorveglianza spaziale?

Si tratta del processo attraverso il quale si individuano e si identificano gli oggetti artificiali che si trovano nello spazio intorno alla terra, determinandone lo stato dinamico (cioè l’orbita, e magari anche l’orientazione nello spazio e lo stato rotazionale).

Che strumentazione è richiesta?

Condizione necessaria è la disponibilità di potenti radar (soprattutto per le orbite basse, cioè quelle che interessano nel caso dei rientri nell’atmosfera), di telescopi sensibili nell’ottico e nell’infrarosso (soprattutto per le orbite più alte) e, eventualmente, di satelliti in grado di svolgere le osservazioni richieste. Per poter essere efficace, la rete dei sensori basati a terra, cioè i radar e i telescopi, deve avere la massima distribuzione geografica possibile, in longitudine e latitudine, il che comporta un numero di installazioni non piccolo su scala globale (circa una ventina nel caso degli Stati Uniti). A ciò bisogna aggiungere almeno un centro di controllo per l’elaborazione dei dati raccolti e per pianificare al meglio l’osservazione degli oggetti.

Chi è in grado di effettuarla?

Questo tipo di attività è stata finora gestita prevalentemente da organizzazioni militari. I sistemi di sorveglianza più sviluppati sono figli della Guerra Fredda e sono appannaggio degli Stati Uniti e della Russia. Oggi, comunque, anche l’Europa (Italia compresa) dispone di sensori e di capacità, seppur più limitate, in questo ambito.

Chi sta monitorando il rientro?

Il rientro di Tiangong-1 è monitorato da numerosi soggetti, pubblici e privati in tutto il mondo, Italia compresa, in primis il tavolo tecnico coordinato dal Dipartimento della Protezione Civile. Il Laboratorio di Dinamica del Volo Spaziale dell’Istituto Isti del Consiglio nazionale delle ricerche (Isti-Cnr), a Pisa, attivo in questo settore dal 1979, da molti mesi ormai analizza l’evoluzione orbitale dell’oggetto ed elabora autonomamente previsioni di rientro distribuite a enti nazionali e internazionali.

Fonte CNR

IL PICCOLO TOUR NEL LABORATORIO CHE PREPARA InSight A MARTE

L’importante lander NASA InSight atterrerà su Marte il prossimo novembre e il suo braccio-gru sarà usato per spostare oggetti, per la prima volta su un altro pianeta.

Gli Ingegneri e scienziati hanno una replica di InSight presso il Jet Propulsion Laboratory della NASA a Pasadena, in California. La replica è un banco di prova per simulare tutte le funzioni del veicolo spaziale, il team si sta preparando a qualsiasi scenario che potrebbe incontrare una volta arrivati sul pianeta rosso.

Ora immergetevi nel laboratorio di InSight insieme a decine di scienziati.

Crediti: Nasa

 

COMPLETARE LA RELATIVITÀ CON LA GRAVITA’ QUANTISTICA- INTERVISTA A MAURO PATERNOSTRO

La gravità quantistica è una teoria che ha sviluppato, in questi anni, predizioni accurate e particolari di effetti quantistici molto deboli da registrare. Partendo dalla relatività di einsteiniana memoria si è sviluppata in un contesto teorico che sta mettendo in mostra le più interessanti menti del nostro tempo. Noi abbiamo intervistato il giovane ricercatore Mauro Paternostro, della Queen University of Belfast, che sta studiando le implicazioni e i possibili indizi sperimentali per testare sempre più accuratamente questa teoria.

– Perchè la gravità quantistica in questo periodo, secondo te, è vista come una delle possibili risposte alla tanto cercata Teoria del Tutto? – Quali sono le proprietà quantistiche che si cercano nella gravità?

La teoria della relatività generale formulata da Einstein è incompleta: è in grado di fornire predizioni accurate solo per effetti quantistici molto deboli. Sebbene ciò sia il caso, in genere, la formulazione Einsteiniana della relatività generale fallisce nel descrivere lo spazio-tempo in presenza di effetti quantistici forti. La teoria della gravità quantistica che si ricerca dovrebbe dunque generalizzare la bellissima, seppur incompleta, relatività Einsteiniana.

– Quali implicazioni avrebbe per lo studio del nostro universo sapere che la gravità viene da una qualche fluttuazione/interazione quantistica?

Sono parecchie le implicazioni. Giusto per elencarne qualcuna di particolarmente significativa; 1) lo spazio tempo potrebbe essere connesso “non-localmente” attraverso connessioni, scorciatoie, che attraversano l’universo; 2) in presenza di effetti forti, che inducano forti curvature dello spazio-tempo (as esempio in un buco nero), il tempo potrebbe diventare spazio a causa del forte accoppiamento tra queste ‘dimensioni’; 3) molte delle formulazioni di una teoria della gravità quantistica vedono lo spazio ed il tempo come grandezze risultanti da entità più fondamentali (stringhe, loops, perfino quantum-bits); 4) in meccanica quantistica vale il principio di sovrapposizione; una natura quantistica della gravità dovrebbe comprendere il principio di sovrapposizione in maniera naturale; 5) fluttuazioni dello spazio-tempo dovrebbero avvenire anche in assenza di materia: quantisticamente, il vuoto fluttua, e quindi dovrebbe farlo anche lo spazio tempo. Quella che a me piace di più è affatto detto che una teoria quantistica della gravità risulti in una rivisitazione della gravità. potrebbe essere il contrario: potremmo dover modificare la teoria quantistica, scoprendola non completa. A quel punto, una serie di conclusioni tratte nell’ultimo secolo dovrebbero essere riesaminate criticamente.

– Come si può testare in laboratorio tutto l’amplesso teorico intorno alla gravità quantistica?

Questo è un punto piuttosto delicato. Credo infatti non sia possibile testare ogni aspetto, ogni sfaccettatura di una data teoria quantistica della gravità con un solo esperimento. La fenomenologia è ricchissima e complicata. Spesso, la scala di energie in gioco è troppo elevata per essere testabile in laboratorio. Quel che parte della comunità interessata a questo problema sta realizzando è che possibili aspetti di una plausibile teoria quantistica della gravità (soprattutto a basse energie) possono essere ‘dedotti’ a un approccio in cui la teoria dell’informazione ed i suoi strumenti vengono utilizzati in modo innovativo. Tipicamente implica la formulazione di test di natura interferometrica i cui risultati possono confermare, o confutare, una data assunzione sulla natura della gravità. Questi test sembrano realizzabili sperimentalmente (sebbene richiedano un livello molto alto di controllo e manipolazione del set-up sperimentale di volta in volta proposto).

– I modelli che voi costruite sull’universo come vi aiutano a testare le teorie?Non rischiano, i modelli di universo, di essere troppo semplificati?

Certamente: il rischio di una semplificazione eccessiva è sempre in agguato. In questo senso, è fondamentale riuscire a identificare test sperimentali che confutino un dato modello. Procediamo per ‘sviluppi successivi’: a partire da un modello semplice, procediamo a ‘complicarlo’ per passi successivi, basandoci sull’evidenza di esperimenti. Al momento, il primo passo è testare la plausibilità’ dell’assunzione “la gravita’ va quantizzata”. Il resto, verrà nel tempo. O nello spazio!!

Gianluigi Marsibilio

GALLENENE, COME IL 2D STA RIVOLUZIONANDO I MATERIALI

 

Il grafene non basta e allora su Science Advance è stata pubblicata una ricerca che introduce un nuovo materiale, che sfrutta sempre le potenzialità delle due dimensioni, derivato dal gallio: il gallenene.

Dalla scoperta del Grafene nel 2004 ad opera dei due fisici premi Nobel Andrej Gejm e Konstantin Novoselov, la ricerca orientata verso i materiali 2D costituiti da ‘layers’, cioè fogli di spessore atomico sovrapposti, è cresciuta anno dopo anno.

 

Più precisamente, il grafene è un allotropo del carbonio, termine che indica la proprietà dello stesso di esistere in diverse forme a seconda delle condizioni fisiche e delle reazioni chimiche di formazione dei suoi composti. La desinenza -ene fa riferimento alla condizione di ibridizzazione di tipo sp2 dei singoli atomi, caratteristica che consente loro di formare reticoli piani a maglie esagonali con altri atomi perfettamente identici. Rispetto alle dimensioni atomiche, questa struttura si ripete nello spazio per un numero di volte praticamente infinito, formando appunto dei ‘fogli’ che all’analisi macroscopica presentano sorprendenti caratteristiche di leggerezza, trasparenza, conducibilità elettrica e termica, resistenza meccanica e molte altre.

 

Questo genere di materiali presenta perciò pregi tali da destare enorme interesse nella ricerca scientifica, tanto che recentemente se ne stanno producendo molti altri che del grafene riprendono la struttura, ma sono composti da elementi chimici diversi.

Per citarne alcuni, negli ultimi dieci anni si è vista la comparsa del ‘fosforene’, allotropo bidimensionale del Fosforo e del ‘germanene’, analogo composto del Germanio.

Particolare interesse suscitano in queste applicazioni i metalli ed i semi conduttori, per le loro straordinarie capacità di conduzione elettrica e compattezza, che sono fondamentali per applicazioni in campo elettronico.

 

Come sempre però, compare un ostacolo all’utilizzo di questi sorprendenti materiali: un processo di produzione tale che riesca a coniugare una buona purezza e dimensione dei ‘layer’ con costi e tempi convenienti.

 

Nell’articolo comparso su Science il 9 Marzo 2018, si investiga la produzione di ‘layers’ di Gallio, un metallo, tramite un processo chimico denominato ‘Solid-Melt exfoliation’.

In sintesi questo processo consiste nel far depositare minuscole gocce di Gallio scaldato a circa 50 gradi Centigradi per ottenerne la fusione, sopra un substrato piano di Silicio e Diossido di Silicio. Il tutto viene poi raffreddato a temperatura ambiente. Successivamente, questo composto viene sottoposto a un vuoto spinto (circa 10^-8 mbar) mentre il layer di Gallio viene controllato nel suo processo di solidificazione tramite l’applicazione di un carico pressorio controllato tramite indentazione, che aiuta poi a ‘esfoliare’ il foglio prodotto portandolo via. Il processo è per certi versi simile al cucinare wafer tramite una piastra scaldata, ed anche i prodotti di questo metodo sono effettivamente dei ‘wafer’ composti da 4-6 fogli di Gallio di spessore totale circa 4 nanometri, sovrapposti in modo non ordinato.

Nel lavoro si fa riferimento inoltre alla probabile scalabilità del processo ed alla ottima qualità e stabilità dei wafer prodotti, che hanno dimensioni di circa qualche millimetro quadro, che risultano davvero rilevanti in questo campo di ricerca.

I wafer di ‘Gallenene’ presentano inoltre:

-Conducibilità termica bassa rispetto ad analoghi materiali 2D (circa<1 W/mK);

-Alta conducibilità elettrica.

 

Queste due caratteristiche pongono quindi il ‘Gallenene’ in primo piano nell’utilizzo di materiali 2D in diversi campi, per esempio l’elettronica; Inoltre il processo ideato risulta rispondere bene allo scale-up ed è quindi una buona promessa per il futuro di questi utilissimi e innovativi materiali.

 

 

 

Vittorio Ricci

 

15 NUOVI ESOPIANETI, UN CONTO CHE ORMAI ASPETTA SOLO LE NUOVE MISSIONI

Altro importante set di dati analizzato da K2, l’aggiornamento della missione Kepler che da ormai parecchi anni ci riserva sorprese, ha permesso agli scienziati di segnare sul tabellino degli esopianeti 15 nuovi corpi, inclusa una super terra molto promettente che potrebbe ospitare acqua liquida.

Il gruppo di ricerca è stato guidato da Teruyuki Hirano del Dipartimento di Scienze Planetarie del Tokyo Institute of Technology e ha convalidato questi pianeti in orbita attorno a vari sistemi di nane rosse.
Il team che ha guidato gli studi è KESPRINT, formato dalla fusione di KEST (Kepler Exoplanet Science Team) e ESPRINT (Equipo de Seguimiento de Planetas Rocosos Intepretando sus Transitos) avvenuta nel 2016.

Le stelle prese in considerazione sono tutte di piccola massa e sono state osservate e analizzate tramite l’analisi sulla curva di luce, l’imaging a ottica adattiva e la spettroscopia ottica a bassa e alta risoluzione.

I risultati sono stati pubblicati grazie a due articoli sul The Astronomical Journal.
Il pianeta potenzialmente più promettente è  K2-155d ma, come hanno spiegato i ricercatori, ci sarebbe bisogno di ulteriori stime sul raggio e la temperatura della stella per chiarire le ipotesi di abitabilità del pianeta.  Hirano, a capo della ricerca, esprime , sul comunicato stampa dello studio, sia entusiasmo che moderazione : “Nelle nostre simulazioni, l’atmosfera e la composizione del pianeta sono state ritenute simili alla Terra, ma non c’è alcuna garanzia che sia così.” .

Un’altra evidenza importante della ricerca riguarda il minor numero di pianeti che orbitano attorno alle nane rosse, rispetto a i pianeti che girano intorno a stelle di tipo solare.

Anche la dimensione dei corpi è assolutamente ridotta e per questo si punta il dito contro la foto-evaporazione, un effetto che va ad eliminare l’involucro dell’atmosfera planetaria.

Hirano crede fortemente nella missione TESS (NASA): “Si prevede che TESS trovi molti pianeti candidati attorno a stelle luminose più vicine alla Terra”, inoltre:”Ciò faciliterà enormemente le osservazioni di follow-up, compresa la ricerca di atmosfere planetarie e la determinazione dell’orbita precisa dei pianeti”.

 

Crediti: Tokyo Institute of Technology

L’ALBA DELLE PRIME STELLE, ECCO COME SI è ACCESO L’UNIVERSO

Un team di astronomi, che ha pubblicato due paper su Nature, ha rilevato le impronte digitali delle prime stelle che si sono accese nel nostro universo.

Scrutare nel freddo e nero Orizzonte del Big bang. e questo l’obiettivo degli astronomi che hanno intravisto l’alba dell’universo ha 13,6 miliardi di anni fa quando le prime stelle hanno cominciato a brillare nell’oscurità Cosmica.

A portare avanti questa ricerca sono stati due studi apparsi su nature. Noi abbiamo intervistato Rennan Barkana del Raymond e Beverly sackler School of physics and astronomy, che ha studiato la possibile interazione tra le particelle di materia oscura e I baroni presenti all’alba dell’universo.

Le domande cardine che hanno guidato lo studio sono state: come sono state formate le prime stelle e quando si sono formate? In che modo queste hanno influenzato tutto l’ambiente cosmico?

Il professor Barkana ci ha spiegato che: “I barioni e la materia oscura sono esistiti sin dai primordi dell’universo. Entrambi si sono espansi con l’universo, disperdendosi e raffreddandosi. Questa è la prima osservazione che arriva nell’era della formazione delle prime stelle”.

I due documenti separati partono da da uno studio profondo delle onde radio: “Ho trovato la spiegazione- di questi segnali- in termini di materia oscura e ho calcolato questo modello (spiegato nel paper di Nature). Il segnale che è stato trovato è l’assorbimento delle onde radio da parte del gas che ha riempito l’universo, quando le prime stelle si sono formate. L’assorbimento era molto più forte di quanto ci si aspettasse”.

I segnali sono stati trovati con un’antenna che è leggermente più grande di un frigorifero e costa meno di  5 milioni di dollari, ma può tornare molto più indietro nel tempo e nella distanza rispetto al celebre Telescopio spaziale Hubble.

Lo strumento è uno spettrometro radio, situato presso l’Osservatorio radioastronomico CSIRO nell’Australia occidentale. Attraverso il loro esperimento il team ha misurato lo spettro radio medio di tutti i segnali astronomici ricevuti nella maggior parte del cielo dell’emisfero sud e ha cercato piccoli cambiamenti di potenza in funzione della lunghezza d’onda (o della frequenza) .

Quando le onde radio entrano nell’antenna terrestre, vengono amplificate da un ricevitore e quindi digitalizzate e registrate dal computer, il concetto è lo stesso dei ricevitori radio FM o i ricevitori TV. La differenza è che lo strumento è calibrato con molta precisione e progettato per funzionare nel modo più uniforme possibile su molte lunghezze d’onda radio.

Il gas nell’universo era probabilmente molto più freddo del previsto (circa la metà della temperatura). Questo suggerisce che gli sforzi teorici degli astrofisici hanno trascurato qualcosa di significativo o che questa potrebbe essere la prima prova della fisica non standard.

I segnali raccolti vanno indagati sempre più profondamente per migliorare la comprensione dei segnali all’alba dell’universo.

Powered by WordPress.com.

Up ↑