UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Author

Tra Scienza & Coscienza

LA LOTTA AL PARKINSON SPIEGATA DA ELVIRA DE LEONIBUS

Un team formato da Elvira De Leonibus, responsabile del Laboratorio di neuropsicofarmacologia dell’Istituto di genetica e biofisica del Consiglio nazionale delle ricerche (Igb-Cnr) di Napoli e Faculty presso l’Istituto Telethon di genetica e medicina (Tigem) di Pozzuoli, Barbara Picconi e Paolo Calabresi della Fondazione Santa Lucia Irccs e dell’Università di Perugia, ha scoperto un nuovo meccanismo di memoria cellulare attivato dall’apprendimento motorio, che viene alterato nelle fasi iniziali della malattia di Parkinson. Il lavoro, finanziato dalla Fondazione con il Sud e dal Miur, è stato pubblicato sulla rivista Brain. Noi abbiamo intervistato la ricercatrice per parlare del lavoro appena pubblicato e delle nuove frontiere della ricerca nelle malattie neurodegenerative.

– Cosa accade a livello strutturale, molecolare, nei primi istanti dell’alterazione del Parkinson?

Noi abbiamo studiato gli effetti dell’accumulo della proteina alfa-sinucleina. Questa proteina si trova normalmente nel nostro cervello e serve per svolgere alcune delle sue funzioni fisiologiche. Tuttavia, quando è in eccesso, come nel nostro modello, oppure quando il gene che la produce subisce delle mutazioni, si aggrega (forma una specie di matassa) che impedisce la normale comunicazione tra le cellule. L’alfa-sinucleina per le cellule nervose è come il colesterolo per le arterie, quello buono serve, quello cattivo le occlude e le fa degenerare.

– In quali ricerche bisognerebbe insistere di più nei prossimi anni?

Tutte! Le malattie del sistema nervoso centrale sono molto spesso multifattoriali e vanno attaccate su più fronti. La prevenzione e le terapie comportamentali (come l’attività fisica) che sembrano avere un ruolo protettivo; i geni coinvolti nella patologia, e i meccanismi attraverso cui le loro alterazioni portano alla morte delle cellule; i meccanismi attraverso cui l’attività di comunicazione tra i neuroni viene alterata, e l’effetto di farmaci che oggi abbiamo a disposizione per ripristinare la normale attività; la diagnosi precoce, che è l’unico modo per provare attraverso questi attacchi su mille fronti a rallentare il decorso della malattia e migliorare la qualità della vita del paziente.

– Qual è il ruolo del corpo striato nella malattia e che ruolo svolge nel cervello?

Il corpo striato, insieme agli altri gangli della base, è un po’ come il manager del cervello. Rende esecutivi gli obiettivi a lungo termine presi dalle parti alte dell’organizzazione, la corteccia cerebrale; sceglie quali azioni devono essere attuate e quali inibite, se bisogna cambiare piano d’azione o continuare sullo stesso, serve per costruire le abitudini: quello che funziona non si cambia, si perfeziona fino all’automatismo. Serve, quindi, per imparare a ballare, a scrivere, a suonare il piano, serve per consentirci di percorrere il tragitto da casa a lavoro fermandoci con il semaforo rosso e passando con il verde, evitando il pedone e lo scooter che ci passa di fianco in modo del tutto automatico, mentre la nostra corteccia è impegnata a sostenere una conversazione accesa con i nostri figli.

– Cosa impedisce la formazione di una memoria cellulare durante la malattia?

L’eccesso di alfa-sinucleina nelle fasi iniziali della malattia modifica i livelli del trasportatore della dopamina. La dopamina è la molecola che consente la comunicazione tra i neuroni dello striato, in particolare per la memoria c’è bisogno di quella che si chiama plasticità sinaptica, cioè la capacità dell’attività elettrica delle cellule di modificarsi in funzione degli stimoli ricevuti in precedenza. In questo studio abbiamo visto che in animali normali le prime fasi dell’apprendimento motorio fanno si che le cellule dello striato invece di rispondere ad un impulso elettrico con la depressione (inibiscono l’attività elettrica di risposta al segnale ricevuto) a lungo termine, rispondono con il potenziamento (aumentano l’attività elettrica di risposta al segnale ricevuto). Questa alterazione nella risposta persiste per giorni dopo l’addestramento. Quando l’apprendimento raggiunge un livello ottimale, si torna alla depressione a lungo termine.

L’eccesso di alfa-sinucleina impedisce ai neuroni di passare dalla depressione al potenziamento e questo si traduce in un’incapacità di apprendimento motorio ottimale. Riteniamo che l’alfa-sinucleina impedisca questa forma di plasticità cellulare, modificando i livelli del traportatore della dopamina, una specie di vigile che controlla il traffico delle molecole di dopamina tra due neuroni che stanno comunicando per apprendere un compito motorio. Abbassando i livelli del trasportatore il traffico delle vescicole di dopamina va il tilt e i neuroni non sono più in grado di rispondere in modo plastico, ovvero cambiare la loro risposta in funzione del tipo addestramento che hanno ricevuto in precedenza e del tipo di comando cellulare che ricevono dalla corteccia.

– Quando arriva la neuro-degenerazione nel corso della malattia? Quali sono gli indicatori molecolari di questa degenerazione?

Quello che sappiamo oggi è che quando compaiono i sintomi motori tipici della malattia di Parkinson la degenerazione è già ad uno stadio avanzato. La stima dei livelli di degenerazione ad oggi viene fatta con tecniche di visualizzazione cerebrale che misurano proprio i livelli del trasportatore della dopamina, sulla base dell’equivalenza meno trasportatore uguale meno neuroni dopaminergici. Nei nostri modelli noi vediamo meno trasportatore ma non vediamo meno neuroni dopaminergici; i livelli di trasportatore sono invece legati alla quantità di alfa-sinucleina. I nostri dati suggeriscono che sarebbe importante combinare i dati sul livello di trasportatore con quelli dei livelli di alfa-sinucleina nel liquor dei pazienti.

– Se vuole si lanci in una previsione, in un buon proposito: tra dieci anni dove sarà la ricerca sul Parkinson?

Dipenderà molto dai finanziamenti, perché la ricerca scientifica costa. Tra dieci anni, con l’aumento dell’aspettativa di vita, le malattie neurodegenerative avranno un’incidenza drammatica sui costi del sistema sanitario. L’obiettivo a breve termine, perché 10 anni nella ricerca scientifica sono un obiettivo a breve termine, è quello di avere un buon armamentario di mezzi e persone per combattere questa guerra su più fronti: prevenzione, diagnosi precoce, terapie sintomatiche e forse anche qualche terapia che sia in grado di rallentare la morte dei neuroni.

 

2017: L’ANNO NELLO SPAZIO

Classico video di recap annuale dell’ESA che racconta tutte le attività degli astronauti e i lanci dell’Agenzia Spaziale Europea.

 

 

Fonte: ESA

LA MANO BIONICA DI LUKE SKYWALKER CHE SUONA UN PIANOFORTE

Luke Skywalker e la sua mano robotica non sono poi tanto distanti dal braccio di Jason Barnes, musicista che aveva perso una mano ma che è riuscito tramite Gil Weinberg, un professore della Georgia Tech College of Design che guida il progetto, a risuonare tramite una mano a sensori e ultrasuoni proprio il theme di Star Wars.

Il dispositivo permette gesti e dinamiche estremamente complessi tramite un motore che non ha pari rispetto ai congegni attualmente in commercio.

Il meccanismo è controllato tramite sensori utilizzati in EMG (Elettromiogramma), il braccio permette varie modalità e ha due mosse principali programmate, che vengono controllate tramite flessione.

Inizialmente ha detto Weinberg, direttore del Centro. “Si poteva effettuare un movimento muscolare, ma il segnale era troppo poco chiaro per dedurre quale dito la persona voleva muovere”.

I segnali ad ultrasuoni dovuti all’apprendimento automatico sono stati in grado di rilevare i movimenti continui e simultanei di ogni dito, è possibile capire anche quanta forza si intende utilizzare in ogni tocco grazie alla precisione del meccanismo.

L’uso dell’ultrasuono ha cambiato decisamente la tecnica e la tecnologia usata nello sviluppo del braccio. Ora Jason può sonare il theme di Star Wars senza troppi problemi anzi, guardate come muove il suo braccio alla Skywalker sui tasti di un pianoforte.

“Se questo tipo di braccio può lavorare sulla musica e può portare a termine un’attività sottile ed espressiva come suonare il pianoforte, questa tecnologia può essere utilizzata anche per molti altri tipi di attività motorie come fare il bagno e mangiare” ha concluso Weinberg.

FONTE VIDEO: GEORGIA TECH

VISTA SU UNA CULLA STELLARE

La regione di cielo mostrata è inclusa nel catalogo Sharpless di regioni di tipo HII: nubi interstellari di gas ionizzato, rigogliose di formazione stellare. Nota anche come Sh 2-29, Sharpless 29 si trova a circa 5500 anni luce da noi, nella costellazione del Sagittario, vicina alla più grande Nebulosa Laguna. Contiene molte meraviglie astronomiche, tra cui la regione di formazione stellare molto attiva NGC 6559, la nebulosa al centro dell’immagine.

La nebulosa centrale è la caratteristica più appariscente di Sharpless 29. Nonostante la sua modesta dimensione, di soli pochi anni luce, il suo aspetto mostra il disastro che le stelle all’interno delle nebulose interstellari posso produrre. Le stelle giovani e calde dell’immagine non hanno più di due milioni di anni e lanciano fiotti di radiazione ad alta energia, che a sua volta riscalda la polvere e il gas circostanti, mentre i venti stellari erodono e scolpiscono in modo spettacolare la loro “culla”. Infatti, la nebulosa contiene una cavità estesa scavata da un sistema binario di stelle molto energetico. La cavità si sta espandendo, causando così un accumulo di materiale interstellare che forma un bordo rossastro a forma d’arco.
Quando la polvere e il gas interstellari sono bombardati dalla luce ultravioletta emessa da stelle calde e giovani, l’energia le fa brillare luminose. La luce diffusa e rossastra che permea l’immagine proviene dall’emissione di idrogeno gassoso, mentre la luce blu scintillante è causata dalla riflessione e diffusione prodotta da piccole particelle di polvere. Oltre a emissione e riflessione, vediamo anche zone di assorbimento in questa regione. Brandelli di polvere bloccano la luce nel suo cammino verso di noi, impedendoci di vedere le stelle dietro di essi, mentre tentacoli sottili di polvere creano le strutture filamentose scure all’interno delle nubi.

L’ambiente ricco e vario di Sharpless 29 offre agli astronomi un vasto assortimento di proprietà fisiche da studiare. L’avvio della formazione stellare, l’influenza delle giovani stelle sulla polvere e sul gas, il disturbo dei campi magnetici: tutto ciò può essere osservato ed esaminato in questa singola, piccola area.
Ma le stelle giovani e massicce vivono velocemente e muoiono giovani. Infine, porranno termine in modo esplosivo alla loro vita come supernove, lasciandosi dietro ricchi detriti di gas e polvere. Nel giro di qualche decina di milioni di anni, tutto verrà spazzato via e rimarrà solo un ammasso stellare aperto.
Sharpless 29 è stata osservata dallo strumento OmegaCAM dell’ESO montato sul VST (VLT Survey Telescope) al Cerro Paranal in Cile. OmegaCAM produce immagini che coprono un’area di cielo più di 300 volte maggiore del campo di vista più grande di uno strumento del telescopio spaziale Hubble della NASA/ESA e può osservare anche su un più grande spettro di lunghezze d’onda, dall’ultravioletto all’infrarosso. La sua caratteristica distintiva è la capacità di catturare la riga spettrale dell’H-alfa, molto rossa, che viene prodotta dagli elettroni all’interno del’atomo di idrogeno quando perdono energia, un evento molto frequente in una nebulosa come Sharpless 29.

 

 

Coelum Astronomia

L’INTELLIGENZA ARTIFICIALE A CACCIA DI SISTEMI PLANETARI

Stiamo raccontando dall’inizio della nostra avventura l’epoca d’oro di scoperta e caccia agli esopianeti. Ora siamo entrati addirittura in una nuova era 2.0: come ha infatti testimoniato la NASA, tramite una ricerca di due scienziati Christopher Shallue e Andrew Vanderburg, un nuovo attore è entrato in questa competizione all’ultimo pianeta, l’intelligenza artificiale.
Intorno alla stella Kepler 90, a 2545 anni luce di distanza dalla Terra, è stato scoperto un sistema planetario molto simile al nostro sistema solare, che vede 8 pianeti ruotare in un ambiente cosmico della distanza simile a quella dell’orbita terrestre.
La novità assoluta è tutta nel modo in cui è stato ritrovato il pianeta. Il professor Andrew Vanderburg dell’ Harvard-Smithsonian Center for Astrophysics, ci ha spiegato come hanno fatto ad unire i dati di Kepler con una rete neurale: ” Le intelligenze artificiali oggi sono molto flessibili e possono essere utilizzate con un’infinità di tipi di dati. Noi abbiamo preso i dati sulla luminosità raccolti da Kepler, in particolare ci siamo concentrati sui segnali che erano stati rilevati con un metodo di ricerca di transito’ cercando di capire l’orbita del pianeta osservato’’.

Una volta inviati tutti i segnali nella rete neurale è stato possibile distinguere i pianeti e i falsi positivi: ” Appena addestrata la rete a riconoscere i falsi positivi dai pianeti reali, è stato possibile subito avere delle risposte chiare” ha specificato Vanderburg.
Tra i pianeti c’è ad esempio Kepler 90 i, un pianeta caldo e roccioso che orbita intorno alla sua stella ogni 14,4 giorni.

Questa stella ha un ambiente cosmico molto simile a quello del sistema solare , anche se come ci ha spiegato lo scienziato :”Tutti e otto i pianeti che ruotano intorno a Kepler 90 sono in un’orbita simile a quella della Terra”.

La rete neutrale ha identificato i veri pianeti dai falsi positivi nel 96% dei casi: questo ci fa ben sperare perché potremmo avere studi sempre più accurati e meticolosi nel campo degli esopianeti. Le ricerche di Kepler hanno prodotto una quantità enorme di dati che potranno essere scandagliati anche da questo tipo di reti e non solo dallo sguardo attento dei ricercatori.

All’orizzonte c’è per esempio la volontà di utilizzare questo tipo di software sui dati della missione TESS, che verrà lanciata il prossimo anno: “Non solo astronomia- ha chiarito il professore- ci sono applicazioni per l’apprendimento automatico in ogni campo, le intelligenze artificiali sono estremamente eccitanti”.
Ad oggi i quasi 35 mila segnali raccolti da Kepler hanno prodotto tante novità, ma spesso i pianeti più difficili da scovare sono sfuggiti all’occhio umano: ora le reti neurali potranno integrare, approfondire e migliorare il lavoro della comunità scientifica.

Gianluigi Marsibilio

 

 

 

 

 

 

 

 

 

 

 

 

 

Crediti foto: Nasa/Wendy Stenzel

SPAZZATURA 2.0, LA SITUAZIONE DEI RIFIUTI ELETTRONICI NEL MONDO

Cristiano Ronaldo, per la vittoria del suo quinto pallone d’oro, è stato premiato in cima alla Torre Eiffel, ma il mondo, nell’anno in cui il campione portoghese è salito sulla prestigiosa cima parigina, ha prodotto ben 4500 equivalenti alla torre francese di scarti e rifiuti elettronici. A riferire tutti i dati recenti sulla creazione di spazzatura 2.0 è il  The Monitor Global E-Waste 2017  rilasciato dall’Unione Internazionale delle Telecomunicazioni (ITU), dall’agenzia delle Nazioni Unite specializzata per la tecnologia dell’informazione e della comunicazione e dall’Università delle Nazioni Unite (UNU).

Il valore generato dal recupero dei rifiuti elettronici (dai frigoriferi, ai televisori, ai pannelli solari e dai PC) ha toccato i 55 miliardi di dollari nel 2016. Gli esperti prevedono un ulteriore aumento del 17% nella produzione degli scarti: si arriverà a 52,2 milioni di tonnellate di rifiuti elettronici entro il 2021, la più rapida crescita dei rifiuti domestici nel mondo.

Capire la definizione di e-rifiuto o rifiuto 2.0 è abbastanza semplice: il rifiuto elettronico è un’apparecchiatura elettrica o elettronica con parti scartate e senza alcun intento di riutilizzo. I rifiuti elettronici sono anche denominati RAEE e sono divisi in categorie che comprendono schermi, monitor, attrezzature di raffreddamento o congelamento, lampade e attrezzature mediche o GPS.

C’è da specificare che ogni singola categoria di rifiuto elettronico ha uno smaltimento diverso.
Uno studio del genere, come ha detto il Segretario generale dell’ITU Houlin Zao:” E’ fondamentale per i governi in via di sviluppo, in modo da applicare le necessarie strategie di gestione e implementare le politiche per ridurre gli impatti negativi dei rifiuti sull’ambiente”.

I più grandi generatori di rifiuti pro capite sono Stati come la Nuova Zelanda o l’Australia, che producono esattamente 17,3 kg per abitante di rifiuti e di questa grande quantità solo il 6% viene formalmente riciclato.

L’Europa è la seconda potenza in questo campo, con oltre 16 kg di rifiuti per abitante, ma il grande vantaggio del nostro continente è nell’ alto tasso di raccolta, circa il 35%.

Nel corso dei prossimi anni, secondo le analisi, sappiamo che i monitor diminuiranno il loro impatto di oltre il 3%, data l’alta diffusione di schermi piatti dall’impatto più basso.

Alcuni dati messi in luce dalla relazione sono ad esempio che con una popolazione di 7,4 miliardi  sono attivi oltre 7,7 miliardi di abbonamenti ai cellulari mobili. Questo significa che più di 8 persone su 10 sono coperte da un segnale di banda larga. Ovviamente tutti questi strumenti vanno ricaricati e oggi sappiamo che il peso complessivo di tutti i caricabatterie per smartphone e laptop supera un miliardo di tonnellate.

Attualmente il 66% della popolazione mondiale che vive in 67 paesi è coperto da leggi di gestione di rifiuti elettronici nazionali, un significativo aumento dal 44% del 2014.

Con il 53% delle famiglie nel mondo che hanno accesso a internet sarà quindi opportuno avvicinare sempre di più le persone alle politiche di riciclo e rendere consapevoli i Paesi che possono risparmiare danni all’ambiente producendo benessere e un sensibile guadagno.

Gianluigi Marsibilio

METANO, PARADOSSI E ESOPIANETI: UN MODELLO PER SPIEGARE L’ORIGINE DELLA VITA

Lontano, lontano nel tempo e nello spazio un pianeta extrasolare sta orbitando intorno alla sua stella madre, forse più fredda del Sole, ma se vi aspettate un clima freddo e desolato sul pianeta probabilmente non conoscete il paradosso del Sole giovane debole e le sue implicazioni, che sono state studiate da un articolo pubblicato su Nature Geoscience da un gruppo di scienziati del Georgia Institute of Technology.

 

Il modello combina molteplici processi microbici con attività vulcaniche, oceaniche atmosferiche: tutto questo ci mostra uno dei modelli più completi e complessi sull’evoluzione di un pianeta.

Il Sole da giovane, secondo il modello, avrebbe prodotto un quarto in meno di luce e calore, ma la Terra è rimasta comunque temperata grazie all’azione del metano.

Noi abbiamo parlato con Ozaki Kazumi della School of Earth and Atmospheric Sciences del Georgia Institute of Technology, che ci ha spiegato la funzione del metano: “il CH4 è un forte gas serra. È creato come sottoprodotto metabolico dai metanogeni negli ambienti anossici. In questo studio abbiamo identificato un nuovo meccanismo, che amplifica il ciclo biogenico di CH4 nelle condizioni dell’archeano (secondo eone del tempo geologico nel precambriano). Nello specifico, molteplici forme di organismi fotosintetici che lavorano insieme nello stesso ecosistema amplificano l’effetto della biosfera sulla chimica atmosferica e sul clima. Il ciclo accelerato del metano aiuta a spiegare il “paradosso”. I nostri risultati indicano quindi che l’evoluzione di diverse forme di vita fotosintetica sono state un fattore critico nel mantenere la giovane Terra abitabile”.

La Terra ha ecosistemi principalmente guidati da fotosintesi: la ricerca mostra come pianeti simili al nostro potrebbero in un certo senso pullulare di vita non rispondendo al meccanismo di fotosintesi principale della nostra biosfera.

“La biosfera anossica arcaiana potrebbe essere un analogo estremamente utile per capire le biosfere primitive di altri pianeti simili alla Terra- il professore ha precisato come questo è – un collegamento che non è stato ancora esplicitato”.

I risultati implicano anche una serie intrigante di domande sul clima, ad oggi inesplorate, che aprono prospettive completamente nuove per il lavoro futuro, volto a comprendere meglio l’evoluzione del sistema climatico precoce della Terra e l’evoluzione del pianeta abitabile in senso più ampio.

Per capire al meglio il paradosso al centro di questa ricerca abbiamo chiesto a Kazumi il ruolo di questa ipotesi sul loro lavoro: “Durante l’eone archeano il Sole era più debole di un 20-25%: se presumiamo che l’effetto serra della Terra e l’albedo fossero simili al valore di oggi, la temperatura superficiale media dovrebbe essere stata inferiore al punto di congelamento dell’acqua”.

Il paradosso messo in luce da Carl Sagan e George Mullen nel 1972 e la sua risoluzione ha importanti implicazioni per capire l’evoluzione climatica della Terra (e pianeti simili). Finora sono stati proposti diversi processi per risolvere il FYSP e le soluzioni più comuni, come ha spiegato lo scienziato: “invocano alte concentrazioni di gas serra (ad es. CO2, CH4, NH3, C2H6, N2O, COS). L’abbondanza di questi gas nell’atmosfera è controllata anche da una serie di processi, che includono reazioni fotochimiche, processi metabolici e processi geologici: non è chiaro se questi gas siano stati presenti in abbondanza in modo da risolvere il paradosso”.

Tre miliardi di anni fa la fotosintesi che studiamo e osserviamo oggi potrebbe essere stata molto diversa, inoltre la situazione vulcanica e geologica del pianeta può aver contribuito a tenere al caldo la superficie della Terra, lontana dall’ancora freddo e poco luminoso sole.

E in un bel giorno, caldo e umido, lontano nel tempo, la vita.

 

Gianluigi Marsibilio

Crediti: Eso

MUSE, LA PIÙ GRANDE INDAGINE DEL CIELO DI SEMPRE

È stata portata a termine la più profonda survey spettroscopica di sempre con lo strumento MUSE(Multi Unit Spectroscopic Explorer) installato sul VLT dell’ESO in Cile. Gli astronomi si sono focalizzati sul Campo Ultra-profondo di Hubble, misurando distanze e proprietà di 1600 galassie molto deboli, trovando tra l’altro 72 nuove galassie che non erano mai state viste prima, neppure dal telescopio Hubble.

Questa base dati rivoluzionaria ha già portato a 10 articoli scientifici pubblicati in un numero speciale di Astronomy & Astrophysics. Una tale abbondanza di informazioni permette ora agli astronomi di dare uno sguardo nuovo alla formazione stellare nell’Universo primordiale, consentendo di studiare i moti e altre proprietà delle prime galassie, grazie alle capacità spettroscopiche uniche di MUSE.

Il gruppo che si occupa della survey dell’Hubble Ultra Deep Field (il Campo Ultra-profondo di Hubble o HUDF), sotto la guida di Roland Bacon dell’Università di Lione (CRAL, CNRS) Francia, ha usato MUSE per osservare appunto il Campo Ultra-Profondo di Hubble (heic0406), una zona molto studiata nella costellazione australe della Fornace. Lo sforzo ha prodotto le osservazioni spettroscopiche più profonde mai realizzate finora: sono state misurate informazioni spettroscopiche accurate per 1600 galassie, dieci volte più di quanto fosse stato ottenuto a gran fatica nel precedente decennio da vari telescopi da terra.

Le immagini originali dell’HUDF erano osservazioni pionierstiche realizzate dal telescopio spaziale Hubble della NASA/ESAe pubblicate nel 2004: sono le osservazioni più profonde di sempre e hanno rivelato uno zoo di galassie che risalgono a meno di miliardo di anni dopo il Big Bang. L’area è stata successivamente osservata molte volte da Hubble e da altri telescopi – si tratta di una delle zone più studiate del cielo, ben 13 strumenti montati su otto telescopi, tra cui ALMA, l’hanno osservata dai raggi X alle onde radio – producendo la veduta più profonda dell’Universo fino a oggi.

Roland Bacon continua il racconto: «MUSE può fare qualcosa che Hubble non può fare: suddivide la luce di ogni punto dell’immagine nei suoi colori componenti per creare uno spettro. Questo ci permette di misurare la distanza, il colore e altre proprietà di tutte le galassie che possiamo vedere, tra cui alcune invisibili anche a Hubble».

I dati di MUSE forniscono una nuova visione di galassie fioche e molto distanti, osservate com’erano poco dopo l’inizio dell’Universo, circa 13 miliardi di anni fa. Hanno rivelato galassie 100 volte più deboli che nelle survey precedenti, aggiungendole a un campo già riccamente osservato e approfondendo la nostra comprensione delle galassie nelle epoche cosmiche. E nonostante la profondità delle precedenti osservazioni di Hubble, MUSE ha – tra gli altri numerosi risultati – rivelato anche 72 galassie che non erano mai state viste prima in questa minuscola area di cielo.

Le 72 candidate galassie sono emettitrici di Lyman-alfa, la cui luce cioè è concentrata nella riga Lyman-alfa, prodotta quando gli elettroni dell’atomo di idrogeno cadono dal penultimo livello al più basso. Questa luce ha una lunghezza d’onda particolare nella zona ultravioletta dello spettro, ma nel caso di oggetti spostati molto verso il rosso (redshift) viene a trovarsi nella banda della luce visibile o nel vicino infrarosso, che gli astronomi possono  quindi più facilmente rilevare con i telescopi spaziali o da terra.

La nostra comprensione attuale della formazione stellare non spiega pienamente queste galassie, che sembrano brillare luminosamente in questo singolo colore. Ma grazie alla peculiarità di MUSE, disperde la luce nei suoi colori componenti, questi oggetti diventano subito evidenti, mentre sono invisibili nelle immagini dirette profonde come quelle di Hubble.

«MUSE ha la capacità unica di estrarre informazioni su alcune delle più vecchie galassie dell’Universo – anche in una zona del cielo che è già ampiamente studiata», spiega Jarle Brinchmann, dall’Università di Leida nei Paesi Bassi e dell’Istituto di Astrofisica e Scienze Spaziali al CAUP a Porto, Portogallo e primo autore di uno degli articoli che descrive i risultati di questa survey. «Impariamo cose su queste galassie che è possibile capire solo con la spettroscopia, come il contenuto chimico e i moti interni – e non una galassia per volta ma tutto in una volta sola per tutte le galassie!».

Questa sequenza mostra la regione del Campo Ultra-profondo di Hubble in cui sono evidenziati con un colore blu gli aloni di gas che risplendono intorno a molte galassie distanti, scoperti con lo strumento MUSE installato sul VLT (Very Large Telescope) dell’ESO in Cile. La scoperta di così tanti aloni estesi, che emettono radiazione ultravioletta nella riga Lyman-alfa, intorno a molte galassie distanti è uno dei tanti risultati ottenuti da questa survey spettroscopica molto profonda. Crediti: ESO/MUSE HUDF team

Un altro risultato importante di questo studio è stato la detezione sistematica di aloni luminosi di idrogeno intorno alle galassie dell’Universo primordiale, che ha fornito agli astronomi una nuova e promettente strada per studiare il modo in cui la materia fluisce dentro e fuori le galassie primordiali.

Molte altre potenziali applicazioni di questo insieme di dati, tra cui il ruolo delle galassie deboli durante la re-ionizzazione cosmica, il tasso di fusione tra galassie quando l’Universo era giovane, i venti galattici, la formazione stellare e la mappatura del moto delle stelle nell’Universo primordiale, vengono esplorate nella serie di articoli pubblicata.

«È giusto sottolineare che questi dati sono stati presi senza l’uso dell’ottica adattiva (AOF da Adaptive Optics Facility), recentemente aggiuta a MUSE. L’attivazione dell’AOF dopo un decennio di lavoro intenso di astronomi e ingegneri dell’ESO promette dati ancora più rivoluzionari in futuro,» conclude Roland Bacon.

Ad esempio ha già rivelato anelli prima sconosciuti intorno alla nebulosa planetaria IC 4406… e noi siamo qui ad aspettare le prossime straordinarie scoperte!

Tutti gli studi sui dati MUSE

 

 

Redazione Coelum

Crediti: ESO/MUSE HUDF collaboration

STORIE DALL’ORIGINE DELL’UNIVERSO: IL BUCO NERO SULL’USCIO DELL’UNIVERSO

Quasar e buchi neri formano una delle accoppiate più misteriose e interessanti dell’universo: un gruppo di astronomi, presso il Massachusetts Institute of Technology, il Max Planck Institute, il Carnegie Institute e altri enti, con una massiccia presenza di scienziati italiani, ha rilevato un buco nero super-massiccio distante circa 13 miliardi di anni luce da noi che mantiene in vita il quasar Ulas J134208.10+092838.61, emettendo una luminosità di miliardi e miliardi di stelle.

Per capire l’implicazione della ricerca bisogna rendersi conto che stiamo parlando di uno degli oggetti più distanti da noi mai osservati. Il buco nero misura circa 800 milioni di masse solari e l’importantissima scoperta ha meritato la pubblicazione su Nature.

All’origine della scoperta, ci ha spiegato lo scienziato a capo del survey Eduardo Bañados, del Carnegie Institute, c’è la rilevazione di un Quasar estremamente luminoso e massiccio.
L’oggetto si trova ad una distanza temporale di 690 milioni di anni dall’inizio dell’universo, quindi in scala cosmica stiamo parlando di un universo ancora molto giovane. Bañados ha detto: “L’oggetto ci offre una foto rara e unica di quando l’universo aveva il 5% della sua età attuale, insomma se l’universo fosse una persona di 50 anni adesso staremmo osservando la foto di quella persona quando ne aveva due e mezzo”.

Abbiamo contattato anche Chiara Mazzucchelli, una dei tre scienziati italiani all’interno del progetto, in forze all’ Istituto Max Planck per l’astronomia.
La ricercatrice ci ha spiegato cosa significa che J1342 sia un Quasar ad “alto redshift”.
“Proprio attraverso il redshift- ha spiegato la scienziata- noi possiamo collegare la distanza in cui il quasar si trova rispetto alla terra e rispetto al tempo in cui questo oggetto è stato osservato”.
Un dato estremamente sorprende è contenuto in un dato: “in 690 milioni di anni, dopo la formazione dell’universo, una serie incredibile di masse solari si è raccolta in un solo punto”

Una cosa del genere va a sfidare logicamente anche la fisica teorica: ” I modelli suggeriscono che questi buchi neri possono essersi evoluti da altri massicci conglomerati di gas con massa superiore di 10000 volte a quella del sole o addirittura dall’esplosione della prima generazione di stelle del nostro universo”.

Alcuni di questi modelli però portano alla formazione di buchi neri meno massicci, di quello che è stato rilevato nel quasar, si può allora attribuire l’oggetto ad un effetto chiamato aaccrescimento di super Eddington.

La scienziata italiana ci ha indicato che il “seme” da cui si è formato J 1342 deve essere stato pari ad “almeno 1000 masse solari e ad una distanza temporale di 100 milioni di anni dal Big Bang”.

Lo strumento che ha portato alla scoperta è Fire che impiega  gli infrarossi e si trova in Cile; FIRE è uno spettrometro che va a classificare gli oggetti proprio in base a questa frequenza misurando effetto redshift e doppler delle galassie e di altri oggetti come i quasar.

Un quasar dunque sembra legare i misteri dietro l’espansione dell’universo, la formazione della materia nell’universo primordiale e l’origine dei buchi neri, capire tramite i nuovi strumenti (Euclid, il JWT e l’E-ELT) l’origine di questo quasar risolverà una serie di problemi di lunga data, magari aprendo una nuova porta, piena di aria fresca, per la cosmologia.

Gianluigi Marsibilio

 

Crediti foto: Robin Dienel, Carnegie Institution for Science

Powered by WordPress.com.

Up ↑