UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Tag

science

L’IMPATTO ECONOMICO E AMBIENTALE DELLE NUOVE STRADE RISCHIA DI ESSERE TROPPO ALTO

La maggior parte dei paesi in via di sviluppo ha piani ambiziosi per l’espansione delle strade, che vengono spesso progettate per promuovere la crescita economica. Ad esempio, in soli tre anni, la lunghezza totale delle strade asfaltate raddoppierà nei paesi in via di sviluppo dell’Asia ma se in un primo momento questa può sembrare una buona notizia, scavando nel profondo, come ha fatto uno studio su Current Biology, si intravedono profondi rischi ambientali, sociali e economici dietro queste nuove ramificazioni stradali.

25 milioni di km di nuove strade saranno costruite nel mondo entro il 2050 – abbastanza per circondare il pianeta più di 600 volte. Circa il 90% delle nuove vie saranno collocate nelle nazioni in via di sviluppo, come ad esempio in regioni tropicali e subtropicali.

Analizzare i benefici di questi nuovi collegamenti è fondamentale e lo studio guidato da Bill Laurance l’ha fatto, indicando come: “Se mal pianificate o costruite le nuove strade possono provocare gravi superamenti dei costi iniziali, a causa della corruzione e per l’impatto ambientale”.

Dal punto di vista ecologico il ricercatore ci ha spiegato come: “Nelle aree boschive o selvagge le nuove strade apriranno un vero vaso di Pandora pieno di problemi come il disboscamento illegale o l’estrazione mineraria con una conseguente grande speculazione sulla terra. Si strapperanno ai governi le imposte e le royalties provocando una straordinaria distruzione ambientale”.

Nel lavoro vengono citati alcuni modelli come la nuova via della seta o strade che potrebbero estendersi attraversando oltre 70 nazioni, altro esempio viene fatto sull’Africa dove sono previsti 35 corridoi di sviluppo pronti ad attraversare l’intero continente.

Il rischio economico rimane spesso elevato ed è a lungo termine, solitamente anche istituti di credito e investitori si impegnano spesso nella pianificazione di grandi progetti rimanendo coinvolti spesso subendo difficoltà.

C’è anche da considerare, come ha spiegato il ricercatore che: “I costi di costruzione e di manutenzione per aree molto umide, zone montuose e aree pericolose per alluvioni possono essere estremamente alti. Tali zone devono sostenere costi 100 volte più alti per la progettazione di una strada”.

 

Altri rischi economici possono essere collegati alla corruzione, ai contratti per la costruzione di strade o a fondi pubblici persi, inoltre come ha approfondito Laurance: “Tali strade possono durare solo pochi anni prima di richiedere riparazioni e rimpiazzi importanti. I percorsi spesso non producono il livello di crescita economica che si spera, anzi esaminando molti studi precedenti su questo abbiamo scoperto che molti dei progetti sono stati eseguiti con scarsa cura”.

Sull’utilizzo di risorse economiche e ambientali influisce una dinamica chiamata “boom-and-bust”, che si verifica quando una strada nuova permette un facile accesso ad una risorsa, come il legname, che viene rapidamente sfruttata, sino al crollo dell’economia locale.

Le sfaccettature messe in luce dallo studio sono molte e possono essere analizzate sotto molteplici punti di vista, partendo da implicazioni per la vegetazione, la fauna e gli sviluppi sociali legati ai territori che sono attraversati delle nuove strade. Anche se alcune proposte sono completamente fuori “strada” e saranno difficilmente realizzate o completate occorre pensare al loro impatto complessivo per comprenderne il reale beneficio.

 

 

 

Gianluigi Marsibilio

HIV, PIANI SANITARI E PREVISIONI GLOBALI

Le cure primarie per l’HIV sono fondamentali per salvare vite umane: una diagnosi precoce riduce mortalità, probabilità di trasmissione e relativi costi per la sanità. Werner Leber e i suoi colleghi hanno pubblicato su The Lancet HIV un nuovo studio contenente una proposta per incentivare la prevenzione nei piccoli centri medici e nelle cittadine. I casi di HIV se diagnosticati presto e con un tempestivo trattamento permettono alle persone con HIV di avere una aspettativa di vita normale e ridurre le possibilità di essere infette, ad oggi circa 18.000 persone nel solo Regno Unito non sanno di avere l’HIV.
Lo studio ha mostrato come per estendere il programma alle aree più remote con l’aiuto delle autorità locali, dal punto di vista economico c’è bisogno di quattro milioni di sterline l’anno.
Su the Lancet è stato esaminato come in un quartiere londinese come Hackney c’è un’incidenza di 8 su 1.000 adulti affetti da HIV: la pratica di capillarizzazione del controllo ha portato ad un tasso di diagnosi quattro volte più ampio.
Per la diagnosi, come ci ha spiegato Leber, ci sono molti problemi: “In primo luogo, i pazienti possono non voler andare dal loro medico per paura di discriminazione da parte del medico/infermiera o dalla loro comunità una volta effettuata la diagnosi”. La colpa però è anche del personale sanitario che spesso: “Non offre il test perché si pensa che i pazienti non vogliano sottoporsi al test”, sempre a causa di lacune sanitarie e educative: “molti medici non offrono test perché non hanno ricevuto una formazione o denaro di uno specialista HIV”.
Lo screening ha vari effetti importanti ed è inteso come processo. Un’operazione del genere significa intervenire in un determinato ambiente con pazienti spesso ad alto rischio. Lo screening è anche un criterio che rende responsabili le istituzioni nei confronti dell’HIV: “Per lo screening devono essere soddisfatti certi criteri, come fornire informazioni sul servizio ai pazienti, valutare e monitorare il servizio e garantire della qualità. Ovviamente, i governi sono riluttanti a farlo perché costa soldi e risorse extra (personale)”.
Come ci ha spiegato lo studioso: “ Il costo medio di un trattamento perenne di un paziente, con una diagnosi effettuata all’età di 20 anni, è di circa 300.000 sterline. Tuttavia, questa cifra finirà per scendere dato che i farmaci antivirali generici sono sempre più disponibili sul mercato”.

Il costo che gestisce un programma di screening, come quello presentato dallo studio, è di circa £ 50.000 per una cittadina (di circa 250.000 abitanti) all’anno. Il costo di un solo test HIV è compreso tra £ 5 e £ 10.

La storia contenuta nello studio di The Lancet è un esempio di come sia imprescindibile far lavorare insieme governi, istituzioni locali e pazienti per migliorare complessivamente i servizi e allungare la vita delle persone.
In Italia i controlli sono gratuiti nelle strutture pubbliche, come specifica il centro nazionale dell’Istituto Superiore di Sanità: “Nelle strutture pubbliche, il test è gratuito, come specificato dal Decreto Ministeriale del 1° Febbraio 1991, che individua le malattie che danno diritto all’esenzione dal ticket”.
L’AIDS attraverso l’infezione da HIV ha portato più di 35 milioni di morti, oggi circa 37 milioni ne sono affetti e molti di loro non ne sono effettivamente consapevoli.

L’editoriale uscito su Science spiega che: “Gli attuali sforzi ridurranno le nuove infezioni del 90% nel corso del prossimo decennio, ma ci saranno ancora 200.000 nuove infezioni ogni anno”. Oltre 40 milioni di persone vivranno con l’HIV, siamo ancora nel mezzo di una guerra.
Gianluigi Marsibilio

SCIENZA CHE VINCE, CONVINCE

Una ricerca pubblicata su Science Communication mostra come le innovazioni in campo scientifico riescono a portare fiducia nell’opinione pubblica, il caso particolare analizzato dallo studio riguarda il primo trial del vaccino per Zika.

 

Il vaccino contro Zika, nell’agosto 2016, si trovava ad essere testato per la prima volta su degli uomini. In quel lasso di tempo un team guidato da Joseph Hilgard, un ex postdottorato presso l’Annenberg Public Policy Center (APPC), stava monitorando le reazioni di un campione totale di 34,266 risposte per registrare il modo in cui le persone reagiscono alle scoperte e innovazioni e come cambiano il loro modo di vedere la scienza.
Ai partecipanti è stato chiesto di scegliere tra le due affermazioni: “La scienza ci permette di superare quasi tutti i problemi” o “La scienza crea conseguenze non intenzionali e sostituisce problemi vecchi con quelli nuovi”.
Il rapporto tra le notizie scientifiche e il grande pubblico è, come possiamo vedere tutti i giorni, inspiegabilmente controverso. Lo studio mette al centro il comportamento di un singolo elemento dinanzi ad un contesto/ ciclo di notizie di carattere innovativo sulla scienza.
L’analisi può essere utile per mostrare come si può effettivamente cambiare il modo di guardare delle persone nei confronti della scienza.
Hilgard ci ha spiegato: “La prospettiva storica della comunicazione scientifica suggerisce che la scienza negli USA era vista in modo favorevole tra gli anni ‘50 e ‘70, grazie alle vittorie nella guerra mondiale e nei successi spaziali”.
“Il problema non è nell’amore della gente nei confronti della scienza, loro infatti pensano sia migliore una scienza che riesce a confermare le opinioni e diffidano quando ci sono disaccordi: in questo caso- nessuno vuole prendere Zika, quindi pensavamo che le persone si sentissero sicure grazie ad un possibile vaccino”.
Nelle settimane indicate la fiducia è migliorata, anche grazie ad una copertura capillare sul possibile vaccino, tuttavia la capacità di vedere positivamente istituzioni come il CDC o NIH non è migliorata, nonostante la presenza dei direttori delle due agenzie schierati nella divulgazione.
Nella capacità di comunicare anche lo scienziato ha precisato informalmente: “Direi che è importante considerare il pubblico che abbiamo davanti (il loro livello di conoscenze tecniche, i loro valori e gli interessi)”. Altro fattore chiave è “Mai esagerare sui tuoi risultati”.
Lo studio mostra come gli intervistati più anziani, gli afroamericani, le donne e i conservatori hanno più probabilità di esprimere preoccupazioni che la scienza ha conseguenze non intenzionali. Gli atei e gli intervistati più istruiti avevano più probabilità di affermare che la scienza ci permette di superare quasi tutti i problemi.
L’attenzione alle notizie di Zika ha dimostrato un aumento che è effettivamente iniziato l’8 agosto, ed è rimasto significativo per le settimane successive.
Sia i Google Trends che altri strumenti di indagine hanno mostrato come con il vaccino in sviluppo l’attenzione è stata notevolmente aumentata e conseguentemente con i trial sulle persone, anche la fiducia della gente è migliorata complessivamente.
L’effetto principale dell’attenzione alle notizie di Zika è stato significativo, infatti l’attenzione è correlata all’approvazione della scienza dal punto di vista popolare.
Un ultimo consiglio ci è stato regalato da Hilgard: in un’epoca di fake news, in particolare per quanto riguarda il campo scientifico: “E’ importante insegnare alle persone a controllare le fonti e ad utilizzare Google Image Search per vedere se le immagini sono delle riproposizioni o magari dei falsi”.

Gianluigi Marsibilio

SCIENZA AL CINEMA, LE ILLUSIONI SONORE DI CHRISTOPHER NOLAN

Cosa hanno in comune l’Offerta Musicale di Bach e i film di Nolan? L’uso della scala Shepard, ovvero una scala musicale che prende il nome dallo psicologo che l’ha inventata, ed è un esempio di come una determinata sequenza di note, che venga suonata in diverse ottave differenti e con varie intensità, riesca a dare un effetto illusorio di suspense.

Dal punto di vista scientifico l’effetto consente ad un suono di una scala ascendente o discendente di sembrare infinitamente percorribile: i toni nella scala sono costantemente in movimento verso l’alto o verso il basso, ma non danno mai l’impressione raggiungere lo zenit sonoro.

Le scale dal punto di vista musicale, vengono suonate una sopra l’altra in varie altezze sonore.

 

L’utilizzo di questo strumento è stato anche spiegato da Nolan in un’intervista a Business Insider: “La sceneggiatura – riferendosi a Dunkirk- è stata scritta secondo principi musicali. C’è un’illusione audio, se la si vuole chiamare così, chiamata “scala Shepard” e con il mio compositore David Julyan è da The Prestige” che abbiamo esplorato e basato molto dello score intorno a questa scala. Ed è un’illusione quando si ascolta la continua ascensione di tono- infine il regista ha concluso- ho voluto costruire la musica su principi matematici”.

Il cinema nasconde sempre molta scienza, addirittura le sale possono essere un luogo perfetto per portare avanti esperimenti: uno studio apparso alcuni anni fa su Scientific Reports, ha studiato come l’aria in sala poteva cambiare, dal punto di vista chimico, in base alle emozioni provate durante il film. I ricercatori hanno installato i loro dispositivi nel locale del cinema per registrare il biossido di carbonio e più di un centinaio di altri componenti chimici esalati dal pubblico, ad esempio avevano inserito nel sistema di ventilazione uno spettrometro di massa, che ha raccolto misurazioni ogni 30 secondi.

Il cinema è un crocevia di scienza e fantasia e i registi come i migliori ricercatori si lasciano ispirare da ogni elemento che contemplano.

 

#LIBRODELLASETTIMANA- LA SCIENZA NELLE GRAPHIC NOVEL

Questa settimana non ci concentriamo su un unico lavoro, ma su alcune graphic novel che vi faranno apprezzare e scoprire scienziati, filosofi e storie dietro delle vere rivoluzioni del pensiero scientifico: tutto questo in un contesto leggero e con un’elevata qualità artistica.

1. Mooncop- Tom Gauld

Il primo consiglio non è strettamente legato apparentemente alla divulgazione scientifica, ma il lavoro di Gauld, un giovanissimo illustratore che da anni collabora come vignettista per il NY Times, the Guardian e New Scientist, esprime dei sentimenti e sensazioni importanti legati alla corsa allo spazio, e in particolare a dei personaggi che si ritrovano a vivere sulla Luna.

Gauld con le sue vignette è di una disarmante genialità, e nelle sue rappresentazioni c’è una forma di umanità tanto reale quanto surreale, per questo vi consigliamo veramente di correre a prendere i suoi lavori dopo aver letto la nostra chiacchierata (qui trovate una sua intervista). Le sue ispirazioni arrivano dalla letteratura scientifica: divertitevi a scoprirle e lasciatevi catturare da questo lavoro assoluto.

 

2. Heretics!- Steven Nadler and Ben Nadler

 

Galileo, Cartesio, Spinoza, Locke, Leibniz e Newton con i loro studi hanno permesso un vero cambio di paradigma nella comprensione della scienza e proprio in questo spostare i limiti oltre ogni tabù si sono spesso scontrati con ogni tipo di autorità. Heretics! Racconta con leggerezza queste storie con incredibile ironia, genialità e perspicacia in un momento che dal punto di vista storico è complesso da spiegare.

Non c’è mai un momento di noia e in ogni racconto tutto si intreccia attraverso una serie meravigliosa di disegni.

 

In questi anni lavori del genere si stanno moltiplicando: ad esempio è interessante leggere la storia di Feynman tramite il volume di  Jim Ottaviani  e Leland Myrick. L’immagine di uno degli scienziati più interessanti e rivoluzionari della nostra epoca si compone dentro queste pagine che dal 2011 catturano scienziati, divulgatori e lettori.

Ultima segnalazione, che potete vedere direttamente qui, arriva dalla storia a fumetti realizzata da Nature per  celebrare 50 anni di Star Trek e 150 anni dalla nascita di H. G. Wells: la graphic novel che è venuta fuori è appassionante e racconta tante sfumature sul rapporto tra scienza, fantascienza e ispirazione.

 

Gianluigi Marsibilio

CAMBIAMENTO CLIMATICO, L’ECONOMIA USA RISCHIA GRAVI DANNI

Il cambiamento climatico è un danno anche per i singoli stati e con un nuovo studio su Science viene mostrato come gli Stati Uniti, nel corso degli anni, diventeranno più poveri e disuguali in caso del mancato rispetto degli impegni contro il clima. Alcune contee potrebbero pagare un danno di oltre 20% sul reddito.

Amir Jina, Assistente Professore dell’Harris School of Public Policy e coautore dello studio ha spiegato: “Nel documento conduciamo un’analisi che stima una funzione dei danni, cioè la relazione tra la modifica della temperatura media della superficie globale e l’attività economica”.

Quello che viene fuori sono danni complessivi per 6 settori che sono stati analizzati; inoltre i danni al PIL USA saranno compresi tra l’1% e il 5% all’anno alla fine del secolo (media del 2080-2099), per un livello di uno 0,5% al ​​2% in uno scenario di emissioni moderate. Gli stati non saranno colpiti nello stesso modo, quelli meridionali saranno i più colpiti: “ Texas, Louisiana e Florida avranno danni particolarmente elevati. – ha precisato lo scienziato- Una delle ragioni di questo è che la nostra analisi mostra molti effetti di soglia aumento della temperatura” .

Lo studio è un unicum e accende il dibattito intorno al cambiamento climatico, i danni principali per gli USA sono stati calcolati in base a sei settori: l’agricoltura, la criminalità, la salute, la domanda di energia, lavoro e il tema delle comunità costiere.

I giorni superiori ai 30 gradi C sono assolutamente dannosi per la salute rispetto ad altri giorni sui 27 o 28 ° C:“Soglie simili possono intaccare la produttività del lavoro, l’utilizzo di energia e provocare danni nell’agricoltura. Molti luoghi negli Stati Uniti meridionali sono vicini a queste soglie”.

Gli stati settentrionali saranno ancora lontani da queste soglie, le zone atlantiche però potranno soffrire dell’aumento del livello del mare.

Dal punto di vista globale, gli impatti sulla salute e sulla mortalità saranno devastanti, come ha spiegato Jina: “Attualmente stiamo lavorando ad un’analisi globale, che include anche l’adattamento. Nella comunità scientifica ci aspettiamo che gli impatti sulla salute siano uno dei maggiori costi, ma ci sono anche altri settori che possono avere anche grandi costi. La ricerca sarà molto utile per la politica globale e l’azione”.“Il cambiamento climatico non influirà ugualmente in tutti gli stati” ha precisato lo scienziato, ogni zona reagirà in modo diverso.

 

 

Le temperature globali, secondo alcuni scenari, aumenteranno di 4 gradi C, la nuova analisi afferma: “Una probabilità di 1 a 20 che si tocchino circa 8 gradi C in più”.

Quando il presidente Trump ha deciso di ignorare l’impatto del clima sul pianeta con la decisione drastica di uscire dall’accordo della Cop21 ha dimenticato di analizzare i contributi che gli USA danno al cambiamento climatico, come secondo più grande inquinatore al mondo.

Gli scienziati stanno facendo ricerche fondamentali e che devono essere ascoltate dalla comunità globale, non c’è più spazio, né tempo.

 

 

CAPIRE L’UNIVERSO CON UN SUPERCOMPUTER, FEDERICO MARINACCI CI PARLA DEL PROGETTO AURIGA

Federico Marinacci è un giovane scienziato italiano, attualmente in forze all’MIT Kavli Institute, la sua storia parte da Perugia, attraversa Bologna e arriva negli Usa, tuttavia il vero leit motif della sua vita sono le galassie e la loro formazione, oggi ci ha raccontato uno dei progetti più innovativi nel campo dello studio dell’Universo: AURIGA.

 

Come nasce l’idea di simulare la formazione delle galassie in un supercomputer? Come si costruisce una simulazione in un supercomputer?

L’idea di simulare la formazione delle galassie in un supercomputer deriva dal fatto che i meccanismi di formazione e di evoluzione delle galassie rappresentano un problema estremamente difficile da affrontare. La descrizione dei processi fisici che plasmano l’evoluzione di questi oggetti astronomici rende necessario l’utilizzo di modelli teorici molto raffinati e sofisticati. Data la complessità dei modelli impiegati, l’approccio numerico è l’approccio più completo per estrarre l’informazione necessaria a meglio comprendere la formazione delle strutture nell’Universo. Ovviamente i modelli numerici non sono perfetti ed esenti da approssimazioni, a volte anche abbastanza grossolane. Tuttavia la continua crescita della potenza di calcolo installata nei supercomputer ha permesso che modelli via via più sofisticati possano essere utilizzati nelle simulazioni per ottenere una descrizione più realistica dei vari processi fisici che concorrono a formare una galassia. Questo duplice progresso, sia nella potenza di calcolo sia nella accuratezza delle simulazioni, è stato inarrestabile, e consente di sviluppare teorie sempre più complete sull’evoluzione del nostro Universo.
La realizzazione di una simulazione cosmologica in un supercomputer è un lavoro complicato. Prima di arrivare ad eseguire la simulazione principale sono necessari diversi mesi di sviluppo e di test del codice numerico da impiegare. Un codice numerico per simulazioni cosmologiche è composto da diverse parti, dette moduli, ognuna delle quali descrive l’evoluzione di un dato processo fisico. Ci sono moduli preposti a calcolare la forza di gravità, altri che descrivono l’evoluzione del gas nella simulazione, altri ancora che quantificano il numero di stelle o buchi neri si formano, altri che tengono conto di quanta energia le stelle e i buchi neri emettono e quali conseguenze questo rilascio di energia ha sul gas (il cosiddetto feedback), ecc. Tutti questi moduli devono funzionare all’unisono per poter seguire l’evoluzione degli oggetti astronomici simulati per l’intera vita dell’Universo, all’incirca 14 miliardi di anni.
Una volta messo a punto il modello, anche eseguire le simulazioni su un supercomputer non è affatto semplice. Prima di tutto, occorre individuare il supercomputer più adatto su cui effettuare la simulazione. Successivamente bisogna inoltrare una domanda per ottenere il tempo di calcolo necessario ad effettuare le simulazioni desiderate, che può essere dell’ordine di milioni di ore di calcolo. Dato che il tempo di calcolo è prezioso ed è una risorsa finita, la richiesta di accesso al supercomputer è valutata da esperti che decidono se il progetto presentato è meritevole di essere premiato, sia dal punto di vista scientifico che di uso delle risorse. Un volta ottenuto il tempo di calcolo bisogna “far girare” il codice sulla macchina e far fronte ai vari problemi, sia di natura informatica sia relativi al modello utilizzato, che si possono presentare nel corso della simulazione. Nel progetto Auriga abbiamo utilizzato qualche migliaio di processori su cui abbiamo eseguito le simulazioni per un periodo di alcuni mesi. Complessivamente queste simulazioni hanno prodotto terabyte di dati. In seguito, questa enorme quantità di dati deve essere analizzata e tale processo richiede ulteriori risorse di calcolo avanzate. Da questa descrizione sommaria è possibile capire il grado di complessità di questi studi e come progetti di questa portata siano possibili soltanto grazie all’impegno coordinato di un gruppo di ricerca, con competenze che spaziano dalla conoscenza dell’astrofisica a quella di calcolo numerico e di informatica.

Con il progetto AURIGA su quali proprietà delle galassie vi state concentrando?

Il progetto Auriga nasce con l’intento di studiare la formazione e l’evoluzione di galassie simili alla Via Lattea. Capire la formazione e l’evoluzione di questi sistemi da un punto di vista teorico è stato un problema la cui soluzione ha impegnato gli astrofisici per decenni. Soltanto recentemente questo problema sembra aver trovato una soluzione. Con questo non voglio dire che abbiamo una teoria che spieghi tutti gli aspetti della formazione e dell’evoluzione di questi oggetti astronomici, ma rispetto a circa un decennio fa sono stati compiuti notevoli progressi. In particolare, vari gruppi di ricerca sono ora in grado di produrre nelle loro simulazioni galassie le cui caratteristiche sono in accordo ragionevole con le proprietà osservate nella Via Lattea, cosa che fino a poco tempo fa sembrava un obiettivo quasi irrealizzabile.
In linea di principio, una simulazione numerica ci permette di studiare quasi tutti gli aspetti che vogliamo di una galassia, compatibilmente con i modelli che si sono usati nella simulazione stessa e con la sua risoluzione massima. È ovvio, ad esempio, che non si può studiare l’evoluzione di una singola stella se, come nel caso di Auriga, il più piccolo elemento di massa di cui la simulazione può tenere traccia è di qualche migliaio di masse solari. Tuttavia, nonostante queste limitazioni, il numero di proprietà che può essere indagato è molto elevato. Ad esempio, si possono studiare la distribuzione della densità di stelle all’interno della galassia, la quantità di gas che questa contiene, in che modo le stelle ed il gas nella galassia si muovono, quali e quanti elementi chimici sono sintetizzati nelle stelle nel corso della loro evoluzione, il legame tra una galassia e l’ambiente che la circonda. Questo è un elenco che riporta solo alcuni temi che sono stati (o saranno) oggetto di studio da parte del progetto Auriga.
Con il progetto Auriga siamo interessati allo studio di due aspetti principali delle proprietà delle galassie simulate. Da un lato vogliamo confrontare i nostri risultati con i dati osservativi disponibili per questo tipo di galassie. In questo modo possiamo avere un’idea della capacita dei modelli teorici, che rappresentano la fonte principale di incertezza nelle simulazioni, di produrre delle galassie che assomigliano a quanto si osserva nell’Universo. Il secondo aspetto consiste nel ricavare dalle nostre simulazioni delle previsioni sulle proprietà delle galassie, al fine di guidare le osservazioni future e di migliorare la comprensione di quelle esistenti. In entrambi i casi il confronto tra i risultati ottenuti a partire dalle simulazioni e le osservazioni è un elemento cruciale per accrescere la nostra conoscenza dell’evoluzione dell’Universo e degli oggetti che lo popolano.

Qual è l’importanza dei buchi neri nella formazione delle galassie?
I buchi neri rivestono un ruolo molto importante nella formazione ed evoluzione delle galassie. Prima però occorre fare una precisazione: i buchi neri di cui sto parlando sono quelli che si trovano al centro di una galassia. Questi buchi neri sono giganteschi, infatti possono avere una massa dell’ordine di miliardi di volte quella del nostro Sole e per questo vengono definiti supermassicci. Il loro meccanismo di formazione non è ancora totalmente ben compreso. Tuttavia le osservazioni mostrano che le loro proprietà, ed in particolare la loro massa, sono legate a quelle delle galassie che li ospitano. Questo ha portato gli astronomi ad ipotizzare che ci sia una sorta di co-evoluzione tra il buco nero supermassiccio presente al centro di quasi tutte le galassie e la galassia stessa.
La presenza di questa co-evoluzione riveste un ruolo fondamentale per una galassia. Questo perché i buchi neri supermassicci, tramite l’accrescimento di parte del gas presente nella galassia ospite, emettono un’enorme quantità di energia che depositano nel gas stesso, modificandone il comportamento. Semplificando al massimo, una galassia può essere vista come una fucina in cui il gas presente viene convertito in nuove stelle. L’energia liberata da un buco nero supermassiccio modifica l’efficienza di tale processo. In casi estremi, l’energia rilasciata è talmente grande da far cessare completamente la formazione stellare, con profonde implicazioni sull’evoluzione futura della galassia stessa. Questo meccanismo di feedback da buco nero è estremamente efficiente in galassie molto grandi, che si trovano all’interno dei cosiddetti ammassi di galassie, oggetti che contengono migliaia di galassie legate tra di loro gravitazionalmente. In effetti, le simulazioni numeriche suggeriscono che questo è il meccanismo principale per cui, al giorno d’oggi, le galassie al centro degli ammassi non producono più nuove stelle.
Per galassie più piccole l’importanza di questo canale di feedback diminuisce ed altri processi, che vanno sotto il nome di feedback stellare, controllano l’efficienza della conversione di gas in stelle. Le galassie che abbiamo simulato nel progetto Auriga sono, per così dire, nella zona di transizione tra questi due canali di feedback. In particolare il nostro studio ha mostrato che l’energia proveniente dal buco nero può influenzare la struttura della galassia che lo ospita, e nello specifico l’estensione del suo disco stellare. Ad ogni modo, vi sono altri fattori in grado di poter influenzare la struttura della galassia oltre all’energia prodotta dal buco nero. Quindi serviranno studi ulteriori per capire appieno come tutte le tessere del puzzle si incastrino tra loro. È però interessante vedere come il buco nero centrale possa condizionare l’evoluzione di oggetti in cui non è previsto un effetto così marcato.

Qual è il legame tra il progetto AURIGA e le missioni spaziali attualmente in corso che stanno mappando il cielo?

Come ho già avuto modo di osservare brevemente sopra, il legame tra le simulazioni e le osservazioni è di fondamentale importanza per avanzare la conoscenza dei processi fisici che plasmano l’evoluzione delle galassie. Da un lato, le simulazioni permettono di creare modelli teorici che poi vanno testati rispetto all’evidenza osservativa e che possono aiutare ad interpretare i dati disponibili; dall’altro, le osservazioni guidano la costruzione dei modelli teorici da utilizzare nelle simulazioni.

Il progetto Auriga si occupa di diverse aree scientifiche, ciascuna delle quali analizza determinate proprietà delle galassie simulate. Tali proprietà vengono confrontate con quelle delle galassie reali, osservate con strumenti di vario tipo, sia da terra che dallo spazio, a differenti lunghezze d’onda, che vanno dalla banda radio ai raggi X. Rimanendo nell’ambito delle missioni spaziali attualmente in corso, confronteremo la distribuzione, la composizione chimica e la cinematica (ossia il moto) delle stelle presenti nelle simulazioni con i dati ottenuti dal satellite ESA Gaia. Questo satellite ha l’obiettivo di produrre una mappa astrometrica (vale a dire misurare la distanza, la posizione e la velocità) molto accurata di circa un miliardo di stelle della Via Lattea. Questa enorme mole di dati ci consentirà di eseguire un confronto molto dettagliato tra le nostre simulazioni e l’Universo reale, al fine di formulare teorie sempre più realistiche che svelino i misteri dell’Universo che ci circonda.

Gianluigi Marsibilio

Crediti foto: Robert J. J. Grand, Facundo A. Gomez, Federico Marinacci, Ruediger Pakmor, Volker Springel, David J. R. Campbell, Carlos S. Frenk, Adrian Jenkins and Simon D. M. White

IL PARKINSON è UNA MALATTIA AUTOIMMUNE?

Considerare il Parkinson come malattia autoimmune è un’idea che parte da lontano, affermata circa un secolo fa: oggi una ricerca apparsa su Nature, che ha visto nel team Alessandro Sette, del Centro per le malattie infettive e Divisione di scoperta dei vaccini del La Jolla Institute for Allergy and Immunology e David Sulzer Professore del dipartimento di Psichiatria, Neurologia, Farmacologia della Columbia, ha confermato che una parte del sistema immunitario lancia degli attacchi all’alfa-sinucleina, proteina chiave nello sviluppo della malattia.

La ricerca, come ha spiegato il professor Sette: “Ha trovato prove di questi attacchi lanciati dal sistema immunitario al cervello con malattia di Parkinson. In modo particolare abbiamo visto che l’alfa sinucleina, che aggrega i neuroni in un’area chiamata substantia nigra, attiva le cellule T”.

Si deve ancora capire il ruolo della risposta immunitaria all’alfa-sinucleina: “Per comprendere se sia una causa iniziale della malattia o contribuisca alla morte neuronale, peggiorando i sintomi”.

David Sulzer ci ha dichiarato: “Ora il Parkinson avrà somiglianze con altri disturbi come il diabete di tipo 1 o la sclerosi multipla”. Il sospetto che il sistema immunitario svolgesse un ruolo determinante nella malattia era presente dal 1920. “L’ipotesi- ha precisato Sette- non ha più avuto attenzione, dato che gli scienziati pensavano che i neuroni fossero protetti da attacchi autoimmuni”. Per arrivare a rivoluzionare l’idea della malattia il team ha effettuato esami del sangue su malati, mostrando per la prima volta una risposta immunitaria a questi antigeni, mentre le persone sane non rivelavano alcun “attacco” in corso.

Lo sviluppo di questa ricerca potrà portare in avanti lo studio di terapie efficaci: “La scoperta fornisce una tabella di marcia per nuovi tipi di farmaci che possono arrestare o rallentare la progressione della malattia, attenuando la risposta immunitaria” ha indicato Sette.

L’idea è quella di colpire con terapie proprio i neuroni che iniziano a degenerare nel tempo: il deterioramento dei neuroni porta a modulare il movimento muscolare, far perdere la coordinazione, l’equilibrio e a sviluppare i tremori presenti nei pazienti.

I risultati della ricerca mettono in campo la possibilità di capire e aumentare la tolleranza del sistema immunitario all’alfa sinucleina, riuscendo a prevenire o bloccare il peggioramento dei sintomi.

La strada è ancora lunga, ma quella imboccata è giusta e oggi si può affermare che un nuovo tassello sulla ricerca al Parkinson è stato posato.

 

 

Gianluigi Marsibilio

UN MARE NON SOSTENIBILE

Il mare è una vera fucina dello schiavismo: a farlo presente grandi inchieste uscite su NYTimes, Guardian e altri importanti testate internazionali. In settimana un articolo pubblicato su Science da vari istituti e ricercatori di enti e associazioni ha evidenziato l’esigenza di cambiare rotta a questo sfruttamento selvaggio di uomini che, attraverso 22 ore di lavoro spesso mal pagate, si aggiunge ad una cattiva condotta in mare che porta ad uno abuso di pesca dei frutti di mare.

Le tre priorità messe in luce dal documento vanno dalla tutela dei diritti umani, la dignità e il rispetto per l’accesso alle risorse; e la garanzia di uguaglianza e opportunità eque a beneficio; migliorando il cibo e il mantenimento di sicurezza.

Il Dr. Cisneros-Montemayor ha spiegato il senso di queste priorità: “Gli oceani sono l’ultima grande fonte di cibo selvatico per gli umani, ma sono molto meno regolamentati dei sistemi di terra,ad esempioil settore dei frutti di mare è incredibilmente complesso e difficile da governare. La ricerca scientifica moderna tende ad essere molto specifica, ma la pesca e il settore frutti di mare coinvolgono molteplici aree ecologiche e sociali, quindi è difficile visualizzare l’intero settore e le sue problematiche”.

L’idea comunque di sviluppare una politica di comportamento per il trattamento dei lavoratori e dello sfruttamento dei mari è un archetipo comune in questi ultimi anni: su Marine Policy, è uscito uno studio di vari autori dell’Università di Washington, l’University of British Columbia e Stanford University, che hanno analizzato la situazione del mare da un punto di vista ecologico e sociale. La ricerca, guidata da Cisneros- Montemayor e altri è una naturale prosecuzione di questi studi.

La sfida rimane l’eccesso di pesca, stiamo catturando semplicemente troppi pesci per continuare con questi ritmi.

“Il problema è che meno pesci ci sono- ha dichiarato Cisneros- Montemayor – più la capacità di pesca (tramite reti e barche più grandi) aumenta nell’oceano, questo significa che la quantità di pesce diminuisce sempre di più”.

Trovare soluzioni adatte agli ecosistemi più influenzati dai cambiamenti climatici è fondamentale per un rinnovamento nel settore del lavoro e ambientale.

 

I frutti di mare sono molto ricercati in alcuni mercati, l’idea migliore è: “Dare incentivi ai vari sistemi per essere più sostenibili, sia che si tratti di proprietà su risorse o altre fonti di reddito che si basano su ecosistemi sani (come l’ecoturismo)”. I benefici delle risorse devono essere distribuiti e ben studiati perché se ricadono su pochi, aumenteranno il tasso di pratiche di pesca illecite e conflitti sociali.

Solo negli USA la pesca genera 200 miliardi di dollari e anche con un leggero calo del profitto del pescato è fondamentale trovare soluzioni. Convincere i pescatori a ottenere benefici attraverso la cura della risorse è la sfida dei prossimi anni: “Se loro pescano in modo sostenibile, ma qualcun altro va a prendere i loro pesci, questo sistema sarà fallimentare”.

Anche le grande aziende vanno monitorate e controllate per far in modo che riescano ad applicare le leggi nazionali ed internazionali. L’OHI (Ocean Health Index), eleborato dall’UC di Santa Barbara sta dipingendo tramite i Big Data un quadro scientifico per monitorare la salute degli oceani del mondo.

La speranza è quella di valutare 220 paesi costieri per una grande scorpacciata di dati, lo sforzo sta occupando più di 30 scienziati e centinaia di database colmi di dati.

Il trend generale è esente da miglioramenti nell’oceano e non c’è nemmeno alcun peggioramento grave: punteggi per ciascun obiettivo vanno da 0 a 100, e il quarto punteggio consecutivo globale è di 71, e mentre l’oceano è rimasto stabile, la sua condizione è lontana dal 100 desiderato che indicherebbe piena sostenibilità.
Oceani, frutti di mare e sostenibilità, quale futuro per le acque del mondo?

Powered by WordPress.com.

Up ↑