UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Category

Coscienza

COME FUNZIONA UN CHIP FOTONICO?

Elaborare segnali quantistici avanzati è uno degli obiettivi dei ricercatori dell’Università di Sydney che per la prima volta sono riusciti a immagazzinare informazioni digitali trasportate attraverso delle onde luminose. 

Lo studio che raccoglie lo straordinario successo è stato pubblicato su Nature Communications.
La trasformazione di dati dal dominio dell’ottico all’acustico e viceversa, all’interno di un singolo chip, è fondamentale per la creazione di circuiti integrati fotonici. In parole povere l’idea è quella di produrre strumenti che utilizzano fotoni per gestire i dati.

Come ci ha spiegato Birgit Stiller, della scuola di Fisica dell’Università di Sydney: ” Siamo stati capaci di ottenere le informazioni tramite un trasferimento coerente”. Gli scienziati tramite il chip fabbricato dal laser physics center sono stati capaci di trasferire i parametri degli impulsi ottici, come l’intensità, frequenza e fase ottica in onde acustiche. Birgit ha spiegato: ” Compiendo un ulteriore trasferimento abbiamo ottenuto le informazioni”.

Ma perché è così importante sostituire il segnale da ottico a acustico e viceversa?

Sappiamo che la velocità del suono è centomila volte più bassa di quella della luce, avere un sistema ottico di immagazzinamento dei dati è utile per una presa di informazioni su lunghe distanze, per esempio attraverso i continenti ma
questo va a complicarsi quando la velocità non è più un vantaggio bensì un fastidio, dato che i computer ed i sistemi di telecomunicazione non riescono ad elaborare velocemente tutte le informazioni.

Sappiamo da anni che il trasferimento fotone – fonone – fotone è ampiamente coerente e i tempi di stoccaggio sono estremamente veloci, riconducibili all’ordine dei microsecondi.

Al centro di questo incredibile sistema c’è un elemento chiamato buffer, il professor Benjamin Eggleton anche lui dell’Università di Sydney ci ha spiegato:”Un buffer è un elemento di archiviazione fondamentale per memorizzare le informazioni in onde sonore”.

”Questi strumenti- ha aggiunto lo scienziato- consentono di sincronizzare diversi canali di comunicazione e sono componenti essenziali nelle reti, ad esempio i data center”.

Il gruppo di ricerca lavora da oltre 5 anni su questi sistemi e ha già precedentemente dimostrato che il trasferimento è coerente per memorizzare e recuperare le diverse informazioni.

I dati forniti dalla luce hanno enormi vantaggi rispetto alle informazioni elettroniche ma hanno un problema essendo troppo veloci  hanno bisogno di subire un rallentamento per essere immagazzinate.

Birgit Stiller ha spiegato nel dettaglio questo meccanismo per stoccare le informazioni presenti nel loro chip: ” Le informazioni continuano a rimanere nel dominio ottico solo per un breve periodo in cui la luce viene messa in attesa, in questo momento c’è una trasformazione in onda acustica, questo passaggio è fondamentale per riuscire ad immagazzinare i dati”.

Una volta che l’informazione acustica ha compiuto il suo lavoro tutto quanto torna nel dominio ottico, sostanzialmente capiamo che l’onda acustica viene utilizzata semplicemente come un mezzo di memoria.

Lo studio permette di aggirare i dannosi effetti di dispersione dei dati dovuti alla enorme velocità della luce, i ricercatori dunque sembrano aver trovato una quadratura del cerchio per scrivere e leggere impulsi ottici in questo meccanismo fotonico- fononico.

Ad oggi è possibile cercare un miglioramento tramite la scelta di un materiale migliore, il passo avanti, secondo Birgit può essere fatto ”sostituendo il softglass, attualmente utilizzato, in un chip di silicio”.

La strada comunque rimane lunga e bisogna estendere il funzionamento del dispositivo a dei livelli più elevati, la sfida secondo Eggleton è quella di : ” essere compatibili con sistemi di comunicazione ottica contemporanea  e i datacenter”.

Gianluigi Marsibilio

3000 SPECIE A RISCHIO IN FIUMI, MARI E OCEANI

Il cambiamento climatico è reale e molte specie di pesci potrebbero subirne le conseguenze: una nuova analisi pubblicata su Nature Climate Change ha evidenziato come quasi 3000 specie di pesci che vivono negli oceani e nei fiumi subiranno conseguenze gravi a causa del cambiamento climatico. Lise Comte. dell’Università di Washington, ci ha parlato della sua ricerca appena uscita: ” I pesci che vivono nei Tropici saranno i più vulnerabili all’aumento della temperatura, ma il rischio più elevato sarà per i bacini d’acqua dolce situati nell’emisfero settentrionale”.
80 anni di studi sono stati sintetizzati nel loro paper, che ha coniugato campioni raccolti sul campo e decine di simulazioni in laboratorio.

Come ha messo in luce nel suo editoriale  su Nature Jennifer Sunday:  “La ricerca di Lisa e Giulia sta producendo una stima della sensibilità al clima di circa 2960 specie”.

Il problema esiste particolarmente nei Tropici, poiché le specie tendono ad avere una maggiore sensibilità al riscaldamento climatico, dato che le temperature ambientali sono molto più vicine ai loro limiti naturali.

Le specie saranno costrette a migrare, adattarsi o morire. Come mostra l’analisi, tutti i mari e tutti i fiumi saranno colpiti dalle variazioni: la vera sfida è quindi creare un vero piano di salvataggio globale per queste specie.

La scienziata ci ha detto: ” Un passo successivo può essere sicuramente quello di dare priorità ad azioni di conservazione nelle aree che sono state identificate come più vulnerabili. Per favorire l’operazione si può pensare ad aumentare la qualità dell’habitat o facilitare i movimenti dei pesci in aree dove il rischio è meno grave”.

Le infrastrutture come dighe o altro tipo di costruzioni in mare possono essere un ostacolo a questi spostamenti utilizzati dai pesci per scappare o adattarsi al meglio in altre zone.
Altra manovra chiave sarebbe, in particolare per quanto riguarda i torrenti e i laghi, ripristinare una vegetazione permanente in modo da ridurre temperatura dell’acqua e luce.

Le caratteristiche da considerare sono: le varie differenze all’interno delle specie, le interazioni tra le specie e il potenziale adattivo di ogni singolo animale. Le variabili in questione potrebbero in un certo senso cambiare il panorama dell’impatto del clima sui pesci.

Una maggiore protezione e  un implemento di progetti per la salvaguardia rimane comunque la strada migliore per proteggere le oltre 3000 specie esaminate.

Gianluigi Marsibilio

HARVEY E IRMA: ANATOMIA DI UN URAGANO

L’uragano è un ciclone tropicale, ossia un sistema atmosferico caratterizzato da un movimento rotatorio (antiorario nell’emisfero boreale e orario in quello australe generato dall’effetto della rotazione terrestre) di masse d’aria umida intorno a un centro di bassa pressione, caratterizzato da venti particolarmente intensi, temporali e piogge torrenziali, che si origina a causa delle elevate temperature sulle superfici degli oceani (uragano quando si origina sull’oceano Atlantico e il Pacifico orientale) intorno all’Equatore (a nord e a sud dell’equatore tra gli 5° ed i 20° di latitudine). I cicloni tropicali assumono altre denominazioni (oltre a uragano) a seconda delle regioni dove si manifestano: tifoni se si si formano sull’Oceano Indiano, sul Mar della Cina e sul pacifico occidentale; ciclone in India; willy-willy in Australia; baguiros sulle Filippine.

Il ciclone tropicale, in particolare, è un grande sistema temporalesco caratterizzato da un centro di bassa pressione molto esteso (ossia una regione in cui la pressione atmosferica è minore di quella delle regioni circostanti alla stessa altitudine, con valori mediamente intorno a 960 hPa) il cui diametro è generalmente di qualche centinaia di chilometri. Il ciclone tropicale è una tra le più violente perturbazioni atmosferiche. Questo sistema di bassa pressione si origina a causa dell’elevata temperatura dell’acqua del mare (prossima a 30 °C) e che tende rapidamente a evaporare. Il vapore che si forma dall’evaporazione dell’acqua tende a condensarsi a una certa quota e libera calore nell’aria che inizia a diventare più calda e a salire rapidamente verso l’alto (moti ascendenti), diventando un vero e proprio centro di aspirazione. Quindi, la grande quantità di calore latente sprigionato dalla condensazione determina un aumento della temperatura del sistema (superiore all’aria circostante) che accelera il moto ascensionale dell’aria aumentando, quindi, la depressione a livello del mare che, a sua volta, favorisce la convergenza di altra aria umida. Quindi l’energia dei cicloni tropicali deriva dal calore liberato negli imponenti processi di condensazione del vapore acqueo. Questo meccanismo richiama dall’esterno, al livello del mare, altra aria carica di umidità che salendo libera ancora più calore. Quindi l’aria è richiamata dall’esterno in direzione del centro senza però convergere fino ad esso e diventando tangente a un cerchio del diametro di alcuni chilometri (tra 3 e 30 km generalmente), chiamato “occhio del ciclone”. Le forze legate alla rotazione della Terra obbligano l’aria in ascesa a ruotare sempre più velocemente dando origine a venti che in pochi giorni possono raggiungere intensità particolarmente elevate. I venti che convergono a spirale verso il centro generano un vortice atmosferico che può culminare con venti superiore ai 120 km/h, in questo caso si è formato un uragano. I venti aumentano di intensità verso l’interno in direzione del centro raggiungendo la massima violenza (che negli uragani più disastrosi supera anche i 200 km/h) in corrispondenza delle pareti di nubi che delimitano l’“occhio del ciclone”, all’interno del quale, paradossalmente, i venti sono generalmente deboli e il cielo è sereno.

L’intensità degli uragani è classificata (secondo la Saffir–Simpson Hurricane Scale, SSHS) in 5 categorie: dalla categoria 1 (minimo) con venti da 119 a 153 km/h, alla categoria 5 (disastroso) con venti superiori a 252 km/h.

I cicloni tropicali si esauriscono o quando raggiungono latitudini maggiori, a causa della più bassa temperatura dell’aria richiamata dalla convergenza, o quando i cicloni tropicali arrivano sui continenti, dove viene a mancare la fonte principale di energia rappresentata dall’aria umida. Nella fase comunque di contatto con i continenti gli uragani hanno ancora una forza tale che, prima di esaurirsi, se incontrano zone particolarmente antropizzate, possono determinare vere e proprie catastrofi, con morti e devastazioni enormi. I cicloni tropicali, infatti, sono tra i fenomeni naturali più disastrosi e che, secondo un recente rapporto delle Nazioni Unite (UNISDR: Ufficio delle Nazioni Unite per la riduzione dei disastri) hanno il maggior impatto in termini di mortalità della popolazione: negli ultimi 21 anni (dal 1995 al 2015) a livello mondiale hanno causato la morte di circa 242000 persone, cioè circa il 40% del totale di morti legati a tutti i disastri naturali.

Situazione purtroppo confermata anche da due recenti uragani atlantici, Harvey (già esaurito) e Irma che sta attualmente devastando molte zone dell’America e alcune degli Stati Uniti. I morti attualmente accertati dalla forza di questi due devastanti uragani è purtroppo già di parecchie decine, con milioni di persone coinvolte (anche senza elettricità e rischio di blackout che potrà persistere per alcune settimane) e ingentissimi danni economici. In particolare, l’urgano Harvey è stato classificato nella categoria 4 del SSHS, con venti che nella fase più critica sono anche stati prossimi a 240 km/h ed effetti devastanti dovuti anche alle ingenti precipitazioni (e associate inondazioni) con picchi anche di 1000 mm di pioggia. In alcune zone, come il Texas, questo uragano è stato definito come il fenomeno più disastroso della storia. Il più recente uragano Irma (i cui effetti, purtroppo, non si sono ancora esauriti), invece, è stato addirittura classificato nella categoria 5 del SSHS, e allo stato attuale è tra gli uragani più forti mai registrati a nord dei Caraibi e a est del Golfo del Messico, con una velocità dei venti che hanno superato i 290 km/h. Recenti stime sui possibili danni provocati da Irma e Harvey parlano di costi per l’economia statunitense anche di 300 miliardi di dollari.

 

Marco Morabito

#DIARIODIBORDO- Fare ricerca all’estero

La maggior parte delle persone che decidono di intraprendere una carriera nella ricerca, si ritrovano ad un certo punto a dover affrontare un periodo di esperienza professionale al di fuori dell’Italia. Questo può avvenire ad ogni stadio della carriera, ad esempio durante il conseguimento di un dottorato di ricerca (il primo passo necessario per poter entrare nel mondo dell’accademia) o una posizione di post-dottorato (un ulteriore perfezionamento della propria capacita di fare ricerca prima di diventare il leader do un gruppo di ricerca o ambire ad una cattedra universitaria), ed il periodo può avere una durata variabile da pochi mesi a vari anni. Vi sono addirittura casi di persone (abbastanza numerosi in verità) che ottengono un lavoro permanente nella ricerca all’estero.

Il mondo della ricerca è internazionale. Questi scambi di persone e conoscenze sono normali, anzi funzionali, al modo in cui la ricerca dovrebbe essere condotta: un libero scambio di idee, informazioni, metodi e risultati. Affinché ciò sia possibile i ricercatori devono poter confrontare le loro esperienze e competenze, e questo è facilitato dal fatto di potersi muovere liberamente e poter condurre le proprie ricerche anche al di fuori del paese di origine. Personalmente, sono ricercatore all’estero da più di sei anni ormai prima in Germania e attualmente negli Stati Uniti, dover confrontarmi ogni giorni con delle realtà completamente diverse da cui ero abituato in Italia ha avuto effetti senz’altro positivi, sia per la mia crescita personale che della mia indipendenza nel fare scienza e confrontarmi con modi di approcciarsi alla ricerca scientifica diversi dal mio.

Prima di descrivere brevemente su come sia fare ricerca all’estero rispetto all’Italia vorrei precisare che sto scrivendo a titolo personale, basandomi sulla mia esperienza diretta e circoscritta al mio campo si studi ossia l’Astronomia. Altre persone, in campi diversi, possono avere avuto esperienze ed una visione di insieme molto diverse dalle mie.

Inizio un po’ controcorrente con una nota riguardo il livello della preparazione fornita dalle università italiane. E’ indubbiamente vero che il sistema universitario “produce” pochi laureati, ma non credo che questo avvenga perché la qualità dell’università è bassa. Anzi ritengo che il livello minimo di competenze l’università italiana richiede sia più elevato rispetto ad altri paesi. Detta in soldoni: i laureati italiani sono bravi e molto, migliori della maggior parte dei pari livello internazionali. In effetti gli studenti italiani, almeno in ambito astronomico, sono molto apprezzati all’estero. L’Italia parte dunque in vantaggio rispetto a molti paesi per quel che riguarda la preparazione dei suoi laureati e una buona preparazione a livello universitario è un pilastro fondamentale per fare ottima ricerca. Purtroppo, però, questo vantaggio non viene capitalizzato quanto meriterebbe.

Nel campo delle scienze astronomiche la ricerca condotta in Italia è ad ottimi livelli. Durante il mio dottorato ho potuto dedicarmi ad un progetto di ricerca che ha prodotto risultati rilevanti e mi ha dato la possibilità’ che il mio lavoro fosse riconosciuto ed apprezzato dalla comunità’ scientifica. La differenza maggiore che però ho notato subito andando all’estero (in Germania) dopo il dottorato è la penuria di risorse con cui in Italia si è “costretti” a combattere. Le risorse per viaggiare (non per andare in vacanza, ma presentare lavori a conferenze, partecipare a meeting di collaborazioni scientifiche, ecc…) sono risicate, e lo stesso dicasi per l’acquisto di materiale per l’ufficio o per creare un gruppo di ricerca (per non parlare degli stipendi…). Anche con gli Stati Uniti il confronto è impietoso: un professore che inizia ha di solito a disposizione un pacchetto di finanziamenti congruo per iniziare a mettere insieme un suo gruppo e portare avanti con più facilità, almeno nei primi anni, i suoi progetti di ricerca. Questa endemica scarsità di risorse spinge molte persone ad abbandonare la ricerca in Italia e portare le proprie competenze fuori. Emblematico è il caso dei grant europei ERC: i ricercatori italiani sono terzi in Europa per numero di grant vinti (in media un progetto ogni 8 viene premiato). Di per sé questo non sarebbe negativo nell’ottica di scambio di conoscenze e competenze nella ricerca a cui accennavo sopra. Purtroppo l’opposto accade molto di rado: ricercatori provenienti dall’estero vincitori di grant non scelgono l’Italia per condurre le loro ricerche. Pertanto non si può parlare di scambio, ma di un sostanziale impoverimento. In queste condizioni competere diventa sempre più’ difficile. Concludendo, la disponibilità’ di risorse incide in modo non marginale sulla possibilità di condurre ricerca ad alto livello ed è quasi incredibile come in Italia, nonostante la costante penuria di finanziamenti, si continui tutto sommato a fare ricerca con standard molto elevati.

L’estero però non è la terra promessa. Le possibilità sono maggiori, è vero, ma maggiori sono anche le pressioni per ottenere risultati ed essere il più produttivi possibile in un mondo, come quello della ricerca, estremamente competitivo nel quale, per eccellere, occorre avere sempre idee nuove ed originali che possano portare a nuove scoperte o a una nuova teoria. Queste maggiori pressioni derivano anche dal modo differente di intendere la ricerca tra gli Stati Uniti e l’Europa e non sempre hanno una ricaduta positiva sulla qualità scientifica dei lavori che vengono svolti. Questo è vero soprattutto negli Stati Uniti dove, purtroppo, il metro di giudizio che viene quasi esclusivamente considerato è il numero di articoli pubblicati. Talvolta la pressione di pubblicare risultati è tale che va a scapito della qualità di un lavoro o di una visione a lungo termine di un filone di ricerca, sacrificate per un ritorno più immediato: un altro articolo pubblicato che poco aggiunge alle nostre conoscenze attuali.

Federico Marinacci

INQUINARE MENO ALLO STADIO: SFIDA POSSIBILE

Eventi sportivi pienamente sostenibili e che soddisfano ogni standard ”zero waste”.
L’operazione zero rifiuti applicata al mondo dello sport parte da uno studio condotto dall’Università del Missouri, pubblicato sulla rivista Sustainability.

Lo studio si è basato sulle partite di football americano dell’università ed ha mostrato come 47 tonnellate di rifiuti sono state generate a causa del pubblico presente allo stadio e praticamente la totalità, il 96%, è stato prodotto dagli alimentari rimasti invenduti nello stadio.

La “scena del delitto” è il Memorial Stadium: per avere un’analisi molto precisa è stata sviluppata una vera strategia di campionamento, infatti l’importanza di questo studio viene anche dalla possibilità di applicare un modello efficace contro l’inquinamento anche nei nostri eventi sportivi.

Christine Costello, del Dipartimento di bioingegneria dell’ Università del Missouri e autrice dello studio, ci ha spiegato: “Per la ricerca abbiamo individuato tutti i punti di raccolta dei rifiuti, successivamente siamo passati ad una selezione e categorizzazione di ogni campione di rifiuti raccolto”.

L’approccio descritto dallo studio dovrebbe comunque essere adattato ad ogni singola realtà analizzata,  infatti i dati sui flussi di rifiuti e sulla gestione provengono dalla discarica vicina allo stadio: per avere dunque un modello più generale occorre, in base alle singole situazioni, analizzare i singoli elementi.

Gli obiettivi dello studio sono stati principalmente quattro: sviluppare una strategia per comparare qualitativamente e quantitativamente i rifiuti generati durante le attività sportive, quantificare l’energia e i gas serra associati alla gestione dei rifiuti, individuare strategie di gestione che permettano al 90% dei rifiuti di essere smaltiti e infine individuare scenari che possano permettere il più grande numero di riduzione delle emissioni.

Le raccomandazioni venute fuori sono varie e comprendono ad esempio il donare il cibo invenduto ad enti di beneficenza locali o banche alimentari; sostituire i materiali che non sono riciclabili o compostabili; capire meglio quale cibo offrire ai punti ristoro; fornire più isole ecologiche e punti in cui è possibile buttare l’immondizia e fare raccolta differenziata in ogni settore dello stadio.

La scienziata ci ha detto: “C’è grande difficoltà nell’ottenere un aumento del riciclaggio e una riduzione dei rifiuti alimentari – ma sviluppare un’ arma pro riciclo e contenere lo spreco sarebbe fondamentale- queste due azioni ridurrebbero notevolmente l’utilizzo di energia e l’impatto ambientale degli eventi”.

Capire quanto cibo deve essere prodotto per questi eventi è una grande sfida per gli stessi operatori dello stadio.

“Attraverso delle interviste -ci ha spiegato la scienziata – abbiamo capito quanto sia importante gestire al meglio il cibo: logicamente per avere una buona esperienza di ospitalità l’esaurimento di risorse alimentari per gli spettatori non è un risultato desiderabile e per questo viene sempre preparata una gran quantità di alimenti”, finendo sempre per produrre quantità enormemente superiori alla domanda.

Tutta la catena alimentare deve essere anche sviluppata in ottica della partita stessa, infatti se la squadra sta perdendo i tifosi possono andare via anche molto prima dallo stadio, o se le condizioni atmosferiche non sono delle migliori le persone che si recheranno ad assistere alla partita saranno notevolmente inferiori.

 

Gli eventi sportivi spesso rappresentano delle sfide nelle sfide: fronteggiare l’inquinamento è anch’essa una partita da vincere a tutti i costi, un Superbowl dell’ambiente da portare a casa.

 

Gianluigi Marsibilio

LA STORIA DI ROMA NASCOSTA NELLE SUE ACQUE

La rete idrica romana ha sempre stupito gli archeologi e tutti gli studiosi,  infatti la rete di tubature di piombo viene ancora oggi considerata una vera meraviglia architettonica dell’antichità.
I dati sulla costruzione e sulle varie ramificazioni di questa incredibile struttura sono ancora difficili da decifrare, ma finalmente uno studio pubblicato su Pnas è riuscito a risalire a delle date più precise sulla costruzione delle infrastrutture idrauliche.
Partendo da 177 carotaggi nel porto di un’antica città portuale romana (Ostia), si è riuscito ad avere, tramite la datazione al radiocarbonio, un’età più precisa del sistema: i tubi, sono stati infatti installati, secondo le rilevazioni, intorno al 200 avanti Cristo.
Tutto questo è stato fatto durante le guerre civili del primo secolo. La certezza è arrivata proprio dalle analisi del piombo: infatti fino all’anno designato le acque del sito erano totalmente immacolate e prive di qualsiasi contaminazione. A guidare la ricerca è stato Hugo Delile, archeologo del Centro nazionale francese per la ricerca scientifica, il quale per mail ci ha spiegato: ” L’inquinamento da piombo ci informa sulla data di messa in servizio del sistema idrico dell’antica Roma; la sua estensione o la sua contrazione sono variabili nel tempo in base a questioni politiche, geopolitiche o finanziarie”. L’intero sistema idrico è al centro di quello che è lo sviluppo urbano delle varie città romane.

Le fonti storiche, nonostante l’imponenza dell’opera rimangono poche, ma nel primo secolo dopo Cristo comunque un commissario dell’acqua romana, Julius Frontinus, ha scritto un trattato a due volumi per l’imperatore della città, per informarlo su alcuni problemi che potevano essere legati alla pirateria delle acque: il pericolo era rappresentato da quelle persone che potevano rubare illegalmente l’acqua per uso agricolo o per bere.

La concentrazione di piombo indica i periodi di massimo benessere la città, proprio perché infrastrutture del genere venivano costruite in momenti di estrema prosperità.
Delile ci ha ricordato: ” Quando la Roma antica è cresciuta c’era bisogno di assicurarsi più punti di accesso all’acqua fresca per le case per l’utilizzo sanitario e delle botteghe artigiane”.

Collegare  l’aumento dell’inquinamento di piombo all’espansione del sistema e di conseguenza alla prosperità della città è stato fondamentale per i ricercatori.

Anche nella villa di Adriano si sorseggiavano bevande al sapor di piombo, tanto da indurre alcuni storici ad avanzare una tesi molto interessante: l’elite romana, avvelenata da piombo, potrebbe aver contratto malattie come la gotta, accelerando inevitabilmente la caduta dell’impero.

Il primo sistema idrico romano non era costituito da elementi di piombo: i due acquedotti principali, costruiti tra la fine del IV e nell’inizio del III secolo avanti Cristo, servivano solo poche fontane centrali pubbliche e avevano un sistema di canali murari e cavi di terracotta o legno.
Ben diversa è la situazione nella Roma imperiale, che si trovava a gestire centinaia di bagni pubblici e residenze private attraverso appunto una complessa rete di fistole di piombo.

 

L’ultimo periodo della storia di Roma è caratterizzato da una diminuzione importante del piombo nell’acqua, questa decrescita è stata osservata contemporaneamente in tutti i siti studiati.

 

In fin dei conti possiamo dire che il piombo potrebbe essere stato croce e delizia dell’Impero Romano. Oggi vediamo che in molti casi, come nel Midwest degli Stati Uniti, che le contaminazioni da piombo nell’acqua sono ancora molto frequenti e spesso pericolose.
Gianluigi Marsibilio

Crediti foto: Elisabetta Bianchi

OGNI PERICOLO INFORMATICO HA IL SUO SUONO

Rendere internet un posto sicuro per ogni utente. Questa è la sfida del Texas Tech, che tramite un gruppo di ricercatori sta sviluppando una rete di suoni e segnali per migliorare l’approccio degli utenti, con problemi di vista, a delle possibili minacce alla loro sicurezza informatica.

Accompagnare gli utenti ipovedenti in rete è fondamentale ed è per questo che il Dipartimento di Informatica,  con l’aiuto della National Science Foundation, ha concentrato i suoi sforzi per avviare un programma di comprensione delle minacce attraverso una serie di suoni che rappresentano al meglio ogni singolo problema informatico.

Uno degli esempi che potrete trovare nel video è rappresentato dall’idea di associare ad un pericolo di phishing, il suono dell’amo da pesca che viene gettato in acqua.

Dietro questo progetto quindi si sviluppa un’idea che ingegneri informatici e del suono stanno rendendo possibile, consentendo di ridurre i pericoli per tutti gli utenti del web.

Il supporto audio in qualsiasi caso risulterà utile, non solo per le persone ipovedenti, ma permetterà un’ associazione di idee immediata anche per chi non riesce a ben interpretare ciò che esce scritto sullo schermo in casi di pericolo.

IL FUTURO DEL CLIMA IN EUROPA, COSA CI ASPETTA?

In tv stiamo vedendo le immagini dell’uragano Harvey che si sta abbattendo sul Texas, mettendo una vasta area sott’acqua . Gli scienziati dicono che Harvey è stato bloccato più a lungo in un posto rispetto a qualsiasi tempesta tropicale. Per la nostra serie sul clima, abbiamo parlato ancora con Marco Morabito per chiedere come saranno le condizioni meteo-climatiche in Europa nel futuro prossimo.

 

Ecco cosa ci ha raccontato lo scienziato.

Il cambiamento climatico che sta interessando il nostro pianeta sta procedendo a ritmi molto alti, come dimostrato dalle innumerevoli evidenze scientifiche pubblicate da vari organi di ricerca attivi in varie parti del mondo. E’ importante precisare che la variabilità climatica ha da sempre interessato il nostro pianeta con fluttuazioni stagionali, decadali e secolari che dipendono da cause naturali, come l’orbita terreste, la radiazione solare, la circolazione degli oceani e le eruzioni vulcaniche (per citarne alcune). Il problema però è che gli studi sull’attuale cambiamento climatico, e in primis le evidenze riportate dal pool di scienziati dell’Intergovernmental Panel on Climate Change (IPCC), organismo che raggruppa i maggior esperti sul clima a livello mondiale, dimostrano mutamenti più profondi e rapidi del sistema clima nel corso degli ultimi decenni, associati a un riscaldamento significativo della temperatura media della superficie terrestre e attribuendo un evidente contributo alle attività umane, principalmente tramite la crescente emissione di gas serra in atmosfera. Gli impatti del cambiamento climatico ovviamente sono diversi a livello geografico, con effetti particolarmente marcati in Europa e soprattutto sulle aree del bacino del Mediterraneo, ritenute zone particolarmente vulnerabili e sensibili ai cambiamenti climatici (definite hot spot). Ogni anno e in varie stagioni, purtroppo, continuano a registrarsi nuovi record relativamente alle temperature (sempre più elevate) e a una significativa modifica del regime delle precipitazioni, con periodi prolungati di siccità e precipitazioni particolarmente intense e di breve durata.

I cambiamenti climatici, sulla base di diversi scenari futuri di sviluppo socio-economico, continueranno ai ritmi attuali o anche superiori per i prossimi decenni e i loro impatti dipenderanno molto dall’efficacia degli accordi e degli interventi che saranno presi a livello internazionale per ridurre le emissioni di gas a effetto serra. Le regioni europee si troveranno ad affrontare situazioni particolarmente critiche come l’innalzamento del livello del mare e, come sta già succedendo da alcuni anni, a contrastare eventi meteorologici particolarmente estremi e sempre più frequenti, come le ondate di calore, siccità, inondazioni e tempeste molto intense.

Le località dell’Europa meridionale e sud-orientale, in particolare, come dimostrato anche dal nostro recente studio sulla frequenza, intensità e durata delle ondate di calore (http://www.mdpi.com/2073-4433/8/7/115), sono zone destinate a essere particolarmente interessate dai cambiamenti climatici, in quanto si prevede che dovranno affrontare il maggior numero di ripercussioni negative, tra cui una maggior frequenza di ondate di calore e una significativa diminuzioni nelle precipitazioni e della portata dei fiumi, con un conseguente incremento del rischio di prolungati periodi di siccità. Tale situazione avrà effetti diretti sul sistema agricoltura con un sensibile calo dei rendimenti dei raccolti, perdita di biodiversità e un consistente incremento del rischio di incendi boschivi, tutte situazioni a cui abbiamo tristemente assistito proprio durante questa estate in Italia (numerose regioni italiane hanno chiesto lo stato di calamità per l’emergenza siccità). Non è da sottovalutare poi il rischio associato a una maggiore diffusione a diverse latitudini di malattie infettive tipiche delle zone tropicali e favorite da condizioni climatiche che a causa del cambiamento climatico possono essere favorevoli alla sopravvivenza sia dei patogeni che dei vettori, favorite anche dal ruolo di altre variabili come l’aumento degli scambi commerciali e il rischio di importare con le merci anche parassiti e vettori, i viaggi internazionali e le migrazioni.

I rischi per il pianeta in generale e per le generazioni future associati all’attuale cambiamento climatico sono enormi, e ci obbligano ad intervenire con urgenza. E’ quindi fondamentale programmare e attuare rapidamente le strategie di mitigazione e adattamento ai cambiamenti climatici in atto, con una particolare attenzione al miglioramento della pianificazione urbana: le città sono zone particolarmente sensibili per il numero di persone che ci vivono e per le caratteristiche tipiche delle aree urbane caratterizzate prevalentemente da superfici antropiche impermeabilizzate e da poche e spesso male distribuite aree verdi.

 

Marco Morabito

L’ANTARTIDE è ASSEDIATA DALLE EMISSIONI ANTROPICHE DI METANO

52 teragrammi l’anno di metano: ecco le emissioni di CH4  rilasciate dagli esseri umani nell’atmosfera dell’Antartide tramite l’uso di combustibili fossili e attraverso la loro estrazione.

Questi risultati sono stati pubblicati in uno studio su Nature questa settimana, dal 2011 un team di ricercatori guidati da Vassili Petrenko,  un assistente presso l’Università di Rochester, sta raccogliendo dati sul ghiaccio, in particolare sono stati estratti i campioni per 2000 libbre di peso.

Nelle zone polari è possibile studiare l’atmosfera guardando, anzi tuffandosi nel passato preindustriale, perché proprio il ghiaccio contiene dei campioni rilevabili delle epoche passate.

I nuclei di ghiaccio sono stati estratti da Taylor Glacier in Antartide e alcuni risalgono a 12000 anni fa. Le emissioni di metano geologiche naturali sono inferiori al previsto, questo indica però un aumento della stima con un più  25% per le emissioni di metano fossile con origine antropica.

Per analizzare meglio la questione abbiamo parlato con lo scienziato Hinrich Schaefer, del National Institute of Water and Atmospheric Research: “Il nostro centro di ricerca  gestisce una stazione di monitoraggio proprio per controllare l’aria pulita in Antartide. Dal 1990 il centro invia campioni in Nuova Zelanda per l’analisi e raccoglie dati nelle zone polari”

Lo scienziato ci ha detto: ” le concentrazioni di metano sono aumentate costantemente, poi c’è stata una stabilizzazione dal 1999 al 2006 quando sono rimaste costanti e dal 2007 in poi c’è stato un ulteriore aumento”.

 

Una singola misurazione per studiare l’aria ha bisogno dell’analisi di circa 1000 kg di ghiaccio antico. La metodologia seguita per compiere le ricerche è la seguente: nel corso di centinaia o migliaia di anni la neve  tende a formare strati di ghiaccio, questi strati contengono delle bolle d’aria che sono come delle piccole capsule temporali, utilizzando delle piccole pompe a vuoto i ricercatori sono in grado di estrarre l’aria antica contenuta all’interno dell’atmosfera antartica migliaia di anni fa.

”Sappiamo da vecchi studi che le concentrazioni di CH4 sono aumentate dal 1800, con la rivoluzione industriale, aumentando di circa 2,5 volte i livelli misurati rispetto alla condizione preindustriale” ha indicato lo scienziato.

Il metano emesso proviene da zone umide o viene causato dagli incendi, dall’estrazione dei combustibili fossili, dall’allevamento di bestiame o dalle discariche.

Altro indicatore importante nell’antartide è il permafrost.

Studiare il permafrost rimane estremamente importante:  sappiamo con certezza che nel permafrost antartico non ci sono materiali vegetali morti che potrebbero essere convertiti in metano e generare false misurazioni.

La ricerca quindi punta, se mai ce ne fosse bisogno, ancora il dito sul riscaldamento globale causato dall’uomo.  Gli antichi campioni di aria hanno rilevato che le emissioni naturali di metano non sono così rilevanti per una futura pianificazione ambientale, tuttavia c’è da controllare attentamente le emissioni antropiche di metano, che possono essere attenuate solamente attraverso degli studi e nuove politiche ambientali.

Gianluigi Marsibilio

Powered by WordPress.com.

Up ↑