UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

IL GRAFENE A ZERO G, IL FUTURO SPAZIALE DELL’INNOVATIVO MATERIALE

Portare il grafene nello spazio. Questo è l’obiettivo di una delle più grandi e innovative iniziative che unisce il CNR e l’Agenzia Spaziale Europea.

La collaborazione ha dato vita al progetto Flagship Graphene ea novembre partirà il grande esperimento che testerà il grafene in condizioni di assenza di gravità a bordo di un volo parabolico.
Noi abbiamo parlato con la comunità dei ricercatori dell’esperimento e delle sue implicazioni, a rispondere alle nostre domande sono stati Vincenzo Palermo, vicedirettore del progetto  e Maddalena Scandola, responsabile della comunicazione del CNR.

Come è strutturato esattamente l’esperimento Zero Gravity Graphene?

Il programma ZeroGravity Graphene si compone di due ambiziosi esperimenti, promossi dalla iniziativa europea Graphene Flagship in collaborazione con l’Agenzia Spaziale Europea (ESA), per valutare le prestazioni del grafene in condizioni di gravità zero. L’Italia, con il Cnr, ha un ruolo di primo piano in uno degli esperimenti in programma.

Entrambi gli esperimenti si svolgeranno tra il 6 e il 17 novembre 2017, e testeranno il grafene in condizioni di micro-gravità per valutare il suo potenziale nelle applicazioni spaziali, in particolare per la propulsione con la luce (vele solari) e per la gestione termica di satelliti.

L’esperimento ‘Solar sails’ (Vele solari) testerà il grafene come materiale per realizzare vele solari, un ambizioso metodo di propulsione delle navicelle spaziali che sfrutta la luce dal sole o dai laser a terra. Quando la luce è riflessa o assorbita da una superficie, esercita una forza che spinge la superficie lontano dalla sorgente luminosa: questa pressione di radiazione può essere sfruttata per spingere oggetti nello spazio senza utilizzare combustibili. Poichè la spinta della pressione di radiazione è molto bassa, per avere una propulsione efficace la “vela” deve avere una grande superficie e essere il più leggera possibile. Il grafene è molto leggero e al contempo resistente e potrebbe essere un buon candidato per le vele solari. Il team di ‘Solar sails’ studierà come il graphene possa funzionare come una vela solare in un esperimento che simula le condizioni di gravità e vuoto di spazio.

L’esperimento ‘Satellite Heat Pipes’ testerà il grafene a bordo di un volo parabolico che simula le condizioni di assenza di gravità per verificare il suo impiego nei dispositivi termici impiegati nei satelliti. La gestione termica è molto importante nei satelliti, poiché la mancanza di aria richiede soluzioni tecnologiche specifiche per disperdere il calore verso lo spazio profondo. La differenza di temperatura tra due lati di un satellite, quello rivolto verso il sole e quello al buio può arrivare fino a 200 gradi. Gli scambiatori di calore (Heat Pipes) trasferiscono il calore dalle parti calde a quelle fredde, e disperdono quello in eccesso verso lo spazio.

Frutto di una collaborazione tra l’italiana Leonardo Spa, leader mondiale nel settore aerospaziale, due istituti del CNR, l’Istituto per la Sintesi Organica e Fotoreattività (ISOF) e l’Istituto per la Microelettronica e i Microsistemi di Bologna (IMM-Bo), l’Università libera di Bruxelles e l’Università di Cambridge, l’esperimento indagherà come i rivestimenti a base di grafene possono migliorare l’efficienza negli scambiatori di calore, noti come loop heat pipes, fondamentali sistemi di raffreddamento usati nei satelliti e negli strumenti aerospaziali.

Il team si riunirà a Bordeaux, in Francia, tra il 6 e il 17 novembre 2017 per testare gli scambiatori di calore contenti grafene in condizioni di microgravità in un volo parabolico, gestito dall’Agenzia spaziale europea (ESA) e da Novespace (Francia).

Il team di ricercatori dell’esperimento ‘Satellite Heat Pipes’ intende sfruttare le proprietà termiche e fisiche del grafene per migliorare l’efficienza degli scambiatori di calore.

Questi infatti raffreddano i dispositivi a bordo grazie all’evaporazione di un liquido che si trova all’interno di una struttura di materiale poroso, solitamente di metallo. Sostituendo il materiale metallico con un composito a base di grafene e metallo, i ricercatori mirano a migliorare il trasferimento di calore tra le unità elettroniche e il fluido che lo attraversa.

Cos’è la tecnica del volo parabolico usata per portare il valore della gravità vicino allo zero?

Il volo parabolico è il metodo utilizzato per portare il valore della gravità vicino allo zero senza andare in orbita: mentre l’aereo segue una traiettoria parabolica si può arrivare ad avere fino a 25 secondi di assenza di peso. Ogni volo, che avrà la durata di 3 ore, comporterà circa 30 archi parabolici. Oltre all’assenza di gravità, a bordo si sperimenta anche fino al doppio della forza gravitazionale terrestre quando l’aereo si prepara alla parabola successiva, come su un gigantesco ottovolante.

Alle successive domande ha risposto per noi Vincenzo Palermo

Vincenzo Palermo è il responsabile del Laboratorio di Nanochimica dell’istituto ISOF-CNR di Bologna e vice direttore del progetto europeo Graphene Flagship, la più grande iniziativa di ricerca europea sul grafene.

Perché è importante studiare il grafene a gravità zero?


Lo scopo del nostro esperimento è studiare il comportamento di un liquido, e la sua evaporazione, all’interno di un materiale poroso ricoperto di grafene. Questi esperimenti rientrano nel settore generale della micro-fluidica, cioé lo studio del comportamento dei liquidi.
In un laboratorio è possibile modificare molti parametri come temperatura, umidità, presenza di campi elettrici o magnetici; è però impossibile modificare la forza di gravità che agisce su questi fluidi; per questo, bisogna usare i voli parabolici in cui, per pochi secondi, la drammatica discesa di quota dell’aereo permette di diminuire o annullare la forza di gravità; l’effetto è simile alla di perdita di peso che sentiamo in un ascensore che scende velocemente.

Quali applicazioni potrebbe avere un materiale del genere nella ricerca spaziale?

Depositiamo il grafene all’interno di un blocco di metallo poroso. Questo materiale è il cuore di un dispositivo chiamato “heath loop pipe” un tipo molto particolare di radiatore, capace di dissipare calore grazie all’evaporazione e al ricircolo di un liquido.
Le heath loop pipes sono molto utili sui satelliti in orbita, per raffreddare ad esempio dispositivi elettronici, perché funzionano senza bisogno di pompe o di energia esterna.
Quando un satellite è nello spazio, l’assenza di aria rende difficile dissipare il calore nello spazio. Quando un lato del satellite è esposto al sole, la differenza di temperatura tra lato al sole e lato in ombra può superare i 200 gradi, danneggiando seriamente i componenti elettronici.

Quali sono le proprietà termiche del grafene in grado di migliorare il trasferimento di calore e l’efficienza dei dispositivi?

Il grafene è composto da atomi di carbonio legati assieme per formare un reticolo esagonale. Ogni atomo del reticolo è connesso ad altri tre da legami chimici molto robusti e stabili, e l’intera struttura trasmette molto bene le minuscole vibrazioni atomiche che noi percepiamo, su scala macroscopica, come calore. Grazie a questa sua struttura cristallina il grafene ha un’ottima conducibilità termica, sino a dieci volte meglio di quella, ad esempio, del rame. A differenza di altri materiali, i foglietti di grafene possono essere estratti dalla grafite, dispersi in una soluzione e depositati su qualsiasi substrato, come ad esempio il metallo poroso che noi testeremo durante i voli.

Gianluigi Marsibilio

COME FUNZIONA UN CHIP FOTONICO?

Elaborare segnali quantistici avanzati è uno degli obiettivi dei ricercatori dell’Università di Sydney che per la prima volta sono riusciti a immagazzinare informazioni digitali trasportate attraverso delle onde luminose. 

Lo studio che raccoglie lo straordinario successo è stato pubblicato su Nature Communications.
La trasformazione di dati dal dominio dell’ottico all’acustico e viceversa, all’interno di un singolo chip, è fondamentale per la creazione di circuiti integrati fotonici. In parole povere l’idea è quella di produrre strumenti che utilizzano fotoni per gestire i dati.

Come ci ha spiegato Birgit Stiller, della scuola di Fisica dell’Università di Sydney: ” Siamo stati capaci di ottenere le informazioni tramite un trasferimento coerente”. Gli scienziati tramite il chip fabbricato dal laser physics center sono stati capaci di trasferire i parametri degli impulsi ottici, come l’intensità, frequenza e fase ottica in onde acustiche. Birgit ha spiegato: ” Compiendo un ulteriore trasferimento abbiamo ottenuto le informazioni”.

Ma perché è così importante sostituire il segnale da ottico a acustico e viceversa?

Sappiamo che la velocità del suono è centomila volte più bassa di quella della luce, avere un sistema ottico di immagazzinamento dei dati è utile per una presa di informazioni su lunghe distanze, per esempio attraverso i continenti ma
questo va a complicarsi quando la velocità non è più un vantaggio bensì un fastidio, dato che i computer ed i sistemi di telecomunicazione non riescono ad elaborare velocemente tutte le informazioni.

Sappiamo da anni che il trasferimento fotone – fonone – fotone è ampiamente coerente e i tempi di stoccaggio sono estremamente veloci, riconducibili all’ordine dei microsecondi.

Al centro di questo incredibile sistema c’è un elemento chiamato buffer, il professor Benjamin Eggleton anche lui dell’Università di Sydney ci ha spiegato:”Un buffer è un elemento di archiviazione fondamentale per memorizzare le informazioni in onde sonore”.

”Questi strumenti- ha aggiunto lo scienziato- consentono di sincronizzare diversi canali di comunicazione e sono componenti essenziali nelle reti, ad esempio i data center”.

Il gruppo di ricerca lavora da oltre 5 anni su questi sistemi e ha già precedentemente dimostrato che il trasferimento è coerente per memorizzare e recuperare le diverse informazioni.

I dati forniti dalla luce hanno enormi vantaggi rispetto alle informazioni elettroniche ma hanno un problema essendo troppo veloci  hanno bisogno di subire un rallentamento per essere immagazzinate.

Birgit Stiller ha spiegato nel dettaglio questo meccanismo per stoccare le informazioni presenti nel loro chip: ” Le informazioni continuano a rimanere nel dominio ottico solo per un breve periodo in cui la luce viene messa in attesa, in questo momento c’è una trasformazione in onda acustica, questo passaggio è fondamentale per riuscire ad immagazzinare i dati”.

Una volta che l’informazione acustica ha compiuto il suo lavoro tutto quanto torna nel dominio ottico, sostanzialmente capiamo che l’onda acustica viene utilizzata semplicemente come un mezzo di memoria.

Lo studio permette di aggirare i dannosi effetti di dispersione dei dati dovuti alla enorme velocità della luce, i ricercatori dunque sembrano aver trovato una quadratura del cerchio per scrivere e leggere impulsi ottici in questo meccanismo fotonico- fononico.

Ad oggi è possibile cercare un miglioramento tramite la scelta di un materiale migliore, il passo avanti, secondo Birgit può essere fatto ”sostituendo il softglass, attualmente utilizzato, in un chip di silicio”.

La strada comunque rimane lunga e bisogna estendere il funzionamento del dispositivo a dei livelli più elevati, la sfida secondo Eggleton è quella di : ” essere compatibili con sistemi di comunicazione ottica contemporanea  e i datacenter”.

Gianluigi Marsibilio

ALLA SCOPERTA DELLA CHIMICA DI TITANO

In questo bellissimo talk dell’American Chemical Society si parla della fine della missione Cassini con una particolare attenzione alle novità che la sonda ci ha svelato su Titano, una delle lune più interessanti del pianeta e dell’intero sistema solare.

Su youtube, aprendo il link, potete trovare altri video estremamente interessanti dell’American Chemical Society, che spesso postiamo anche noi qui sul nostro sito.

UN MONDO INFERNALE CON CIELI DI TITANIO

Un’equipe di astronomi, guidata da Elyar Sedaghati, borsista ESO e recentemente diplomato alla TU di Berlino, ha esaminato l’atmosfera dell’esopianeta WASP-19b con un dettaglio mai raggiunto prima.

Si tratta di un pianeta con massa simile a quella di Giove, ma così vicino al suo Sole da completare un’orbita in appena 19 ore e con una temperatura media che raggiunge i 2000° C.

Quando, dal nostro punto di vista, WASP-19b passa di fronte alla sua stella madre, parte della luce della stella filtra attraverso l’atmosfera del pianeta, che lascia tenui impronte che vengono rilevate quando la luce alla fine raggiunge la Terra. Usando lo spettrografo FORS2 installato sul VLT (Very Large Telescope) dell’ESO, l’equipe è stata in grado di analizzare in dettaglio questa luce e dedurre che l’atmosfera contiene piccole quantità di ossido di titanio, acqua e tracce di sodio, oltre a un caligine globale che diffonde la luce.

«Trovare queste molecole non è un compito semplice», spiega Elyar Sedaghati, che ha lavorato per due anni su questo progetto come studente all’ESO. «Non solo ci servono dati di qualità eccezionale, ma dobbiamo anche elaborarli con programmi sofisticati. Abbiamo usato un algoritmo che esplora milioni di spettri alla ricerca di un ampia gamma di composizioni chimiche, di temperature e di proprietà della caligine, prima di poter trarre le nostre conclusioni».

L’ossido di titanio è raro sulla Terra. Si sa che esiste nelle atmosfere delle stelle fredde. Nell’atmosfera di un pianeta caldo come WASP-19b agisce come assorbitore di calore. Se fossero presenti in quantità sufficiente, queste molecole impedirebbero al calore di entrare o di sfuggire attraverso l’atmosfera, portando all’effetto di inversione termica – la temperatura è più alta negli strati superiori dell’atmosfera e più bassa negli strati inferiori, l’opposto di quel che accade normalmente. Analoga all’azione dell’ozono nell’atmosfera terrestre, dove causa l’inversione termica nella stratosfera.

«La presenza dell’ossido di titanio nell’atmosfera di WASP-19b può avere effetti importanti sulla struttura della temperatura e sulla circolazione atmosferica,» spiega Ryan MacDonald, altro membro del gruppo e astronomo alla Cambridge University, Regno Unito. «Essere in grado di esaminare gli esopianeti a questo livello di dettaglio è promettente e molto emozionante» aggiunge Nikku Madhusudhan della Cambridge University che ha supervisionato l’interpretazione teorica delle osservazioni.

 

Gli astronomi hanno raccolto le osservazioni di WASP-19b per un periodo di più di un anno. Misurando le variazioni relative del raggio del pianeta a diverse lunghezze d’onda della luce che attraversa l’atmosfera del pianeta e confrontando le osservazioni con modelli di atmosfera hanno potuto derivare diverse proprietà, come il contenuto chimico, dell’atmosfera dell’esopianeta.

Questa nuova informazione sulla presenza di ossidi metallici come l’ossido di tianio e altre sostanze permetterà modelli molto più precisi di atmosfere esoplanetarie. Guardando al futuro, quando gli astronomi saranno in grado di osservare le atmosfere di possibili pianeti abitabili, i modelli più raffinati permetteranno di capire meglio come interpretare le osservazioni.

«Questa importante scoperta è il risultato di una ristrutturazione dello strumento FORS2, pensato proprio per questo scopo,» conclude Henri Boffin, dell’ESO e membro del gruppo, che ha guidato il progetto di ristrutturazione. «che lo ha reso lo strumento più adatto per questo tipo di studi da terra».

FONTE: COELUM ASTRONOMIA

Crediti foto: ESO

3000 SPECIE A RISCHIO IN FIUMI, MARI E OCEANI

Il cambiamento climatico è reale e molte specie di pesci potrebbero subirne le conseguenze: una nuova analisi pubblicata su Nature Climate Change ha evidenziato come quasi 3000 specie di pesci che vivono negli oceani e nei fiumi subiranno conseguenze gravi a causa del cambiamento climatico. Lise Comte. dell’Università di Washington, ci ha parlato della sua ricerca appena uscita: ” I pesci che vivono nei Tropici saranno i più vulnerabili all’aumento della temperatura, ma il rischio più elevato sarà per i bacini d’acqua dolce situati nell’emisfero settentrionale”.
80 anni di studi sono stati sintetizzati nel loro paper, che ha coniugato campioni raccolti sul campo e decine di simulazioni in laboratorio.

Come ha messo in luce nel suo editoriale  su Nature Jennifer Sunday:  “La ricerca di Lisa e Giulia sta producendo una stima della sensibilità al clima di circa 2960 specie”.

Il problema esiste particolarmente nei Tropici, poiché le specie tendono ad avere una maggiore sensibilità al riscaldamento climatico, dato che le temperature ambientali sono molto più vicine ai loro limiti naturali.

Le specie saranno costrette a migrare, adattarsi o morire. Come mostra l’analisi, tutti i mari e tutti i fiumi saranno colpiti dalle variazioni: la vera sfida è quindi creare un vero piano di salvataggio globale per queste specie.

La scienziata ci ha detto: ” Un passo successivo può essere sicuramente quello di dare priorità ad azioni di conservazione nelle aree che sono state identificate come più vulnerabili. Per favorire l’operazione si può pensare ad aumentare la qualità dell’habitat o facilitare i movimenti dei pesci in aree dove il rischio è meno grave”.

Le infrastrutture come dighe o altro tipo di costruzioni in mare possono essere un ostacolo a questi spostamenti utilizzati dai pesci per scappare o adattarsi al meglio in altre zone.
Altra manovra chiave sarebbe, in particolare per quanto riguarda i torrenti e i laghi, ripristinare una vegetazione permanente in modo da ridurre temperatura dell’acqua e luce.

Le caratteristiche da considerare sono: le varie differenze all’interno delle specie, le interazioni tra le specie e il potenziale adattivo di ogni singolo animale. Le variabili in questione potrebbero in un certo senso cambiare il panorama dell’impatto del clima sui pesci.

Una maggiore protezione e  un implemento di progetti per la salvaguardia rimane comunque la strada migliore per proteggere le oltre 3000 specie esaminate.

Gianluigi Marsibilio

HARVEY E IRMA: ANATOMIA DI UN URAGANO

L’uragano è un ciclone tropicale, ossia un sistema atmosferico caratterizzato da un movimento rotatorio (antiorario nell’emisfero boreale e orario in quello australe generato dall’effetto della rotazione terrestre) di masse d’aria umida intorno a un centro di bassa pressione, caratterizzato da venti particolarmente intensi, temporali e piogge torrenziali, che si origina a causa delle elevate temperature sulle superfici degli oceani (uragano quando si origina sull’oceano Atlantico e il Pacifico orientale) intorno all’Equatore (a nord e a sud dell’equatore tra gli 5° ed i 20° di latitudine). I cicloni tropicali assumono altre denominazioni (oltre a uragano) a seconda delle regioni dove si manifestano: tifoni se si si formano sull’Oceano Indiano, sul Mar della Cina e sul pacifico occidentale; ciclone in India; willy-willy in Australia; baguiros sulle Filippine.

Il ciclone tropicale, in particolare, è un grande sistema temporalesco caratterizzato da un centro di bassa pressione molto esteso (ossia una regione in cui la pressione atmosferica è minore di quella delle regioni circostanti alla stessa altitudine, con valori mediamente intorno a 960 hPa) il cui diametro è generalmente di qualche centinaia di chilometri. Il ciclone tropicale è una tra le più violente perturbazioni atmosferiche. Questo sistema di bassa pressione si origina a causa dell’elevata temperatura dell’acqua del mare (prossima a 30 °C) e che tende rapidamente a evaporare. Il vapore che si forma dall’evaporazione dell’acqua tende a condensarsi a una certa quota e libera calore nell’aria che inizia a diventare più calda e a salire rapidamente verso l’alto (moti ascendenti), diventando un vero e proprio centro di aspirazione. Quindi, la grande quantità di calore latente sprigionato dalla condensazione determina un aumento della temperatura del sistema (superiore all’aria circostante) che accelera il moto ascensionale dell’aria aumentando, quindi, la depressione a livello del mare che, a sua volta, favorisce la convergenza di altra aria umida. Quindi l’energia dei cicloni tropicali deriva dal calore liberato negli imponenti processi di condensazione del vapore acqueo. Questo meccanismo richiama dall’esterno, al livello del mare, altra aria carica di umidità che salendo libera ancora più calore. Quindi l’aria è richiamata dall’esterno in direzione del centro senza però convergere fino ad esso e diventando tangente a un cerchio del diametro di alcuni chilometri (tra 3 e 30 km generalmente), chiamato “occhio del ciclone”. Le forze legate alla rotazione della Terra obbligano l’aria in ascesa a ruotare sempre più velocemente dando origine a venti che in pochi giorni possono raggiungere intensità particolarmente elevate. I venti che convergono a spirale verso il centro generano un vortice atmosferico che può culminare con venti superiore ai 120 km/h, in questo caso si è formato un uragano. I venti aumentano di intensità verso l’interno in direzione del centro raggiungendo la massima violenza (che negli uragani più disastrosi supera anche i 200 km/h) in corrispondenza delle pareti di nubi che delimitano l’“occhio del ciclone”, all’interno del quale, paradossalmente, i venti sono generalmente deboli e il cielo è sereno.

L’intensità degli uragani è classificata (secondo la Saffir–Simpson Hurricane Scale, SSHS) in 5 categorie: dalla categoria 1 (minimo) con venti da 119 a 153 km/h, alla categoria 5 (disastroso) con venti superiori a 252 km/h.

I cicloni tropicali si esauriscono o quando raggiungono latitudini maggiori, a causa della più bassa temperatura dell’aria richiamata dalla convergenza, o quando i cicloni tropicali arrivano sui continenti, dove viene a mancare la fonte principale di energia rappresentata dall’aria umida. Nella fase comunque di contatto con i continenti gli uragani hanno ancora una forza tale che, prima di esaurirsi, se incontrano zone particolarmente antropizzate, possono determinare vere e proprie catastrofi, con morti e devastazioni enormi. I cicloni tropicali, infatti, sono tra i fenomeni naturali più disastrosi e che, secondo un recente rapporto delle Nazioni Unite (UNISDR: Ufficio delle Nazioni Unite per la riduzione dei disastri) hanno il maggior impatto in termini di mortalità della popolazione: negli ultimi 21 anni (dal 1995 al 2015) a livello mondiale hanno causato la morte di circa 242000 persone, cioè circa il 40% del totale di morti legati a tutti i disastri naturali.

Situazione purtroppo confermata anche da due recenti uragani atlantici, Harvey (già esaurito) e Irma che sta attualmente devastando molte zone dell’America e alcune degli Stati Uniti. I morti attualmente accertati dalla forza di questi due devastanti uragani è purtroppo già di parecchie decine, con milioni di persone coinvolte (anche senza elettricità e rischio di blackout che potrà persistere per alcune settimane) e ingentissimi danni economici. In particolare, l’urgano Harvey è stato classificato nella categoria 4 del SSHS, con venti che nella fase più critica sono anche stati prossimi a 240 km/h ed effetti devastanti dovuti anche alle ingenti precipitazioni (e associate inondazioni) con picchi anche di 1000 mm di pioggia. In alcune zone, come il Texas, questo uragano è stato definito come il fenomeno più disastroso della storia. Il più recente uragano Irma (i cui effetti, purtroppo, non si sono ancora esauriti), invece, è stato addirittura classificato nella categoria 5 del SSHS, e allo stato attuale è tra gli uragani più forti mai registrati a nord dei Caraibi e a est del Golfo del Messico, con una velocità dei venti che hanno superato i 290 km/h. Recenti stime sui possibili danni provocati da Irma e Harvey parlano di costi per l’economia statunitense anche di 300 miliardi di dollari.

 

Marco Morabito

MASSPEC, UNA PENNA CONTRO I TUMORI E UN AIUTO DURANTE LE OPERAZIONI

 

Rapido, preciso e non invasivo. Fino a qualche settimana fa pensare ad uno strumento efficace e veloce per identificare il tessuto cancerogeno sarebbe stata una vera chimera.

MasSpec, presentato con uno studio su Science Translational Medicine, è un nuovo strumento potentissimo nelle mani dei chirurghi che durante i loro interventi potranno verificare in 10 secondi se c’è ancora tessuto cancerogeno da rimuovere.

Parlare di cancro è spesso difficile: un’affermazione di Livia Schiavinato Eberlin, professoressa assistente presso l’Università del Texas ad Austin, sintetizza al meglio una delle più grandi paure dei pazienti dopo un intervento chirurgico: ” La prima cosa che molti pazienti dicono dopo un intervento è ”Spero che il tumore sia stato eliminato completamente”.
Offrire un intervento più preciso e veloce è dunque lo scopo di MasSpeck: i metodi convenzionali per istopatologia dei tessuti richiedono tempi piuttosto lunghi e così non rimane molto margine per procedere ad una diagnosi e ad una terapia connessa. Noi abbiamo parlato con Rachel DeHoog, assistente di ricerca ad Austin e co-autrice dello studio per avere maggiori spiegazioni sul funzionamento di questa tecnologia.
Si parte da uno degli strumenti più usati nella scienza contemporanea, la spettrometria di massa: “Una tecnica del genere è molto efficace nel discriminare tessuti malati e sani in base alle informazioni molecolari raccolte da vari parametri”.
Il gruppo di ricerca ha lanciato una sfida: portare i grandi avanzamenti della spettrometria di massa all’interno di una sala operatoria tra le mani di un chirurgo, in modo da permettere una diagnosi in tempo reale durante un’operazione.

Il funzionamento della tecnologia è piuttosto semplice: ” In collaborazione con medici e ingegneri abbiamo sviluppato questo dispositivo palmare, che ottiene le informazioni molecolari direttamente toccando il tessuto senza causare ulteriori danni”.

La punta della penna, rigorosamente stampata  in 3D,  è il fulcro di tutto lo strumento: la piccola punta, tenuta a contatto con il campione di tessuto, ingerisce una quantità d’acqua che, consegnata nel serbatoio, riesce a separare le molecole di tessuto e inviarle allo spettrometro direttamente per l’analisi.

La differenza tra tessuto sano e malato è basilare nello sviluppo di un intervento oncologico. Attualmente la diagnosi richiede oltre 30 minuti per preparazione e interpretazione del tessuto da parte di un patologo, aumentando il rischio di infezioni o effetti negativi di un’ anestesia nel paziente.

In molti casi, come ha già indicato la ricercatrice: ” Il chirurgo può decidere di concludere l’operazione e aspettare la valutazione del margine”. Esatto, proprio la valutazione dei margini è fondamentale per comprendere se un’operazione è stata effettuata con successo o no. Proprio dai confini della massa vengono poi quelle cellule ancora malate. Una volta che un’analisi patologica risulta ancora positiva ci sarà bisogno di un ulteriore intervento e quindi il paziente sarà esposto ad ulteriori rischi.

C’è da considerare che l’interpretazione di questi tessuti non è sempre facile: i risultati infatti secondo alcuni studi sono inaffidabili in circa il 10-20% dei casi.

I test condotti su 253 pazienti affetti da cancro con la penna MasSpec hanno impiegato 10 secondi per avere una risposta accurata per il 96% dei casi.

L’importanza dello strumento è anche connessa ad un aspetto rilevante nelle varie operazioni, ovvero la limitazione di rimozione di tessuto sano. Si potrebbero infatti, in molte tipologie di tumore, riscontrare dannosi effetti collaterali anche al sistema nervoso o, come nel caso di pazienti affetti da cancro alla tiroide, si potrebbero perdere le capacità di parlare.

Comprendere se una cellula è sana o no dipende dalla tipologia di cancro: qualsiasi tipologia di tumore produce un insieme unico di biomarcatori che agiscono come delle vere e proprie impronte digitali. MasSpec è quindi una sorta di Sherlock Holmes molecolare. Una volta completata la veloce analisi le parole normal o cancer appariranno sul piccolo schermo dello strumento.

Il dispositivo è assolutamente automatico e biocompatibile, in grado di tradurre queste impronte digitali lasciate dalla malattia.

Una innovazione del genere richiede un brevetto e gli studiosi hanno già presentato domanda all’ufficio competente degli Stati Uniti. Nel prossimo anno l’obiettivo sarà quello di portare in tutto il mondo MasSpec e applicarlo in più casi possibili.

 

Gianluigi Marsibilio

Crediti foto: University of Texas

#DIARIODIBORDO- Fare ricerca all’estero

La maggior parte delle persone che decidono di intraprendere una carriera nella ricerca, si ritrovano ad un certo punto a dover affrontare un periodo di esperienza professionale al di fuori dell’Italia. Questo può avvenire ad ogni stadio della carriera, ad esempio durante il conseguimento di un dottorato di ricerca (il primo passo necessario per poter entrare nel mondo dell’accademia) o una posizione di post-dottorato (un ulteriore perfezionamento della propria capacita di fare ricerca prima di diventare il leader do un gruppo di ricerca o ambire ad una cattedra universitaria), ed il periodo può avere una durata variabile da pochi mesi a vari anni. Vi sono addirittura casi di persone (abbastanza numerosi in verità) che ottengono un lavoro permanente nella ricerca all’estero.

Il mondo della ricerca è internazionale. Questi scambi di persone e conoscenze sono normali, anzi funzionali, al modo in cui la ricerca dovrebbe essere condotta: un libero scambio di idee, informazioni, metodi e risultati. Affinché ciò sia possibile i ricercatori devono poter confrontare le loro esperienze e competenze, e questo è facilitato dal fatto di potersi muovere liberamente e poter condurre le proprie ricerche anche al di fuori del paese di origine. Personalmente, sono ricercatore all’estero da più di sei anni ormai prima in Germania e attualmente negli Stati Uniti, dover confrontarmi ogni giorni con delle realtà completamente diverse da cui ero abituato in Italia ha avuto effetti senz’altro positivi, sia per la mia crescita personale che della mia indipendenza nel fare scienza e confrontarmi con modi di approcciarsi alla ricerca scientifica diversi dal mio.

Prima di descrivere brevemente su come sia fare ricerca all’estero rispetto all’Italia vorrei precisare che sto scrivendo a titolo personale, basandomi sulla mia esperienza diretta e circoscritta al mio campo si studi ossia l’Astronomia. Altre persone, in campi diversi, possono avere avuto esperienze ed una visione di insieme molto diverse dalle mie.

Inizio un po’ controcorrente con una nota riguardo il livello della preparazione fornita dalle università italiane. E’ indubbiamente vero che il sistema universitario “produce” pochi laureati, ma non credo che questo avvenga perché la qualità dell’università è bassa. Anzi ritengo che il livello minimo di competenze l’università italiana richiede sia più elevato rispetto ad altri paesi. Detta in soldoni: i laureati italiani sono bravi e molto, migliori della maggior parte dei pari livello internazionali. In effetti gli studenti italiani, almeno in ambito astronomico, sono molto apprezzati all’estero. L’Italia parte dunque in vantaggio rispetto a molti paesi per quel che riguarda la preparazione dei suoi laureati e una buona preparazione a livello universitario è un pilastro fondamentale per fare ottima ricerca. Purtroppo, però, questo vantaggio non viene capitalizzato quanto meriterebbe.

Nel campo delle scienze astronomiche la ricerca condotta in Italia è ad ottimi livelli. Durante il mio dottorato ho potuto dedicarmi ad un progetto di ricerca che ha prodotto risultati rilevanti e mi ha dato la possibilità’ che il mio lavoro fosse riconosciuto ed apprezzato dalla comunità’ scientifica. La differenza maggiore che però ho notato subito andando all’estero (in Germania) dopo il dottorato è la penuria di risorse con cui in Italia si è “costretti” a combattere. Le risorse per viaggiare (non per andare in vacanza, ma presentare lavori a conferenze, partecipare a meeting di collaborazioni scientifiche, ecc…) sono risicate, e lo stesso dicasi per l’acquisto di materiale per l’ufficio o per creare un gruppo di ricerca (per non parlare degli stipendi…). Anche con gli Stati Uniti il confronto è impietoso: un professore che inizia ha di solito a disposizione un pacchetto di finanziamenti congruo per iniziare a mettere insieme un suo gruppo e portare avanti con più facilità, almeno nei primi anni, i suoi progetti di ricerca. Questa endemica scarsità di risorse spinge molte persone ad abbandonare la ricerca in Italia e portare le proprie competenze fuori. Emblematico è il caso dei grant europei ERC: i ricercatori italiani sono terzi in Europa per numero di grant vinti (in media un progetto ogni 8 viene premiato). Di per sé questo non sarebbe negativo nell’ottica di scambio di conoscenze e competenze nella ricerca a cui accennavo sopra. Purtroppo l’opposto accade molto di rado: ricercatori provenienti dall’estero vincitori di grant non scelgono l’Italia per condurre le loro ricerche. Pertanto non si può parlare di scambio, ma di un sostanziale impoverimento. In queste condizioni competere diventa sempre più’ difficile. Concludendo, la disponibilità’ di risorse incide in modo non marginale sulla possibilità di condurre ricerca ad alto livello ed è quasi incredibile come in Italia, nonostante la costante penuria di finanziamenti, si continui tutto sommato a fare ricerca con standard molto elevati.

L’estero però non è la terra promessa. Le possibilità sono maggiori, è vero, ma maggiori sono anche le pressioni per ottenere risultati ed essere il più produttivi possibile in un mondo, come quello della ricerca, estremamente competitivo nel quale, per eccellere, occorre avere sempre idee nuove ed originali che possano portare a nuove scoperte o a una nuova teoria. Queste maggiori pressioni derivano anche dal modo differente di intendere la ricerca tra gli Stati Uniti e l’Europa e non sempre hanno una ricaduta positiva sulla qualità scientifica dei lavori che vengono svolti. Questo è vero soprattutto negli Stati Uniti dove, purtroppo, il metro di giudizio che viene quasi esclusivamente considerato è il numero di articoli pubblicati. Talvolta la pressione di pubblicare risultati è tale che va a scapito della qualità di un lavoro o di una visione a lungo termine di un filone di ricerca, sacrificate per un ritorno più immediato: un altro articolo pubblicato che poco aggiunge alle nostre conoscenze attuali.

Federico Marinacci

L’ARTE DI SCRIVERE DATI, INTERVISTA A PIETRO GAMBARDELLA

L’ETH di Zurigo è un punto di riferimento nello sviluppo della tecnologia e l’ingegneria informatica, noi abbiamo sentito uno dei professori del centro di eccellenza svizzero, Pietro Gambardella, del dipartimento di scienze dei materiali e alcuni giorni fa ha presentato una ricerca su Nature Nanotechnology per migliorare le capacità di memoria e scrittura di dati. Oggi vi parliamo a tutto campo delle applicazioni e l’arte della scrittura della memoria.

 

-Come si possono immagazzinare più velocemente dati? Cosa ha bloccato gli studi fino ad oggi?

Ogni sistema di memoria è composto da un supporto fisico su cui si possono immagazzinare scrivere e leggere dati. Nel caso della memoria di un computer i dati sono rappresentati dall’assenza o presenza di carica (memorie RAM e flash) o dalla direzione della magnetizzazione, ovvero dall’orientamento Nord-Sud o Sud-Nord di un magnete (memorie a disco rigido). In quest’ultimo caso, un bit è rappresentato da una minuscola regione di un film magnetico, in cui la direzione della magnetizzazione può essere controllata indipendentemente da quella dei bit vicini.

Ogni memoria ha procedimenti di scrittura diversi. Nelle memorie magnetiche tradizionali, le operazioni di scrittura e lettura vengono effettuate da una testina composta da una bobina miniaturizzata (in grado di creare un campo magnetico capace di invertire la magnetizzazione di un bit) e da un sensore che misura (legge) la direzione della magnetizzazione. In questo modo, la scrittura e lettura dei dati sono seriali, in quanto la testina si deve spostare fisicamente da un punto all’altro del supporto magnetico per accedere ai diversi bit. Ciò richiede tempo ed energia, ed è la regione per cui le memorie a disco rigido sono più lente delle memorie flash, che non hanno parti mobili.

Fortunatamente, in anni recenti sono emerse nuove tecnologie per scrivere e leggere bit magnetici, che eliminano del tutto le parti mobili e sono potenzialmente molto più rapide di quelle di qualsiasi altra memoria. Queste tecnologie, dette spintroniche, si basano sull’iniezione di deboli correnti elettriche direttamente all’interno di un film magnetico. Esistono vari fenomeni per cui una corrente elettrica può agire direttamente sulla magnetizzazione di un bit, determinandone la direzione. La nostra ricerca ne mette in evidenza uno in particolare, basato sull’interazione spin-orbita, che si è dimostrato molto rapido, con tempi di inversione della magnetizzazione inferiori ad un nanosecondo, e riproducibile, fino a mille miliardi di volte.

 

-Cos’è la magnetizzazione controllata?

Controllare la magnetizzazione significa essere in grado di determinare come e quando si inverte l’orientazione dell’asse Nord-Sud di un magnete. In un materiale magnetico questo processo può avvenire in molti modi. Per esempio, diversamente dall’ago di una bussola che ruota su stesso, la magnetizzazione si può “rompere” in domini che si propagano a velocità diverse, a seconda della propria orientazione. Nel nostro studio, questa velocità di propagazione è estremamente elevata, fino a 500 m/s. Questo significa che la magnetizzazione di un bit di 50 nanometri si può invertire su tempi dell’ordine di un decimo di nanosecondo.

 

-Come si può coniugare un’alta velocità di scrittura con un basso consumo energetico?

Bisogna considerare due fattori. Il primo è che le memorie magnetiche sono per propria natura “non volatili”, ovvero stabili nel tempo e quindi “salva-energia”. Non è questo il caso delle memorie RAM attualmente in uso, che hanno bisogno di essere rinfrescate costantemente per evitare la perdita di dati. La seconda è che, ad una maggiore velocità di scrittura, corrisponde una minor durata dell’impulso elettrico, e quindi della corrente totale di cui si ha bisogno per cambiare lo stato della memoria.

 

-Come sfruttate i campi magnetici attraverso le bobine?

Questo è proprio quello che cerchiamo di evitare. Le bobine sono ingombranti e poco efficienti dal punto di vista energetico, in quanto gran parte del campo magnetico da loro prodotto si disperde nello spazio. L’obiettivo è proprio quello di eliminare le bobine e le parti mobili di una memoria magnetica.

 

 

-Quali ricadute ci saranno sulle memorie dei pc?

L’introduzione di memorie magnetiche controllate da impulsi elettrici può rivoluzionare il settore delle memorie RAM, introducendo la non volatilità unita ad una grande velocità e resistenza all’uso. Una conseguenza tangibile sarebbe, per esempio, un computer che si accende e si spegne istantaneamente. Vi sono già grandi aziende del calibro di Samsung, Qualcomm e Toshiba che si muovono in questa direzione, utilizzando per ora una tecnologia diversa dalla nostra.

 

-Faccia una previsione, nei prossimi dieci anni come si evolverà questo settore?

Vedremo. Alla fine, le scelte industriali sono determinate dal rapporto tra perfomances e costi. Vi sono molte tecnologie in competizione tra loro, ed è un bene che sia così. Personalmente credo che le MRAMs (Magnetic Random Access Memories) avranno un ruolo importante nel nostro futuro.

 

 Gianluigi Marsibilio

Powered by WordPress.com.

Up ↑