UA-101332019-1
Search

tra Scienza & Coscienza

"Il cielo stellato sopra di me, la legge morale dentro di me'' I. Kant

Category

Coscienza

UNA MAPPA GLOBALE DEL CALCIO E DELLA SUA ASSUNZIONE

L’assunzione giornaliera di calcio per gli adulti è incredibilmente e pericolosamente bassa in alcune aree del mondo, a riferirlo è uno studio su Osteoporosis International che mostra come l’assunzione di calcio sembra variare in modo molto diffuso in tutto il mondo in base a dei veri modelli regionali distinti.

La ricerca è stata pubblicata in vista della Giornata mondiale dell’osteoporosi che sarà esattamente venerdì 20 ottobre.

I dati suggeriscono che ci sono molte aree del mondo in cui si corrono rischi per la salute delle ossa.

La mappa elaborata dalla Brown University, che ha finanziato lo studio, illustra chiaramente la situazione globale.

Nei prossimi giorni indagheremo sui perché e su cosa comporta una situazione del genere in termini di salute globale.

In paesi come quelli asiatici si assumono solo 400 mg al giorno, mentre i paesi dell’Europa settentrionale hanno registrato assunzioni per più di 1.000 mg al giorno.

Anche se le quantità di calcio raccomandate variano nei vari paesi, ci si trova dinanzi sempre a delle quantità assunta nettamente inferiore a quelle consigliate.

MAPPARE LA FOTOSINTESI, UNA QUESTIONE DI NUOVE PROSPETTIVE

In un film tanto bello quanto discusso, Nymphomaniac, viene detta questa frase:”Le cose si nascondono quando diventano familiari, Ma se si guardano da un’altra angolazione possono assumere un nuovo significato”.

Cambiare la prospettiva intorno a un problema può effettivamente portare ad una soluzione o almeno ad un’analisi più completa: gli scienziati dell’università di Sydney e della NASA  hanno sviluppato una nuova tecnica per reinventare l’immagine della fotosintesi, attraverso il telerilevamento satellitare. Lo studio è stato pubblicato su Science questa settimana.

Ad essere tracciata è stata la fluorescenza della clorofilla tramite il sistema satellitare OCO-2, satellite NASA che traccia “il respiro” del nostro pianeta dallo spazio ed è dedicato esclusivamente allo studio dell’anidride carbonica atmosferica.

Quando parliamo di fotosintesi, stiamo facendo i conti con la base fondamentale della vita sulla terra: lo scienziato Bradley Evans, co-autore dello studio e professore della School of Life and Environmental Sciences ha spiegato a Tra Scienza & Coscienza, in sommi capi, come è stata svolta la ricerca:” Il nostro studio vuole raccontare la fotosintesi, non fornire un’analisi sul suo stato e i suoi cambiamenti”.

Per capire, dal punto di vista scientifico, questo processo abbiamo bisogno di vari ingredienti come CO2, luce e acqua, Evans ci ha raccontato quali sono i principali propulsori di questo processo: “I principali motori della fotosintesi sono la CO2, la luce, la presenza di acqua e i nutrienti. Ma se i nutrienti rimangono sempre uguali; la luce, l’acqua e il CO2 cambiano in base al clima. Le piante possono adattarsi a determinati limiti e la CO2 può “arricchire” una certa quantità di fotosintesi, ma la maggior parte delle piante è altamente ottimizzata per il suo clima. Possiamo dire che per ora la fotosintesi si sta adattando al meglio, ma rimane comunque abbastanza limitata nella sua capacità”.

Lo studio dunque vuole diventare un reale strumento per aiutare a studiare i flussi di carbonio, permettendo così un’analisi del cambiamento climatico ancor più sottile che vada a monitorare come stanno reagendo i vari ecosistemi del nostro pianeta.

“Ancora non comprendiamo completamente l’ottimizzazione della fotosintesi, probabilmente perché cambia e si adatta entro un intervallo di tempo che coinvolge intere generazioni di piante” ha spiegato Evans.

Il miglioramento nel raccogliere dati e stime sulla crescita delle piante, con una risoluzione di fatto senza precedenti, è il fulcro dello studio: “Dobbiamo gestire meglio gli ecosistemi naturali in declino e le risorse agricole finite. Ad esempio, verso le singole piante in un campo analizzando la loro condizione, il tasso di crescita e le necessità biochimiche”. Una volta compresi questi fattori allora potremmo ottenere un tasso di crescita più elevato anche con meno acqua e sostanze nutritive nel terreno.

Le foglie che assorbono anidride carbonica e la loro conversione di zuccheri durante la fotosintesi, sono e saranno al centro della nostra biosfera, allora occorre ripensare il nostro posto nel mondo ancora una volta e tramite dei satelliti, dei progetti di ricerca o le parole di uno scienziato, siamo chiamati a cambiare prospettiva.

Gianluigi Marsibilio

 


ARMI AUTONOME, COSA SONO E COME BLOCCARNE LO SVILUPPO

 

Alcune settimane fa avevamo fatto delle domande ad Alessio Bonfietti per farci spiegare quanto sia importante, in un’epoca di grandi trasformazioni tecnologiche e scientifiche, limitare le applicazioni dell’intelligenza artificiale in determinati settori “a rischio”. Proprio in questa direzione è andata la lettera dell’Istituto Future of Life mandata all’Onu per chiedere un’azione contro le armi autonome. Il professor Bonfietti è stato uno dei firmatari di questa lettera e ci ha mandato un suo pensiero per farci capire l’importanza di questo documento.

 

Le armi autonome sono macchine ( come droni o robot) in grado di prendere decisioni da sole. Le armi autonome letali a cui si riferisce la lettera firmata, sono armi che possono prendere la decisione di uccidere in modo autonomo.
Lo scopo finale della lettera è pertanto quello di accendere un dibattito sulla pericolosità di lasciare decisioni etiche (uccidere o no) ad un computer.
L’intelligenza artificiale non può, ne potrà nel breve periodo (ne vi sono prove che potrà nel lungo periodo) prendere decisioni morali/etiche, poichè non è in grado di sviluppare quella forma di coscienza che differenzia l’essere umano dalla macchina.

L’intelligenza artificiale può aiutare l’uomo a prendere decisioni e può semplificare i lavori più complessi: a livello militare con ricognizioni, identificazioni e supporto a decisioni strategiche/operative. E’ purtroppo molto difficile riuscire a creare una vera e propria regolamentazione in grado di vincolare l’uso dell’AI.
Solitamente l’intelligenza artificiale è un programma software, pertanto è in grado di essere eseguito ovunque vi sia un computer (anche nelle televisioni, lavatrici, frigoriferi, missili, cannoni, droni).

Le tecnologie che fanno parte della branca dell’intelligenza artificiale, per citarne alcune Reasoning, Learning, Planning, sono trasversali ed applicabili pertanto in quasi tutti i contesti.

In futuro (anche se in alcuni ambiti è già presente) le macchine intelligenti si integreranno nella forza lavoro delle industrie andando a supportare l’uomo nel migliore dei modi.
Concludo ricordando una citazione di Patrice Caine, amministratore delegato di Thales, società specializzata proprio nel settore della difesa: “However unpredictable they may be, humans with their consciousness must remain sole masters of their decisions and their destiny.”

REALTÀ VIRTUALE E ROBOT, UNA NUOVA SFIDA PER IL FUTURO DEL LAVORO

https://youtu.be/4a-W3Od5-t8

Robotica e realtà virtuale uniti in questa nuova tecnologia di telepresenza che consente agli esseri umani di eseguire in remoto dei lavori molto pericolosi o sgradevoli.

A sviluppare questa tecnologia sono stati i ricercatori del laboratorio di informatica e intelligenza artificiale del MIT che hanno trovato un modo intelligente per combinare la realtà virtuale con la robotica. I robot utilizzati sono della Rethink Robotics e comprendono una cuffia VR e un braccio robotico altamente sofisticato, da poter utilizzare tramite il display che gli operatori umani indossano nel loro casco VR.
L’idea è quella di portare i lavoratori, che solitamente si occupano di mansioni su petroliere o aerei, ad essere in situazioni di totale comodità e portarli ad operare in modo completamente sicuro.

Su Digital Trend il ricercatore Jeffrey Lipton ha spiegato come loro sperano di estendere al meglio i vari tipi di mansioni a dei robot diversi e magari complementari tra loro.

Il tasso di successo del gruppo è stato del 100%, rispetto ai classici metodi automatizzati che prevedono una possibilità di riuscita del 66%, questo sistema può essere utilizzato per attività di posizionamento, montaggio e produzione.

ENTRO IL 2100 IL CICLO DEL CARBONIO RISCHIA DI SCONVOLGERE IL PIANETA

4,5 miliardi di anni, ecco quanto dobbiamo andare indietro per gli riavvolgere la storia della terra.

Noi vogliamo partire da una data molto più vicina: 540 milioni di anni. Nel lasso di tempo che ci porta al 2017 troviamo 5 eventi di estinzione di massa. Ognuna di queste catastrofi è associata al cambiamento nel normale ciclo del carbonio, all’interno dell’atmosfera e degli oceani.

Daniel Rothman, professore del Dipartimento di geofisica del MIT, in un suo paper su Science ha indicato chiaramente la via verso quella che potrebbe essere la sesta estinzione di massa e intorno al 2100, con i ritmi attuali di emissioni potremmo trovarci in situazioni assolutamente spiacevoli.

Secondo lo studio, realizzato con enorme perizia matematica, siamo alle soglie di una catastrofe infatti una volta che i livelli di carbonio saranno superati l’ambiente che ci circonderà sarà instabile e infine l’ennesima estinzione sarà più di una semplice possibilità.

Rothman ci ha detto: “Tutti gli eventi del genere sono stati associati a gravi perturbazioni nel ciclo del carbonio”.

Non solo l’analisi matematica dei parametri che caratterizzano la salute del pianeta, infatti sono stati studiati anche i contesti geologici, paleoambientali e paleobiologici di ogni epoca passata, è estremamente interessante leggere tutta la ricerca per vedere le similitudini con le altre ere geologiche.

Al centro della nuova estinzione, secondo Rothman, c’è il pericoloso aumento delle emissioni di anidride carbonica e l’enorme quantità di carbonio che nel corso del tempo si sta aggiungendo agli oceani, l’importo è di circa 310 miliardi di tonnellate di carbonio in più nei nostri mari.

La data segnata è il 2100, presumibilmente non per una totale estinzione, ma ci si potrebbe trovare in una situazione non conosciuta e difficile da ipotizzare attualmente.

I parametri utilizzati per avere una risposta matematica efficiente sono stati due: ” Ho misurato la geochimica dei cambiamenti nei rapporti di abbondanza tra il carbonio 13 e il carbonio 12 nei sedimenti antichi e ho effettuato misurazioni geocronologiche della durata del tempo in cui queste modifiche sono avvenute”.

I catastrofisti ad una notizia del genere si sono già scatenati ma un’indagine del genere non indica un collasso della vita sul pianeta Terra imminente ma ci porta a responsabilizzarci verso un maggiore controllo del ciclo del carbonio che dovrà essere stabilizzato.

Il professore ha trovato complessivamente 31 eventi negli ultimi 542 milioni di anni in cui c’è stato un significativo cambio nel ciclo del carbonio.

“L’obiettivo- secondo il professore- non è quello di portare il panico tra la gente bensì capire meglio il sistema Terra portando la società a prendere decisioni meglio informate”.

I vari scenari portano a vedere come nel 2100 il ciclo del carbonio sarà vicino o meno, secondo diverse previsioni, alla soglia di una possibile catastrofe.

“La conclusione, su una possibile estinzione di massa, deve essere considerata come un’ipotesi soggetta ad un gran numero di altre analisi” ci ha spiegato per concludere il professore, a noi non resta che approfondire e stare più attenti a questo tipo di studi.

Gianluigi Marsibilio

COME FUNZIONA UN CHIP FOTONICO?

Elaborare segnali quantistici avanzati è uno degli obiettivi dei ricercatori dell’Università di Sydney che per la prima volta sono riusciti a immagazzinare informazioni digitali trasportate attraverso delle onde luminose. 

Lo studio che raccoglie lo straordinario successo è stato pubblicato su Nature Communications.
La trasformazione di dati dal dominio dell’ottico all’acustico e viceversa, all’interno di un singolo chip, è fondamentale per la creazione di circuiti integrati fotonici. In parole povere l’idea è quella di produrre strumenti che utilizzano fotoni per gestire i dati.

Come ci ha spiegato Birgit Stiller, della scuola di Fisica dell’Università di Sydney: ” Siamo stati capaci di ottenere le informazioni tramite un trasferimento coerente”. Gli scienziati tramite il chip fabbricato dal laser physics center sono stati capaci di trasferire i parametri degli impulsi ottici, come l’intensità, frequenza e fase ottica in onde acustiche. Birgit ha spiegato: ” Compiendo un ulteriore trasferimento abbiamo ottenuto le informazioni”.

Ma perché è così importante sostituire il segnale da ottico a acustico e viceversa?

Sappiamo che la velocità del suono è centomila volte più bassa di quella della luce, avere un sistema ottico di immagazzinamento dei dati è utile per una presa di informazioni su lunghe distanze, per esempio attraverso i continenti ma
questo va a complicarsi quando la velocità non è più un vantaggio bensì un fastidio, dato che i computer ed i sistemi di telecomunicazione non riescono ad elaborare velocemente tutte le informazioni.

Sappiamo da anni che il trasferimento fotone – fonone – fotone è ampiamente coerente e i tempi di stoccaggio sono estremamente veloci, riconducibili all’ordine dei microsecondi.

Al centro di questo incredibile sistema c’è un elemento chiamato buffer, il professor Benjamin Eggleton anche lui dell’Università di Sydney ci ha spiegato:”Un buffer è un elemento di archiviazione fondamentale per memorizzare le informazioni in onde sonore”.

”Questi strumenti- ha aggiunto lo scienziato- consentono di sincronizzare diversi canali di comunicazione e sono componenti essenziali nelle reti, ad esempio i data center”.

Il gruppo di ricerca lavora da oltre 5 anni su questi sistemi e ha già precedentemente dimostrato che il trasferimento è coerente per memorizzare e recuperare le diverse informazioni.

I dati forniti dalla luce hanno enormi vantaggi rispetto alle informazioni elettroniche ma hanno un problema essendo troppo veloci  hanno bisogno di subire un rallentamento per essere immagazzinate.

Birgit Stiller ha spiegato nel dettaglio questo meccanismo per stoccare le informazioni presenti nel loro chip: ” Le informazioni continuano a rimanere nel dominio ottico solo per un breve periodo in cui la luce viene messa in attesa, in questo momento c’è una trasformazione in onda acustica, questo passaggio è fondamentale per riuscire ad immagazzinare i dati”.

Una volta che l’informazione acustica ha compiuto il suo lavoro tutto quanto torna nel dominio ottico, sostanzialmente capiamo che l’onda acustica viene utilizzata semplicemente come un mezzo di memoria.

Lo studio permette di aggirare i dannosi effetti di dispersione dei dati dovuti alla enorme velocità della luce, i ricercatori dunque sembrano aver trovato una quadratura del cerchio per scrivere e leggere impulsi ottici in questo meccanismo fotonico- fononico.

Ad oggi è possibile cercare un miglioramento tramite la scelta di un materiale migliore, il passo avanti, secondo Birgit può essere fatto ”sostituendo il softglass, attualmente utilizzato, in un chip di silicio”.

La strada comunque rimane lunga e bisogna estendere il funzionamento del dispositivo a dei livelli più elevati, la sfida secondo Eggleton è quella di : ” essere compatibili con sistemi di comunicazione ottica contemporanea  e i datacenter”.

Gianluigi Marsibilio

3000 SPECIE A RISCHIO IN FIUMI, MARI E OCEANI

Il cambiamento climatico è reale e molte specie di pesci potrebbero subirne le conseguenze: una nuova analisi pubblicata su Nature Climate Change ha evidenziato come quasi 3000 specie di pesci che vivono negli oceani e nei fiumi subiranno conseguenze gravi a causa del cambiamento climatico. Lise Comte. dell’Università di Washington, ci ha parlato della sua ricerca appena uscita: ” I pesci che vivono nei Tropici saranno i più vulnerabili all’aumento della temperatura, ma il rischio più elevato sarà per i bacini d’acqua dolce situati nell’emisfero settentrionale”.
80 anni di studi sono stati sintetizzati nel loro paper, che ha coniugato campioni raccolti sul campo e decine di simulazioni in laboratorio.

Come ha messo in luce nel suo editoriale  su Nature Jennifer Sunday:  “La ricerca di Lisa e Giulia sta producendo una stima della sensibilità al clima di circa 2960 specie”.

Il problema esiste particolarmente nei Tropici, poiché le specie tendono ad avere una maggiore sensibilità al riscaldamento climatico, dato che le temperature ambientali sono molto più vicine ai loro limiti naturali.

Le specie saranno costrette a migrare, adattarsi o morire. Come mostra l’analisi, tutti i mari e tutti i fiumi saranno colpiti dalle variazioni: la vera sfida è quindi creare un vero piano di salvataggio globale per queste specie.

La scienziata ci ha detto: ” Un passo successivo può essere sicuramente quello di dare priorità ad azioni di conservazione nelle aree che sono state identificate come più vulnerabili. Per favorire l’operazione si può pensare ad aumentare la qualità dell’habitat o facilitare i movimenti dei pesci in aree dove il rischio è meno grave”.

Le infrastrutture come dighe o altro tipo di costruzioni in mare possono essere un ostacolo a questi spostamenti utilizzati dai pesci per scappare o adattarsi al meglio in altre zone.
Altra manovra chiave sarebbe, in particolare per quanto riguarda i torrenti e i laghi, ripristinare una vegetazione permanente in modo da ridurre temperatura dell’acqua e luce.

Le caratteristiche da considerare sono: le varie differenze all’interno delle specie, le interazioni tra le specie e il potenziale adattivo di ogni singolo animale. Le variabili in questione potrebbero in un certo senso cambiare il panorama dell’impatto del clima sui pesci.

Una maggiore protezione e  un implemento di progetti per la salvaguardia rimane comunque la strada migliore per proteggere le oltre 3000 specie esaminate.

Gianluigi Marsibilio

HARVEY E IRMA: ANATOMIA DI UN URAGANO

L’uragano è un ciclone tropicale, ossia un sistema atmosferico caratterizzato da un movimento rotatorio (antiorario nell’emisfero boreale e orario in quello australe generato dall’effetto della rotazione terrestre) di masse d’aria umida intorno a un centro di bassa pressione, caratterizzato da venti particolarmente intensi, temporali e piogge torrenziali, che si origina a causa delle elevate temperature sulle superfici degli oceani (uragano quando si origina sull’oceano Atlantico e il Pacifico orientale) intorno all’Equatore (a nord e a sud dell’equatore tra gli 5° ed i 20° di latitudine). I cicloni tropicali assumono altre denominazioni (oltre a uragano) a seconda delle regioni dove si manifestano: tifoni se si si formano sull’Oceano Indiano, sul Mar della Cina e sul pacifico occidentale; ciclone in India; willy-willy in Australia; baguiros sulle Filippine.

Il ciclone tropicale, in particolare, è un grande sistema temporalesco caratterizzato da un centro di bassa pressione molto esteso (ossia una regione in cui la pressione atmosferica è minore di quella delle regioni circostanti alla stessa altitudine, con valori mediamente intorno a 960 hPa) il cui diametro è generalmente di qualche centinaia di chilometri. Il ciclone tropicale è una tra le più violente perturbazioni atmosferiche. Questo sistema di bassa pressione si origina a causa dell’elevata temperatura dell’acqua del mare (prossima a 30 °C) e che tende rapidamente a evaporare. Il vapore che si forma dall’evaporazione dell’acqua tende a condensarsi a una certa quota e libera calore nell’aria che inizia a diventare più calda e a salire rapidamente verso l’alto (moti ascendenti), diventando un vero e proprio centro di aspirazione. Quindi, la grande quantità di calore latente sprigionato dalla condensazione determina un aumento della temperatura del sistema (superiore all’aria circostante) che accelera il moto ascensionale dell’aria aumentando, quindi, la depressione a livello del mare che, a sua volta, favorisce la convergenza di altra aria umida. Quindi l’energia dei cicloni tropicali deriva dal calore liberato negli imponenti processi di condensazione del vapore acqueo. Questo meccanismo richiama dall’esterno, al livello del mare, altra aria carica di umidità che salendo libera ancora più calore. Quindi l’aria è richiamata dall’esterno in direzione del centro senza però convergere fino ad esso e diventando tangente a un cerchio del diametro di alcuni chilometri (tra 3 e 30 km generalmente), chiamato “occhio del ciclone”. Le forze legate alla rotazione della Terra obbligano l’aria in ascesa a ruotare sempre più velocemente dando origine a venti che in pochi giorni possono raggiungere intensità particolarmente elevate. I venti che convergono a spirale verso il centro generano un vortice atmosferico che può culminare con venti superiore ai 120 km/h, in questo caso si è formato un uragano. I venti aumentano di intensità verso l’interno in direzione del centro raggiungendo la massima violenza (che negli uragani più disastrosi supera anche i 200 km/h) in corrispondenza delle pareti di nubi che delimitano l’“occhio del ciclone”, all’interno del quale, paradossalmente, i venti sono generalmente deboli e il cielo è sereno.

L’intensità degli uragani è classificata (secondo la Saffir–Simpson Hurricane Scale, SSHS) in 5 categorie: dalla categoria 1 (minimo) con venti da 119 a 153 km/h, alla categoria 5 (disastroso) con venti superiori a 252 km/h.

I cicloni tropicali si esauriscono o quando raggiungono latitudini maggiori, a causa della più bassa temperatura dell’aria richiamata dalla convergenza, o quando i cicloni tropicali arrivano sui continenti, dove viene a mancare la fonte principale di energia rappresentata dall’aria umida. Nella fase comunque di contatto con i continenti gli uragani hanno ancora una forza tale che, prima di esaurirsi, se incontrano zone particolarmente antropizzate, possono determinare vere e proprie catastrofi, con morti e devastazioni enormi. I cicloni tropicali, infatti, sono tra i fenomeni naturali più disastrosi e che, secondo un recente rapporto delle Nazioni Unite (UNISDR: Ufficio delle Nazioni Unite per la riduzione dei disastri) hanno il maggior impatto in termini di mortalità della popolazione: negli ultimi 21 anni (dal 1995 al 2015) a livello mondiale hanno causato la morte di circa 242000 persone, cioè circa il 40% del totale di morti legati a tutti i disastri naturali.

Situazione purtroppo confermata anche da due recenti uragani atlantici, Harvey (già esaurito) e Irma che sta attualmente devastando molte zone dell’America e alcune degli Stati Uniti. I morti attualmente accertati dalla forza di questi due devastanti uragani è purtroppo già di parecchie decine, con milioni di persone coinvolte (anche senza elettricità e rischio di blackout che potrà persistere per alcune settimane) e ingentissimi danni economici. In particolare, l’urgano Harvey è stato classificato nella categoria 4 del SSHS, con venti che nella fase più critica sono anche stati prossimi a 240 km/h ed effetti devastanti dovuti anche alle ingenti precipitazioni (e associate inondazioni) con picchi anche di 1000 mm di pioggia. In alcune zone, come il Texas, questo uragano è stato definito come il fenomeno più disastroso della storia. Il più recente uragano Irma (i cui effetti, purtroppo, non si sono ancora esauriti), invece, è stato addirittura classificato nella categoria 5 del SSHS, e allo stato attuale è tra gli uragani più forti mai registrati a nord dei Caraibi e a est del Golfo del Messico, con una velocità dei venti che hanno superato i 290 km/h. Recenti stime sui possibili danni provocati da Irma e Harvey parlano di costi per l’economia statunitense anche di 300 miliardi di dollari.

 

Marco Morabito

#DIARIODIBORDO- Fare ricerca all’estero

La maggior parte delle persone che decidono di intraprendere una carriera nella ricerca, si ritrovano ad un certo punto a dover affrontare un periodo di esperienza professionale al di fuori dell’Italia. Questo può avvenire ad ogni stadio della carriera, ad esempio durante il conseguimento di un dottorato di ricerca (il primo passo necessario per poter entrare nel mondo dell’accademia) o una posizione di post-dottorato (un ulteriore perfezionamento della propria capacita di fare ricerca prima di diventare il leader do un gruppo di ricerca o ambire ad una cattedra universitaria), ed il periodo può avere una durata variabile da pochi mesi a vari anni. Vi sono addirittura casi di persone (abbastanza numerosi in verità) che ottengono un lavoro permanente nella ricerca all’estero.

Il mondo della ricerca è internazionale. Questi scambi di persone e conoscenze sono normali, anzi funzionali, al modo in cui la ricerca dovrebbe essere condotta: un libero scambio di idee, informazioni, metodi e risultati. Affinché ciò sia possibile i ricercatori devono poter confrontare le loro esperienze e competenze, e questo è facilitato dal fatto di potersi muovere liberamente e poter condurre le proprie ricerche anche al di fuori del paese di origine. Personalmente, sono ricercatore all’estero da più di sei anni ormai prima in Germania e attualmente negli Stati Uniti, dover confrontarmi ogni giorni con delle realtà completamente diverse da cui ero abituato in Italia ha avuto effetti senz’altro positivi, sia per la mia crescita personale che della mia indipendenza nel fare scienza e confrontarmi con modi di approcciarsi alla ricerca scientifica diversi dal mio.

Prima di descrivere brevemente su come sia fare ricerca all’estero rispetto all’Italia vorrei precisare che sto scrivendo a titolo personale, basandomi sulla mia esperienza diretta e circoscritta al mio campo si studi ossia l’Astronomia. Altre persone, in campi diversi, possono avere avuto esperienze ed una visione di insieme molto diverse dalle mie.

Inizio un po’ controcorrente con una nota riguardo il livello della preparazione fornita dalle università italiane. E’ indubbiamente vero che il sistema universitario “produce” pochi laureati, ma non credo che questo avvenga perché la qualità dell’università è bassa. Anzi ritengo che il livello minimo di competenze l’università italiana richiede sia più elevato rispetto ad altri paesi. Detta in soldoni: i laureati italiani sono bravi e molto, migliori della maggior parte dei pari livello internazionali. In effetti gli studenti italiani, almeno in ambito astronomico, sono molto apprezzati all’estero. L’Italia parte dunque in vantaggio rispetto a molti paesi per quel che riguarda la preparazione dei suoi laureati e una buona preparazione a livello universitario è un pilastro fondamentale per fare ottima ricerca. Purtroppo, però, questo vantaggio non viene capitalizzato quanto meriterebbe.

Nel campo delle scienze astronomiche la ricerca condotta in Italia è ad ottimi livelli. Durante il mio dottorato ho potuto dedicarmi ad un progetto di ricerca che ha prodotto risultati rilevanti e mi ha dato la possibilità’ che il mio lavoro fosse riconosciuto ed apprezzato dalla comunità’ scientifica. La differenza maggiore che però ho notato subito andando all’estero (in Germania) dopo il dottorato è la penuria di risorse con cui in Italia si è “costretti” a combattere. Le risorse per viaggiare (non per andare in vacanza, ma presentare lavori a conferenze, partecipare a meeting di collaborazioni scientifiche, ecc…) sono risicate, e lo stesso dicasi per l’acquisto di materiale per l’ufficio o per creare un gruppo di ricerca (per non parlare degli stipendi…). Anche con gli Stati Uniti il confronto è impietoso: un professore che inizia ha di solito a disposizione un pacchetto di finanziamenti congruo per iniziare a mettere insieme un suo gruppo e portare avanti con più facilità, almeno nei primi anni, i suoi progetti di ricerca. Questa endemica scarsità di risorse spinge molte persone ad abbandonare la ricerca in Italia e portare le proprie competenze fuori. Emblematico è il caso dei grant europei ERC: i ricercatori italiani sono terzi in Europa per numero di grant vinti (in media un progetto ogni 8 viene premiato). Di per sé questo non sarebbe negativo nell’ottica di scambio di conoscenze e competenze nella ricerca a cui accennavo sopra. Purtroppo l’opposto accade molto di rado: ricercatori provenienti dall’estero vincitori di grant non scelgono l’Italia per condurre le loro ricerche. Pertanto non si può parlare di scambio, ma di un sostanziale impoverimento. In queste condizioni competere diventa sempre più’ difficile. Concludendo, la disponibilità’ di risorse incide in modo non marginale sulla possibilità di condurre ricerca ad alto livello ed è quasi incredibile come in Italia, nonostante la costante penuria di finanziamenti, si continui tutto sommato a fare ricerca con standard molto elevati.

L’estero però non è la terra promessa. Le possibilità sono maggiori, è vero, ma maggiori sono anche le pressioni per ottenere risultati ed essere il più produttivi possibile in un mondo, come quello della ricerca, estremamente competitivo nel quale, per eccellere, occorre avere sempre idee nuove ed originali che possano portare a nuove scoperte o a una nuova teoria. Queste maggiori pressioni derivano anche dal modo differente di intendere la ricerca tra gli Stati Uniti e l’Europa e non sempre hanno una ricaduta positiva sulla qualità scientifica dei lavori che vengono svolti. Questo è vero soprattutto negli Stati Uniti dove, purtroppo, il metro di giudizio che viene quasi esclusivamente considerato è il numero di articoli pubblicati. Talvolta la pressione di pubblicare risultati è tale che va a scapito della qualità di un lavoro o di una visione a lungo termine di un filone di ricerca, sacrificate per un ritorno più immediato: un altro articolo pubblicato che poco aggiunge alle nostre conoscenze attuali.

Federico Marinacci

Powered by WordPress.com.

Up ↑