Albert Einstein aveva ragione: ci sono voluti 100 anni, ma alla fine la dimostrazione concreta è arrivata. Le onde gravitazionali esistono ed hanno la capacità di allungare e restringere lo spazio-tempo nel momento progressivo in cui si diffondono nell’Universo, spiegando e definendo anche l’esperienza quotidiana della forza di gravità. Per un secolo gli scienziati hanno cercato indizi di vario tipo per dimostrarne l’esistenza in maniera diretta, ma finora i loro tentativi erano stati viziati da interferenze di vario tipo e dalla mancanza di strumentazioni sensibili a sufficienza. Ora la grande svolta.

La scoperta (anche grazie all’Italia)
A confermarlo sono gli scienziati, dagli Usa e dall’Osservatorio gravitazionale europeo, a Cascina, in provincia di Pisa. Le onde gravitazionali sono state rilevate lo scorso 14 settembre grazie alle antenne dello strumento LIGO ed analizzato fra Europa e Stati Uniti dalle collaborazioni LIGO e VIRGO, a cui l’Italia partecipa con l’Istituto Nazionale di Fisica Nucleare (Infn) e sono state prodotte nell’ultima frazione di secondo del processo di fusione di due buchi neri. Che pertanto, dimostrazione palese, sono una realtà.

Ecco le onde gravitazionali
Per la fisica è un risultato senza precedenti. Perché, oltre a confermare l’esistenza delle onde gravitazionali, fornisce anche la prima prova diretta dell’esistenza dei buchi neri. Inoltre le evidenze portate da LIGO e VIRGO confermano che la fisica di Newton, quella che si studia a scuola, è soltanto un’approssimazione di quella sviluppata e messa a punto da Einstein.

LIGO ha identificato le onde gravitazionali utilizzando alcuni osservatori fatti a “L”, costituiti da tunnel lunghi 4 chilometri che possono rilevare minuscole variazioni nella misura dello spazio causate dal passaggio delle loro perturbazioni; VIRGO ha avuto un ruolo più marginale, ma ha elaborato parte dei dati raccolti dall’esperimento statunitense.

LIGO è la sigla di un esperimento internazionale che dal 2004 cerca di rilevare in modo diretto le onde, della cui esistenza si hanno già prove indirette. Le onde gravitazionali si configurano come ondulazioni prodotte nelle spazio-tempo da contaminazioni molto violente come l’esplosione di una supernova o la fusione di due buchi neri, che si propagano in tutto lo spazio. La teoria degli scienziati sostiene che queste onde abbondino e trasportino informazioni riguardo i fenomeni che diedero origine al Big Bang, da cui nacque l’universo.

Le conseguenze della scoperta
Ma quali sono le conseguenze pratiche di questa scoperta, e quale la ragione della enorme rilevanza di tale dimostrazione? L’identificazione nella pratica delle onde gravitazionali non è solo un’importante conferma delle teorie di Einstein infatti: è la strada lastricata per poterle attuare e sfruttare ai fini di ricerca in una situazione complessiva finalmente completa.

A partire da ora gli astrofisici avranno a disposizione nuovi sistemi per studiare l’Universo, analizzando le onde gravitazionali oltre a quelle elettromagnetiche già studiate da tempo. Ed è forse questo uno degli aspetti più interessanti per la pratica: ogni volta che l’uomo ha trovato nuovi strumenti e modi per osservare l’Universo, è stato in grado di scoprire scoperto cose che nemmeno si potevano immaginare. In un certo senso, è come passare dalla semplice osservazione degli animali allo zoo a quella nel loro habitat in libertà. O come passare dal non avere le orecchie per analizzare la realtà ed improvvisamente entrare in possesso della facoltà dell’udito. Insomma, una rivoluzione che ci immette la scienza direttamente nel futuro.

Un importante risultato dei fisici Unicam Andrea Perali e David Neilson è stato pubblicato di recente dalla prestigiosa rivista scientifica Physical Review Letters.  L’Editor della rivista ha selezionato il loro lavoro come il migliore del numero e lo ha segnalato ai lettori per l’interesse trasversale.  

 

I due docenti, in collaborazione con Alex Hamilton dell’Università di New South Wales in Australia, hanno predetto l’esistenza di superfluidità ad alta temperatura in un dispositivo a base di grafene, un nuovo materiale nano elettronico di grande ed attuale interesse per la ricerca e la tecnologia (sullo sviluppo delle nanotecnologie leggi anche Nanofili, pelle elettronica flessibile ed esperienza elettrotattile).

 

E a proposito di Grafene leggi cosa abbiamo scritto tempo fa sull’argomento: Grafene per il fotovoltaico. All’Enea si studia questa opzione.

 

“La collaborazione internazionale con il gruppo sperimentale di Alex Hamilton in Australia  – hanno dichiarato Andrea Perali e David Neilson – ci ha permesso di progettare un dispositivo superfluido di grafene, un materiale innovativo di grande interesse per la ricerca e la tecnologia, come dimostrato anche dal recente finanziamento di 1 miliardo di Euro dell’Unione europea per lo sviluppo di tecnologie a base di grafene che rientra nelle due sole priorità Flagship del programma Horizon 2020.  La collaborazione – proseguono i due docenti – ha permesso di progettare un dispositivo quantistico ad alta efficienza realizzabile con le tecnologie di sintesi già esistenti nei più avanzati laboratori di nano materiali”.

 

Per il progetto del dispositivo superfluido è stato depositato un brevetto dai tre ricercatori. Sono inoltre in corso contatti con il gruppo sperimentale di Manchester in Inghilterra che ha scoperto il grafene e ricevuto per questa scoperta il Nobel per la fisica nel 2010. Tale gruppo ha recentemente comunicato ai nostri ricercatori che ha deciso di realizzare sperimentalmente i dispositivi proposti dai ricercatori stessi entro l’autunno.

 

“Siamo felici che i risultati delle nostre ricerche abbiano suscitato molto interesse.   Abbiamo ricevuto numerosi inviti per la presentazione dell’idea progettuale nel corso di congressi internazionali e presso importanti centri di ricerca – proseguono i docenti Unicam Andrea Perali e David Neilson – e, per il 2014, abbiamo in programma l’organizzazione di una conferenza a Camerino sulle tematiche delle nostre ricerche”.

 

Nella foto Neilson, Perali e Hamilton

Segnaliamo ai nostri lettori un articolo interessante e ben scritto da Licia Faenza, laureata in fisica e dottore di ricerca in Geofisica, occupata presso il Centro nazionale di geofisica e vulcanologia. L’articolo, tratto dal sito dell’INGV, parla della procedura implementata presso l’istituto per fornire rapidamente, in tempo quasi reale, i valori dello scuotimento del suolo, dopo l’occorrenza di terremoti in Italia.

Negli ultimi anni, la comunità scientifica in generale, e l’INGV in particolare, hanno finanziato diversi progetti nel campo della sismologia volti verso una migliore comprensione del fenomeno dell’occorrenza dei terremoti sul territorio italiano e lo scuotimento del suolo a loro associato.

In questo contesto, ShakeMap è uno strumento indirizzato specificamente alla valutazione rapida del moto del suolo dopo un terremoto avvenuto in Italia, fornisce informazioni rapide e precise sulla distribuzione e entità dei danni causati dal terremoto, ed è di aiuto alle protezioni civili per il coordinamento e l’organizzazione delle squadre di soccorso.

È un dato di fatto che l’Italia sia un paese sismicamente attivo, dove si sono avuti alcuni grandi ed estremamente dannosi terremoti sin dai tempi storici. Tragici esempi di questi terremoti nel secolo scorso sono il terremoto del 1905 in Calabria con Magnitudo 6.8, quello di Messina-Reggio Calabri del 1908 con Magnitudo 7.0, nella Marsica nel 1915 con Magnitudo 7.0, l’Irpinia del 1930 con Magnitudo 6.7, il Belice del 1968 con Magnitudo 6.5, il Friuli del 1976 con Magnitudo 6.5, e ancora l’Irpinia nel 1980 con Magnitudo 6.9; e in ultimo, ricordiamo il terremoto che ha colpito la città de L’Aquila nell’aprile 2009; tutti questi terremoti hanno causato ingenti danni e vittime (da centinaia a decine di migliaia).

Il principio fondamentale di ShakeMap è un algoritmo di interpolazione basato su principi sismologici, che sfrutta i dati dello scuotimento del suolo osservati con le conoscenze sismologiche disponibili, con lo scopo di produrre mappe del movimento del suolo a scala locale e regionale (leggi anche Elementi essenziali di sismologia applicati all’ingegneria).

Dunque, oltre ai dati, che rappresentano un elemento essenziale per ricavare risultati realistici e precisi, gli ingredienti fondamentali del codice di calcolo per ottenere mappe accurate sono:
1) leggi predittive sul moto del suolo in funzione della distanza, per diversi periodi di interesse e per diverse magnitudo dell’evento,
2) la descrizione realistica della amplificazioni locali attraverso l’uso della geologia del sito, ovvero caratterizzare gli effetti in situ che il campo d’onda produce al suo passaggio.

ShakeMap è implementato presso la Sala Sismica dell’INGV.
Il codice si basa sulla localizzazione e la magnitudo fornite dal personale in servizio H-24 presso la Sala Sismica dell’INGV; i dati dello scuotimento del suolo sono disponibili, in tempo reale, a scala nazionale, dalla Rete Sismica Nazionale Italiana e MedNet, due reti gestite dall’INGV, e dalla rete gestita dal Dipartimento della Protezione Civile (DPC), e a scala locale, dalle reti dell’Università degli Studi di Genova, dall’Università di Trieste, dall’OGS, dall’AMRA e dall’ETH.

Licia Faenza, Valentino Lauciani e Alberto Michelini compongono il team che si occupa di ShakeMap presso l’INGV. In un recente lavoro (scarica articolo), pubblicato sulla rivista scientifica Seismological Research Letters, a nome di Michelini Alberto, Faenza Licia, Lauciani Valentino e  Malagnini Luca, dal titolo “ShakeMap implementation in Italy”, sono spiegati i dattagli sull’implementazione del codice all’Italia

Le ShakeMaps sono pubblicate, e pubblicamente disponibili, sul portale web dell’INGV; sono calcolate per tutti i terremoti con Magnitudo 3.0 + che si verificano in Italia e nelle zone circostanti

ShakeMap è specificamente progettato per generare, in tempo quasi reale, le mappe del picco di massimo di scuotimento del suolo (PGM), inclusa l’accelerazione di picco del suolo (PGA), la velocità di picco del suolo (PGV), e la risposta in accelerazione spettrale (SA) a 0.3, 1.0 e 3.0 s, e l’intensità macrosismica strumentale in scala Mercalli Modificata.

Vai al sito delle Shakemaps

Articolo di Licia Faenza

Tratto dal sito dell’Istituto di geofisica e vulcanologia