Exascale computer: il futuro delle supermacchine passa da Trento

Potenti, flessibili e a risparmio energetico: i supercomputer di prossima generazione potranno eseguire miliardi di miliardi di calcoli al secondo. Dai terremoti alle esplosioni spaziali: il progresso della ricerca nelle applicazioni in vari settori. Al via il progetto finanziato dall’Europa con 2,8 milioni per quattro anni. Il team internazionale include l’Università di Trento, unico partner italiano. E i risultati e le tecnologie saranno per tutti grazie alla scelta dell’open source

Cos’hanno in comune le onde tsunami, i terremoti, la fusione nucleare, il meteo, le esplosioni di raggi gamma e i processi di combustione? Questi temi che attirano l’interesse degli scienziati di tutto il mondo hanno una formulazione matematica universale in comune (sotto la forma di leggi di conservazione, ad esempio conservazione della massa e dell’energia) e sono ambiti di applicazione dei supercomputer. Macchine dalla straordinaria capacità di calcolo rispetto ai normali computer, i supercomputer con centinaia di migliaia di processori permettono di effettuare simulazioni utili alla ricerca perché verificano le teorie mettendo il relazione tra loro i dati raccolti nella fase sperimentale e producono modelli sempre più complessi e precisi. Da anni rendono possibili grandi passi avanti nel progresso della conoscenza in vari settori e si prevede che tra dieci anni i supercomputer saranno in grado di effettuare calcoli mille volte più velocemente rispetto a quanto avviene oggi.

La prossima sfida per gli scienziati è quella di realizzare gli Exascale computer, macchine in grado di eseguire miliardi di miliardi (1018) di operazioni di calcolo al secondo. A questo lavora anche il gruppo di ricerca del progetto ExaHype (An Exascale Hyperbolic PDE Engine) finanziato dalla Commissione Europea nell’ambito di Horizon 2020 con 2,8 milioni di euro. Il progetto ExaHyPE propone di sviluppare un nuovo software di simulazione per leggi di conservazione, capace di sfruttare la potenza dei supercomputer di nuova generazione da mettere a punto entro il 2020. Al progetto lavora un team di scienziati interdisciplinare e internazionale composto da sette istituzioni da Germania, Italia, Regno Unito e Russia , che vede tra i protagonisti l’Università di Trento – unica istituzione di ricerca italiana – con il Laboratorio di matematica applicata (Dipartimento di Ingegneria civile ambientale e meccanica), coordinato dal professor Michael Dumbser. La realizzazione di applicazioni software per questo tipo di macchine è un’operazione estremamente complessa rispetto a quanto avviene invece per i calcolatori convenzionali.

Ma a cosa potrebbe servire una tale potenza di calcolo? «Le possibili applicazioni a cui lavoriamo nel progetto ExaHype – spiega Michael Dumbser – riguardano due diversi scenari: la geofisica, con il calcolo del rischio associato ai terremoti, e l’astrofisica con la simulazione delle onde gravitazionali e delle esplosioni di raggi gamma. I terremoti non possono essere previsti. Tuttavia le simulazioni di un exascale supercomputer potrebbero aiutare a valutare i rischi di scosse di assestamento. Le simulazioni su base regionale sembra consentano una migliore comprensione di cosa avvenga durante i terremoti su larga scala e nella fase successiva di assestamento».

«Nel campo dell’astrofisica, invece, i nuovi strumenti matematici sviluppati in ExaHype potrebbere simulare la fusione di stelle di neutroni orbitanti. Si ritiene infatti che questi fenomeni non soltanto possano essere alla base della formazione delle onde gravitazionali, ma che possano costituire anche la causa delle esplosioni di raggi gamma. La simulazione su scala exa potrebbe consentire di studiare sotto una prospettiva nuova questi misteri a lungo indagati nel campo dell’astrofisica».

Al di là di queste due applicazioni specifiche i ricercatori stanno cercando di mantenere l’algoritmo più generale e aperto possibile a future applicazioni in ambiti molto diversi. Potrebbe ad esempio essere utile in campo meteorologico, per simulare l’andamento dei fenomeni climatici e meteorologici, o in ingegneria per comprendere meglio i processi complessi di circolazione e combustione o anche nella previsione di catastrofi naturali come gli tsunami o le maree. «L’obiettivo – chiarisce Dumbser – è di rendere questa tecnologia adattabile e facilmente fruibile per le esigenze di ricerca più diverse nel minor tempo possibile. Ecco perché i risultati del progetto saranno accessibili a tutti in open source».

I supercomputer: una sfida per la ricerca

Uno tra gli ostacoli maggiore da superare per vincere questa sfida scientifica riguarda il consumo di energia. Ad oggi i calcolatori più potenti costruiti al mondo – il cinese Tianhe-2, gli statunitensi Titan e Sequoia e il giapponese KComputer – sono in grado di eseguire quasi 34 milioni di miliardi di operazioni al secondo (1015) e consumano tra gli 8 e i 18 megawatt di energia per un dispendio medio annuale di circa un milione di dollari a megawatt. «Considerate le tecnologie attuali – spiega il coordinatore scientifico del progetto, il professor Michael Bader della Technische Universität di München, realizzare un exascale computer che richieda 70 megawatt per funzionare è davvero un impegno considerevole, sia sul piano finanziario, sia su quello delle infrastrutture. Ecco perché, il software di simulazione che fa parte del progetto ExaHype sarà progettato tenendo conto delle esigenze di un hardware a risparmio energetico che dovrà essere in grado di reggere questo enorme miglioramento dell’efficienza in termini di performance».

L’aumento della velocità di calcolo (mille volte in più rispetto a oggi) dovrà essere accompagnata da un miglioramento nei processi di trasferimento di dati e nella memorizzazione, che dovranno essere sempre più rapidi ed efficienti per consentire al supercomputer di processare correttamente le informazioni senza sprecare energia. E quella della comunicazione interna all’hardware è un’altra importante sfida. In questa direzione il progetto prevede di mettere a punto un algoritmo scalabile che aumenta in modo dinamico e auto-adattativo la risoluzione delle simulazioni, solo quando serve. In questo modo gli scienziati possono ottenere simulazioni molto accurate, riducendo però al minimo le operazioni del computer necessarie e risparmiando così energia e memoria.

Un team internazionale e interdisciplinare

Motore del progetto ExaHype è senz’altro l’intensa cooperazione internazionale e interdisciplinare. Oltre all’Università di Trento (Dipartimento di Ingegneria civile ambientale e meccanica) il consorzio include per parte tedesca la Technische Universität di München, il Frankfurt Institute for Advanced Studies, la Ludwig-Maximilians-Universität München e la Bavarian Research Alliance. Presente anche il Regno Unito con la Durham University. Il consorzio si integra, dal punto di vista industriale, con la partecipazione del fornitore del supercomputer russo ZAO RSC Technologies.

Potrebbe interessarti

Guarda anche

Dalla chimica un aiuto per proteggere il patrimonio di abiti e tessuti che hanno fatto la storia della moda e del design

Dalla chimica un aiuto per proteggere il patrimonio di abiti e tessuti che hanno fatto la storia della moda e del design

La ricerca dell’Università di Pisa sull’Archivio della fashion designer Nanni Strada

Lascia un commento

Oppure