Scoperte nuove tecniche architetturali per computer sempre più potenti, affidabili e “verdi”

Nuove tecniche architetturali per computer sempre più potenti, affidabili e “verdi”

I risultati del progetto di ricerca europeo “Teraflux”, durato 5 anni, con il lavoro di 150 ricercatori

 

com05

Si è concluso con successo il progetto di ricerca internazionale “Teraflux”, che ha esplorato le massime potenze di calcolo dei supercomputer e dei sistemi cosiddetti embedded: il progetto ha avuto un finanziamento europeo di oltre 6 milioni di euro e ha coinvolto per 5 anni   oltre 150 ricercatori europei ed americani, con il coordinamento scientifico del professor Roberto Giorgi del dipartimento di Ingegneria dell’informazione e scienze matematiche dell’Università di Siena.

( http://www.teraflux.eu )

“Teraflux sta cambiando il modo di realizzare software e hardware dei futuri computer – spiega il professor Giorgi -. Tra i maggiori risultati scientifici che abbiamo ottenuto, la dimostrazione di nuove tecniche architetturali che permettono di continuare ad eseguire programmi anche in presenza di guasti nei processori o nelle interconnessioni, superando così una delle maggiori limitazioni per realizzare i futuri computer ad altissima efficienza energetica.”

Il lavoro scientifico, finanziamento da parte del programma FET (Future Emerging Technologies) dell’Unione Europea, ha condotto ad oltre 90 pubblicazioni, con una partecipazione di ricercatori provenienti da 11 diversi centri di ricerca.

L’obiettivo del progetto era quello di studiare soluzioni per rendere i futuri chip, che conterranno da 1000 a 10000 processori, più facilmente programmabili, più affidabili e semplici da realizzare. “I risultati sono applicabili a 360 gradi su ogni tipo di computer futuro, dal più piccolo al più grande, così come oggi negli smartphone stiamo usando soluzioni pensate venti anni fa per i supercomputer” dice Giorgi.

La chiave di volta di Teraflux si basa sui principi cosiddetti “dataflow”, che consentono di migliorare notevolmente i consumi energetici.

Due delle applicazioni dimostrate riguardano “radar” e “rilevazione di pedoni”, che sono classicamente applicazioni più embedded ma che necessitano sempre più di potenze di calcolo maggiori, con fattori di accelerazione oltre 700 quando si usano sistemi con 1000 processori. Uno dei vantaggi è anche di poter funzionare con applicazioni che tradizionalmente non sono data-parallel o embedded, perché l’approccio è stato del tutto generale e adatto anche ad applicazioni più irregolari come quelle tipiche dei “big data” o, tanto per fare un esempio, della bioinformatica.

unisi.it