O inxente volume de datos para analizar que xerará o inmenso Gran Colisionador de Hadrones (LHC) calcúlase nuns 15 petabytes ao ano (iso son uns 15.000 terabytes). Para procesar esa vasta cantidade de información tívose que recorrer a montar un grid de computación distribuída que consta de 100.000 procesadores situados en 140 institucións científicas á súa vez repartidas por 33 países do globo. [Fonte: CERN Officially Unveils Its Grid en ReadWriteWeb.]

Publicado por Alvi en Microsiervos