Vamos a seguir con los aceleradores pero subiendo ya al nivel de adquisición de datos. Repasad primero los artículos anteriores:
Albin preguntó no hace mucho sobre si realmente se necesitaban tantos ordenadores para tratar la información que genera el LHC. El problema es que aún no había explicado las cosas con el detalle suficiente.
Hay que tener en cuenta que dentro de los detectores del LHC se producirán del orden de millones de colisiones de partículas por segundo que generarán otras muchas partículas que habrá que analizar. Los protones se lanzarán en grupos de varios millones cuya longitud será de 7.5 m, cada 25 ns uno de estos grupos de protones colisionará con otro grupo generando del orden millones de colisiones.
Esquema del LHC
Aproximadamante se producirán unos 40 millones de eventos por segundo, de cada uno de estos eventos/colisiones se genera más o menos 1 Megabyte de información. Por lo que haciendo cálculos nos salen del orden de varios gigabytes de información por segundo. Si lo calculáis para un año salen varios Petabytes de información (Unos 20 millones de CDs al año). ¡¡¡UNA BURRADA!!!
Montaña de CDs equivalente a los datos que generará el LHC a partir del 2007.
No podemos tratar tanta información, al fin y al cabo solo unas pocas colisiones serán realmente de interés. Por eso en el LHC habrá muchas capas de filtrado que irán eliminando datos basura. Al final se espera encontrar un evento importante de cada 10.000.000.000.000 colisiones. Para hacer estos filtrados hay varias capas de electrónica de última generación que trabaja a altas frecuencias. Cuando ya está filtrado a bajo nivel los datos pasarán al Grid para almacenarse y procesarse a más alto nivel.