Redactie - 22 november 2012

CERN ontsluit de geheimen van het universum met NetApp


Weinig organisaties hebben te maken met zo veel complexe data met een zo snelle groei als de Europese organisatie voor nucleair onderzoek, CERN. Proeven zonder geavanceerde ICT zijn onmogelijk. Zo stelt een flexibele data-infrastructuur CERN bijvoorbeeld in staat om data van zeshonderd miljoen deeltjesbotsingen per seconde op een effectieve manier te analyseren en om het hoofd te bieden aan 20 PB aan jaarlijkse datagroei.
 

Wetenschappers van CERN, de Europese organisatie voor nucleair onderzoek, zijn met diverse projecten op zoek naar de geheimen van het universum. Geavanceerd ICT-gereedchap is daarbij onontbeerlijk. Tijdens hun zoektocht verzamelen de wetenschappers enorme hoeveelheden data. 

Zo komen er onder meer meetgegevens voort uit de biljoenen protonbotsingen die plaatsvinden binnen vier punten van de Large Hadron Collider (LHC), de 'grote hadronen-botser' van CERN, de krachtigste deeltjesversneller ter wereld. 

Op basis van deze data deden de wetenschappers van CERN eerder dit jaar, in juli, een van de grootste ontdekkingen ooit op het gebied van de deeltjesfysica, namelijk een nieuw deeltje dat overeenkwam met het  Higgs-bosondeeltje waar door wetenschappers al lang naar werd gezocht. Al meer dan vijftig jaar geleden werd de hypothese geformuleerd da dit het deeltje is dat andere deeltjes massa geeft. Sinds die tijd werd in de hele wereld door wetenschappers op deze ontdekking gewacht. 

Menselijk begrip

“Een van de primaire doelstellingen van CERN is om het menselijke begrip van de wereld waarin we leven te vergroten”, aldus Tony Cass, Databases Services Group Leader bij de IT-afdeling van CERN. “De informatie waarnaar we op zoek zijn, bevindt zich in een zee van data. Dit komt als het ware overeen met het zoeken van één speld in twintig miljoen hooibergen. Om deze zoekopdracht enige kans van slagen te geven hebben we een IT-infrastructuur nodig waarin die onvoorstelbare hoeveelheden data kunnen worden opgeslagen, beheerd en ononderbroken toegankelijk zijn. Oracle-databases op basis van NetApp-storage zijn een belangrijk onderdeel van deze infrastructuur.” 

Deze flexibele data-infrastructuur met een storage-fundament van NetApp biedt CERN de mogelijkheid om sneller doorbraken te forceren met effectievere zoekmethoden en effectiever datamanagement. Zo worden werkonderbrekingen vermeden, en kan zonder beperkingen de infrastructuur worden geschaald zodat kan worden voldaan aan de behoeften van het lopende deeltjesonderzoek. Dit kan worden gevat in de termen Intelligent, Immortal en Infinite. 

CERN gebruikt de technologie van NetApp al sinds 2006 voor het ondersteunen van hun van innovatieve en baanbrekende wetenschappelijke onderzoek. Dit zorgt voor een interessante wisselwerking. De antwoorden die voortkomen uit het deeltjesonderzoek van CERN helpen niet alleen om het universum beter te begrijpen, maar versnellen tegelijkertijd ook doorbraken op het gebied van de IT. De resultaten die CERN heeft behaald zijn spectaculair. 

Een miljoen GB per seconde

Zo leiden de experimenten met de Large Hydron Collider tot zeshonderd miljoen botsingen per seconde. Omgerekend in digitale gegevens komt dit neer op een miljoen GB aan ruwe data per seconde. Deze enorme hoeveelheid data moet worden gedistribueerd naar fysici, die de gegevens vervolgens in honderdveertig computercentra in vijfendertig verschillende landen analyseren. 

Naast de technologie van NetApp gebruikt CERN een Oracle Database ter ondersteuning van de LHC, en vertrouwt CERN op NetApp om de data in die Oracle Database op te slaan. Het gaat hierbij onder meer om een database met niet minder dan 4,1 biljoen rijen met data. Deze operationele data hebben een omvang van meer dan vijftig TB per jaar. 

Wetenschappers hebben deze data nodig om metingen en instrumentatierecords op te slaan die nodig zijn om de experimenten te kalibreren. Dankzij NetApp behoren werkonderbrekingen voor CERN tot het verleden, en beschikt de organisatie over onbeperkte schaalbaarheid in het systeem, zodat wetenschappelijke ontdekkingen eerder kunnen worden gedaan.  

CERN gebruikt Flash Cache-technologie van NetApp om de algehele prestaties te verhogen, en om tegelijkertijd de voetafdruk van het datacenter te verminderen. Dit gebeurt op een manier die twee keer zo effectief is als andere methoden om in vergelijkbare technische behoeften te voorzien. Op deze manier kan CERN de algehele efficiëntie verbeteren en zijn IT-werkzaamheden binnen vastgelegde resources op een effectieve manier beheren.  

Dave Hitz, medeoprichter en Executive Vice President van NetApp: “Het werk van CERN is ontzagwekkend. Het onderzoek dat wordt verricht probeert een antwoord te vinden op vele vragen over het universum, en gaat ons begrip te boven. CERN steunt zwaar op technologie ter ondersteuning van zijn onderzoek en daarom is CERN het perfecte voorbeeld van het belang om op de juiste IT-infrastructuur te bouwen. NetApp vindt het fantastisch dat zij het storagefundament levert waarmee CERN wetenschappelijke doorbraken probeert te realiseren.” 

Al jaren lang zijn duizenden wetenschappers over de hele wereld actief geweest in de zoektocht naar nieuwe fundamentele deeltjes, op basis van data die vortkomt uit experimenten in de Large Hadron Collider. Het Higgs boson deeltje is lange tijd een van de laatste deeltjes geweest in deze puzzel. Verandersteld wordt dat dit deeltje gebruikt kan worden in de beschrijving van de manier waarop allerlei zaken met elkaar samenhangen, van het menselijk DNA tot de moljarden sterrenstelsels in ons universum. 

Om dit deeltje te vinden laten de onderzoekers bij CERN miljarden protonen botsen in het LHC, in de hoop dat één van die vele botsingen bewijs voor het Higgs-deeltje zal opleveren Na filtering van de aanvankelijke data -de zeshonderd miljoen botsingen leveren iedere seconde een miljoen GB op- blijft ieder jaar nog steeds meer dan twintig PB aan data over uit de experimenten. Al deze gegevens moeten permanent worden opgeslagen èn gedistribueerd onder wetenschappers die over wereld bezig zijn met de analyse van de testresultaten. 

De database van de versneller zelf groeit met een snelheid van  vijftig TB per jaar, en bevat nu 4,1 miljard rijen aan data. De IT bepaaltr tevens de omstandigheden in de versneller. Het duurt niet minder dan drie weken om de magneten in de versneller op temperatuur te krijgen, en eveneens drie weken om ze weer af te koelen. Onderbrekingen in het onderzoek kunnen leiden tot grote vertragingen voor de wetenschappers. 

Frédéric Hemmer (foto), CIO bij CERN: “De grootste uitdaging voor de IT-afdeling van CERN wordt zonder twijfel gevormd door de enorme hoeveelheden data en de snelheid waarmee die data worden gegenereerd.” Terwijl die groei vortdurend aanhoudt moeten de data worden opgeslagen en beschikbaar worden gemaakt voor onderzoekers die er in de toekomst mee willen werken. Dankzij de flexibele data infrstructuur van NetApp is CERN nog nooit een cluster met data kwijtgeraakt. Nondisruptive operations geven de wetenschappers bij CERN en over de hele wereld vierentwntig uur per dag, zeven dagen per week, toegang tot de gegevens. Hemmer: “Zelfs wanneer de LHC niet draait gaat de IT onverminderd door. De analyse gaat altijd door, bij CERN en over de hele wereld.”