Redactie - 21 december 2019

Drie uitdagingen die we aangaan met High Performance Computing

Door de geschiedenis heen zijn er vele wetenschappelijke prestaties geweest die de mensheid enorm hebben ontwikkeld.

De Britse regering bood in 1714 bijvoorbeeld £ 20.000 (op dat moment een heel groot bedrag) voor ontwikkelingen in het berekenen van lengtegraden. Dit leidde tot het ontstaan van de maritieme chronometer, evenals het verbeteren van maanberekeningen, waardoor de scheepvaart veel veiliger werd. Recenter nog streden de Sovjet-Unie en de Verenigde Staten in de jaren zestig om een heleboel astronomische mijlpalen, variërend van de eerste ruimtelancering tot de eerste mannen op de maan. Nu, met Mars op de agenda, gaat de wereldwijde ‘space race’ door.

In de wereld van High Performance Computing (HPC) racen overheden en onderzoekers momenteel om de mijlpaal van exascale computing te bereiken. Exascale betekent dat systemen een triljoen berekeningen per seconde kunnen uitvoeren, een duizendvoudige toename ten opzichte van de eerste petascale-computer. Een exascale machine zou een bijna even grote verwerkingskracht als het menselijk brein hebben - en ondersteunt mogelijk AI-ontwikkelingen zoals neurale netwerken.

Hoe helpt HPC in het oplossen van ’s werelds belangrijkste vraagstukken? Wat heeft het verder voor ons in petto naarmate de technologie zich ontwikkelt?

1) Data om klimaatverandering tegen te gaan

Klimaatverandering speelt een grotere rol in ons dagelijks leven dan ooit tevoren en heeft veel grotere gevolgen dan alleen hete zomers. Of het nu droogtes of tsunami's zijn: extreme weersomstandigheden gaan veel vaker voorkomen en het voorspellen ervan is een kwestie van leven en dood. Het weer blijft echter moeilijk te voorspellen en de nauwkeurigheid hangt af van de verwerkingscapaciteit en de hoeveelheid beschikbare gegevens.

Windenergiepionier Vestas verzamelde al enorme hoeveelheden gegevens, van atmosferische druk tot windsnelheden, om de meest effectieve posities voor zijn windturbines te berekenen. Een HPC-cluster werd gebruikt om die gegevens te verwerken en te visualiseren, met een graphic processing unit (GPU). Door big data-analyse en machine learning toe te passen op de weersgegevens, heeft Vestas een veel dynamischer voorspellend model gecreëerd, met een nauwkeurigheid vergelijkbaar met dat van nationale weerbureaus zoals het UK Met Office.

Over de hele wereld zal het mogelijk zijn om de granulariteit van onze weersvoorspellingen te verbeteren, als we meer rekenkracht verwerven. Met petascale computing doen we weersvoorpellingen voor een stad, maar met exascale computing kunnen we dit zelfs op straatniveau doen.

Kortom, HPC is een essentieel hulpmiddel om ons in staat te stellen om te gaan met het veranderende klimaat in de komende jaren.

2) Verbetering van medische diagnose en behandeling: van netvliesaandoeningen tot kanker

De gemiddelde levensverwachting stijgt in de meeste landen. Als gevolg hiervan worden onze medische behoeften complexer en ligt er meer druk op de wereldwijde gezondheidszorg om dit bij te benen.

HPC is een belangrijk middel om de diagnose van ziekten te kunnen verbeteren en versnellen en helpt ook in het bepalen van de beste zorgtrajecten. Machine learning-systemen die draaien op HPC, kunnen bijvoorbeeld worden getraind om afwijkingen in afbeeldingen zoals patiëntenscans te identificeren door vergelijkingen met bredere gegevenssets.

Onderzoekers van het Barcelona Supercomputing Center (BSC) onderzoeken de toepassingen van deze technologie door oogartsen te helpen bij het sneller detecteren van netvliesaandoeningen. De onderzoekers gebruikten analytische modellen om scans van de ogen van patiënten in het HPC-cluster van het centrum te verwerken - een van Europa's grootste supercomputers, met een benchmarksnelheid van 11,1 petaflops. Het doel was om een groot aantal netvliesaandoeningen te diagnosticeren, van diabetische retinopathie tot maculaire degeneratie. Hierbij lag de uitdaging in het feit dat er voor veel aandoeningen nog niet voldoende beelden beschikbaar zijn om een diep neuraal netwerk vanaf nul te trainen. De onderzoekers boekten echter vooruitgang door het hergebruiken van modellen die zijn getraind op grotere datasets voor het opsporen van problemen met beperktere gegevens. Als gevolg hiervan kan deze machine learning-benadering nu opnieuw worden toegepast op de diagnose van allerlei ziekten, ook bij zeldzamere aandoeningen.

Naarmate HPC ontwikkelt, neemt de mate van granulariteit toe waardoor een nog nauwkeurigere beeldherkenning mogelijk wordt en gloednieuwe ziektegebieden worden opengesteld voor diagnose.

Deze technologie heeft ook vele andere toepassingen, waaronder het modelleren van hoe het menselijk brein precies werkt. In het Jülich Supercomputing Center (JSC) in Duitsland proberen ze bijvoorbeeld het antwoord te vinden op een van de grootste mysteries van de biologie - hoe het menselijk brein bewustzijn creëert. Naarmate de analyses verbeteren, kan HPC een essentieel hulpmiddel worden voor de gezondheidszorg wereldwijd. Ook bij complexere behoeften.

3) Toekomstbestendige systemen voor de volgende generatie

De exponentiële explosie van data die wordt voorspeld voor de komende jaren, vereist machines die deze steeds grotere hoeveelheid informatie kunnen verwerken. Maar met de duizendvoudige toename van rekenkracht van exascale, ontstaat er een technische uitdaging.

Meer vermogen betekent meestal ook meer energieverbruik. Bedrijven moeten dus op zoek naar efficiëntere manieren om hun systemen te laten werken. Dit probleem kan worden aangepakt met een aantal innovaties, waaronder het gebruik van zowel lucht als vloeistof. Bij Lenovo hebben we bijvoorbeeld kunnen innoveren met krachtigere machines terwijl we duurzaamheid hoog in het vaandel hielden. Eén nieuw systeem gebruikt warm water, dat warmte efficiënter afvoert dan lucht en geen ventilator of koeler nodig heeft.

Onze vloeistofkoelingstechnologie Neptune helpt processors en racks te koelen, waardoor de behoefte aan energievretende airconditioningsystemen wegvalt. Bovendien wordt de afvalenergie omgezet in warmte en vervolgens afgevoerd om gehele campussen te verwarmen. De installatie van dit systeem in een datacenter in Leibniz-Rechenzentrum (LRZ) in München leverde 40% minder stroomverbruik op.

Omdat de wereld de voordelen van exascale supercomputers zeker kan gebruiken, moeten we zorgvuldig overwegen hoe we dit op de meest energie-efficiënte manier kunnen doen.

Wat biedt de toekomst voor HPC?

Er wordt voorspeld dat we exascale in het volgende decennium zullen bereiken - en ongetwijfeld zullen onderzoekers en technici over de hele wereld strijden om die mijlpaal te bereiken.

Maar het is ook belangrijk om ons te concentreren op de kritieke mondiale problemen die we al met HPC aanpakken, of het nu gaat om klimaatverandering, de diagnose van ziekten of duurzaam energieverbruik.

Deze applicaties vormen de echte mijlpalen voor de technologie en de toekomst heeft ons nog veel te bieden.

Door: Rick Koopman, EMEAR Technical Leader bij HPC, Lenovo

Copaco | BW 25 maart tm 31 maart 2024 Trend Micro BW BN week 10-11-13-14-2024
Copaco | BW 25 maart tm 31 maart 2024