USA fortsætter med at skrue op for ambitionerne når det handler om at bygge verdens største supercomputere. Lige nu arbejder de amerikanske myndigheder på tre forskellige udgaver af en såkaldt exaskala supercomputer, der kan udføre 10^18 beregninger i sekundet.
Nu har de amerikanske myndigheder så indgået en aftale med chipproducenten AMD, som skal stå for at levere den nødvendige processorteknologi, som supercomputer-virksomheden Cray skal stå for at levere. Dermed tager USA endnu et skridt i retning af at cementere sin position som det førende land i verden inden for supercomputere, hvor Kina endnu ikke har meldt ud, at de arbejder på en computer i samme størrelse som El Capitan.
Ifølge den senest opdateret liste over verdens største supercomputere, top500 ligger USA på de øverste pladser med supercomputerne Summit og Sierra som har henholdsvis 148,6 og 94,6 petaflops. Kina har dog en anelse flere supercomputere,219, på top500-listen, mens USA ‘kun’ har 118. De amerikanske supercomputere er dog i gennemsnit markant kraftigere.
El Capitan bliver den tredje exaskala-supercomputer som Cray, der i dag er ejet af Hewlett Packard Enterprise(HPE), skal bygge for den amerikanske regering. Lige nu arbejder de på Aurora til Argonne National Lab, som er planlagt til at blive sat i drift til næste år, og så kommer Frontier senere samme år med en kapacitet på over 1,5 exaflops i Oak Ridge laboratoriet. To år senere er det så planen at El Capitan-supercomputeren skal runde to exaflops.
Kina arbejder også på tre forskellige supercomputere, der alle skal krydse exaskala-niveau. De tre udgaver er kendt som Tianhe-3, Sunway og Sugon.Tianhe-3 er ligesom Aurora planlagt til at gå i drift i 2021.
Læs også: USA vil bruge 3,2 mia. på verdens kraftigste supercomputer
Satser på grafikkort
Den største supercomputer i dag er Summit og har en ydeevne på knap 150 petaflops. Men springet op til 1 exaflops er ikke blot at gange alt med syv. Den opskalering vil kræve alt for meget strøm og køling. Derfor arbejder Cray sammen med chipproducenter som AMD og Intel på at finde den helt rigtige kombination af konventionelle CPU-processorer og grafiske processorer(GPU). Til gigantiske El Capitan er valget nu faldet på AMD’s næste generation CPU ‘Genoa’ Epyc og Radeon-GPU. De forventes at kunne levere end ydeevne, der er 30 procent højere, end man egentlig havde planlagt, da udbuddet for El Capitan blev præsenteret i 2019. Præcist hvordan Cray og AMD forestiller sig, at processorteknologien bag den nye supercomputer kommer til at se ud, vides endnu ikke. Men ifølge mediet HPC Wire spekuleres der i at AMDs Genoa-processor bliver fremstillet som en 5 nanometer proces.
I alt skal den amerikanske regering af med lige knap fire milliarder kroner for udvikling og drift af El Capitan.
Effekt som 40.000 danske husstande
Det er især brugen af AMD’s nye GPU-teknologi( grafikkort, red.) og samspillet med de mere konventionelle CPU-processorer, der skal sørge for at supercomputeren bliver blandt de hurtigste og kraftigste i verden, uden at den kræver alt meget energi.
“El Capitan vil give hidtil usete fordele inden for HPC(high performance computing, red) og AI, drevet af den næste generation AMD EPYC CPU’er og Radeon Instinct GPU’er,« siger Forrest Norrod, senior vice president og general manager for Datacenter and Embedded Systems Group i AMD i en pressemeddelelse.
Det er forventningen at El Capitan kan tages i brug om tre år i starten af 2023, hvilket er et år senere end den oprindelige tidsplan. Udover ny processorteknologi skal HPE også i gang med at undersøge, om det er muligt at integrere nye former for fiberoptiske dataforbindelser. El Capitan bliver vandkølet og vil få en forventet effektbehov på mellem 30 og 40 megawatt, hvilket svarer til omkring 40.000 danske husstande.
Læs også: Danmark bygger gigantisk supercomputer: Få forskningsmiljøer kan bruge den
Software-slag indledes
Når talen falder på supercomputere, bliver der oftest målt på den ydeevne som det fysiske hardware kan præstere, og så er det implicit at softwaren bare følger med. Når vi kommer op i exaskala, bliver software-delen mere komplekst. For hvordan skriver man en kode der afvikles korrekt og mest optimalt på en computer der kan foretage svimlende 10^18 beregninger i sekundet. Her er det sværere at afgøre hvem der fører kapløbet.
Dels fordi det er sværere at måle, og fordi meget af det eksisterende supercomputer-software er open source og udviklet på universiteter verden over. Derfor kan hverken USA, Europa eller Kina umiddelbart sikre sig en konkurrencefordel ved bare at bruge flere økonomiske muskler eller gøre som USA gjorde sidste år, og forbyde amerikanske virksomheder at sælge teknologi til Kina. For det meste supercomputer-software er i dag allerede åbent og frit tilgængelig for alle.
Læs også: Verdens i særklasse største chip skal bruges til kunstig intelligens
Skal sikre atomvåben
Den kommende supercomputer skal dog ikke bruges til at forbedre klimamodeller eller optimere machine learning-algoritmer, som kommer hele verden til gavn. Nej, den knap fire milliarder kroner dyre El Capitan supercomputer skal primært bruges til avancerede simuleringer af det amerikanske atomvåbenprogram.
»Den nødvendige certificering( af atomprogrammet, red.) kræver komplekse simuleringer og i takt med at atomvåbne ældes, stiger kompleksiteten af simuleringerne, og det kræver derfor bruges større og større systemer,« siger Bronis de Supinski, teknisk direktør hos Lawrence Livermore National Laboratory (LLNL), som skal drive supercomputeren til en pressebriefing i forbindelse med at AMD blev valgt som processor-leverandør, ifølge mediet HPC Wire.
Læs også: Danske universiteter med til at bygge Europas største supercomputer
