Når vejrudsigten skal beregnes, når forholdene ved universets begyndelse skal simuleres, når den menneskelige hjerne skal modelleres, eller aktørerne på de finansielle markeder skal handle, så er der brug for supercomputere.
Udviklingen inden for disse områder er båret af miniaturisering inden for halvlederteknologi, som har gjort det muligt at øge regnekraften i et konstant tempo, siden Gordon Moore formulerede sin berømte lov om eksponentielle forbedringer af computerchips for 50 år siden.
Gennem mange år har ingeniører og forskere kæmpet med og overvundet de vanskeligheder, der har været forbundet med at designe og producere nye og hurtigere computere baseret på mindre og hurtigere transistorer.
Omkostningen har dog været, at energiforbruget ved computerberegninger nærmer sig det uantagelige.
De største supercomputere i verden har en regnekraft, der måles i petaflops. Flops står for ‘floating points operations per second’; peta angiver, at de største computere kan udføre flere millioner milliarder (peta = 10^15) af disse.
Den kinesiske Tianhe-2 er verdens største supercomputer med 33,86 petaflops. Inklusive køling kræver den en effekt på 24 megawatt.
Forskere, ingeniører og meteorologer mv. kan sagtens finde på anvendelser til en exa-computer, hvis beregningsevne skal måles i exaflops (exa = 10^18).
Det er ikke antallet af flops, der er problemet med at fremstille en sådan computer. Problemet er, at man kan forudse, at effektforbruget vil være omkring 100 megawatt – det samme som H.C. Ørstedsværket i København producerer af elektrisk effekt.
Kun helt undtagelsesvis kan man tillade så stort et effektforbrug.
Det bliver derfor nødvendigt at udvikle computere, der regner hurtigere end i dag, men som ikke bruger mere end 20-30 megawatt, som af mange anses for den øvre grænse.
Regnefejl sparer energi
Der findes flere måder at reducere energiforbruget på. En af de mere overraskende er at bruge computere, der regner forkert, eller mere præcist kun garanterer nøjagtigheden af deres beregning med en bestemt fejlmargin.
Computerdesignere har kæmpet med eller rettere mod regnefejl siden John von Neumanns computere fra 1950’erne.
John Presper Eckert, der var med til at designe verdens første elektroniske computer, Eniac, under Anden Verdenskrig, har forklaret, at der opstod en fejl i et af de godt 17.000 radiorør omkring hver anden dag, og det tog 15 minutter at finde fejlen.
John von Neumann beskæftigede sig derfor intenst med pålidelighed og var i computeralderens barndom med til at udvikle metoder til at håndtere og rette fejl.
Efterhånden som transistorer erstattede radiorør, blev fejlproblemerne mindre og mindre, men i takt med, at transistorer er skrumpet, så nye fysiske effekter har fået betydning, er fejlproblemet nu efter 50 år vendt tilbage.
For næsten 15 år siden stillede Krishna Palem fra Rice University i Houston, Texas, derfor spørgsmålet, om det kunne at være en mulighed at leve med fejlene frem for fortsat at stræbe efter at bygge fuldstændigt pålidelige kredsløb og computere ud fra komponenter, der ikke kan garanteres at være fejlfrie.
Klimaforskeren Tim Palmer fra University of Oxford mener, at det er en nyttig synsvinkel.
»Den energi, vi sparer ved ikke at udføre fuldstændigt eksakte beregninger, kan bruges mere produktivt på anden vis,« skrev han for nylig i en artikel i Nature.
Beregninger bliver aldrig eksakte
Når det kan komme på tale at udføre fejlagtige beregninger, er det, fordi man i mange situationer alligevel må forlade sig på, at en beregning aldrig kan blive eksakt.
Ved vejrudsigter og klimamodeller inddeler man atmosfæren i et gitter. Fænomener, der optræder på en skala mindre end gitterafstanden – som kan være nogle få kilometer – skal medtages på en simplificeret måde, der i sig selv indebærer en form for fejl. Det kan for eksempel være tordenvejr.
Begyndelsesbetingelser og randbetingelser kendes heller ikke med fuld nøjagtighed.
»I klimasimulationer svarer disse fejl til en form for stokastisk støj, og klimaforudsigelser er derfor af natur probabilistiske,« forklarer Tim Palmer.
Når modellen og input ikke er eksakt, kan man godt leve med, at selve beregningen heller ikke er eksakt. Den besparelse, man får ved den unøjagtige beregning, kan i stedet med fordel anvendes til at bruge en model med mindre gitterafstand.
Ifølge Tim Palmer kan en unøjagtig beregning på en finmasket model være langt mere nyttig end en eksakt beregning på en grovmasket model.
Hjernen laver også fejl
Tim Palmer mener også, at unøjagtige computere med fordel kan anvendes ved andre komplekse ulineære systemer som dannelse af stjerner og galakser eller studiet af ustabiliteter i plasmaet i en fusionsreaktor.
Et særskilt interessant område er levende systemer.
I sammenligning med elektroniske computere er den menneskelige hjerne supereffektiv med et effektforbrug på kun 20 watt. Til gen- gæld er signaler, der transmitteres mellem hjerneceller, følsomme over for deres egen termiske støj.
Støjen anses ofte som et problem, men den tilfældighed, der er forbundet hermed, er måske også en del af forklaringen på menneskelig kreativitet, mener Tim Palmer.
Efter hans opfattelse vil ikke- eksakte, energieffektive computere være nøglen til at forstå hjernens virkemåde. Hvorimod ethvert forsøg på at simulere eller modellere hjernen med en deterministisk computer vil være dømt til at mislykkes.
Palmer er ikke den første til at mene, at tilfældighed er at foretrække frem for determinisme, når det gælder efterligning af menneskelig intelligens.
»Det er smart at medtage tilfældighed i en lærende maskine,« skrev Alan Turing i sin berømte artikel fra 1950, hvor han også beskrev sit Imitation Game, som er grundlaget for Turingtesten til vurdering af om ‘maskinel intelligens’ kan skelnes fra menneskelig intelligens.
Find beskæringssaksen frem
Der findes flere metoder til at udføre ikke-eksakte beregninger ved lavt energiforbrug. En af dem kaldes probabilistisk beskæring.
I de fleste moderne computere udtrykkes tal som et decimaltal beskrevet med 52 bit og en eksponent beskrevet med 11 bit og en enkelt fortegnsbit – i alt 64 bit.
Visse supercomputere understøtter også den mindre nøjagtige 32-bit repræsentation, men ingen kommercielle leverandører tilbyder beregninger med mindre nøjagtighed.
En nøglekomponent i en computer er derfor et 64-bit additionskredsløb, som kan lægge to tal i en 64-bit repræsentation sammen. Additionskredsløb kan designes på forskellig vis, men det kræver typisk nogle få tusinde transistorer at lave et 64-bit additionskredsløb.
Probabilistisk beskæring går ud på at fjerne dele eller bortskære elementer i kredsløbet og dermed reducere energiforbruget.
Metoden til at vurdere, hvilke elementer der kan skæres væk, er dels, hvor ofte de aktiveres under beregningen, og dels den vægt, de har for nøjagtigheden. Elementer, der håndterer de mest betydende bit, kan således ikke fjernes.
Sammen med sin kollega Avinash Lingamneni fremstillede Krishna Palem på den måde i 2012 et probabilistisk beskåret 64-bit additionskredsløb.
En anden metode til ikke-eksakte beregninger kaldes voltage overscaling. Her er princippet, at man udfører beregninger hurtigere (ved en højere frekvens), end det er tilladeligt for at opnå eksakte beregninger. Det sparer energi i forhold til at have en chip, der er designet til den høje frekvens, men betyder også fejl.
Andre forskere har udviklet statisk random access memory (SRAM), der bruger otte transistorer i de celler, der gemmer de mest betydende bit, men kun seks transistorer i celler for de mindst betydende bit.
Bruger man overscaling-princippet på en sådan komponent, kan man spare ca. en tredjedel af effektforbruget i forhold til en SRAM udelukkende designet med seks transistorer pr. celle og benyttet på sædvanlig vis.
Upræcise komponenter kan derfor være løsningen på de energislugende computer, men de kan naturligvis ikke anvendes i alle situationer
John Shalf, der er afdelingsleder for Computer Science ved Lawrence Berkeley National Laboratory i Californien, sagde tidligere på året til New York Times:
»Ikke-eksakte beregninger kan måske bruges i situationer, hvor konsekvensen af en fejl er lille. Men det vil være problematisk, når man skal designe en bro eller drage afgørende konklusioner om klimasystemet.«
