Vejrmodeller bliver bedre med dårligere præcision i beregningerne

12. maj 2021 kl. 14:3013
Vejrmodeller bliver bedre med dårligere præcision i beregningerne
Beregningerne af banen for orkanen Laura de kommende otte dage efter 22. august 2020 med høj opløsning (64 bit), rød og lavere opløsning (32 bit, blå) er stort set identiske. De sorte kurver er ensemble-beregninger med små ændringer af værdierne i udgangspunktet. Illustration: ECMWF’.
Der er ingen grund til at bruge 64 bit repræsentation i vejrberegninger. 32 bit er lige så godt og frigiver kapacitet til at forbedre vejrmodeller på andre områder.
Artiklen er ældre end 30 dage

European Centre for Medium-Range Weather Forecasts (ECMWF) sætter nøjagtigheden af data ned i deres beregninger. Ikke for at gøre prognoserne dårligere, men bedre.

Helt konkret vil den nye opgradering af vejrmodellen Integrated Forecast System ‘nøjes’ med 32 bit repræsentation frem for 64 bit repræsentation, som tidligere er benyttet.

Med 64 bit-repræsentation (dobbelt præcision) har man en nøjagtighed på 15 decimale cifre, men 32 bit-repræsentation (enkelt præcision) kun 7.

Når data fylder mindre, kan de lagres tættere på beregningsenhederne og dermed undgås ventetid i forbindelse med transport af data internt i computeren.

Artiklen fortsætter efter annoncen

Enkelt præcision reducerer desuden behovet for at udveksle data mellem flere processorer, der kører parallelt.

Læs også: Vejrudsigten: Større nøjagtighed og præcis usikkerhed

Bedre vertikal lagdeling

Herved reduceres beregningsomfanget med 40 pct. uden det går ud over forudsigelserne nøjagtighed.

Det vil gøre muligt at inddrage flere parametre knyttet til fugtighed og forhold i såvel det ultraviolette som det infrarøde område samt at øge den vertikale opløsning fra 97 til 137 lag.

Artiklen fortsætter efter annoncen

Overgangen til 32 bit repræsentation er baseret på et forskningsstudie fra University of Oxford, Météo-France and ECMWF, der blev fremlagt i 2018, som baserer sig på endnu tidligere forskning udført af Peter Düben og Tim Palmer fra University of Oxford,

ECMWF tager senere på året en ny supercomputer i Bologna, Italien i brug til erstatning for den nuværende i Reading i England.

Læs også: Europæiske meteorologer lover pålidelig vejrudsigt to uger frem i tiden fra 2025

13 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
13
15. maj 2021 kl. 09:33

En god forklaring på kaos systemer. Præcis forudsigelse kan kun udføres inden for meget korte intervaller (næsten) uanset hvor præcis en computer og datagrundlag man har. Så er det, som de lægger op til i artiklen, en god ide at gentage forudsigelsen mange gange med mere upræcise beregner for at få god statistik på de mulige udfald. Og lavere præcision gør det nu muligt at lave mange flere beregninger og derved bedre stastik, som fører til bedre forudsigelser samt deres usikkerhed.

11
14. maj 2021 kl. 20:46

... i Beijing betyder altså alligevel ikke så meget stormene i vadehavet

10
13. maj 2021 kl. 20:16

Min efterhånden dårlige hukommelse fortæller mig, at Lorenz opdagede kaos ved det at hans beregninger med få cifre afveg betragteligt fra de samme beregninger udført med mange cifre. Det er lidt i modstrid med det nye studie.

Her er det forklaret:https://www.youtube.com/watch?v=bZ6yxt_o_CQ

Ganske små ændringer i forudsætningerne, medfører store ændringer over et stykke tid (sommerfugleffekten).

Skal man forudsige vejret mange dage frem, burde således være vigtigt med så præcise data som muligt som udgangspunkt, og derfor at starte med at lave beregningerned med 64 bits, eller større, hvis præcisionen af input data er så høj.

Men, som tiden går, så øges usikkerheden - årsagen til dette, behøver ikke at være beregningsfejl, men det vil gælde, uanset computeren er 100% præcis eller ikke. Den ikke lineære dynamik, vil medføre en uforudsigelighed, når man går lidt frem i tiden, og derfor bliver præcisionen af mindre betydning.

Hertil kommer, at efter nogle iterationer, så vil der blive tilføjet unøjagtighed på grund af beregningerne. Så ud fra en analyse af nøjagtigheden af beregningen, så bliver denne også mindre.

For den første dag, kan således være en god idé at lave udregningen med 64 bits nøjagtighed, hvis man har dataene til det.

Men, efter et stykke tid, så er upræcisionen så stor, at nøjagtigheden intet betyder. Måske, kan manglen på præcision medføre store ændringer i vejret frem i tiden - men på dette tidspunkt, er vi alligevel så langt fremme, at vejret umuligt kan forudsiges.

Når der regnes flere dage frem, kan man således fint bruge dårlig præcision, på de beregninger der er et par dage fremme.

9
13. maj 2021 kl. 16:40

Min efterhånden dårlige hukommelse fortæller mig, at Lorenz opdagede kaos ved det at hans beregninger med få cifre afveg betragteligt fra de samme beregninger udført med mange cifre. Det er lidt i modstrid med det nye studie.

8
13. maj 2021 kl. 07:19

Hvor mange bits der bruges, må afhænge af computerens akitektur. Hvis den er lavet til 64 bit præcision, så kan det meget nemt blive langsommere at kun anvende 32 bits. Under alle omstændigheder, skal anvendes 64 bits allignments, så der er næppe en hukommelsesfordel. Måske er en fordel, at kunne udveksle flere tal med en enkelt 64 bit overførsel, hvis arkitekturen er lavet til det.

Det vil være naturligt, at der anvendes særlige processorer til vejr-kalkulationer, der udover at have tilstrækkelig præcision, også kan udregne præcisionen på resultatet. Et resultat, er aldrig mere nøjagtig, end den udregnede præcision oplyser. Teoretisk, kunne man lave softwaren, så der ud fra den beregnede præcision automatisk vælges 32 eller 64 bits transport. Det må være muligt, at softwaren vurderer præcisionen i beregningen. I starten, er måske en fordel med 64 bits, men efter få iterationer giver det måske ikke en fordel med mere end 32 bits, så softwaren kan laves, så der automatisk vælges præcision.

7
13. maj 2021 kl. 04:45

32: 1,8,23 64: 1,11,52

6
13. maj 2021 kl. 04:22

32 bits svare til en opløsning på 1:4.294.967.296</p>
<p>64 bits svare til en opløsning på 1:18.446.744.073.709.551.616

Troels giver dig svaret, men dit problem er at du antager at alle bit er mantise.

32bit bruger 24bit på mantise, 64bit bruger 52bit, begger bruger 11bit på exponent, mens 1 bit bruges som tegnbit: +/-

Det er fagtermer fra <strong>IEEE 754</strong> (og nyere udgaver af samme): single precision og double precision.

Søg på de fremhæbede ord ;-)

4
12. maj 2021 kl. 23:13

"Med 64 bit-repræsentation (dobbelt præcision) har man en nøjagtighed på 15 decimale cifre, men 32 bit-repræsentation (enkelt præcision) kun 7."

Hvordan man får 64 bits opløsning til at være "dobbelt præcision" i forhold til 32 bits opløsning, stemmer ikke helt overens med min skolelærdom.

32 bits svare til en opløsning på 1:4.294.967.296

64 bits svare til en opløsning på 1:18.446.744.073.709.551.616

Det svarer da hvis til en opløsning/præcision der er lidt mere end 4,2 milliarder gange større - ik?

2
12. maj 2021 kl. 16:17

En væsentlig mangel er orkanens reelle tur. Det må dog være det væsentligste, at de rammer den reelle kurs, ikke hvor ens de forskellige opløsninger og ensembler forudsiger det.

Ja, men det vel ikke det, som artiklen drejer sig om?

Som jeg forstår det, er det eftervist, at det ikke ændrer det samlede ensemble væsentligt, hvis de enkelte ensemble-medlemmer beregnes med hhv. 32 og 64 bit opløsning. Og dermed vil man ramme den samme forudsigelse baseret på ensemblet i de to tilfælde.

Den frigivne beregningskapacitet ved 32 bit kan man derefter benytte til at forbedre ensemblet, og dermed forbedre vejrudsigten.

Grunden til den store variation imellem de enkelte beregninger i ensemblet er formentlig, at modellen er ulineær og dermed kaotisk.

1
12. maj 2021 kl. 15:23

En væsentlig mangel er orkanens reelle tur. Det må dog være det væsentligste, at de rammer den reelle kurs, ikke hvor ens de forskellige opløsninger og ensembler forudsiger det.

Ensamblerne har en forbavsende stor spredning i betragtning af at startbetingelserne kun er ændret en smule.