

European Centre for Medium-Range Weather Forecasts (ECMWF) sætter nøjagtigheden af data ned i deres beregninger. Ikke for at gøre prognoserne dårligere, men bedre.
Helt konkret vil den nye opgradering af vejrmodellen Integrated Forecast System ‘nøjes’ med 32 bit repræsentation frem for 64 bit repræsentation, som tidligere er benyttet.
Med 64 bit-repræsentation (dobbelt præcision) har man en nøjagtighed på 15 decimale cifre, men 32 bit-repræsentation (enkelt præcision) kun 7.
Når data fylder mindre, kan de lagres tættere på beregningsenhederne og dermed undgås ventetid i forbindelse med transport af data internt i computeren.
Enkelt præcision reducerer desuden behovet for at udveksle data mellem flere processorer, der kører parallelt.
Læs også: Vejrudsigten: Større nøjagtighed og præcis usikkerhed
Bedre vertikal lagdeling
Herved reduceres beregningsomfanget med 40 pct. uden det går ud over forudsigelserne nøjagtighed.
Det vil gøre muligt at inddrage flere parametre knyttet til fugtighed og forhold i såvel det ultraviolette som det infrarøde område samt at øge den vertikale opløsning fra 97 til 137 lag.
Overgangen til 32 bit repræsentation er baseret på et forskningsstudie fra University of Oxford, Météo-France and ECMWF, der blev fremlagt i 2018, som baserer sig på endnu tidligere forskning udført af Peter Düben og Tim Palmer fra University of Oxford,
ECMWF tager senere på året en ny supercomputer i Bologna, Italien i brug til erstatning for den nuværende i Reading i England.
Læs også: Europæiske meteorologer lover pålidelig vejrudsigt to uger frem i tiden fra 2025
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
En god forklaring på kaos systemer. Præcis forudsigelse kan kun udføres inden for meget korte intervaller (næsten) uanset hvor præcis en computer og datagrundlag man har. Så er det, som de lægger op til i artiklen, en god ide at gentage forudsigelsen mange gange med mere upræcise beregner for at få god statistik på de mulige udfald. Og lavere præcision gør det nu muligt at lave mange flere beregninger og derved bedre stastik, som fører til bedre forudsigelser samt deres usikkerhed.
Kommer vel an på størrelsen :v)
... i Beijing betyder altså alligevel ikke så meget stormene i vadehavet
Her er det forklaret:https://www.youtube.com/watch?v=bZ6yxt_o_CQMin efterhånden dårlige hukommelse fortæller mig, at Lorenz opdagede kaos ved det at hans beregninger med få cifre afveg betragteligt fra de samme beregninger udført med mange cifre. Det er lidt i modstrid med det nye studie.
Ganske små ændringer i forudsætningerne, medfører store ændringer over et stykke tid (sommerfugleffekten).
Skal man forudsige vejret mange dage frem, burde således være vigtigt med så præcise data som muligt som udgangspunkt, og derfor at starte med at lave beregningerned med 64 bits, eller større, hvis præcisionen af input data er så høj.
Men, som tiden går, så øges usikkerheden - årsagen til dette, behøver ikke at være beregningsfejl, men det vil gælde, uanset computeren er 100% præcis eller ikke. Den ikke lineære dynamik, vil medføre en uforudsigelighed, når man går lidt frem i tiden, og derfor bliver præcisionen af mindre betydning.
Hertil kommer, at efter nogle iterationer, så vil der blive tilføjet unøjagtighed på grund af beregningerne. Så ud fra en analyse af nøjagtigheden af beregningen, så bliver denne også mindre.
For den første dag, kan således være en god idé at lave udregningen med 64 bits nøjagtighed, hvis man har dataene til det.
Men, efter et stykke tid, så er upræcisionen så stor, at nøjagtigheden intet betyder. Måske, kan manglen på præcision medføre store ændringer i vejret frem i tiden - men på dette tidspunkt, er vi alligevel så langt fremme, at vejret umuligt kan forudsiges.
Når der regnes flere dage frem, kan man således fint bruge dårlig præcision, på de beregninger der er et par dage fremme.
Min efterhånden dårlige hukommelse fortæller mig, at Lorenz opdagede kaos ved det at hans beregninger med få cifre afveg betragteligt fra de samme beregninger udført med mange cifre. Det er lidt i modstrid med det nye studie.
Hvor mange bits der bruges, må afhænge af computerens akitektur. Hvis den er lavet til 64 bit præcision, så kan det meget nemt blive langsommere at kun anvende 32 bits. Under alle omstændigheder, skal anvendes 64 bits allignments, så der er næppe en hukommelsesfordel. Måske er en fordel, at kunne udveksle flere tal med en enkelt 64 bit overførsel, hvis arkitekturen er lavet til det.
Det vil være naturligt, at der anvendes særlige processorer til vejr-kalkulationer, der udover at have tilstrækkelig præcision, også kan udregne præcisionen på resultatet. Et resultat, er aldrig mere nøjagtig, end den udregnede præcision oplyser. Teoretisk, kunne man lave softwaren, så der ud fra den beregnede præcision automatisk vælges 32 eller 64 bits transport. Det må være muligt, at softwaren vurderer præcisionen i beregningen. I starten, er måske en fordel med 64 bits, men efter få iterationer giver det måske ikke en fordel med mere end 32 bits, så softwaren kan laves, så der automatisk vælges præcision.
32 bits svare til en opløsning på 1:4.294.967.296</p>
<p>64 bits svare til en opløsning på 1:18.446.744.073.709.551.616
Troels giver dig svaret, men dit problem er at du antager at alle bit er mantise.
32bit bruger 24bit på mantise, 64bit bruger 52bit, begger bruger 11bit på exponent, mens 1 bit bruges som tegnbit: +/-
Søg på de fremhæbede ord ;-)Det er fagtermer fra <strong>IEEE 754</strong> (og nyere udgaver af samme): single precision og double precision.
Hvordan man får 64 bits opløsning til at være "dobbelt præcision" i forhold til 32 bits opløsning, stemmer ikke helt overens med min skolelærdom.
Det er fagtermer fra IEEE 754 (og nyere udgaver af samme): single precision og double precision.
"Med 64 bit-repræsentation (dobbelt præcision) har man en nøjagtighed på 15 decimale cifre, men 32 bit-repræsentation (enkelt præcision) kun 7."
Hvordan man får 64 bits opløsning til at være "dobbelt præcision" i forhold til 32 bits opløsning, stemmer ikke helt overens med min skolelærdom.
32 bits svare til en opløsning på 1:4.294.967.296
64 bits svare til en opløsning på 1:18.446.744.073.709.551.616
Det svarer da hvis til en opløsning/præcision der er lidt mere end 4,2 milliarder gange større - ik?
Det har du ret i med det aber dabei, at hvis den reelle kurs var helt anderledes så vil modellernes overensstemmelse give et falsk indtryk af nøjagtighed.En væsentlig mangel er orkanens reelle tur. Det må dog være det væsentligste, at de rammer den reelle kurs, ikke hvor ens de forskellige opløsninger og ensembler forudsiger det.</p>
<p>Ja, men det vel ikke det, som artiklen drejer sig om?
Ja, men det vel ikke det, som artiklen drejer sig om?En væsentlig mangel er orkanens reelle tur. Det må dog være det væsentligste, at de rammer den reelle kurs, ikke hvor ens de forskellige opløsninger og ensembler forudsiger det.
Som jeg forstår det, er det eftervist, at det ikke ændrer det samlede ensemble væsentligt, hvis de enkelte ensemble-medlemmer beregnes med hhv. 32 og 64 bit opløsning. Og dermed vil man ramme den samme forudsigelse baseret på ensemblet i de to tilfælde.
Den frigivne beregningskapacitet ved 32 bit kan man derefter benytte til at forbedre ensemblet, og dermed forbedre vejrudsigten.
Grunden til den store variation imellem de enkelte beregninger i ensemblet er formentlig, at modellen er ulineær og dermed kaotisk.
En væsentlig mangel er orkanens reelle tur. Det må dog være det væsentligste, at de rammer den reelle kurs, ikke hvor ens de forskellige opløsninger og ensembler forudsiger det.
Ensamblerne har en forbavsende stor spredning i betragtning af at startbetingelserne kun er ændret en smule.