Ny metode afblæser de værste klimascenarier – og de bedste
more_vert
close
close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Ny metode afblæser de værste klimascenarier – og de bedste

Pasterze, her med Østrigs højeste bjerg, Grossglockner, til venstre, er Østrigs længste gletsjer og den hurtigst smeltende gletsjer i Alperne. Alene i 2013 svandt den 100 meter i længden på grund af global opvarmning. En ny analyse viser nu, at klimaet er mindre følsomt over for en stigning i CO2-koncentrationen end hidtidigt frygtet i værste tilfælde. Det fornyer ifølge forskerne bag håbet om at holde den globale temperaturstigning under 2 grader. Illustration: Wikipedia

Klimafølsomheden står højt på listen – måske allerøverst – over det, som klimaforskerne ønsker sig bedre viden om.

Den angiver, hvor stor en temperaturstigning der følger af en fordobling af atmosfærens indhold af CO2 – og den er derfor helt afgørende at kende for at kunne vurdere med god sikkerhed, hvordan klimaet vil udvikle sig, i takt med at koncentrationen af drivhusgassen øges i atmosfæren.

Men gennem mere end 25 år har FN’s klimapanel, IPCC, kun kunnet konkludere, at klimafølsomheden med god sandsynlighed ligger i intervallet mellem 1,5 og 4,5 grader.

Det er ikke meget bedre end det første estimat for klimafølsomheden, som den svenske kemiker Svante Arrhenius fremkom med i 1896, og som lød på ca. 3 grader.

Nu beretter Peter M. Cox fra University of Exeter i England sammen med to kolleger i en online-artikel i Nature, at man kan indsnævre intervallet til mellem 2,2 og 3,4 grader med en statistisk sikkerhed på 66 pct. og en mest sandsynlig værdi på 2,8 grader.

Forskellige analysemetoder angiver markant forskellig størrelse og usikkerhed for klimafølsomheden – hvor stor en temperaturstigning, der følger af en fordobling af atmosfærens CO₂-indhold. Den nye analyse søger at minimere denne usikkerhed. Orange bjælker angiver området, hvor der er 66 pct. sandsynlighed for klimafølsomheden. Blå streger angiver mest sandsynlige værdi. Kilde: Nature Illustration: MI Grafik/LGJ

»Det fornyer håbet om, at det vil være muligt at undgå en global opvarmning over 2 grader,« skriver forskerne afslutningsvis i deres videnskabelige artikel.

Sandsynligheden for en klimafølsomhed over 4,5 grader beregner de til mindre end en procent, og sandsynligheden for en klimafølsomhed under halvanden grad angiver de til under tre procent.

En genial metode

Piers Forster fra University of ­Leeds, der har været med til at peer reviewe artiklen, inden den blev accepteret af tidsskriftet, skriver i en kommentar ligeledes i Nature, at Cox og Co. har anvendt en genial metode til at fjerne de meget høje værdier fra usikkerhedsintervallet.

»Ideen er i virkeligheden så simpel, at mange klimaforskere må spørge sig selv: ‘Hvorfor har jeg ikke tænkt på det?’,« skriver han.

Han tilføjer, at han dog i stedet for at være jaloux på Cox og hans medforfattere vil takke dem for, at det nu bliver lettere at undgå at ligge søvnløs om natten ved tanken om de næsten uovervindelige konsekvenser, der ville følge af en klimafølsomhed i den meget høje ende af IPCC’s interval.

Piers Forster henviser bl.a. til, at to forskere fra Stanford University i Californien så sent som i december kunne berette – ligeledes i Nature – at det ud fra en analyse baseret på Jordens energibudget ville være påkrævet med endnu større reduktion af udledninger af drivhusgasser, end det tidligere har været antaget, for at holde 2 graders-målet.

Klimaets hukommelse

Hvad er det så for en smart og hidtil overset metode, som Peter Cox har taget i brug?

Forskerne holder sig til at analysere den varians og autokorrelation, der er for overfladetemperaturer. Autokorrelationen dækker over en form for ‘hukommelse’, der viser, hvor meget temperaturen et enkelt år direkte har betydning for næste års temperatur.

De viser dernæst, at kun klimamodeller med en forholdsvis lav værdi for klimafølsomheden korrekt kan gengive de variationer, der findes i målingerne. De finder også, at mange klimamodeller har en alt for høj autokorrelation eller hukommelse i forhold til virkeligheden.

Men kan vi så stole på, at denne metode og beregning er bundsolid?

Piers Forster anfører indledningsvis, at man skal være meget omhyggelig i fortolkningen, men fortsætter, at der i hans øjne er meget, der taler for rigtigheden.

En simpel fysisk teori

Det skyldes ikke mindst, at analysen er baseret på en simpel fysisk teori omkring strålingsstyrke (radiative forcing) og klimarespons.

En vis usikkerhed er der naturligvis altid tilbage. Så ifølge Piers Forster vil det være nødvendigt for andre forskere omhyggeligt at studere metoden og analysen og ikke mindst forbedre den måde, hvorpå skyer medtages i modeller.

Han konkluderer:

»Forhåbentlig kan et bedre og mere sikkert estimat for klimafølsomheden ud fra forskellige metoder medtages i den næste store klimarapport fra IPCC, der udkommer i 2021.«

Af natur er jeg mest til top-down analyser, som baserer sig på erfaring; hvor lang tid tager det at bygge et hus? Ca. 6 måneder. Hvor meget koster det? 12-15.000 kr. pr. m2. Hvad koster det at bygge en fabrik? Ca. dobbelt så meget som prisen på de største enkeltkomponenter.

Det er meget populært - ikke mindst bland DJ*F'ere, at lave bottom-up analyser. De er også fine i teorien, bortset fra at de kun værdisætter det man husker, og typisk til den optimistiske side. De tager ikke højde for det glemte. Det lærte min far ved at beregne prisen for at bygge et sommerhus ved bottom up metoden - den samlede pris efter 50 ekstra ture til byggemarkedet blev ca. det dobbelte af bottom-up estimatet :-S

Denne metode ved at se på radiative forcing of autokorrelation vil jeg kalde en top-down metode, fordi den overhovedet ikke beskæftiger sig med alle de del-mekanismer; feedback og feed-forward, som indgår i klimaet, men ser blot på systemets samlede respons på input. Det er en metode, som ikke passer i alle tilfælde, men som er robust, og får større og større validitet alt efter, hvor mange cases den bygger på (i modsætning til bottom-up, som starter forfra hver gang).

  • 13
  • 1

Jeg benyttede omtale af Svante Arrhenius til at læse nærmere, herunder om hans "lov".
Se https://en.wikipedia.org/wiki/Svante_Arrhe...
Anbefalet læsning, især det artikel-relevante afsnit til sidst.

Jeg synes altid det er spændende at læse om de "gamle", som på andre grundlag end vi kender idag, har gjort erkendelser som viser sig gyldige i eet eller andet omfang.
Det er da spændende, at Arrhenius fandt temperaturstigningen 3 grader Celcius (aha, endnu een af de "gamle" har fået en enhed opkaldt efter sig), som er besnærende nær artiklens nyeste resultat. Det kan ikke være helt tilfældigt, omend Wikipedia opregner et antal faktorer som IKKE blev medregnet.

Men jeg anbefaler også, at benytte lejligheden til "sidespring" til de andre, kendte, videnskabsmænd som er linket i Wikipedia's artikel.

  • 3
  • 0

Hvis man skal ned fra et meget højt træ, er det nødvendigt at splitte nedturen op i etaper.

  • 7
  • 9