mandag 7. januar 2008

Klimapaneldebatt

Vi fortsetter i forskningens verden.

Det er sikkert ikke bare meg det har gått litt hus forbi at debatten om FNs klimapanel foregår i rimelig seriøse former på forskning.no. Mye (eller kanskje vi skal legge oss på det noe mer forsiktige noe) tyder på at man har tatt munnen litt for full når det gjelder både prognosemetodikk og usikkerheten rundt prognosene.

En av Norges fremste prognoseeksperter, statistikeren Kjell Stordahl, kommenterte ihvertfall før jul i artikkelen Er usikkerheten i klimaprognosene undervurdert? at
Hvordan vurderer så IPCC usikkerheten? I Verdt å vite, NRK P1s populærvitenskapelige magasin 25. september i år, sa professor og medlem av IPCC, Eystein Jansen, at det er 90% sannsynlig at den økningen vi nå ser i temperaturen er menneskeskapt.

Professor Ole Humlum ved Universitetet i Oslo tvilte sterkt på anslaget, mente det er for høyt og spurte i samme radioprogram om dette anslaget er statistisk signifikant – altså underforstått om det er basert på analytiske modeller.
Eystein Jansen svarte med å si at det er det ikke, fordi modellene er for komplekse. Anslaget er fremkommet ved å spørre de som arbeider med modellene hva de mener (tror) – med andre ord subjektive vurderinger av usikkerhet.

Det er alltid godt å oppleve at det vitenskapelige settes i høysetet.

Men det blir verre. Stordahl er ikke direkte snau, verken i overskrift eller tekst:
IPCC anvender ikke etablerte prognoseprinsipper
K. C. Green og J. Scott Armstrong har skrevet artikkelen ”Global Warming: Forecasts by Scientists versus Scientific Forecasts” (Energy and Environment 18, 7/8, 2007, pp 995-1019). Der evaluerer de temperaturprognosene i IPCCs siste hovedrapport IPCC WP1’s Fourth Assessment Report ut fra prinsipper for å lage gyldige prognoser.
De konkluderer med at etablerte prognoseprinsipper i overveiende grad ikke er fulgt. J. Scott Armstrong er en av de største internasjonale kapasitetene innen prognosefeltet.

Generelt kan det sies at kapittel 8 i IPCC-rapporten som faktisk skal evaluere klimamodellene, kun foretar en gjennomgang på generelt nivå.
Det er vanskelig å få oversikt over selv de grunnleggende forutsetninger og årsakssammenhenger og tilhørende matematiske beskrivelser av klimamodellene.

Så er spørsmålet om Nobelkomiteen leser forskning.no. Muligens gjør de det. Ihvertfall kom svaret på tiltale ikke uventet ganske fort.

Knut H. Alfsen og Helge Drange betegnet det hele som Misforståelser om klimaprognoser . Pussig nok uten å gå inn på spørsmålet om usikkerhet.

Det hører også med at de i stedet for å ta opp argumenter eller analyser, påpekte at bladet som Scott Armstrong (altså en av de fremste fagfolk i verden på feltet) publiserte i, ikke har høy nok faglig prestisje.

Hovedkritikken mot prognoseeksperten Stordahl synes å være at han ikke har forstått klimapanelets prognosemodell og at denne faktisk omfatter (hold dere fast) naturlover. Det virker også som noen snev av hersketeknikk når de skriver

Når dette er sagt, statistikere har opplagt mye å bidra med som fagprofesjon i klimasammenheng. Men å basere sin kritikk på at eksisterende klimamodeller ikke samsvarer med ”prognosemodeller” fra innlegg i Energy and Environment tjener neppe saken.
Grunnlaget for kritikken synes å være en kulturkollisjon mellom statistikere og klimaforskere, ikke ulik andre kulturkollisjoner som vi noen ganger for eksempel ser mellom geologer og klimaforskere.
Heldigvis har ikke forskning.no innført munnkurv for billedstormende fagfolk. Dermed følger Kjell opp dette i går med Klimaprognoser og usikkerhet, der han fortsetter å holde seg til saken (det var dette med denne usikkerheten, da).
Etter hva jeg kan se unnlater Alfsen og Drange å svare på mitt helt sentrale spørsmål:
Det etterlyses bedre dokumentasjon fra IPCC som viser hvilke kvantitative metoder som er brukt til å estimere usikkerheten i klimaprognosene.
IPCC har satt opp et system for angivelse av usikkerhet som brukes systematisk i hele AR(4) ”The Physical Science Basis”.


Klassifiseringen er: virtually certain (99%), extremely likely (95%), very likely (90%), likely (66%), etc. Hvordan anvendes dette på klimaprognoser?
Det eneste jeg kan se Alfsen og Drange svarer er ”Selvsagt var det ingen i 1990 som hadde informasjon om temperaturutviklingen fram til i dag, knappe 20 år senere. Like fullt ga klimamodellene på 1980-tallet en temperaturutvikling som er nær den temperaturen vi i dag observerer”.
Utfordringen til Alfsen og Drange blir da å beskrive hvorledes usikkerheten i prognosene til dagens klimamodeller kvantifiseres basert på IPCCs
usikkerhetsskala som er vist over.


Vi får ønske dem lykke til.

Stordahl lar seg vel heller ikke imponere av å bli imøtegått med at dette handler om naturlover og dermed har helt andre forutsetninger enn f.eks. økonomiske prognoser.
Klimamodellene består ikke bare av velkjente naturlover.
I modellene er i tillegg bygget inn antagelser om påvirkning av en rekke andre prosesser og grad av innbyrdes dominans og av innbyrdes påvirkninger med
tilbakekoblingseffekter og forsinkelsestid.

Det er svært mange variable som inngår i disse komplekse modellene.

Kjell Stordahl føyer til med velplasserte utropstegn:
Prognoseområdet som vitenskap er kontinuerlig blitt utviklet fra 1930-tallet. De finnes flere teknikker her som kan brukes for evaluering av usikkerheter i prognoser til de klimamodeller som det arbeides med nå!

Dette kommenteres av Scott Armstrong og Green og de sier samtidig at det ikke er en eneste henvisning i IPCCs prognosearbeide til artikler fra det etablerte
prognosefeltet. I tillegg er svært mange av de etablerte prognoseprinsipper ikke fulgt!

Derfor er det litt påfallende at Alfsen og Drange bruker så mye spalteplass på å fortelle at disse synspunktene er publisert i feil tidsskrift. Det har da ikke så mye med saken å gjøre.
Så håper jeg det ikke er påfallende at jeg har brukt så mye spalteplass på synspunktene her.

Ingen kommentarer:

Legg inn en kommentar