Statistiske analyser av globale temperaturdata viser at det ikke er systematiske endringer i den globale temperaturutviklingen

Klimanytt # 117, av Kjell Stordahl, dr Philos, medlem av Klimarealistenes Vitenskapelige Råd

Det hevdes stadig at den globale temperaturen aldri har vært så høy – og at det aldri har vært så rask og dramatisk oppvarming som vi har hatt de siste 60 år. En gruppe meget kompetente statistikere viser at det ikke er noe spesielt ved temperaurvariasjonene i denne perioden.

Dag og Tid artikkel
I Dag og Tid fredag 14. august, side 12 -13, ble det presentert resultater fra en banebrytende statistisk analyse av globale temperaturdata med overskriften: Tyder temperaturdata aleine på at det skjer ei systematisk endring av klimaet over tid? Det er forskerne John K. Dagsvik, Mariachiara Fortuna og Sigmund H. Moen som har utarbeidet artikkelen: How Does the Temperature Vary over time? Evidence on the Stationay and Fractal Nature of Temperature Fluctuations. Arbeidet har blitt gjort i regi av Frish Centre for Economic Research, Matematisk avdeling Oslo universitet og ved interne seminarer på Statistisk sentralbyrå.

Globale temperaturdata
Det er gjort omfattende analyser av egenskapene til de globale temperaturdataprosessene. De har analysert 96 tidsserier med temperaturdata fra ulike målestasjoner, blant annet GISS hentet fra NASA, temperaturdata fra europeiske målestasjoner dokumentert i ECA&D (European Climate Assessment &Data), Nederland og rekonstruerte temperaturdata blant annet basert på årringer av trær samt iskjerneboringer fra Grønland og Antarktis.
De har vært oppmerksom på endringer i temperatur på målestasjoner over tid på grunn av urbanisering og fortetning og endring av infrastruktur (Urban Heat Island) og har godtatt justeringer/korrigeringer og homogenisering av temperaturdataene.

Statistisk analyse
Innenfor matematisk statistikk er det utviklet avansert statistiske metoder for å analysere tidsserier med data, som eksempelvis temperaturdata. Formålet med modellene er å få en bedre forståelse av prosessene som genererer dataene. Etablering eller utvikling av en modell vil også kunne benyttes til framskrivning eller prognoser for forløpet av prosessene.
Forskerne har benyttet den såkalte Fractional Gaussian noise modell til analyse og modellering av temperaturdataene. For at temperaturdataene skal tilfredsstille denne modellen, må:
1) Temperaturseriene sett på som tilfeldige prosesser over tid være stasjonære. Dvs. at temperaturen varierer på en mer eller mindre tilfeldig måte rundt et konstant nivå der mønsteret i variasjonene gjennomgående ikke endrer seg over tid.
2) De tilfeldige svingningene i temperaturen er normalfordelte.
3) Svingningsmønsteret i temperaturtidsserien inneholder trekk som er uavhengige av den tidsskalaen som er benyttet. Det vil si at autokorrelasjonen i tidsserien er uavhengig av tidsskalaen.
Det er etablert statistiske tester som eventuelt påviser at en prosess representert ved en tidsserie er en Fractional Gaussian noise modell.

Konklusjon
Forskerne har i sin artikkel påvist at globale temperaturdata representerer en Fractional Gaussian noise modell. Dermed ser det ikke ut til at det har vært noen systematisk endring i det globale temperaturnivået de siste 60 år.

Bloggen til John K. Dagsvik m. fl. finnes her.

4 thoughts on “Statistiske analyser av globale temperaturdata viser at det ikke er systematiske endringer i den globale temperaturutviklingen

  1. Dagsvik et al. benytter termometermålinger som går tilbake til 1700-tallet. De fleste termometerseriene går imidlertid ikke lenger tilbake enn forrige århundre.

  2. Berkeley Earth viser et temperaturplott med navngitte vulkaner (http://berkeleyearth.org/volcanoes).
    Den svarte linjen er en tilpasning av temperatur til atmosfærisk CO2 og vulkanaktivitet. (Link til artikkelen: http://static.berkeleyearth.org/papers/Results-Paper-Berkeley-Earth.pdf«)

    Kjell Stordahl hevder (med referanse til de siste 60 år) at «En gruppe meget kompetente statistikere viser at det ikke er noe spesielt ved temperaturvariasjonene i denne perioden», og at «Forskerne har i sin artikkel påvist at globale temperaturdata representerer en Fractional Gaussian noise modell»

    Mange vil vel da tenke, gitt Berkeley Earth figuren, at da må det være et stort sprang mellom «sunn fornuft» og avansert statistikk.

    Men når man leser artikkelen, ser man fort at statistikerne slett ikke sier det Stordahl hevder. Det de sier er at dataene er konsistente med deres modell, med andre ord at deres verktøy ikke kan utelukke at det bare er naturlige variasjoner.

    Statistikerne gir oss også klar pekepinn på hvor skarpt deres verktøy er: De har testet modellen med syntetiske data, antatt stasjonære i 120 år og så med lineær trend i 60 år, og funnet at de må ha en trend på minst 1.8 C per 50 år de siste 60 år for å kunne forkastes som beskrevet av modellen.

    Dette er drøyt 2 ganger den observerte temperaturstigningen. Noe som betyr at modellen ikke er i stand til å oppdage menneskeskapt global oppvarming med den størrelsen den har idag.

    Og man må undre seg over, når metodikken var ferdig utviklet og brukt på 96 individuelle temperatursett, hvorfor de ikke testet den på noen av de globale temperaturseriene også?
    De globale settene er atskillig mindre påvirket av «vær», og har dermed en annen støy-profil som kanskje kunne gitt andre resultater?

    • Dagsvik et al. benytter termometermålinger som går tilbake til 1700-tallet. De fleste termometerseriene går imidlertid ikke lenger tilbake enn forrige århundre.

    • En diskusjon av resultatene til John Dagsvik et al bør holde seg til de temperaturdata de har analysert og selvsagt modellen og konklusjonene. Å komme drassende med Berkeley Earth blir en avsporing.

Legg inn en kommentar