Uppdatering (090113): Real Climate har publicerat svar på ytterligare frågor här.
Några definitioner
GCM – Generell Cirkulationsmodell (ibland global klimatmodell) denna innehåller atmosfärens fysik och ofta havens, isarnas och landytornas fysiska beteende.
Simulering – en enskilt experiment med en GCM
Startvärdes-ensemble – en grupp av simuleringar skapade av en GCM men med små variationer i startvärdena. Detta är ett försök att skapa ett medel över det kaotiska väderbeteendet.
Multimodell-ensemble – en uppsättning simuleringar från många modeller. Ett medel över dessa simuleringar ger bättre överensstämmelse mot klimatologiska observationer än enskilda modeller.
Modellväder – den väg som en enskild simulering tar jämfört med andra simuleringar med egna individuella stormar och vågmönster. Denna är unik för varje simulering. Modellvädret är den del av lösningen (vanligen kortperiodisk och småskalig) som är okorrelerad med övriga i en ensemble
Modellklimat – den del av simuleringen som är robust och likadan i de olika ensemblemedlemmarna. (vanligtvis långa medelvärden, statistik och förhållanden mellan variabler.)
Påverkan (eng. Forcings) – allt som påförs utifrån och orsakar att modellens klimat förändras.
Återkoppling (eng. Feedback)– Förändringar i modellen som uppstår som respons på initialt bestämd påverkan. Det kan vara förstärkande (positiv återkoppling) eller försvagande (negativ återkoppling). Klassiska exempel är förstärkningen genom smältande isar som förändrar Jordens albedo och dämpningen genom långvågsstrålning
Frågor:
Vad är skillnaden mellan modeller som baseras på fysik och modeller som bygger på statistik?
Modeller baserade på statistik handlar ofta om ett enkelt samband mellan olika termer som anpassas efter observationer. En linjär regressionslinje genom förändringar av temperatur med tid eller en sinuskurva anpassad till årsvariationer till exempel. Dessa statistiska modeller är väldigt effektiva på att enkelt fånga upp existerande information och så länge saker inte förändras mycket kan dom ge ungefärliga förutsägelser för framtiden. Dom är dock inte så bra i de fall du vet att ditt underliggande system kan förändras på ett sätt som kanske påverkar hur originalvariablerna interagerar.
Fysikbaserade modeller å andra sidan, försöker fånga den verkliga fysiken bakom olika samband och interaktioner, som förhoppningsvis är väl känd. Eftersom de grundläggande fysiska egenskaperna förmodligen inte kommer att förändras i framtiden, stiger förväntningarna på en lyckad förutsägelse jämfört med om man kör en statistisk modell. Ett klassiskt exempel är Newtons lag F=ma, vilken kan användas i många olika simuleringar och ändå ge väldigt precisa svar helt oberoende av de data som Newton själv använde för att ta fram lagen.
Klimatmodeller är tills största delen baserade på fysik, men små delar av fysiken är bara känd empiriskt (till exempel förhöjd avdunstning med mer vind). Så vissa statistiskt bestämda samband mellan olika data finns i klimatmodellerna men dessa är endast använda som process-parametrar inte för att bestämma trender över tid.
Är klimatmodeller endast en statistisk anpassning till rådande trend i klimatdata?
Nej. Mycket av osäkerheten kring detta kommer från en missuppfattning av det som beskrivs ovan. Modellutvecklarna använder sig inte av klimatförändringsdata för att trimma in modellerna. Istället arbetar modellutvecklarna för att förbättra klimatologin i modellen (förbättra anpassningen till ett klimatologiskt medel) och dess inbyggda variation (så som frekvensen och amplituden för tropiska variationen). Den färdiga modellen testas sedan mot 1900-talets klimatstatistik.
Varför är det vågor i resultaten från modellerna?
GCMer gör beräkningar i tidssteg om 20 till 30 minuter så de kan fånga dagliga variationer och väder-systemens rörelser. Liksom i vädermodeller är vädret i klimatmodeller kaotiskt. Från mycket snarlika, men inte identiska, starttillstånd utvecklas olika simuleringar olika, med – olika väder, olika stormar, olika vindmönster – alltså olika vågor i resultaten. Det finns vågor på nästan alla tidsskalor – dagliga, månatliga, årliga, decennier och längre. Modellerarna måste därför mycket noggrant testa hur mycket en viss påverkan verkligen slår igenom genom kontrollsimuleringar.
Vad är robust i en klimatprojektion och hur kan jag veta det?
Eftersom varje våg inte nödvändigtvis är signifikant, måste modellerarna utvärdera hur robust ett modellresultat är. De gör detta genom att kontrollera om samma resultat finns i andra simuleringar, med andra modeller, om resultaten verkar fysiskt riktiga och om det finns bevis för liknande beteende i jordens klimathistoria. Ifall resultatet ses i flera simuleringar i flera modeller är det troligt att det är en robust konsekvens av de underliggande antagandena, eller med andra ord, det är förmodligen inte på grund av någon av de relativt godtyckliga val som utgör skillnaden mellan olika modeller. Om storleken på effekten är teoretiskt trolig oberoende av modellerna så bidrar det till trovärdigheten, och om effekten också syns i observationer blir den än mer trovärdig. Exempel på robusta resultat är till exempel en uppvärmning av planeten som funktion av högre halter växthusgaser, eller förändring av mängden vattenånga samtidigt som temperaturen förändras, alla modeller uppför sig ungefär lika på de områdena vilket också är i överensstämmelse med både teori och observationer. Exempel på icke robusta resultat är till exempel orkanförändringar. Här visar modellerna spretiga resultat, teorin är inte fullt utvecklad än och observationerna är tvetydiga.
Hur har modellerna förändrats över tiden?
De första GCM (ca 1975) var baserade endast på atmosfäriska processer – vindar, strålning och förenklade moln. I mitten av 1980-talet fanns enkel behandling av havets nära ytan och havsis, molnbeskrivningen började bli något mer sofistikerad. Under 1990-talet började det finnas modeller med fullt kopplade havs-atmosfärsystem. Det var också då som det första projektet för jämförelse mellan kopplade modeller (CMIP) startades. Detta projekt har sedan genomförts i ytterligare två omgångar, den senaste (CMIP3) är den databas som används som stöd för mycket av modellarbetet i IPCC AR4. Under tiden sedan CIMP har modellerna blivit klart mer realistiska (Reichler and Kim, 2008) då upplösningen har ökat och uppbyggnaden blivit klart mer sofistikerad. Idag innehåller modellerna moduler för dynamisk havsis, aerosoler och atmosfärisk kemi. Problem som överdriven ”klimat-drift” (tendensen för en kopplad modell att röra sig ifrån det tillstånd som liknar det verkliga klimatet) som fanns i de tidiga modellerna är i dag kraftigt reducerade.
Vad är trimning?
Vi är fortfarande en bra bit ifrån att kunna simulera klimatet utifrån verkligt grundläggande principer. Medan mycket av fysiken kan inkluderas (bevarandet av massa, energi mm) måste många saker approximeras för att nå tillräcklig effektivitet eller upplösning (tex. rörelseekvationerna kräver uppskattningar av turbulens på mindre skala än modellens volymelement och strålningsöverföringskoden approximerar linje-för-linje beräkningar genom medelvärden över frekvensband.) och andra parametrar är endast kända från empiriska studier (så som formeln för hur snabbt moln utvecklar regn). I dessa approximationer och empiriska formler finns det nästan alltid en parameter eller två som kan trimmas för att bäst passa observationer. Att ändra dessa värden kallas trimning och finns i två kategorier. Den första är ändringar av parametrar i en enskild formel för att bäst passa de observerade värdena för detta samband. Detta är vanligast när ett nytt samband utvecklas.
Den andra är trimning av parametrar som styr delar av det sammansatta systemet. Då Viskositetsparametrarna för atmosfäriska gravitationsvågor är endast kända med stor felmarginal och används därför ofta för att förbättra klimatologin för zonala vindar i stratosfären. Gränsen för relativa fuktigheten för molnbildning trimmas ofta för att få den mest realistiska molnutbredningen och globalt albedo. Förvånansvärt nog finns det endast ett fåtal av dessa parametrar (kanske ett halvt dussin) som används för att få modellerna att stämma med data. Det är viktigt att notera att denna trimning görs med medelklimatet (inklusive säsongsvariationer och inbyggda variationen) och när det är satta är de oförändrade vid varje ensemble experiment.
Hur utvärderas modellerna?
Mängden data som finns för modellutvärdering är mycket stor men faller inom ett fåtal tydliga kategorier. Först finns de klimatologiska medelvärdena (kanske för varje månad eller säsong) för viktiga klimatologiska data som temperatur, nederbörd, vindar och molnighet. Detta är en nollte-ordningens jämförelse för att se att modellen får det grundläggande någorlunda korrekt. Sedan kommer variationen i dessa grundläggande data – har modellen realistisk Nordatlantisk oscillation, eller ENSO, eller MJO. Dessa är svårare att få att stämma (och faktiskt är det så att många modeller ännu inte har realistiska El Niños). Mer subtilt är jämförelse mellan samband i modellen och verkliga värden. Detta är användbart för korta dataserier (så som de som fås från satelliter) där det finns mycket väderbrus som modellerna inte kan förväntas fånga upp. I dessa fall kan förhållandena mellan temperatur och luftfuktighet, eller molnighet och aerosoler ge kunskaper om modellens processer är realistiska eller inte.
Sedan är det tester mot klimatförändringarna själva: hur svarar modellen på tillförseln av aerosoler i stratosfären så som under det ”naturliga experimentet” Mt Pinatubos utbrott? Hur svarar modellen under hela 1900-talet, eller vid Maunderminimumet, eller i mellan-Holocen eller den senaste istiden? I varje enskilt fall finns det vanligen tillräckligt med data för att kunna utvärdera hur bra modellen fungerar.
Är modellerna fullständiga? Innehåller det alltså alla processer vi känner till?
Nej. Medan modellerna innehåller mycket fysik innehåller de inte mycket av de småskaliga processer som mer specialiserade grupper (som atmosfärskemister eller kustoceanografer till exempel) kan vara mycket engagerade i. Mycket av detta är en fråga om skala (modellernas volymelement är för stora för att detaljerna ska kunna urskiljas), men ibland är det en fråga om säkerheter i hur det ska inkluderas (som till exempel hur oceanvirvlar påverkar flödet av spårämnen).
Även många viktiga bio-fysisk-kemiska cykler (tex. kolflöden, aerosol, ozon) har endast börjat inkorporeras. Isskölds- och växtlighetskomponenter är fortfarande under utveckling.
Har man byggt in global uppvärmning i modellerna?
Nej. Om de lämnas ifred kommer modellerna att svänga runt ett långsiktigt medel som är oberoende av utgångsinställningarna. Lägger man till olika påverkan, som vulkaner eller CO2, kommer de att värmas eller kylas som ett resultat av den grundläggande fysiken för aerosoler eller växthuseffekten.
Hur skriver jag en artikel som visar att modellerna har fel?
Mycket enklare än du tror då alla modeller faktiskt har fel (fast vissa är användbara – George Box). Att visa en missanpassning mellan verkligheten och modelldata blir mycket enklare om du minns signal till brus förhållandet som nämnts ovan. När du går till mindre rymdskala och kortare tidsskala ökar den interna variationen märkbart så mängden data som skiljer sig från det förväntade av modellen kommer att öka (åt båda håll naturligtvis). Så välj en variabel, begränsa din analys till en liten del av planeten, beräkna någon statistik över en kort tidsperiod och du har fixat det. Om modellen av en slump stämmer, gör området mindre och använd en kortare tidsperiod, till slut kommer det inte att stämma.
Även om modellerna blir mycket bättre än vad de är nu så kommer detta alltid att fungera – vi kan kalla det RealClimates teori om envetenhet. Nu kan lämplig statistik användas för att se om skillnaderna är signifikanta och inte bara resultatet av slump eller medvetet urval, men förvånansvärt många artiklar bryr sig inte om att kontrollera dessa saker på ett korrekt sätt.
Kan GCMer förutse temperatur och nederbörd där jag bor?
Nej. Det är ofta stor variation i temperatur och nederbördstatistik över korta sträckor då det lokala klimatet beror på den lokala geografin. GCMer är konstruerade för att beskriva de viktigaste storskaliga skeendena i klimatet så som energiflödet, cirkulationen och temperaturen i en cellvolym (genom fysikens termodynamiska lagar, dynamik och ideala gaslagen). En typisk cell kan ha en horisontell utsträckning på ~100x100 km men storleken har tenderat att minska under åren med snabbare datorer. Utseendet på landskapet (detaljerna hos berg och kustlinjer osv.) som används i modellerna återspeglar den upplösningen, alltså kommer inte modellen att vara tillräckligt detaljerad för att beskriva det lokala klimatets variation som beror på den lokala geografin (så som berg, dalar, sjöar mm). Trots det är det möjligt att använda en GCM för att få viss information om det lokala klimatet genom nedskalning, då det beror både på den lokala geografin (som är mer eller mindre konstant) och den storskaliga atmosfäriska situationen. Resultaten som fås genom nedskalning kan sedan jämföras med lokala klimatvariabler och kan användas för vidare (och mer noggrann) bedömning av kombinationen tekniken model-nedskalning. Detta är dock fortfarande en experimentell teknik.
Kan jag själv använda en klimatmodell?
Ja! Det finns ett projekt kallat EdGCM som har ett trevligt användargränssnitt och fungerar under Windows där du kan köra ett antal olika tester. ClimatePrediction.Net har en klimatmodell som körs som skärmsläckare med en koordinerad uppsättning simulationer. GISS ModelE finns för nedladdning på Unix-baserade operativsystem och kan köras på en vanlig dator. NCAR CCSM är US Community modellen som är väl dokumenterad och fritt tillgänglig.
Ex. På modellresultat: GISS Model E, Dubblad CO2-nivå. Men, artificiellt hållen, konstant temperatur vid Jordytan
Övriga bilder
UCAR: Bild 1 och 2 uppifrån
Lawrence Berkeley Lab: Bild 3
Några definitioner
GCM – Generell Cirkulationsmodell (ibland global klimatmodell) denna innehåller atmosfärens fysik och ofta havens, isarnas och landytornas fysiska beteende.
Simulering – en enskilt experiment med en GCM
Startvärdes-ensemble – en grupp av simuleringar skapade av en GCM men med små variationer i startvärdena. Detta är ett försök att skapa ett medel över det kaotiska väderbeteendet.
Multimodell-ensemble – en uppsättning simuleringar från många modeller. Ett medel över dessa simuleringar ger bättre överensstämmelse mot klimatologiska observationer än enskilda modeller.
Modellväder – den väg som en enskild simulering tar jämfört med andra simuleringar med egna individuella stormar och vågmönster. Denna är unik för varje simulering. Modellvädret är den del av lösningen (vanligen kortperiodisk och småskalig) som är okorrelerad med övriga i en ensemble
Modellklimat – den del av simuleringen som är robust och likadan i de olika ensemblemedlemmarna. (vanligtvis långa medelvärden, statistik och förhållanden mellan variabler.)
Påverkan (eng. Forcings) – allt som påförs utifrån och orsakar att modellens klimat förändras.
Återkoppling (eng. Feedback)– Förändringar i modellen som uppstår som respons på initialt bestämd påverkan. Det kan vara förstärkande (positiv återkoppling) eller försvagande (negativ återkoppling). Klassiska exempel är förstärkningen genom smältande isar som förändrar Jordens albedo och dämpningen genom långvågsstrålning
Frågor:
Vad är skillnaden mellan modeller som baseras på fysik och modeller som bygger på statistik?
Modeller baserade på statistik handlar ofta om ett enkelt samband mellan olika termer som anpassas efter observationer. En linjär regressionslinje genom förändringar av temperatur med tid eller en sinuskurva anpassad till årsvariationer till exempel. Dessa statistiska modeller är väldigt effektiva på att enkelt fånga upp existerande information och så länge saker inte förändras mycket kan dom ge ungefärliga förutsägelser för framtiden. Dom är dock inte så bra i de fall du vet att ditt underliggande system kan förändras på ett sätt som kanske påverkar hur originalvariablerna interagerar.
Fysikbaserade modeller å andra sidan, försöker fånga den verkliga fysiken bakom olika samband och interaktioner, som förhoppningsvis är väl känd. Eftersom de grundläggande fysiska egenskaperna förmodligen inte kommer att förändras i framtiden, stiger förväntningarna på en lyckad förutsägelse jämfört med om man kör en statistisk modell. Ett klassiskt exempel är Newtons lag F=ma, vilken kan användas i många olika simuleringar och ändå ge väldigt precisa svar helt oberoende av de data som Newton själv använde för att ta fram lagen.
Klimatmodeller är tills största delen baserade på fysik, men små delar av fysiken är bara känd empiriskt (till exempel förhöjd avdunstning med mer vind). Så vissa statistiskt bestämda samband mellan olika data finns i klimatmodellerna men dessa är endast använda som process-parametrar inte för att bestämma trender över tid.
Är klimatmodeller endast en statistisk anpassning till rådande trend i klimatdata?
Nej. Mycket av osäkerheten kring detta kommer från en missuppfattning av det som beskrivs ovan. Modellutvecklarna använder sig inte av klimatförändringsdata för att trimma in modellerna. Istället arbetar modellutvecklarna för att förbättra klimatologin i modellen (förbättra anpassningen till ett klimatologiskt medel) och dess inbyggda variation (så som frekvensen och amplituden för tropiska variationen). Den färdiga modellen testas sedan mot 1900-talets klimatstatistik.
Varför är det vågor i resultaten från modellerna?
GCMer gör beräkningar i tidssteg om 20 till 30 minuter så de kan fånga dagliga variationer och väder-systemens rörelser. Liksom i vädermodeller är vädret i klimatmodeller kaotiskt. Från mycket snarlika, men inte identiska, starttillstånd utvecklas olika simuleringar olika, med – olika väder, olika stormar, olika vindmönster – alltså olika vågor i resultaten. Det finns vågor på nästan alla tidsskalor – dagliga, månatliga, årliga, decennier och längre. Modellerarna måste därför mycket noggrant testa hur mycket en viss påverkan verkligen slår igenom genom kontrollsimuleringar.
Vad är robust i en klimatprojektion och hur kan jag veta det?
Eftersom varje våg inte nödvändigtvis är signifikant, måste modellerarna utvärdera hur robust ett modellresultat är. De gör detta genom att kontrollera om samma resultat finns i andra simuleringar, med andra modeller, om resultaten verkar fysiskt riktiga och om det finns bevis för liknande beteende i jordens klimathistoria. Ifall resultatet ses i flera simuleringar i flera modeller är det troligt att det är en robust konsekvens av de underliggande antagandena, eller med andra ord, det är förmodligen inte på grund av någon av de relativt godtyckliga val som utgör skillnaden mellan olika modeller. Om storleken på effekten är teoretiskt trolig oberoende av modellerna så bidrar det till trovärdigheten, och om effekten också syns i observationer blir den än mer trovärdig. Exempel på robusta resultat är till exempel en uppvärmning av planeten som funktion av högre halter växthusgaser, eller förändring av mängden vattenånga samtidigt som temperaturen förändras, alla modeller uppför sig ungefär lika på de områdena vilket också är i överensstämmelse med både teori och observationer. Exempel på icke robusta resultat är till exempel orkanförändringar. Här visar modellerna spretiga resultat, teorin är inte fullt utvecklad än och observationerna är tvetydiga.
Hur har modellerna förändrats över tiden?
De första GCM (ca 1975) var baserade endast på atmosfäriska processer – vindar, strålning och förenklade moln. I mitten av 1980-talet fanns enkel behandling av havets nära ytan och havsis, molnbeskrivningen började bli något mer sofistikerad. Under 1990-talet började det finnas modeller med fullt kopplade havs-atmosfärsystem. Det var också då som det första projektet för jämförelse mellan kopplade modeller (CMIP) startades. Detta projekt har sedan genomförts i ytterligare två omgångar, den senaste (CMIP3) är den databas som används som stöd för mycket av modellarbetet i IPCC AR4. Under tiden sedan CIMP har modellerna blivit klart mer realistiska (Reichler and Kim, 2008) då upplösningen har ökat och uppbyggnaden blivit klart mer sofistikerad. Idag innehåller modellerna moduler för dynamisk havsis, aerosoler och atmosfärisk kemi. Problem som överdriven ”klimat-drift” (tendensen för en kopplad modell att röra sig ifrån det tillstånd som liknar det verkliga klimatet) som fanns i de tidiga modellerna är i dag kraftigt reducerade.
Vad är trimning?
Vi är fortfarande en bra bit ifrån att kunna simulera klimatet utifrån verkligt grundläggande principer. Medan mycket av fysiken kan inkluderas (bevarandet av massa, energi mm) måste många saker approximeras för att nå tillräcklig effektivitet eller upplösning (tex. rörelseekvationerna kräver uppskattningar av turbulens på mindre skala än modellens volymelement och strålningsöverföringskoden approximerar linje-för-linje beräkningar genom medelvärden över frekvensband.) och andra parametrar är endast kända från empiriska studier (så som formeln för hur snabbt moln utvecklar regn). I dessa approximationer och empiriska formler finns det nästan alltid en parameter eller två som kan trimmas för att bäst passa observationer. Att ändra dessa värden kallas trimning och finns i två kategorier. Den första är ändringar av parametrar i en enskild formel för att bäst passa de observerade värdena för detta samband. Detta är vanligast när ett nytt samband utvecklas.
Den andra är trimning av parametrar som styr delar av det sammansatta systemet. Då Viskositetsparametrarna för atmosfäriska gravitationsvågor är endast kända med stor felmarginal och används därför ofta för att förbättra klimatologin för zonala vindar i stratosfären. Gränsen för relativa fuktigheten för molnbildning trimmas ofta för att få den mest realistiska molnutbredningen och globalt albedo. Förvånansvärt nog finns det endast ett fåtal av dessa parametrar (kanske ett halvt dussin) som används för att få modellerna att stämma med data. Det är viktigt att notera att denna trimning görs med medelklimatet (inklusive säsongsvariationer och inbyggda variationen) och när det är satta är de oförändrade vid varje ensemble experiment.
Hur utvärderas modellerna?
Mängden data som finns för modellutvärdering är mycket stor men faller inom ett fåtal tydliga kategorier. Först finns de klimatologiska medelvärdena (kanske för varje månad eller säsong) för viktiga klimatologiska data som temperatur, nederbörd, vindar och molnighet. Detta är en nollte-ordningens jämförelse för att se att modellen får det grundläggande någorlunda korrekt. Sedan kommer variationen i dessa grundläggande data – har modellen realistisk Nordatlantisk oscillation, eller ENSO, eller MJO. Dessa är svårare att få att stämma (och faktiskt är det så att många modeller ännu inte har realistiska El Niños). Mer subtilt är jämförelse mellan samband i modellen och verkliga värden. Detta är användbart för korta dataserier (så som de som fås från satelliter) där det finns mycket väderbrus som modellerna inte kan förväntas fånga upp. I dessa fall kan förhållandena mellan temperatur och luftfuktighet, eller molnighet och aerosoler ge kunskaper om modellens processer är realistiska eller inte.
Sedan är det tester mot klimatförändringarna själva: hur svarar modellen på tillförseln av aerosoler i stratosfären så som under det ”naturliga experimentet” Mt Pinatubos utbrott? Hur svarar modellen under hela 1900-talet, eller vid Maunderminimumet, eller i mellan-Holocen eller den senaste istiden? I varje enskilt fall finns det vanligen tillräckligt med data för att kunna utvärdera hur bra modellen fungerar.
Är modellerna fullständiga? Innehåller det alltså alla processer vi känner till?
Nej. Medan modellerna innehåller mycket fysik innehåller de inte mycket av de småskaliga processer som mer specialiserade grupper (som atmosfärskemister eller kustoceanografer till exempel) kan vara mycket engagerade i. Mycket av detta är en fråga om skala (modellernas volymelement är för stora för att detaljerna ska kunna urskiljas), men ibland är det en fråga om säkerheter i hur det ska inkluderas (som till exempel hur oceanvirvlar påverkar flödet av spårämnen).
Även många viktiga bio-fysisk-kemiska cykler (tex. kolflöden, aerosol, ozon) har endast börjat inkorporeras. Isskölds- och växtlighetskomponenter är fortfarande under utveckling.
Har man byggt in global uppvärmning i modellerna?
Nej. Om de lämnas ifred kommer modellerna att svänga runt ett långsiktigt medel som är oberoende av utgångsinställningarna. Lägger man till olika påverkan, som vulkaner eller CO2, kommer de att värmas eller kylas som ett resultat av den grundläggande fysiken för aerosoler eller växthuseffekten.
Hur skriver jag en artikel som visar att modellerna har fel?
Mycket enklare än du tror då alla modeller faktiskt har fel (fast vissa är användbara – George Box). Att visa en missanpassning mellan verkligheten och modelldata blir mycket enklare om du minns signal till brus förhållandet som nämnts ovan. När du går till mindre rymdskala och kortare tidsskala ökar den interna variationen märkbart så mängden data som skiljer sig från det förväntade av modellen kommer att öka (åt båda håll naturligtvis). Så välj en variabel, begränsa din analys till en liten del av planeten, beräkna någon statistik över en kort tidsperiod och du har fixat det. Om modellen av en slump stämmer, gör området mindre och använd en kortare tidsperiod, till slut kommer det inte att stämma.
Även om modellerna blir mycket bättre än vad de är nu så kommer detta alltid att fungera – vi kan kalla det RealClimates teori om envetenhet. Nu kan lämplig statistik användas för att se om skillnaderna är signifikanta och inte bara resultatet av slump eller medvetet urval, men förvånansvärt många artiklar bryr sig inte om att kontrollera dessa saker på ett korrekt sätt.
Kan GCMer förutse temperatur och nederbörd där jag bor?
Nej. Det är ofta stor variation i temperatur och nederbördstatistik över korta sträckor då det lokala klimatet beror på den lokala geografin. GCMer är konstruerade för att beskriva de viktigaste storskaliga skeendena i klimatet så som energiflödet, cirkulationen och temperaturen i en cellvolym (genom fysikens termodynamiska lagar, dynamik och ideala gaslagen). En typisk cell kan ha en horisontell utsträckning på ~100x100 km men storleken har tenderat att minska under åren med snabbare datorer. Utseendet på landskapet (detaljerna hos berg och kustlinjer osv.) som används i modellerna återspeglar den upplösningen, alltså kommer inte modellen att vara tillräckligt detaljerad för att beskriva det lokala klimatets variation som beror på den lokala geografin (så som berg, dalar, sjöar mm). Trots det är det möjligt att använda en GCM för att få viss information om det lokala klimatet genom nedskalning, då det beror både på den lokala geografin (som är mer eller mindre konstant) och den storskaliga atmosfäriska situationen. Resultaten som fås genom nedskalning kan sedan jämföras med lokala klimatvariabler och kan användas för vidare (och mer noggrann) bedömning av kombinationen tekniken model-nedskalning. Detta är dock fortfarande en experimentell teknik.
Kan jag själv använda en klimatmodell?
Ja! Det finns ett projekt kallat EdGCM som har ett trevligt användargränssnitt och fungerar under Windows där du kan köra ett antal olika tester. ClimatePrediction.Net har en klimatmodell som körs som skärmsläckare med en koordinerad uppsättning simulationer. GISS ModelE finns för nedladdning på Unix-baserade operativsystem och kan köras på en vanlig dator. NCAR CCSM är US Community modellen som är väl dokumenterad och fritt tillgänglig.
Ex. På modellresultat: GISS Model E, Dubblad CO2-nivå. Men, artificiellt hållen, konstant temperatur vid Jordytan
Övriga bilder
UCAR: Bild 1 och 2 uppifrån
Lawrence Berkeley Lab: Bild 3
0 kommentarer:
Skicka en kommentar
Tips: Använd gärna signatur när du kommenterar. Det underlättar samtalet