Bloggen startades som ett svar på "klimatskeptikernas" spridande av missuppfattningar och desinformation kring klimatförändringen och dess effekter, och kring klimatforskningen och specifika klimatforskare.
Syftet är att sprida kunskap i klimatvetenskapliga frågor genom att ta upp intressanta, viktiga och omdebatterade ämnen.
Andrew Dessler höll nyligen ett föredrag om varför det är mycket troligt att klimatkänsligheten är högre än 2 grader som han själv nu lagt ut på youtube.
Läs våra relaterade inlägg : Andrew Dessler,
klimatkänslighet
Intressant, gillar verkligen Dessler både som vetenskapsman och som kommunikatör: tydlig, relevant och inget onödigt flummande om osäkerheterna. Dessutom respekterar han andras åsikter och håller sig till sitt eget område som han behärskar.
Men när man sedan gör en totalbedömning så måste man förstås även räkna in andra evidenslinjer som modellering av historiska klimatsvängningar (t.ex. över istider), simuleringar utifrån framtida utsläppsscenarier och extrapolationer av energibalansberäkningar från observationer i modern tid.
Som jag muttrat lite om här tidigare så förstår jag dock inte riktigt hur man kan landa i IPCC:s stora intervall på ett "likely" 1.5-4.5. James Annan påpekade på samma konferens i Ringberg på det grundläggande att man kombinerar (oberoende) fördelningsfunktioner genom att multiplicera sannolikheterna och inte genom att ta genomsnittet, vilket är lätt att göra fel på intuitivt. Så eftersom GCM-simuleringar och paleostudier landar i ungefär samma värden som Dessler förstärks hans resonemang betydligt.
Vad "likely" betyder är dessutom ganska oklart, IPCC anger 66-100% men jag har sett att flera forskare har tolkat det som 66%. Men är då inte 100% eller 83% lika rätt? I vilket fall borde man förstås istället angett ett tal, precis som de naturliga tolkningarna föreslår, istället för att skapa onödiga missförstånd. Det blir också en konstig kontrast till decimal-noggrannheten i siffrorna.
Men om någon kan ge något översiktligt argument för hur man landar i IPCC:s interval (om det nu finns) så är jag nyfiken på att få reda på det. Vissa har hävdat att lägre observerad aerosolforcing än tidigare innebär att GCM:erna överskattar känsligheten eftersom man där beräknat aerosolforcingen genom anpassning mot temperaturen. Men enligt Gavin Schmidt (refererad här) är det argumentet baklänges bl.a. eftersom det inte finns någon korrelation mellan klimatkänslighet och aerosolforcing i senaste generationen modeller (CMIP5).
Det var väl en studie med många tunga namn och vad jag förstått anses allmänt deras analysmetod vara användbar och ha potential. Men samtidigt finns det en hel del goda skäl att anta att den ger för låga värden och heller inte begränsar klimatkänsligheten uppåt så bra som dess givna felintervall visar. Dessler nämner i videon att det krävs att man uppskattar både havens värmeinnehåll och aerosolforcing vilket båda är väldigt svåra att mäta, speciellt några år bakåt i tiden när man hade sämre mätutrustning. Modellen som används är en slags linjärisering och mycket enklare än GCM:erna. Fördelen med det är att det går att testa en stor mängd olika värden på inparametrar i kontext av en Bayesiansk analys. Nackdelen är att den kanske missar viktiga processer och icke-linjära beroenden. Finns en sammanfattning av problemen i länken jag gav ovan. Dessutom finns det här en genomgång av dom som skapade metoden från början. Dessler har också publicerat en annan video här om hans forskning som relaterar till samma metoder.
Intressant, gillar verkligen Dessler både som vetenskapsman och som kommunikatör: tydlig, relevant och inget onödigt flummande om osäkerheterna. Dessutom respekterar han andras åsikter och håller sig till sitt eget område som han behärskar.
SvaraRaderaMen när man sedan gör en totalbedömning så måste man förstås även räkna in andra evidenslinjer som modellering av historiska klimatsvängningar (t.ex. över istider), simuleringar utifrån framtida utsläppsscenarier och extrapolationer av energibalansberäkningar från observationer i modern tid.
Som jag muttrat lite om här tidigare så förstår jag dock inte riktigt hur man kan landa i IPCC:s stora intervall på ett "likely" 1.5-4.5. James Annan påpekade på samma konferens i Ringberg på det grundläggande att man kombinerar (oberoende) fördelningsfunktioner genom att multiplicera sannolikheterna och inte genom att ta genomsnittet, vilket är lätt att göra fel på intuitivt. Så eftersom GCM-simuleringar och paleostudier landar i ungefär samma värden som Dessler förstärks hans resonemang betydligt.
Vad "likely" betyder är dessutom ganska oklart, IPCC anger 66-100% men jag har sett att flera forskare har tolkat det som 66%. Men är då inte 100% eller 83% lika rätt? I vilket fall borde man förstås istället angett ett tal, precis som de naturliga tolkningarna föreslår, istället för att skapa onödiga missförstånd. Det blir också en konstig kontrast till decimal-noggrannheten i siffrorna.
Men om någon kan ge något översiktligt argument för hur man landar i IPCC:s interval (om det nu finns) så är jag nyfiken på att få reda på det. Vissa har hävdat att lägre observerad aerosolforcing än tidigare innebär att GCM:erna överskattar känsligheten eftersom man där beräknat aerosolforcingen genom anpassning mot temperaturen. Men enligt Gavin Schmidt (refererad här) är det argumentet baklänges bl.a. eftersom det inte finns någon korrelation mellan klimatkänslighet och aerosolforcing i senaste generationen modeller (CMIP5).
Vad sägs om klimatkänslighet enligt en tung studie: http://uppsalainitiativet.blogspot.se/2013/05/lagre-klimatkanslighet-enligt-ny-tung.html
SvaraRaderaDet var väl en studie med många tunga namn och vad jag förstått anses allmänt deras analysmetod vara användbar och ha potential. Men samtidigt finns det en hel del goda skäl att anta att den ger för låga värden och heller inte begränsar klimatkänsligheten uppåt så bra som dess givna felintervall visar. Dessler nämner i videon att det krävs att man uppskattar både havens värmeinnehåll och aerosolforcing vilket båda är väldigt svåra att mäta, speciellt några år bakåt i tiden när man hade sämre mätutrustning. Modellen som används är en slags linjärisering och mycket enklare än GCM:erna. Fördelen med det är att det går att testa en stor mängd olika värden på inparametrar i kontext av en Bayesiansk analys. Nackdelen är att den kanske missar viktiga processer och icke-linjära beroenden. Finns en sammanfattning av problemen i länken jag gav ovan. Dessutom finns det här en genomgång av dom som skapade metoden från början. Dessler har också publicerat en annan video här om hans forskning som relaterar till samma metoder.
Radera