jeroen-achtergrond-grafiek-temperature-roy-spencer-201505

Jeroen Hetzler.

De modellen die het IPCC hanteert waarmee dit VN-werktuig van o.a. Maurice Strong het mondiale politieke en economische beleid in de door de VN en de EU voorgestane anti-kapitalistische sociaal-democratische richting wenst te sturen, mogen wel eens aan nadere beschouwing onderworpen worden. Laten we bijvoorbeeld kijken hoe de uitspraak van het IPCC in AR5 over de 95% betrouwbaarheid geïnterpreteerd moet worden dat de opwarming na 1950 voor zeker 50% door menselijk toedoen is veroorzaakt. Allereerst is niet duidelijk waar die 50% op is gebaseerd. Het is in elk geval opmerkelijk, omdat het IPCC elke natuurlijke invloed uitsloot krachtens zijn mandaat. Is hier sprake van een paradigmaverschuiving? Geen idee.

Laten we nu kijken wat met die 95% betrouwbaarheid of betrouwbaarheidsinterval (BI) wordt bedoeld. De wetenschappelijke methode gaat als volgt. Eerst wordt een zogeheten nulhypothese geformuleerd bij bijvoorbeeld de test op het effect van een nieuw medicijn, het catastrofale effect van menselijke CO2-emissie op de mondiale temperatuur. U ziet in het woord ‘catastrofale’ al een verschil dat te denken moet geven omdat dit een a priori aanname lijkt waar elke definitie ontbreekt. De nulhypothese stelt: er gaat geen significante verbetering uit van het nieuwe medicijn ten opzichte van de situatie zonder dit medicijn, tenzij door falsificatie ten gunste van de alternatieve hypothese: het nieuwe medicijn geeft een significante verbetering. Dit antwoord blijkt na toetsing d.m.v. metingen. Hierover later meer. Wat betreft de CAGW-hypothese (Anthropogenic Global Warming; door de mens veroorzaakte catastrofale opwarming) wordt het drabbig. Immers, Al Gore vertoonde zijn film, ‘An Incovenient Truth’, als een zekerheid, niet als een hypothese, en sloeg de toetsing van de nulhypothese over, maar deed deze a priori af als gefalsificeerd. Dit is iets wat je wel vaker uit de mond van alarmisten hoort, maar uiteindelijk blijkt het een teruggrijpen op het Voorzorgprincipe, niet op de wetenschappelijk methode van statistiek. Dit zand in de ogen strooien is waar de hoax van de ‘science is settled’ op vegeteert. Dit wordt onderstreept door het commentaar van Trenberth 2011 met dit als antwoord van Curry.

De knullige vraag van Trenberth, namelijk bewijzen dat het niet zo is, doet denken aan de paranormale wereld waarin men met doden spreekt, door buitenaardse wezens is ontvoert, Ogilvie en Geller, waar deze vraag schering en inslag is. Nee, de bewijslast ligt echt bij degene die de nulhypothes in twijfel trekken.

Er is sprake van de volgende nul-hypothese: klimaatveranderingen worden door natuurlijke krachten veroorzaakt. Deze staan tegenover de alternatieve hypothese, namelijk dat de huidige klimaatverandering van antropogene aard is. Logischerwijs ligt de bewijslast bij de alarmisten om aan te tonen dat de nul-hypothese niet in staat is om de empirische data te verklaren, en daarmee verworpen is ten gunste van de alternatieve hypothese. Met andere woorden: alarmisten zullen met overtuigende meetgegevens moeten komen als bewijs voor de catastrofale antropogene klimaatverandering (CAGW). Zij moeten dit doen door gedetailleerde vergelijking van de data met de klimaatmodellen. Dit is natuurlijk uiterst moeilijk en praktisch onmogelijk, daar men de natuurlijke invloeden bij lange niet voldoende exact kan specificeren, omdat deze verre van doorgrond zijn. Zo is de werking van wolkenvorming weinig verklaard. Hier kom ik later op terug.

Bovendien is naast de formulering van een nulhypothese ook de formulering van een betrouwbaarheidsinterval nodig. Wat moet ik mij hierbij voorstellen? Stel, er is een verdeling van sterfte door een specifieke infectieziekte rond een gemiddeld sterftecijfer. Hoe die spreiding rond het gemiddelde (μ) is, wordt uitgedrukt door het symbool σ (sigma; hoe groot dit is, is te berekenen). Stel dat ik door een nieuw medicijn het sterftecijfer significant omlaag meen te krijgen. Dit moet ik toetsen. Vallen de meetresultaten binnen een bepaalde marge, dan levert dat nieuwe medicijn geen significant verschil op. Vallen ze erbuiten, dan wel en is de nulhypothese verworpen ten gunste van de alternatieve hypothese: het nieuwe medicijn werkt. Die marge heet betrouwbaarheidsinterval. Bij toetsing wordt gewoonlijk uitgegaan van +/-2 sigma. Dus iets meer dan 95% betrouwbaarheidsinterval (bij fysica maar liefst 5 sigma, 99,99% zoals bij het Higgs-deeltje). Dit houdt in dat in 95 van de 100 gevallen de testresultaten in dit gebied vallen, tenzij… (figuur 1)

jeroen-1

… de resultaten minder sterfte aangeven dan μ-2σ, want dan kan de nulhypothese verworpen worden. Dit heet falsificatie of weerlegging. Hier is een praktijkgeval.

Aangezien het IPCC geen nulhypothese formuleert en er dus ook geen sprake is van toetsing in voornoemde zin, is de bewering in AR5 dat het extremely likely is als een zekerheid van 95%, misleidend en in werkelijkheid door handopsteken bepaald. Het was evenwel een meesterlijke PR- stunt waar de hele wereld met open ogen intrapte, omdat het lijkt op de zogenaamde betrouwbaarheidsintervallen uit de reguliere statistiek, maar in werkelijkheid slechts berust op handopsteken. Bovendien wekte het IPCC de onterechte indruk dat de wetenschap eruit is. De modellen van het IPCC zijn evenwel alle hypotheses die elk afzonderlijk moeten worden getoetst aan de hand van een toegemeten nulhypothese, elk met een eigen betrouwbaarheidsinterval. Zo lang dit niet is gebeurd (wat het geval is), kunnen de modellen geen representanten zijn van de werkelijkheid noch grond voor politiek beleid zijn. Thans is dit laatste slechts bepaald door handopsteken, omdat, nogmaals, de nulhypothese ontbreekt.

Ik citeer:

The IPCC has never ever defined a null hypothesis to build its case for human-caused global warming, even though all climate change is statistically based. That is flawed science. The null hypothesis above for climate change assumes that observed changes are caused by natural variability. If statistics prove it must be rejected, then the theory of human-caused global warming is strengthened. To go about testing the null hypothesis, compare any climate variable, like temperature rise – that overlaps times of natural variability with times thought human caused. IPCC AR5 says 1950 is the starting point where non-natural climate change effects begin to appear. Apply statistical analysis to data before and after 1950 and if the result is 95% or greater that the change is outside what natural variability allows then the null hypothesis – results are consistent with natural variability – must be rejected. That, of course, does not prove that human’s are the cause of climate change. It proves that climate change is outside the range of natural variability. In the world of science, though, that is considered very strong support for the theory of human-caused global climate change, though not proven absolutely. Since AGW theory attributes rising atmospheric CO2 levels to climate change, then a direct link beyond what cannot be explained by natural variability must be established. That is a standard the IPCC has yet to meet. Instead of using the standard scientific approach to support the theory of human-cause climate change, the IPCC takes the opposite and entirely false approach. From its very first report the IPCC has always assumed all climate change is human-caused and seeks out data and builds mathematical modeling to support it. It’s a tainted approach that assumes true the very thing you are out to prove. That is both unscientific and illogical.

Ofwel: het IPPC had het ‘antwoord’ al klaar en scharrelt er de argumenten bij. Statistisch een doodzonde. Hier is hoe het zou moeten in toetsingen als hiervoor beschreven (figuur 2):

jeroen-2

We zien weer het links en rechts 2 sigma-brede betrouwbaarheidsinterval. Een dergelijke toetsing volgens het boekje zou moeten zijn dat de gemeten temperaturen significant (hier dus > 2 sigma) hoger (= alternatieve hypothese) zouden moeten zijn dan op grond van de natuurlijke te verwachte temperaturen (≤ 2 sigma = nulhypothese).

De IPCC-modellen onttrekken zich aan deze elementaire statistische toets. In plaats hiervan wordt de bekende waaier aan modellen ten tonele gevoerd alsmede een statistisch betekenisloze gemiddelde dat onvermijdelijk leidt tot deze misleidende grafische presentatie met een al even voos betrouwbaarheidsinterval. (figuur 3).

 

jeroen-3

De suggestie wordt gewekt dat volgens de reguliere wetenschappelijke methode is gehandeld, net als dit het geval is bij homeopathie of bioresonantie, maar deze grafiek berust op het genoemde onzingegeven.

Can we apply this sort of thoughtful reasoning the spaghetti snarl of GCMs and their highly divergent results? You bet we can! First of all, we could stop pretending that “ensemble” mean and variance have any meaning whatsoever by not computing them. Why compute a number that has no meaning? Second, we could take the actual climate record from some “epoch starting point” — one that does not matter in the long run, and we’ll have to continue the comparison for the long run because in any short run from any starting point noise of a variety of sorts will obscure systematic errors — and we can just compare reality to the models. We can then sort out the models by putting (say) all but the top five or so into a “failed” bin and stop including them in any sort of analysis or policy decisioning whatsoever unless or until they start to actually agree with reality.

Vooralsnog presteerden de modellen zo slecht in hindcasting, dat er geen reden is ze aan te merken als leidend voor mondiaal beleid. Hier past het continue uit de pas lopen van de meetgegevens naadloos bij in het licht van het gestegen CO2-gehalte in de atmosfeer.

Let me repeat this.It has no meaning! It is indefensible within the theory and practice of statistical analysis. You might as well use a ouija board as the basis of claims about the future climate history as the ensemble average of different computational physical models that do not differ by truly random variations and are subject to all sorts of omitted variable, selected variable, implementation, and initialization bias. The board might give you the right answer, might not, but good luck justifying the answer it gives on some sort of rational basis.

De gemeten temperaturen vallen na elke IPCC-AR buiten het dan geldende door het IPCC genoemde “betrouwbaarheidsgebied”, dat echter bij gebrek aan een nulhypothese en correcte toetsing een betekenisloze term is. Onderstaande figuur 4 vat samen hoe het IPCC het imago van wetenschappelijkheid denkt op te houden. Voor alle duidelijkheid: er is dus sprake van een niet bestaand betrouwbaarheidsinterval, omdat statistische toetsing nooit heeft plaatsgevonden. De rode pijlen representeren de denkwijze van het IPCC, niet die van de wetenschap.

jeroen-4

Het IPCC probeert dus, naarmate de meetresultaten steeds verder achterblijven bij dat nietszeggende gemiddelde van alle modellen, de lezer zand in de ogen te strooien door het nietszeggende betrouwbaarheidsinterval telkens te verbreden om de meetresultaten ogenschijnlijk binnen Accept Null van figuur 2 en 3 te houden, ofwel: de metingen tonen zogenaamd aan dat de modellen gelijkwaardig zijn aan de meetresultaten. Hoe banaal kan een truc zijn? Edoch, de hele wereld inclusief zich kwaliteitskranten noemenden, zoals het NRC, trapte erin. Men kan er op wachten dat bij AR6 het virtually certain (99%) zal gelden. Dit is uitstel van executie, want er komt een moment dat het IPCC zijn geloofwaardigheid in dezen verliest.

Laten we tot slot kijken naar die klimaatmodellen zelf.

Wat opvalt is de rol van bewolking, een natuurlijk effect dat de modellen uitsluiten, het effect ervan op de ‘voorspellende’ uitkomsten van de klimaatmodellen en de groeiende onzekerheid (error) daardoor.

The average energy impact of clouds on Earth climate is worth about -27.6 W/m2. 27 That means ±10.1% error produces a ±2.8 W/m2 uncertainty in GCM climate projections. This uncertainty equals about ±100 % of the current excess forcing produced by all the human-generated greenhouse gasses presently in the atmosphere.10 Taking it into account will reflect a true, but incomplete, estimate of the physical reliability of a GCM temperature trend.

So, what happens when this ±2.8 W/m2 is propagated through the SRES temperature trends offered by the IPCC in Figure SPM-5 (Figure 1)? When calculating a year-by-year temperature projection, each new temperature plus its physical uncertainty gets fed into the calculation of the next year’s temperature plus its physical uncertainty. This sort of uncertainty accumulates each year because every predicted temperature includes its entire ± (physical uncertainty) range (SI Section 4).

jeroen-5

Het resultaat leidt tot exploderen van die modellen. Bewolking is overigens niet de enige natuurlijke factor. Daar zijn ook de zon, oceanische stromingen, onderzees vulkanisme et cetera, die het IPCC buiten zijn modellen houdt. De modellen van het IPCC zijn dus om meer redenen discutabel. Hoe het er in statistisch-rekenkundig detail uit ziet kunt u in deze lezing zien. De cijfers verschillen iets van eerder vermeld, maar het effect is idem. De conclusie is dat het IPCC de wetenschappelijke methode negeert en hierdoor onjuiste informatie verstrekt in strijd met zijn maatschappelijke positie.

 

Bron hier.