Klimaatverandering : meting van temperaturen

Dick Thoenes.

Er is onlangs een interessant boek over klimaatverandering verschenen, getiteld ‘Climate Change: The Facts 2017’, uitgegeven door ‘The Institute of Public Affairs’ (Melbourne), een Australische think tank. Ik wil dit graag onder de aandacht brengen van onze Cimategate.nl-lezers. Het boek bestaat uit 22 hoofdstukken en dat zijn eigenlijk aparte artikelen en essays. Sommige daarvan zijn ook elders gepubliceerd.

Ze zijn geschreven door bekende wetenschappers en wetenschapsjournalisten.

Het boek is verkrijgbaar bij amazon.com en bij bol.com, ook als e-book.

Ik wil enkele belangrijke gedachten uit dit boek bespreken. Ik verdeel ze in vier hoofdthema’s:

  1. De meting van temperaturen.
  2. De invloed van CO2.
  3. Oorzaken van klimaatveranderingen.
  4. Maatschappelijke aspecten.

Ik wil deze thema’s in vier afleveringen bespreken. Hier en daar heb ik mijn commentaar toegevoegd. Dit staat cursief.

Deel 1: De meting van temperaturen

Zie de hoofdstukken 5 (Anthony Watts), 6 (Tony Heller en Jennifer Marohasy), 7 (Tom Quirk), 8 (Joanne Nova), 9 (Jennifer Marohasy), 10 (Jennifer Marohasy en Jaco Vlok) en 12 (Roy Spencer).

Wanneer we spreken over “de temperatuur” kunnen we daar van alles mee bedoelen. Allereerst kunnen we een momentane plaatselijke temperatuur bedoelen, die we op één moment met één thermometer bepalen. Dan kunnen we spreken over een gemiddelde plaatselijke temperatuur overdag of ’s nachts, of wel een gemiddelde etmaaltemperatuur. Ook een gemiddelde jaartemperatuur kan interessant zijn. We kunnen ook de gemiddelde temperatuur van een streek of land bedoelen, waarbij we weer onderscheid moeten maken tussen dag en nacht en tussen de seizoenen.

Wanneer we over ‘ klimaatverandering’ praten en vaststellen dat het bijvoorbeeld op de aarde warmer of kouder wordt, dan slaat dat op een gemiddelde wereldtemperatuur, gemiddeld over de gehele aardbol, over de seizoenen en over dag en nacht. De bepaling daarvan is buitengewoon ingewikkeld, en leidt tot vele controverses en onzekerheden.

Velen denken misschien dat het meten van de temperatuur van de lucht een eenvoudige zaak is, maar dat is bepaald niet het geval. Allereerst is er het technische probleem van een goede meting, zonder invloed van zonnestraling en van omgevingseffecten. Men dient de thermometer op 1,5 meter hoogte te hangen, in de schaduw, in de wind, liefst boven een grasveld, van boven afgedekt, ver van muren en van verharde wegdekken. Tegenwoordig gebruikt men daarvoor de ‘Stevenson-hut’, een houten kastje met jaloezieën. (Zie bijvoorbeeld hier.)

Als wij thuis een thermometer tegen de buitenwand van onze woning hangen, dan wijst hij in principe overdag een te hoge temperatuur aan (ook als hij in de schaduw hangt) en ’s nachts een te lage, vooral bij helder weer.

Interessant zijn ook de volgende waarnemingen: Het kan zijn dat in een heldere winternacht de voorruit van de auto bevriest terwijl de temperatuur van de lucht steeds boven de nul graden was. Ook kan het gebeuren dat de voorruit juist niet bevriest bij een luchttemperatuur onder nul, wanneer de auto naast een groot gebouw staat, waarbij de voorruit ‘kijkt’ naar dat gebouw. Het blijkt dus dat de temperatuur van een voorwerp mede wordt bepaald door de temperatuur van de oppervlakken waar hij naar ‘kijkt’. Een warm oppervlak straalt warmte uit, een koud oppervlak absorbeert juist straling en koelt dus het stralende voorwerp af.

Nu worden er in een land als de USA door duizenden amateurs temperatuurmetingen gedaan, die dan op een centraal punt worden verzameld en bewerkt. De resultaten daarvan worden gebruikt door het IPCC. Bij een onderzoek in Amerika is gebleken dat slechts een fractie (ongeveer 10%) van de metingen volgens de regels wordt uitgevoerd. Toen men de resultaten van de ‘goede’ meetstations apart onderzocht, bleek dat deze geen temperatuurstijging toonden in de laatste helft van de twintigste eeuw, en de ‘slechte’ wel. Dat komt omdat afwijkingen van de normen meestal leiden tot te hoge gemeten temperaturen. Een van de belangrijkste is de aanwezigheid van muren die zonnewarmte opnemen en uitstralen, ook naar de thermometer. Omdat overal de bebouwing toeneemt, is dit effect op veel plaatsen sterker geworden. Veel meetstations die ooit op het platteland lagen, zijn nu omgeven door bebouwing. Men spreekt in dit verband van het ‘Urban Heat Island Effect’ (UHI). Het blijkt dat het in grote steden enkele graden warmer kan zijn dan in het omliggende platteland. Iedereen die wel eens in de zomer in New York is geweest, kent dit effect. Op veel plaatsen is dit effect ongeveer 1 – 5 °C, maar het neemt in het algemeen in de tijd toe.

We moeten hierbij wel onderscheid maken tussen twee verschillende oorzaken: door de aanwezigheid van gebouwen wordt zonne-energie vastgehouden. De muren stralen naar de thermometer waardoor de temperatuur van de thermometer wordt verhoogd ten opzichte van de luchttemperatuur. Een heel ander effect is dat er door het verbruik van energie, voor verwarming, transport en industrie, extra warmte wordt ontwikkeld. Alle gebruikte energie wordt uiteindelijk immers in warmte omgezet. Dit gebeurt vooral in stedelijke agglomeraties en daardoor stijgt zelfs ook de gemiddelde wereldtemperatuur. Dit draagt dus in feite bij aan man-made global warming. We kunnen dit effect berekenen omdat we immers het totale energieverbruik kennen (zie deel 3).

Opvallend is nu dat het UHI-effect op veel plaatsen in de loop der jaren sterk is toegenomen. Anthony Watts laat zien dat bijvoorbeeld de temperatuur op O’Hare Airport (Chicago) in 50 jaar ruim 1 °C is gestegen. De gemiddelde temperatuur in Las Vegas (Nevada) steeg ongeveer 2 °C, maar het bleek dat die stijging geheel veroorzaakt werd door stijging van de minimumtemperaturen van 4 °C, terwijl de gemiddelde maximumtemperaturen ongeveer dezelfde bleven.

We moeten hierbij bedenken dat de wereldbevolking is toegenomen van 2,5 miljard in 1950 tot 7 miljard nu. Verder zijn de activiteiten waarbij energie wordt verbruikt per persoon aanzienlijk toegenomen.

In 1975 waren er in de wereld 3 stedelijke agglomeraties met meer dan 10 miljoen inwoners. Nu zijn het er 36 (Wikipedia). Het UHI-effect moet dus wel steeds sneller toenemen.

Het grote probleem is nu dat er geen goede methoden bestaan om in de metingen correctie aan te brengen voor het eerste effect, namelijk dat er door het UHI-effect te hoge temperaturen worden gemeten. Het enige dat men eigenlijk kan doen om alleen die metingen nog te gebruiken die op werkelijk afgelegen (‘pristine’) plaatsen zijn bepaald. Maar dat gebeurt gewoonlijk niet.

Een heel ander probleem is de verzameling van alle van meetgegevens en de verwerking daarvan door centrale bureaus (zoals NOAA en NASA). Hiermee worden tijdseries bewerkt. Een methode heet ‘homogeniseren’, wat er in feite op neer komt dat vroegere gemeten temperaturen worden verlaagd met de bedoeling om een UHI-effect uit het verleden te compenseren. Waar bijvoorbeeld uit de metingen zelf volgde dat de temperatuur over langere tijd constant bleef (of daalde) blijkt er na “homogeniseren” een stijging te zijn geweest. De zo aangetoonde opwarming is dus het gevolg van manipulatie van gegevens. Dit gebeurt in de meeste landen. In Australië is dit uitgebreid onderzocht door Jennifer Marohasy c.s. De resultaten van haar onderzoek zijn ronduit schokkend.

Uit de studie van Marohasy blijkt verder dat de warmste jaren in Amerika in de twintigste eeuw in de jaren ’30 vielen.

In die tijd heerste er ook een groet droogte in het Midden Westen, dat geleid heeft tot een enorme trek naar Californië, vooral vanuit Oklahoma. Dat is mooi beschreven in het boek “The Grapes of Wrath” van John Steinbeck.

Volgens de officiële gecorrigeerde cijfers vallen de warmste jaren echter allemaal in de periode na 1990.

In Nederland heeft men onlangs vastgesteld dat de beruchte zomer van 1947 (de warmste ooit) toch eigenlijk niet de warmste was, maar dat sommige zomers na 1990 warmer waren. Iedereen die zich de zomer van 1947 herinnert weet dat dat niet waar is.

Ik moet hier nog iets belangrijks aan toevoegen. Een ‘gemiddelde temperatuur’ van een systeem waarbinnen variaties optreden bestaat feitelijk niet. Volgens de thermodynamica is temperatuur geen extensieve maar een intensieve grootheid. Dat betekent dat er geen ‘hoeveelheden temperatuur’ bestaan en dat je temperaturen niet kunt optellen en dus ook niet kunt middelen (zoals wel kan bij hoeveelheden massa of energie). Zo kan een gemiddelde temperatuur die men voor een systeem heeft bepaald vanzelf veranderen als er in het systeem bijvoorbeeld stromingen optreden.

Voorbeeld: Er komen op verschillende punten op het aardoppervlak enorm verschillende temperaturen voor. Vooral boven woestijnen kunnen die waarden bereiken van meer dan 50 °C. Wanner er nu sterke winden opsteken wordt de warme lucht vermengd met koudere, zodat de temperatuurpieken worden vereffend. Ten gevolge daarvan zal de gemiddelde temperatuur van de atmosfeer iets toenemen. Dit wordt veroorzaakt door het niet-lineaire verband tussen straling en temperatuur (dat betekent dat bij hogere temperatuur de straling meer dan evenredig toeneemt).

Ander voorbeeld: Stel dat er over een groot gebied met droge lucht een gemiddelde temperatuur heerst van 20 °C. Binnen dat gebied bevindt zich een groot wateroppervlak (bijv. een meer). Nu steekt de wind op, die over het meer gaat waaien. Dan daalt de luchttemperatuur vanwege de verbruikte verdampingswarmte tot onder de 20 °C.

Praat men over de temperatuur van een stuk land of streek dan heeft men het probleem van de in de tijd wisselende temperaturen (door wisselende weersomstandigheden) en de invloed van plaatselijke temperatuurvariaties. Wil men de temperatuur over een groter gebied middelen dan krijgt men te maken met het interpoleren van temperaturen over gebieden waar geen metingen zijn gedaan. Bij het middelen van temperaturen over de gehele aarde speelt dit een belangrijke rol. Er bestaan gebieden van 500 x 500 km waarbinnen geen meetstations zijn. Het is goed mogelijk dat er binnen zo’n groot gebied temperatuur-pieken of -dalen optreden waar men geen weet van heeft (zie Joanne Nova in hoofdstuk 8).

Verder kunnen er in de aardatmosfeer temperatuurverschillen optreden van meer dan 100 graden, bijvoorbeeld tussen Arabië en Antarctica. Een speciaal probleem is natuurlijk het meten van temperaturen boven de oceanen (70% van het aardoppervlak). Onnauwkeurigheden in de metingen van extreme temperaturen kunnen een belangrijke invloed hebben op de bepaalde gemiddelden.

Anthony Watts merkt op dat we nog niet goed onderscheid kunnen maken tussen de oorzaken van bepaalde temperatuurstijgingen. Die kunnen bijvoorbeeld zijn:

  • Een toegenomen CO2-gehalte van de atmosfeer (zie deel 2).
  • Natuurlijk effecten (zie deel 3).
  • Een toegenomen energieverbruik leidende tot meer warmteontwikkeling.
  • Verandering van grondgebruik en een toegenomen UHI-effect.
  • Bewerking van de meetresultaten zoals “homogenisering”.

We weten niet welk deel van de bepaalde opwarming veroorzaakt wordt door welke factor.

Joanne Nova wijst in hoofdstuk 8 nog op de effecten van “homogenisering”, waardoor temperaturen in het verleden werden bijgesteld (soms wel 2 °C) waardoor kunstmatige opwarmingstrends werden gefabriceerd.

Roy Spencer, de grote deskundige op het gebied van temperatuurmetingen met satellieten, spreekt over de verschillen tussen satelliet-metingen en grondmetingen. Met satellietmetingen bepaalt men de gemiddelde temperatuur van de onderste luchtlaag, en niet die vlak bij de grond. Ze hebben wel het enorme voordeel dat werkelijke wereldgemiddelden kunnen worden bepaald en dat ze niet lijden onder storende effecten zoals UHI. Bewerkingen zoals “homogeniseren” zijn niet nodig. Satellietmetingen zijn daardoor inderdaad veel betrouwbaarder. Ze werden echter pas toegepast sinds 1979.

Zeer interessant zijn de grote verschillen tussen de temperatuur/tijdlijnen die met satellieten werden bepaald en die welke door klimaatmodellen werden voorspeld. Van 1979-2015 was de met satellieten gemeten wereldwijde temperatuurstijging 0,2 °C, en de gemiddelde stijging voorspeld voor dezelfde periode door 102 klimaatmodellen was 0,7 °C, dus 3,5 maal zoveel. Dit lijkt mij dodelijk voor de klimaatmodellen.

Conclusie

Meting van een wereldgemiddelde temperatuur is een moeilijke opgave. Aan de getallen die zo worden gevonden zitten verschillende soorten van onnauwkeurigheden. De eerste betreft de betrouwbaarheid van de metingen zelf. Vervolgens bestaat het probleem van het bepalen van een wereldgemiddelde. Het bepalen van temperatuurveranderingen in de tijd biedt weer extra moeilijkheden. De daarbij gebruikte techniek van ‘homogenisering’ is op zijn minst een punt van debat. Nog moeilijker is om een bepaalde temperatuurverandering toe te schrijven aan een bepaalde oorzaak.

Mijn eigen conclusie is dat het niet mogelijk is om een verandering van de gemiddelde temperatuur van de aardatmosfeer te bepalen op een halve of een hele graad nauwkeurig. En dat betekent dat temperatuurstijgingen van enkele tienden van een graad, zoals gerapporteerd worden over het laatste kwart van de vorige eeuw, feitelijk niet relevant zijn (dus betekenisloos). Het idee dat de gemiddelde temperatuur van de aarde toeneemt door menselijk handelen is op zijn minst twijfelachtig en mogelijk zelfs geheel onjuist.

Voor de video van de boekpresentatie, zie hier.

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Privacybeleid.
I Accept

Door |2017-10-27T16:56:46+00:0026 oktober 2017|67 Reacties

67 Comments

  1. Noud Vermeulen 27 oktober 2017 om 03:20 - Antwoorden

    Prima artikel over de essentie van meten.
    Ter aanvulling: niet alleen voldoet ca. 90% van de weerstations in de USA niet aan de normen van de Amerikaans KNMI. Er zijn ook wereldwijd zeer veel weerstations verdwenen en met name de qua breedtegraad hoger gelegen stations. Zie: http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf

    Sinds 1990 is wereldwijd driekwart van de 6000 stations verdwenen. Vooral in Rusland is het sinds de Wende treurig gesteld met de waarnemingen. Het effect van deze verandering is dat meer dan de helft van de rurale stations is verdwenen. Het effect laat zich raden.

    Nog altijd is meten weten, als je weet wat je meet.

    • J van der Heijden 27 oktober 2017 om 09:01 - Antwoorden

      Ja Noud de resultaten zijn zeer duidelijk, als je alle stations meeneemt (BEST) dan is het resultaat min of meer het zelfde als dat ik 60 stations neem.

      https://moyhu.blogspot.de/2010/05/just-60-stations.html

      “Nog altijd is meten weten, als je weet wat je meet.”

      Om met Arthur Rorsch te spreken

      “Inderdaad, de huidige generatie onderzoekers is bezeten van meten. Daarom noemt mijn generatie hen meetslaven.”

      Nadenken daar gaat het om

      • Tije 27 oktober 2017 om 13:37 - Antwoorden

        Nadenken over het einde van de wereld en hoe je dat in de metingen kan laten zien zeker?

        • J. van der Heijden 27 oktober 2017 om 15:02 - Antwoorden

          Nee Tije, gewoon nadenken wat de metingen betekenen, wat de afwijkingen zijn voor de verschillende meet methodes, instrumenten en tijden en dat vertalen in reeksen die onderling vergelijkbaar zijn.

          Wat doet een “scepticus”? Die denkt niet na, roept heel hard fraude en zegt dat er klopt niets van.

          Denkwerk 0

          • dr. ir. H.R. Stol 9 november 2017 om 14:45

            Om te beginnen moet u eens kijken of uw model van de werkelijkheid klopt. Als je dat niet weet (of daar zelfs geen benul van hebt) heeft meten geen enkele zin, want je weet niet wat je meet. Blind uitgaan van metingen (en daarop doorborduren) zonder de referentie werkelijkheid te kennen, en dat doet u (zie de wel wetenschappelijke bijdragen van le pair c.s.), leidt tot de grootst mogelijke onzin. Zie ook geschriften van prof. Wagenaar. U zoudt eens een jaartje bij het CBS moeten gaan werken: daar gaat het eerst om een getrouw beeld van de werkelijkheid voordat metingen worden gedaan. Daarna komt, na analyse, pas een conclusie! Dat gaat misschien te langzaam voor u. De hype en het geloof dreigt de wetenschap in diskrediet te brengen.

      • Scheffer 27 oktober 2017 om 17:53 - Antwoorden

        Het verdwijnen van het NATO Early Warning System met haar honderden polaire weerstations in begin jaren ’90 van de vorige eeuw in Alaska en Canada werd al door Marcel Crok gemeld als mogelijke oorzaak van de onverklaarbaar stijgende opgewarmde wereld temperatuur gemiddelden. https://www.youtube.com/watch?v=wgqDSvFVuyU

  2. Wiersma 27 oktober 2017 om 04:23 - Antwoorden

    “Ook kan het gebeuren dat de voorruit juist niet bevriest bij een luchttemperatuur onder nul, wanneer de auto naast een groot gebouw staat, waarbij de voorruit ‘kijkt’ naar dat gebouw. ”

    Juist. Het is dus -tot vervelens toe herhaald hier- massa die energie kan vasthouden.
    En weer vertraagd kan afgeven.
    En sinds 1850 heeft de mens nogal wat massa bovengronds gehaald, als ware het ‘warmte vinnen’ in de vorm van stenen/betonnen/stalen huizen, fabrieken, kantoren, flats, auto’s, schepen etc.

    Dus. Warmt de mens de aarde wat op? Ja hoor!
    Hoe dan? Nou, simpel door al die bovengronds gehaalde massa.
    Daar kan en mag je CO2 ook wel enigszins toe rekenen.
    Maar ja: die hoeveelheid is in het totaal zo immens miniem: zo goed als verwaarloosbaar.

    Hoe ingewikkeld is het dat iets wat een factor duizend meer moleculen bevat (lucht versus water bijvoorbeeld) per inhoud deze inhoud (lees massa) een factor duizend meer invloed zal hebben op zijn omgeving?

    Daarom zijn kogels van lood bijvoorbeeld en niet van piepschuim.
    Daarom ga je niet dood als er een muis over je heen loopt, maar probeer dit maar beter niet met een olifant.
    Daarom ga je niet dood als je van een flat afspringt zolang je nog geen vaste materie raakt. (tot 1 cm boven de stoep ‘gaat alles goed’) Die paar moleculen in lucht: die wijken wel voor jouw massa. Die hebben nauwelijks binding met elkaar. Die waaien letterlijk met alle winden mee.

    Het wordt echter een heel ander verhaal als je de betonnen stoep raakt: die moleculen zijn niet van plan te wijken voor jouw actie. Die moleculen zitten een factor >1000 keer meer op elkaar geplakt en hebben dus een enorme ‘binding’. Die wijken niet.

    Het zelfde geld voor opwarming van lucht. Lucht is een factor 1000 makkelijker op te warmen dan vaste stoffen of vloeistoffen. Domweg omdat vaste materie of vloeistoffen een factor 1000->10.000 meer moleculen bevatten. Afhankelijk van het materiaal. Staal, grasland, beton, steen, water, verzin maar wat.

    Kortom: het kost dus meer tijd om vaste materie op te warmen, maar het houdt ook langer warmte vast.
    Steden afbreken en dan maar huisjes van piepschuim bouwen?

    En mensen dan? Zijn ook 7 miljard wandelende strontfabrieken warmte vinnen.
    Oorlogje er tegen aan gooien dan maar?

    Oh wacht, daar wordt hard aan gewerkt ja. Al jaren.

    Maar terug naar temperatuur: is het logisch te veronderstellen dat de mens de LUCHT ietsje opwarmt?
    Ja. Maar hooguit TIJDELIJK: iets van 4 tot – laten we zeggen- hooguit 36 uur.
    (zet de zon maar eens een week uit)

    Massa werkt vertragend. Het duurt wat langer voordat het opwarmt én het duurt iets langer dat het is afgekoeld.

    Dus: bij opkomende zon zal een flat de lucht (nog) wat koelen, en bij ondergaande zon zal een flat de omgeving (nog) wat langer warm houden. (urban heat)

    Ingewikkelder is het allemaal niet: Moeder Mavo brugklas materiaal.

    Dezelfde ‘kennis’ wordt al eeuwen toegepast in o.a. de radiator in uw auto, uw koelkast, uw versterkers/radio etc. (koelvinnen)

    Massa, dichtheid, kleur en warmte geleiding: daar gaat het om.
    Lucht en CO2 hebben noch kleur, (relatief weinig) massa, en bovendien NAUWELIJKS warmte geleiding ALS in een ‘broeikas’ zoals een raam van dubbel glas of als in piepschuim of glaswol.

    Dan ineens houdt stilstaande(!) lucht ineens kou BUITEN en warmte BINNEN.
    Zoals een wollen trui bijvoorbeeld.

    Maar nogmaals: allemaal kleuter school materiaal Moeder Mavo brugklas materiaal. En niet /nauwelijks/géén discussie waardig.

    Die hele klimaat discussie gaat totaal ergens anders om.
    Tip 1: follow the money.
    Tip 2: wie profiteren hiervan. Grote en kleine schaal.
    Tip 3: wat is het echte doel(en) hiervan.
    Tip 4: recognize the useful idiots/juichaapjes.
    etc.

    Deze hele blog zou eigenlijk helemaal niet eens hoeven/moeten bestaan.
    Ondertussen vreet het breinkracht, kost het vermogens, verdeelt het de bevolking , en remt het alle andere ontwikkelingen.

    En als dát nou precies de bedoeling was? Dan is die boven verwachting gelukt!

  3. J van der Heijden 27 oktober 2017 om 07:35 - Antwoorden

    Een probleempje is natuurlijk dat iedereen die serieus in het klimaat “debat” zit weet dat homogeniseren lijdt tot lagere temperaturen

    http://variable-variability.blogspot.de/2015/02/homogenization-adjustments-reduce-global-warming.html

    • Jeroen 27 oktober 2017 om 09:32 - Antwoorden

      Lagere temperaturen in het begin van de reeks, maar niet aan het einde, met als resultaat dat de beweerdelijke opwarmingstrend na homogeniseren veel sterker is. Dat is nu precies de pointe van alle kritiek.

      • J van der Heijden 27 oktober 2017 om 10:54 - Antwoorden

        Sorry Jeroen,

        Maar graag de bron ook lezen (lastig natuurlijk want bevestigd jouw voor in genomen standpunt niet) homogeniseren lijdt tot lagere opwarming.

        • Jeroen 27 oktober 2017 om 13:27 - Antwoorden

          Janos, als je mijn post even opnieuw (en zorgvuldig) leest, dan zie je dat ik het over de trend heb en niet over hogere danwel lagere opwarming.

          Deze trend blijkt uit de gegevens. Immers, aan het begin van de reeks is het verschil tussen onbewerkte data en gehomogeniseerde data groot. Aan de eind van de reeks is dat verschil zeer klein. Wat daaruit volgt, is dat de opwarmingstrend door na homogeniseren sterker is dan voor homogeniseren. Dat resulteert in een sterkere opwarmingstrend na homogenisering.

          • J. van der Heijden 27 oktober 2017 om 15:00

            Jeroen,

            grafiekjes lezen is moeilijk de opwarmingstrend na homogeniseren is lager dan er voor.

            Claim van Dick Thoenens

            ” Een methode heet ‘homogeniseren’, wat er in feite op neer komt dat vroegere gemeten temperaturen worden verlaagd”

            Die zijn dus niet verlaagd maar verhoogd. Ik heb dit al meermaals aangegeven, ik krijg nooit inhoudelijk commentaar, maar “sceptici”weigeren hun mening aan te passen aan de feiten

          • Jeroen 27 oktober 2017 om 16:52

            Janos, kijk nou gewoon even naar figuur 9.6 van het artikel van Jennifer Morohasy. Anthony Watts sluit in zijn bijdrage af met een soortgelijke conclusie. Eensluidend is de conclusie van Morohasy en Vlok.

    • DWK 28 oktober 2017 om 14:29 - Antwoorden

      Voordat de Janosificatie van dit draadje weer helemaal uit de hand loopt stel ik voor even de lectuur over homogeniseren bij de klimaatgek.nl ter hand te nemen. Kunnen we daarna gewoon weer verder met echte problemen.

  4. J van der Heijden 27 oktober 2017 om 07:46 - Antwoorden

    Verder is het natuurlijk ook interressant dat de auteur van dit stukje de satelieten zo goed vind, maar doet alsof die metingen niet aangepast worden

    De aanpassingen van UAH tussen versie 5.6 en 6 waren veel groter dan die van Karl et al.

    https://moyhu.blogspot.de/2015/12/big-uah-adjustments.html

    Komt er natuurlijk door dat het meten van de temperatuur niet zo eenvoudig is met verschillende instrumenten, en verschillende op verschillende satellieten, die op verschillende tijden en op steeds andere hoogtes proberen dezelfde kolom te meten en natuurlijk ook daar een langdurige tijd serie van te maken. Daar worden heel gecompliceerde modellen voor gebruikt (natuurlijk geld altijd een model is goed als het laat zien wat de “scepticus” wil zien, anders is het fout)

    • Boels 27 oktober 2017 om 08:37 - Antwoorden

      @J van der Heijden
      “(natuurlijk geld altijd een model is goed als het laat zien wat de “scepticus” wil zien, anders is het fout)”

      Dat werkt twee kanten op, een AGW-er sleutelt net zo lang aan modellen tot het resultaat bevredigt.

      • J van der Heijden 27 oktober 2017 om 08:53 - Antwoorden

        Inderdaad modellen worden gebaseerd op fysika en als het resultaat niet voldoet wordt er verder onderzocht totdat het werkt.

        Bij “sceptici” geld alleen het resultaat niet de weg er naar toe of dat het model de metingen bevestigd / en of dan de metingen fout zijn of het model fout is.

        Dus RSS is goed, maar nu RSS naar versie 4 is gegaan refereert geen “scepticus”meer naar RSS nu is UAH weer de beste (want laat het minste opwarming zien)

        Maar die hand in eigen “sceptische”boezem steken dat heb ik Boels niet zien doen, net zo als hij nooit Hans zal aanspreken op zijn geen opwarming sinds BS

        • Boels 27 oktober 2017 om 09:58 - Antwoorden

          Zonder UHI/verstedelijking is die opwarming feitelijk niet aantoonbaar;-)

          Klimatologie als wetenschap in de juiste zin van het woord is een ondergeschoven kindje van de weermensen; inderdaad pure kortzichtigheid.
          Want niemand kwam op het idee om de invloed van de inpolderingen van de Zuiderzee te meten (da’s wat anders dan gissen).
          Niemand trok zich er wat van aan als meetpunten verplaatst werden zonder langdurige simultane metingen op de oude en nieuwe lokatie of als er hoogbouw vlak naast het meetveld werd opgetrokken.
          Invloed van verstedelijking in het noorden en zuidwesten werd niet onderzocht (nou ja, een student op een bakfiets werd er op uitgestuurd).
          En dan staat de NL-meteorologie wereldwijd als gerenommeerd bekend; kan je zo nagaan hoe het elders gesteld moet zijn.
          Het meest stuitend is het gemak waarmee statistische gemiddelden bepaald worden met technieken die voorschrijven dat er sprake moet zijn van een normale verdeling van de meetwaarden; eenvoudig is vast te stellen dat er een discrepantie is tussen het statistisch gemiddelde (uiteraard opgegeven zonder de standaardafwijking te noemen) en de mediaan van de waarnemingen.
          Een direct verband tussen het CO2-gehalte en de oppervlaktetemperatuur wordt niet gemeten, rolt indirect uit modeluitkomsten.
          Meten is weten en dat wordt verguisd door modellen.

          • J van der Heijden 27 oktober 2017 om 11:00

            Inderdaad Boels,

            Daarom wordt er ook gehomogeniseerd, want dat de verschillende reeksen problemen hebben met verplaatsingen is duidelijk.

            Als er wat aan gedaan wordt gaan de “sceptici” klagen dat de uitkomst hun niet bevalt

            Als er niets aan gedaan wordt gaan de “sceptici” ook klagen dat de uitkomst hun niet bevalt

            Dat kan rustig naast elkaar in een blog of zelfs in een hoofd.

            Daarom is de positie van de “sceptici” zo lekker makkelijk, je kunt altijd klagen dat het niet goed is. Maar accepteren dat wetenschappers hun best doen om met incomplete data een zo goed mogelijk plaatje te maken is natuurlijk het laatste wat een “scepticus” doet

          • Boels 27 oktober 2017 om 11:24

            @J van der Heijden:
            Sommige wetenschappers doen inderdaad hun best om van een zootje een rotzooi te maken.

            Maar sinds wanneer is een nijverheid een maat voor de kwaliteit/waarde van een wetenschapper?
            Newton en Einstein hadden een geniale oprisping die een seconde of iets meer nodig had; het meeste werk zat later in het weerleggen van kritiek en het onderwijzen van critici.

            Metingen zijn metingen, hoe beroerd ze ook verzameld zijn; het zijn veldmetingen met de inherente beperkingen.
            Dat heb je juist als wetenschapper te accepteren en dan ga je de geschiedenis niet herschrijven.
            Het zijn de modellisten die graag niet bestaande ijkpunten willen hebben om het “waarheidsgehalte” van de modellen te verkopen.

          • J van der Heijden 27 oktober 2017 om 11:31

            “Dat heb je juist als wetenschapper te accepteren en dan ga je de geschiedenis niet herschrijven.”

            Dat doet dan ook niemand en dat is zeker niet wat er gebeurd met homogeniseren. Er wordt gekeken hoe metingen zich ten opzichte van elkaar verhouden en hoe dat dus verder werkt in het globale systeem.

            Maar als je gedesinteresseerd was geweest hoe het echt werkt had je je onzin niet hier gespuid, maar Viktor Vennema vragen gesteld, hij heeft uitstekend leesbare blogs over het hoe en waarom van homogeniseren.

          • Boels 27 oktober 2017 om 17:21

            @J van der Heijden:
            Wat je niet kunt bevatten is onzin?

            Rammelende meetreeksen homogeniseren met andere rammelende meetreeksen?
            De uitkomsten zijn op z’n minst discutabel en zeker niet tot op een 0,01K te vertrouwen ( zie de CNT-reeks tot op wel 5 decimalen opgegeven).

            Venema verzamelt historische meetreeksen en onderhoudt een interessante website.
            Er blijft een grote onzekerheid bestaan als je metingen op tijdstip t1 wilt herleiden tot die op tijdstip t2, laat staan om er een gemiddelde dagtemperatuur uit te bepalen (want dan heb je zoiets als gemiddelde dagprofielen nodig).

  5. Guido 27 oktober 2017 om 08:38 - Antwoorden

    Beste Dick, de data van Roy Spencer laat een trend van 0.13 graad per 10 jaar zien en dus een kleine halve graad over de hele periode. Ik weet niet waar jij de 0.2 graden over die 1979-2015 periode vandaan haalt (en dus de factor 3.5 verschil met de modellen) maar misschien kan je dat even rechtzetten of aangeven waar het vandaan komt. Zie hier.

    De modellen doen het dus best goed zo te zien, zelfs op basis van de “meest sceptische” dataset, misschien iets te gevoelig…

    • Dick Thoenes 27 oktober 2017 om 11:54 - Antwoorden

      Hoofdstuk 12, geschreven door Roy Spencer, figuur 12.2

      • Guido 27 oktober 2017 om 15:42 - Antwoorden

        Bedankt Dick. Ik heb het boek niet, maar denk wel dat ik weet over welke figuur je het hebt. Hoe interpreteer jij het verschil tussen die 0.2 graden van het boek en de 0.5 graden die de data van Roy Spencer weergeeft? Zie bijvoorbeeld https://www.nsstc.uah.edu/data/msu/v6.0/tlt/uahncdc_lt_6.0.txt.

      • Bartq Vreeken 27 oktober 2017 om 17:42 - Antwoorden

        Zucht.
        Als we het nu ook al niet eens kunnen worden over wat er in één en dezelfde dataset staat dan wordt de discussie wel heel moeizaam.
        Hier de UAH weergegeven in woodfortrees, op andere momenten de favorite tool op climategate.nl

        http://www.woodfortrees.org/plot/uah6/plot/uah6/trend
        Dat laat heel wat anders zien.
        UAH 5.6 geeft trouwens een sterkere stijging. Dat was vóór de laatste aanpassing door Roy Spencer.

        • Guido 29 oktober 2017 om 15:38 - Antwoorden

          Ja, diepe zucht inderdaad. Het lijkt erop dat de feiten in “‘Climate Change: The Facts 2017’ met een flinke korrel zout genomen moeten worden. Iedereen die het daar niet mee eens is moet de claim van Spencer van 0.2 graden opwarming in het satelliet-tijdperk even naast zijn eigen en de RSS data leggen: http://www.woodfortrees.org/plot/uah6/trend/plot/rss/trend/plot/uah5/trend.

          Jammer dat Dick hier verder niet op ingaat, het is toch de basis van veel claims in het stuk!

    • Dick Thoenes 27 oktober 2017 om 12:39 - Antwoorden

      Zie artikel van Spencer, hoofdstuk 12 figuur 12.2

  6. David 27 oktober 2017 om 10:48 - Antwoorden

    En dan de vraag hoe een temperatuursverandering zich over de aardbol verdeelt. Die betreft voornamelijk de polen.
    Landen als Canada ervaren verandering van oppervlakte van hun landbouwgrond.

    • J van der Heijden 27 oktober 2017 om 11:23 - Antwoorden

      Inderdaad een “Gemiddelde” is vaak misleidend. (heb ik ooit eens iemand zien schrijven)

      Maar als de polen veel warmer worden gaat er ook meer ijs smelten en zal de zeespiegel snelle stijgen, en dat zou natuurlijk problemen kunnen geven……

  7. David 27 oktober 2017 om 10:52 - Antwoorden

    “Gemiddelde” is vaak misleidend. Als ik mijn kop in de oven stop en mijn kont in de freezer dan zit ik gemiddeld goed.
    Gemiddeld heb ik per jaar een bepaalde hoeveelheid water , lucht en voedsel nodig. Maar tekort gedurende bepaalde tijd is wel dodelijk.

  8. Rien 27 oktober 2017 om 11:09 - Antwoorden

    Mijn oude baas zei over gemiddelden “soms zijn ze bruikbaar maar als een jager een maal een meter voor de haas schiet en een maal een meter achter de haas, dan is de haas gemiddeld geraakt maar het beest loopt nog springlevend verder”

  9. J van der Heijden 27 oktober 2017 om 11:26 - Antwoorden

    Mijn eigen conclusie is dat het niet mogelijk is om Dick Thoenes op klimaat gebied serieus te nemen.

    Hij ozu er beter aan doen om zijn opinie met verwijzingen te onderbouwen en niet alles te geloven wat er opgeschreven wordt (maar dan is het natuurlijk weer een populair wetenschappelijk artikel en dan kan je alles roepen wat je wil het is dan gewoon waar)

    • Dick Thoenes 27 oktober 2017 om 13:23 - Antwoorden

      Dan neem je dus het boek niet serieus. Of je moet zelf maar een betere samenvatting schrijven

      • J. van der Heijden 27 oktober 2017 om 14:57 - Antwoorden

        Nee ik neem de letters in het boek met een vrachtwagen zout, zonde de moeite die er in is gestoken

    • Dick Thoenes 27 oktober 2017 om 14:04 - Antwoorden

      J. van der Heijden is een typisch voorbeeld van een klimaatalsrmist. Als iemand iets zegt waar hij het niet mee eens is, doet hij geen poging om diens argumenten te weerleggen maar probeert de criticus zwart te maken. Zeer succesvol!

      • J. van der Heijden 27 oktober 2017 om 14:56 - Antwoorden

        Dick,

        Dat is weer typisch een “scepticus”

        1. Weigeren je mening fatsoenlijk te onderbouwen
        2. Over alle kritiek heen lezen
        3. Vervolgens je gelijk claimen

        Probeer toch eens te beginnen met het wetenschappelijk onderbouwen van je mening en niet te verwijzen naar een boekje gepubliceerd door wat bloggers met een zeer twijfelachtige reputatie

  10. Frans Galjee 27 oktober 2017 om 11:57 - Antwoorden

    Meten is weten.

    Om maar gelijk met de deur in huis te vallen dit adagium is zelden waar.
    Voor eenvoudige zaken als bijvoorbeeld het willen weten van een afmeting of gewicht en andere volstaan de bekende metingen prima. Anders wordt het als we willen weten hoe meer complexe processen functioneren, dan leidt meten niet per definitie tot een juist weten. Kamerlingh Onnes stoorde zich ook aan het meten is weten want voor zijn laboratorium was het motto : “door meten tot weten”.
    Het ‘tot’ vervangt het ‘is’ van is gelijk aan maar geeft daarbij niet aan hoe het pad van het ‘tot’ ook leidt naar de juiste kennis. Zeker bij het streven meer kennis te krijgen over complexe processen is elk aspect van het meten en interpretatie van de meetgegevens om tot juiste inzichten te komen essentieel. Is het meten het verzamelen van meetgegevens om hieruit bruikbare informatie uit te halen is interpretatie van de data nodig. Omdat voor kennis van complexe processen meerdere fysieke meetgegevens nodig zijn meerdere informatiebronnen het resultaat van meerdere interpretaties. Om uit die meerdere informatiebronnen de juiste kennis die gezocht wordt te kunnen halen is opnieuw een interpretatiestap te maken. Het uiteindelijk weten is dus best nog een lange weg te gaan vanaf het meten. Een lange weg met veel mogelijkheden om fouten te maken. Het begint ook nog eens met het juist meten want ook de ene meting is de andere niet. Welk meetprincipe, welke meetresoluties en welke meetnauwkeurigheid zijn nodig om het doel van het willen weten te kunnen bereiken.
    Klimaatveranderingsproceesen zijn complexe processen die zich ook nog eens op lange tijdschaal afspelen. We willen graag wat meer weten over die processen want er ontbreekt voldoende kennis. Helaas echter meten we nog veel te kort met te geringe resolutie en met onvoldoende nauwkeurigheid (ook afgeleide meetdata uit verleden) om dit tot meer inzicht in de processen van onderzoek te laten leiden. In de huidige maatschappij hebben we geen geduld dus gaan we de klimaattoekomst voorspellen door de gebrekkige kennis in modellen te stoppen en er mee te gaan rekenen.
    Deze weg biedt misschien houvast voor de politiek maar zal niet leiden tot meer kennis van de echte processen.
    Frans Galjee

    • J van der Heijden 27 oktober 2017 om 12:04 - Antwoorden

      ” We willen graag wat meer weten over die processen want er ontbreekt voldoende kennis.”

      Eer verder niet onderbouwde en dus verder waardeloze conclusie

      • Danny Keeven 26 november 2017 om 14:37 - Antwoorden

        Beste Meneer J van der Heijden,

        Ik zit deze al wat oudere discussie te lezen en het valt mij op dat u echt iedereen met een andere mening redelijk ongenuanceerd de les leest. Ik zou van u wel eens willen weten wat een weldenkend mens aanmoet met de beweringen uit het verleden dat wij anno 2017 vrij scheepvaartverkeer over de Noordpool zouden zien. Ik ben oud gezagvoerder en gewend om mij door feiten te laten leiden, doch ik heb dit jaar geen enkel normaal vrachtschip via deze route zien varen zonder enorm ijsbreker geweld eromheen.

        Kunt u hier eens op reageren?

        M vr Gr D. Keeven

    • David 27 oktober 2017 om 12:43 - Antwoorden

      Het is nog maar de vraag of we het klimaat beter kunnen gaan begrijpen door een hogere resolutie van meetpunten. Immers, dat leidt tot meer meetgegevens dus ook tot meer berekeningen en elke berekening voegt tevens onnauwkeurigheid toe. Extrapoleer maar eens 7e graads functies: kleine veranderingen kunnen dramatisch fluctuerende uitkomsten geven.
      Een ander en misschien wel zo valide klimaatmodel kan je verkrijgen door op elke pool een thermometer neer te zetten. Plus eentje dobberend op de Pacific.
      De meeste energie zit trouwens in water. Zeestromingen bestuderen dus.

  11. Michiel de Pooter 27 oktober 2017 om 14:14 - Antwoorden

    Meten is weten. Ja, dat klopt. Maar bij meten komt ook veel vertrouwen en magie te pas. Alle meetinstrumenten zijn immers verlengstukken van de menselijke zintuigen en daardoor problematisch. Zeker als we het onmeetbare willen gaan meten, zijn meetresultaten in hoge mate manipulatief. Nog meer, als we die meetresultaten ook nog eens gaan neerslaan in modellen, predicties en praktisch beleid.
    Wetenschappelijke redeneringen zijn vaak gebaseerd op uitkomsten van vele epistomologische stappen tussen wetenschappelijke proposities. Die stappen zijn onnauwkeurig omdat elke stap een afgeleide is van de voorafgaande. Het gaat dan niet zozeer over de wetenschappelijke proposities afzonderlijk, maar meer over de betrouwbaarheid van de verbindende schakels. M.b.t. tot de klimaatwetenschap wordt zelfs gesproken van een “cartesiaans moeras”.
    Ieder mag daar natuurlijk het zijne van denken.

  12. David 27 oktober 2017 om 14:36 - Antwoorden

    Ik denk dat je door meten hooguit statistisch bezig bent. Daarmee begrijp je de oorzaken nog niet maar het kan je onderzoek wel op het goede spoor zetten.

  13. Anton Bakker 27 oktober 2017 om 16:43 - Antwoorden

    Misschien toch interessant om het volgende artikel te lezen: http://notrickszone.com/2017/10/27/more-indicators-point-to-global-cooling-warns-german-scientist-cooling-of-at-least-1c/#sthash.GOrT4f0L.dpbs .
    De stabilisatie van de temperatuur gaf al aan dat het zou kunnen dooien of vriezen in de nabije toekomst. Steeds meer aanwijzingen leiden tot de conclusie dat er een grotere kans is dat wij een koelere periode tegemoet gaan.

  14. Cees 27 oktober 2017 om 17:26 - Antwoorden

    In mijn werk heb ik te maken met accreditatie binnen laboratoria, dit gaat over betrouwbaarheid van metingen. Als je geaccrediteerd wil zijn (en een gerespecteerd laboratorium of meetinstituut wil dat meestal of het wordt vereist) ben je verplicht je meetmethode te valideren en daar hoort het begrip meetonzekerheid bij. Ook verplicht om die vast te stellen.
    Wikipedia zegt: “De meetonzekerheid geeft de onzekerheid van een bepaalde gemeten waarde van een fysische grootheid aan. Geen enkele meting is 100% accuraat, er is altijd een bepaalde mate van onzekerheid. Bij elke meting wordt getracht de echte waarde te bepalen. De gemeten waarde is echter altijd een benadering van deze echte waarde.” In deze discussie hierboven wordt eigenlijk veel over meetonzekerheid gesproken en wat daar allemaal op van invloed is. Misschien kan J. van der Heijden zijn licht daar ook eens over laten schijnen en een berekening maken want hij schijnt veel van metingen te weten en de waarheid in pacht te hebben als het gaat om wat wel en geen juiste metingen te zijn of wat wel of geen juiste onderbouwing is, het wordt bijna te gortig. Verder valt mij op hoe fel hij hier reageert, blijkbaar komt het nu te dichtbij het bedrog dat in stand gehouden moet worden of zo?

    • J van der heijden 27 oktober 2017 om 23:37 - Antwoorden

      Nee hoor Cees, er wordt veel onzin verteld hier. Ik ben geen goeroe, maar weet wel het verschil tussen sprookjes en normale scepcis

Geef een reactie

Conform ons Privacybeleid maken wij gebruik van Cookies om onze website beter te laten werken. OK