Kip Hansen har på WUWT skrevet en længere artikel om klimamodellerne. De bliver jo brugt til at forudsige vejret og klimaet om 50 eller 100 år, og store politiske beslutninger bliver truffet på grundlag af deres resultater.
Vi har mange gange før taget fat i spørgsmålet, og for ikke så længe siden kiggede vi på modellernes grundprincip, der går ud på, at man, ligesom med modeller til forudsigelser af vejret, går frem trinvist, time for time, og beregner temperatur, fugtighed, vind, nedbør osv. i millioner af blokke (eller ”celler”), som Jordens atmosfære er delt op i. Det er uhyrligt komplicerede og omfattende beregninger, hvor en enkelt kørsel kan tage op til en måned på en supercomputer.
Den grundlæggende svaghed er, at modellernes resultater let løber af sporet. Beregningerne for en given time vil altid være baseret på resultaterne fra den forrige time, og den mindste fejl, der er opstået her, vil blive videreført og ofte forstærket, så resultatet ender i noget helt absurd.
I praksis har modelsnedkerne indlagt en masse begrænsninger, så man netop undgår de totalt urealistiske resultater, men man kan jo heller ikke sætte grænserne for snævert, fordi så vil modellen bare vise begrænsningerne, der jo er forskernes gætværk og ikke noget reelt resultat.
Kip Hansen beskriver nu en videnskabelig artikel fra 2016, hvor man lod den samme computermodel køre 30 gange. Man simulerede Jordens klima fra 1920 til år 2100, hvor man i perioden frem til 2005 brugte de målte mængder CO2 i atmosfæren, mens man fra 2005 og fremefter brugte RCP8.5-scenariet. Computermodellen tilhørte den næstnyeste generation, CMIP5. Hver kørsel tog i øvrigt 3 uger, så det var et kæmpe projekt. Komplette sæt data blev opsamlet med jævne mellemrum i årrækken, så man kunne se på udviklingen i mere afgrænsede perioder.
Når man sætter sin computermodel i gang, skal den fødes med startbetingelserne, dvs. hvad var temperatur, tryk, vind, osv. i hver celle 1. januar 1920. Her lagde man ud med nøjagtigt det samme sæt data og f.eks. starttemperaturen overalt blev holdt så tæt på uforandret som muligt (lige her har den gode Kip vist misforstået situationen lidt).
Forskerne skriver selv, at de 30 kørsler resulterede i nogenlunde den samme sluttemperatur i år 2100, stigningen i forhold til perioden 1961-1990 lå mellem 4,6 og 5 grader celsius. Gode gamle RCP8.5!
Værre så det ud med de regionale udviklinger i temperaturen. Fig. 1 viser temperaturforskellene fundet i Nordamerika for perioden 1963-2012, dvs. slut- minus begyndelses-temperaturen. Man ser resultaterne af de 30 kørsler, nummereret 1-30, deres gennemsnit (”EM”) og så de faktiske målte forskelle (”OBS”).

Det er slåede, så store forskelle der er. Kørsel nr. 7 gav en stor opvarmning i den nordvestlige del af kontinentet, mens nr. 14 gav en markant afkøling sammesteds. Der er ikke to kørsler, der tilnærmelsesvist giver det samme resultat, og ingen af dem ligger tæt på de målte resultater. Det gør gennemsnittet af kørslerne heller ikke.
Det er nu, at det begynder at blive lidt farligt. Hvis man var f.eks. borgmester i en by i Alaska, og sad tilbage i 1963 og skulle forudsige, hvilken klimasikring, der blev brug for, så ville kørsel nr. 1 forudsige 3-4 grader højere temperaturer og optøning af permafrost m.v. Kørsel nr. 17 ville til gengæld fortælle, at det ville blive 3 grader koldere, og så er det varmere tøj til de kommunalt ansatte, der kunne komme på tale.
Grundlæggende viser eksperimentet her endnu en gang, at klimamodeller med de trinvise beregninger er en videnskabelig blindgyde. Deres resultater er alt for følsomme overfor små variationer i startbetingelserne og i de antagelser, som forskerne har gjort sig. Kip Hansen understreger at modellerne viser tal i en computer, de viser ikke noget om den virkelige Verden.
Tænk, hvad der kunne spares af penge og ressourcer, hvis den erkendelse bredte sig i klimavidenskaben…
I USA opretter man nu en enhed der hedder DOGE, som skal rydde op i svindel og humbug med offentlige midler. Det kunne man med fordel også gøre i Danmark. Man kunne kalde enheden Projekt Stop Klimasvindel (PSKS).
Mere og mere tyder på at man sætter al troværdighed over styr, for at tjene en bestemt politisk sag: DEN GRØNNE OMSTILLING.
Med den overbevisning som Søren H. hudfletter computer-beregnet forudsigelser af klimaet 75 år frem i tiden, kan alle, måske lige undtagen dem der kører det spin af, se at den slags beregninger er helt uden for skiven . Der er alle mulige grunde til at den type beregninger slet ikke kan blive andet end gæt…ønskegæt, som er, at modellerne viser en farlig varmeudvikling hvis ikke menneskeskabt CO2 elimineres.
Men hvor galt står det til i virkeligheden?
Til den ende har jeg sammenlignet offentliggjorte temperaturer i.. avisen såmænd, som giver muligheden for at gå 30 år tilbage og se på data fra 58 byer fordelt over hele kloden og sammenligne med de aktuelle i avis/DMI vejrdata fra de samme byer.
Min dato var 10 dec. 1994 og 10 dec. 2024.
Meget overraskende er der KOLDERE i 2024 end 30 år før..i gennemsnit for de 58 byer. 1 grad koldere lige nøjagtig.
Hvis det tegner en tendens ser det ikke godt ud for jordens befolkning. Faldende temperatur er det værste vi kan få.
Disse avis/DMI data viser også VIND og SOL på dagen.
Vind: 3 m/sek. I gennemsnit
SOL: 22 % med klar himmel.
Den må du lige uddybe – har du mere at dele?
Nej, og een “lodning” er ikke sejladsen, hvis du forstår hvad jeg mener…
Det er jo også ligemeget om det er realistisk eller ej.
Bare politikerne får de resultater de vil have, så de kan fortsætte med at ødelægge vores elforsyning, landbrug, fiskeri og alt andet, og kvæle os i afgifter og fordyrelser af alting, og så bruge CO2 som undskyldning, så er de tilfredse.
Alt går efter planen.
👍🏻