Deel dit artikel

de voorbije decennia zijn de weerberichten een stuk betrouwbaarder geworden. op dit moment kunnen we ongeveer tien dagen vooruit vrij accurate uitspraken doen over het toekomstige weer. die vooruitgang in de voorspellingen heeft veel te maken met de wiskunde achter de numerieke computermodellen die in de meteorologie worden gebruikt. meteorologie als wiskundige probleemstelling heeft echter moeten wachten op de komst van krachtige computers.

De wiskunde achter het weer

Piet Termonia

Sommigen onder u herinneren zich misschien de weerberichten van Armand Pien, die in de periode van 1953 tot 1990 de weerberichten op de toenmalige BRT presenteerde. In die periode waren de weersvoorspellingen grotendeels gebaseerd op het menselijk inschattingsvermogen. Daarbij werden recente waarnemingen op weerkaarten neergeschreven, en werden de weersystemen op basis van ervaring herkend en uitgetekend. Voorspellen was toen grotendeels een kwestie van het intuïtief extrapoleren van die systemen. Vaak waren die voorspellingen ook grondig fout. Het feit dat Pien zich steeds met een zekere flair wist te redden is ongetwijfeld aan zijn unieke persoonlijkheid toe te schrijven. Maar het duidt ook op zijn overtuiging dat de onderliggende wetenschappelijke basisprincipes solide waren, en dat hij die principes deelde met zijn collega’s meteorologen in een wetenschappelijke context. Het is precies die hardnekkige overtuiging die de vooruitgang in de meteorologie heeft mogelijk gemaakt.

Tijdens de voorbije decennia zijn de weersvoorspellingen enorm verbeterd. Dit is niet alleen een kwestie van appreciatie, het is ook statistisch bewezen. Er bestaat zelfs een discipline in de meteorologie die we in de vaktaal ‘predictability’ of voorspelbaarheid noemen. We kunnen redelijkerwijs stellen dat we door de wetenschappelijke vooruitgang elke tien jaar een dag verder in de toekomst kunnen kijken. Op dit ogenblik kunnen we ongeveer tien dagen vooruit niet-triviale uitspraken doen over het toekomstige weer. Die vooruitgang wordt gestuwd door de wiskunde achter de numerieke computermodellen, die intussen alomtegenwoordig zijn in zowat alle activiteiten in de meteorologie.

De basis van de huidige atmosferische modellering gaat terug op het werk van de Noor Vilhelm Bjerknes, die in 1904 voor het eerst opmerkte dat, als de toestand van de atmosfeer op een specifieke tijd met voldoende nauwkeurigheid gekend is en als de natuurwetten met voldoende precisie gekend zijn, we dan de evolutie van de ene weertoestand naar de volgende zouden kunnen berekenen. Met andere woorden, Bjerknes stelde toen voor om de evolutie van het weer te zien als een probleem in de wiskundige natuurkunde. Daarbij zijn de onderliggende wetten in principe gekend en moeten we alleen de vergelijkingen oplossen. De conclusie van Bjerknes was volledig terecht, maar in zijn tijd volledig nutteloos. Het is hierbij interessant te vermelden dat de bekende Franse wiskundige Henri Poincaré reeds in de negentiende eeuw in de inleiding van zijn werk Calcul des probabilités had opgemerkt dat, voor een specifiek type systemen die we in de wiskunde niet-lineaire systemen noemen, ‘une petite erreur sur les conditions initiales produirait une erreur énorme sur les phénomènes finaux. La prédiction devient impossible et nous avons le phénomène fortuit’. Vrij vertaald: een kleine fout op de variabelen van de begintoestand kan een enorme fout veroorzaken op de eindtoestand. De vergelijkingen waarnaar Bjerknes verwees zijn een uitgelezen voorbeeld van dergelijke niet-lineaire systemen en bezitten daardoor een intrinsieke onvoorspelbaarheid in hun wiskundige formulering. Bovendien is het volume van de atmosfeer gigantisch groot, wat de specificatie van die begintoestand zeer moeilijk maakt. Het hoeft dan ook niet te verwonderen dat het voorstel van Bjerknes bijna een halve eeuw dode letter is gebleven, vanuit praktisch standpunt dan toch. Bjerknes en zijn team in Bergen concentreerden zich daarna voornamelijk op de ontwikkeling van de zogenaamde synoptische meteorologie, die met concepten als druksystemen en fronten de basis heeft gelegd van de moderne meteorologie. In de meteorologie wordt hiernaar verwezen als de Bergense school.

De Noor Vilhelm Bjerknes stelde voor om de evolutie van het weer te zien als een probleem in de wiskundige natuurkunde

Dit hield de Brit Lewis Fry Richardson echter niet tegen om tijdens de oorlogsjaren, ruim een decennium na de publicatie van Bjerknes, toch een vereenvoudigd stelsel vergelijkingen voor de atmosfeer op te stellen en een numerieke methode te ontwikkelen die toeliet een poging te wagen om een voorspelling te maken op basis van de toen beschikbare waarnemingen. Richardson had de moed om de numerieke bewerkingen zelf door te rekenen, zonder gebruik van een computer uiteraard. Dit kostte hem twee jaar hard werk en het leverde een weersvoorspelling op voor twee locaties in Europa. Het resultaat was – op de keper beschouwd – een totale mislukking. Richardson vond een waarde van de verandering in de oppervlaktedruk over een tijdspanne van zes uur van om en bij de 145 millibar. Anders gezegd: die waarde was minstens een grootteorde groter dan de drukverandering die je zou kunnen aflezen op de barometer.

Hoe fout de resultaten ook waren, des te indrukwekkender waren de wiskundige methodes die hij invoerde om zijn vergelijkingen op te lossen, methodes die vandaag nog gebruikt worden op onze moderne computers. Opmerkelijk daarbij is dat Richardson toch vertrouwen had in zijn methodes en besloot om in 1922 zijn werk te publiceren. Hij rechtvaardigde dit als zijnde ‘a fairly correct deduction from a somewhat unnatural initial distribution’, dus een vrij correcte afleiding vanuit een ietwat onnatuurlijke initiële verdeling [van de meteorologische meetgegevens]. Richardson had intuïtief begrepen dat zijn fout voortkwam uit de representativiteit van zijn meetgegevens en niet zozeer uit zijn methode om de vergelijkingen op te lossen. Niettemin is het werk van Richardson daarna grotendeels genegeerd door zijn vakgenoten.

De Ierse modelleur Peter Lynch heeft in de jaren 1990 de voorspelling van Richardson nog eens herhaald, maar dan met moderne middelen. Men had toen begrepen dat de atmosfeer een aantal evenwichtstoestanden heeft (een verband tussen de druk en de wind waarbij de zogenaamde drukgradiëntkracht in goede benadering de corioliskracht compenseert) en dat de ‘onnatuurlijkheden’ waarnaar Richardson verwees grote afwijkingen waren van die evenwichtstoestand. Lynch heeft toen een moderne techniek toegepast (die hij trouwens zelf had ontwikkeld) om de zogeheten ‘onnatuurlijkheden’ uit de meteorologische waarnemingen weg te filteren en heeft die voorspelling verder doorgerekend tot 24 uur vooruit. De waarden die hij toen vond waren wel realistisch. Dit toont aan dat Richardson wel degelijk gelijk had, en dat hij het probleem van zijn foute voorspelling juist had gediagnosticeerd, weliswaar beperkt door het feit dat de methode om ze op te lossen in zijn tijd nog niet voorhanden was. Lynch publiceerde zijn analyse in 1999 en noemde Richardsons voorspelling retrospectief ‘a marvellous forecast’.

Het is duidelijk dat meteorologie als wiskundige probleemstelling heeft moeten wachten tot de komst van de computer

Het is duidelijk dat meteorologie als wiskundige probleemstelling heeft moeten wachten tot de komst van de computer. Toen de wiskundige John von Neumann in de jaren 1940 één van de eerste computers had gebouwd, de Electronic Numerical Integrator And Computer (ENIAC), was hij op zoek naar een probleem dat hij met die computer kon berekenen. Hij contacteerde toen twee meteorologen, Jule G. Charney en Ragnar Fjörtoft, met de bedoeling om de vergelijkingen van de atmosfeer op te lossen, in de lijn die reeds was uitgezet door Bjerknes en Richardson. Charney was een theoreticus die zijn carrière voor een stuk had opgebouwd rond de analyse van de atmosferische vergelijkingen, onder andere het vereenvoudigen van die vergelijkingen. Daarbij was aangetoond dat men het totale stelsel vergelijkingen, mits een aantal aannames, kan benaderen door één enkele vergelijking, de zogeheten barotrope vorticiteitsvergelijking. De vereenvoudigingen zijn daarbij te brutaal om het ontstaan van stormen te simuleren, maar de rekenkracht van de ENIAC was uiteraard uiterst beperkt, en met deze vereenvoudiging kon het wel lukken om ze op te lossen.

Een eerste computervoorspelling werd gegenereerd voor de Verenigde Staten. Het is trouwens niet terecht om die berekening een voorspelling te noemen, want het rekenwerk duurde ongeveer vierentwintig uur om vierentwintig uur vooruit te rekenen in de tijd. De drie wetenschappers publiceerden hun resultaten in het vakblad Tellus in 1950. Ook al had dit ‘computermodel’ geen enkele voorspelbaarheid op dat moment, het luidde wel het begin in van een nieuw tijdperk. Dit is trouwens een prachtig staaltje van hoe ‘foute’ vereenvoudigingen het toch mogelijk maakten om een prille test op de eerste computers uit te voeren. Opnieuw was de voorspelling fout, maar het vertrouwen in de theoretische inzichten heeft het ook hier mogelijk gemaakt de discipline een boost te geven.

Sinds de bouw van de ENIAC is de kracht van de computers spectaculair gegroeid. Dit leidde tot het ontstaan van hoogperformante rekenmachines die speciaal ontworpen zijn voor numeriek rekenwerk, in vaktermen ‘high-performance computing’ (HPC). Gaandeweg werden de computermodellen steeds gesofisticeerder. Tegelijkertijd verdween de noodzaak om de vergelijkingen te vereenvoudigen. De barotrope vorticiteitsvergelijking werd uitgebreid tot een meer volledig stelsel vergelijkingen (de tweede wet van Newton, de eerste wet van de thermodynamica (behoud van energie), de continuïteitsvergelijking (behoud van massa) en de toestandsvergelijking voor een ideaal gas – die vergelijkingen werden nog vereenvoudigd met de aanname dat de atmosfeer in hydrostatisch evenwicht is) Er werden nieuwe wiskundige methodes ingevoerd om de berekeningen zo efficiënt mogelijk uit te voeren. Op dit vlak werd trouwens pionierswerk geleverd door Jacques van Isacker van het Belgisch Koninklijk Meteorologisch Instituut (KMI).

Door de toename in rekenkracht werd het langzaam mogelijk om ook fysische processen te simuleren die verantwoordelijk zijn voor warmte-uitwisselingen

Door de toename in rekenkracht werd het langzaam mogelijk om ook fysische processen te simuleren die verantwoordelijk zijn voor warmte-uitwisselingen. Er werden vergelijkingen toegevoegd voor het transport van de verschillende fasen van water (waterdamp, vloeibaar, vast) en er werden schema’s ontwikkeld voor de beschrijving van straling, turbulentie, faseovergangen, convectie en interacties met het aardoppervlak. De thermodynamica van de atmosfeer is steeds belangrijker geworden. De wiskunde achter die vereenvoudigingen is zich trouwens verder blijven ontwikkelen, niet meer om voorspellingen mogelijk te maken zoals op de ENIAC, maar om geen rekenkracht te verspillen aan aspecten die niets toevoegen aan de voorspelbaarheid en meer rekenkracht vrij te maken voor die fysische processen die wel belangrijk zijn.

Om even terug te komen op de niet-lineariteit: in 1963 publiceerde de meteoroloog Edward N. Lorenz een artikel in de Journal of Atmospheric Physics, waar hij de notie van de vreemde attractor invoerde, wat sindsdien een standaardbegrip is geworden in de wiskunde van niet-lineaire systemen en de chaostheorie. Dit inzicht liet trouwens toe beter te begrijpen dat de atmosfeer een intrinsiek wiskundige onvoorspelbaarheid bezit. Het werk van Lorenz heeft later geleid tot de ontwikkeling van ‘predictability’ als een wetenschappelijk subdiscipline van de meteorologie, en heeft de basis gelegd voor de ontwikkeling van de zogenaamde probabilistische voorspellingssystemen. Met dergelijke methodes berekenen we niet alleen de voorspelling maar ook hoe betrouwbaar ze is.

Op een gegeven moment zijn de computermodellen aantoonbaar voorspelbaarheid beginnen genereren. Dit is trouwens voor een groot deel te danken aan de groei van het internationale meteorologisch waarnemingsnetwerk, en aan de ontwikkeling van de numerieke technieken om die waarnemingen te assimileren in computertoestanden, wat toeliet om de fout op de begintoestanden van de voorspellingen aanzienlijk te verminderen. Men kan nu terecht spreken van numerieke weersvoorspellingen, bekend onder de Engelse vakterm Numerical Weather Prediction (NWP). De vooruitgang is voor een groot deel toe te schrijven aan het ontstaan van het Europees Centrum voor weersvoorspellingen op middellange termijn (European Centre for Medium Range Weather Forecasts, ECMWF) in 1975. Tijdens een groot deel van Armand Piens loopbaan stond NWP als discipline nog in zijn kinderschoenen, maar vandaag is ze een onmisbare tak van de meteorologie geworden.

De maatschappij verwacht niet alleen juiste voorspellingen voor het plannen van vrijetijdsbesteding, maar eist meer en meer zekerheid voor het beschermen van personen en goederen

Met voorspelbaarheid kwam trouwens ook verantwoordelijkheid. De maatschappij verwacht niet alleen juiste voorspellingen voor het plannen van onze vrijetijdsbesteding, maar eist meer en meer zekerheid voor het beschermen van personen en goederen. Voorspellingen hebben een maatschappelijke en een economische waarde gekregen. Een recent voorbeeld is het Pukkelpopdrama in augustus 2011, waarbij vijf mensen om het leven kwamen. Die ramp werd veroorzaakt door een extreem kleinschalig fenomeen dat zich voordoet in hevig onweer, een zogeheten valwind. In dit geval had de valwind een doorsnede van minder dan honderd meter. De mazen van onze huidige computermodellen zijn een paar kilometer groot en dus te grof om die fenomenen te simuleren. Niettemin zijn we vandaag bezig de modellen voor te bereiden voor het moment dat de computers sterk genoeg zullen zijn om meer details te berekenen op roosters van honderd meter en kleiner.

Dankzij de wiskunde is de meteorologie van een speculatieve activiteit uitgegroeid tot een middel waarmee we effectief in de toekomst kunnen kijken. En in de huidige tijden, waarin wetenschappelijk onderzoek verondersteld wordt vlugge resultaten af te leveren, is het nuttig eens te denken aan de figuren zoals Bjerknes, Richardson, Charney, Fjörtoft en Von Neumann, die gedurende een halve eeuw geen bruikbare voorspellingen konden afleverden, maar die wel de wilskracht hadden om hun discipline vooruit te helpen, gedreven door hun overtuiging dat de onderliggende principes solide waren. Het lijkt vandaag zeer onrealistisch om modellen te draaien over de planeet met resoluties van honderd meter. En toch heeft het zin om ervan uit te gaan dat de evolutie zal worden voortgezet en dat we ooit in staat zullen zijn dit toch te doen.

Piet Termonia is als weerkundige verbonden aan het Koninklijk Meteorologisch Instituut (KMI).
Deel dit artikel
Gerelateerde artikelen