Von Peter Schewe
Die Modellierung des Klimas ist die Grundlage für alle Prognosen über dessen künftige Entwicklungen, vor allem der Temperaturentwicklung und des Anstieges des Meeresspiegels. Abgeleitet davon werden dann alle Arten von Untergangsszenarien prognostiziert und Maßnahmen zu deren Vermeidung entworfen.
Wie und mit welchen Voraussetzungen funktionieren aber derartige Rechenmodelle? Ich will versuchen, darauf eine allgemeinverständliche Antwort zu geben. Ich bin weder Mathematiker noch Klimatologe, kenne mich aber als Baustatiker mit der Modellbildung statischer Systeme und Strukturen aus.
Überall dort, wo ein komplexes System, etwa die Tragstruktur eines Gebäudes, eines Fahrzeuges oder einer Maschine zu berechnen ist, bedient man sich der Methode der finiten Elemente (FEM). Dazu wird die Struktur in eine endliche Zahl möglichst vieler, kleiner Elemente zerlegt und jedem dieser Elemente werden Eigenschaften zugeordnet. Das wären z.B. die Materialkennwerte wie Plastizität, Elastizität, die Geometrie (Dicke, Wölbung u.ä.).
Jedes dieser Elemente verfügt im dreidimensionalen Raum über 6 Freiheitsgrade, 3 Verschiebungen und 3 Verdrehungen. Sollen nun alle diese Elemente zusammen wirken und ein Gesamtes bilden, müssen deren Verschiebungen und Verdrehungen an der Grenze zu den Nachbarelementen gleich sein. Andernfalls würde es zu Unstetigkeiten (Risse, Knicke oder Brüche) kommen, was zu vermeiden ist. Aus diesen 6 Gleichheitsbedingungen an jedem Element entsteht ein Rechenmodell mit vielen Gleichungen, deren Lösung Auskunft gibt, unter welchen äußeren Einflüssen (Belastungen) in unserem System wo welche inneren Spannungen bzw. Verformungen entstehen.
Am Beispiel einer Autokarosserie lassen sich so die durch einen Aufprall verursachten Verformungen ohne aufwändige Crashtest im Voraus berechnen. Diese dienen dann nur noch der Überprüfung, inwieweit die Modelbildung und Berechnung der Wirklichkeit entspricht. In der Baustatik werden so hochgradig statisch unbestimmte Tragstrukturen berechnet und deren Dimensionierung optimiert.
Ähnlich vollzieht sich die Modellierung des Klimas. Dazu wird die Erdatmosphäre in einzelne, dreidimensionale Elemente zerlegt, etwa so wie man einen Blechkuchen zerteilt. Je nach zur Verfügung stehender Rechenleistung haben diese eine Fläche von 150 x 150 km bis 500 x 500 km (Quelle: Wikipedia) und erstrecken sich in der Höhe vom Erdboden bis zur Stratosphäre. Bei einer Erdoberfläche von 510 Mio km² ergeben sich somit 2.040 bis 22.667 solcher Sektoren.
Jedem dieser Sektoren werden eine Reihe von gemessenen bzw. frei gewählten Klimadaten zugeordnet, wie etwa Luft- und Oberflächentemperatur, Oberflächenbeschaffenheit (Wüste, Wasser, Vegetation), Luftfeuchtigkeit, Luftströmung, Luftzusammensetzung (z.B. CO2-Gehalt), Sonnenein- und -abstrahlung, Windstärke und -richtung, und vieles mehr, auch die bisher bekannten, gegenseitigen Abhängigkeiten, Rückkoppelungseffekte u.ä. dieser Größen müssen in die Modellbildung einfließen. Meeresströmungen oder Wolkenbildungen finden dagegen bisher keine Berücksichtigung, da deren Wirkmechanismen nicht ausreichend erforscht bzw. zu komplex sind und die Rechnerkapazitäten überfordern würden.
Im Gegensatz zu meinem zugegeben weniger komplexen Beispiel aus der Baustatik unterliegen diese Eingangsdaten ständigen Veränderungen, was die Modellbildung noch komplizierter macht.
An den Übergängen von einem zum benachbarten Sektor werden nun diese Größen, ähnlich wie bei der o.g. Baustatik, gleichgesetzt, andernfalls gäbe es ja dort abrupte Änderungen beispielsweise der Temperatur oder der Windstärke. Aus den so gewonnenen Gleichgewichtsbedingungen unter Einbeziehung des Erhaltungssatzes und der Gesetze der Thermodynamik lassen sich Auswirkungen der Veränderung einzelner Eingangsgrößen am Ort A zum Zeitpunkt x auf den Ort B zum Zeitpunkt x + y berechnen.
Je nach Wahl der Eingangsgrößen liefern die Modelle so genannte Szenarien, wohlgemerkt keine Prognosen (Vorhersagen). Inwieweit die Modelle das Klima richtig abbilden, lässt sich nur durch ,Rückwärtsrechnen‘ überprüfen, d.h. es werden bekannte Daten aus zurückliegenden Jahren eingegeben und geschaut, inwieweit das Modell den tatsächlichen Temperaturverlauf der zurückliegenden Periode abbildet.
Soweit man hört oder liest, gibt es bislang noch kein Modell, welches diesen Test zu hundert Prozent bestanden hat.
Was lässt sich daraus schlussfolgern?
Ob es in 100 Jahren durchschnittlich auf der Erde 8,5 ° oder 1,5° wärmer wird, liegt allein an der Wahl der Eingangsgrößen, der theoretischen Kenntnis von deren gegenseitiger Beeinflussung sowie der Fähigkeit der Modelle, all diese Annahmen realitätsnah zu verarbeiten.
Von einer wirklichkeitsnahen Vorhersage, wie sich das chaotische System Klima in den nächsten 100 Jahren entwickeln wird, sind die Modelle jedenfalls meilenweit entfernt.
Höchstwahrscheinlich sind die gegenseitigen Beeinflussungen der einzelnen, das Wetter bestimmenden Größen weitaus komplexer, als wir Menschen es uns mit unseren bescheidenen Möglichkeiten einer wirklichkeitsnahen Abbildung je vorstellen können. Auch Computer vollführen keine Wunder, sie können nur das reproduzieren, was menschliches Wissen ihnen vorgibt bzw. vorausgedacht hat.
Seit etwa 80 Jahren wird versucht, die Wahrsagerei als Zukunftsforschung auf eine wissenschaftliche Ebene zu heben, sogar Lehrstühle an Universitäten wurden dafür eingerichtet. Aber sowohl das Verhalten der Natur wie auch das von uns Menschen als deren nicht unwesentlicher Bestandteil lassen sich nicht in vorausschaubare oder gar gesetzliche Entwicklungen ‚pressen‘, auch wenn uns Mathematiker weis machen wollen, das Chaos berechnen zu können. Zukunftsforschung, und dazu gehören auch die Voraussagen über die Klimaentwicklung, ist und bleibt was sie schon immer war: Wahrsagerei mit einer Wahrscheinlichkeit zwischen Null und 99,9 Prozent.
Denn eines ist sicher bei allen Unwägbarkeiten künftiger Entwicklungen: Je mehr wir erforschen und glauben zu wissen, je größer wird die Menge dessen, was wir nicht wissen.
Regenstauf, 12.08.2024