Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Zum Stand der Technik in der Wettervorhersage | Wetter | bpb.de

Wetter Editorial Vom Wissen um das Nichtwissen. Die Meteorologie im Spannungsfeld zwischen Legenden und Naturwissenschaft Eine Geschichte des Wetterwissens Zum Stand der Technik in der Wettervorhersage Wetter im Wandel. Wie der Klimawandel unser Wetter der Zukunft beeinflusst Gesellschaftlicher Umgang mit Wetterextremen. Risiko, Management und Anpassung

Zum Stand der Technik in der Wettervorhersage

Florian Pappenberger Hannah L. Cloke

/ 13 Minuten zu lesen

Durch globale Vernetzung und die Zunahme von Satellitendaten hat sich die Wetterprognose in den vergangenen Jahren deutlich verbessert. Bei der weiteren Entwicklung wird viel davon abhängen, ob mit der Vielzahl der gesammelten Daten auch die Rechenleistung wächst.

Die Wettervorhersage ist nicht nur elementarer Bestandteil unseres Alltags, sie hat auch einen immensen wirtschaftlichen und ökologischen Nutzen für die Gesellschaft: Landwirte planen auf ihrer Grundlage Anbau und Ernte; und ohne eine zuverlässige Vorhersage dürfte es in Deutschland schwerfallen, "im Jahr 2030 einen Anteil erneuerbarer Energien am Stromverbrauch von 65 Prozent zu erreichen". Wetterprognosen schützen uns auch vor Gefahren. Sie warnen uns weltweit vor Überschwemmungen, Bränden, Wirbelstürmen und anderen Extremereignissen, mit denen wir immer wieder konfrontiert sind und deren Auswirkungen sich etwa in den Sommern 2018 und 2019 zeigten, als Dürre- und Hitzewellen auch in Europa zu Ernteausfällen führten und zahlreiche Menschenleben kosteten.

Die Wettervorhersage ist freilich keine neue Erfindung. Viele kennen wohl alte Bauernregeln wie "Abendrot – Gutwetterbot’, Morgenrot mit Regen droht", eine mitunter erstaunlich präzise Kurzfristprognose, oder die weniger präzise Langfristprognose: "Ist der Januar hell und weiß, wird der Sommer gerne heiß". Moderne Technologien bilden heute die Grundlage für eine Vielzahl von unterschiedlich visualisierten Wetterprognosen und -warnungen. Die Aufgabe des Meteorologen besteht (weiterhin) darin, über die künftige Wetterlage im Zielgebiet zu informieren und so die Entscheidungsfindung zu erleichtern. Die Grundlage dieser meteorologischen Interpretation ist üblicherweise die numerische (computergestützte) Wettervorhersage.

Für numerische Wettervorhersagen werden Gleichungen aus der Strömungs- und Thermodynamik genutzt, um Aussagen über den zukünftigen Zustand der Flüssigkeitshülle der Erde zu treffen. Ausgangspunkt der Prognose ist ein Schnappschuss vom (momentanen) Anfangszustand der Hülle. Dabei werden Atmo-, Hydro- und Biosphäre, Meeresbecken und Eismassen, der Einfluss der Sonne und viele weitere Faktoren berücksichtigt und statistisch verarbeitet. Auf Basis dieser Assimilation mehrerer Millionen Wettermessungen aus aller Welt wird der zukünftige Zustand des Geosystems berechnet, wobei neben Niederschlägen, Temperaturen, Wolkenbildungen oder der Bodenfeuchtigkeit sogar die Höhe von Meereswellen prognostiziert werden kann. Bekanntermaßen sind Prognosen aber nie absolut zuverlässig. Die Wetterprognose ist da keine Ausnahme. Diese Unsicherheit ergibt sich unter anderem daraus, dass wir ein unzureichendes Bild vom Ausgangszustand des Geosystems haben. Es ist nicht möglich, überall alles zu messen. Modelle sind stets nur Annäherungen an die Wirklichkeit. Aufgrund der chaotischen Natur der Atmosphäre können schon kleine Fehlberechnungen des Anfangszustands die jeweiligen Modellergebnisse verändern. Der US-amerikanische Mathematiker und Meteorologe Edward Lorenz hat diese Unsicherheiten mit der berühmten Metapher, dass "der Flügelschlag eines Schmetterlings in Brasilien (…) einen Tornado in Texas auslösen" kann, bereits Anfang der 1970er Jahre auf den Punkt gebracht. So ist beispielsweise die Vorhersage extremer Wetterereignisse mit einem Vorlauf von mehreren Wochen oder Monaten höchst unsicher und durch mangelndes Wissen über die Vorgänge in der Atmosphäre in diesen Zeiträumen charakterisiert.

Moderne Wettervorhersagen, wie sie beispielsweise vom Europäischen Zentrum für mittelfristige Wettervorhersagen (EZMW) erstellt werden, simulieren daher immer mehrere Zukunftsszenarien. Diese Ensembles gehen von leicht abweichenden Anfangszuständen der Atmosphäre aus, folgen eigenen Verlaufslogiken und kommen zu leicht unterschiedlichen Ergebnissen. Sie versetzen Meteorologen in die Lage, Unsicherheiten bereits im Prognoseansatz zu erfassen. Diese Informationen können für Entscheidungen genutzt werden, die volkswirtschaftlich vorteilhafter sind als Entscheidungen auf Grundlage von Prognosen, die sich nur auf ein einziges Zukunftsszenario stützen.

"Stille Revolution"

Im Durchschnitt ist man auf diese Weise heute in der Lage, das Wetter drei Tage im Voraus genauso präzise vorherzusagen wie vor 30 Jahren das Wetter am nächsten Tag. Der Schlüssel dafür ist unter anderem die explosionsartige Zunahme von Satellitendaten, ergänzt durch bodennahe Messungen von zahlreichen staatlichen und privaten Beobachtungsnetzen. Forscher bezeichnen die Entwicklung der Wetterprognose daher auch als "stille Revolution". Die Messdaten kommen von Bodenstationen, Schiffen, Flugzeugen, Wetterballons und Radiosonden, die unter der Schirmherrschaft der Weltorganisation für Meteorologie (WMO) stehen und entsprechend globalen, durch die WMO festgelegten Standards folgen. Zentral sind diese auch im Bereich von Telekommunikationssystemen wie dem Global Telecommunication System, mit dem Messdaten gesammelt und verteilt werden. Durch gemeinsame Standards wird sichergestellt, dass alle Mitglieder der WMO Zugang zu allen meteorologischen Daten haben, was einen Informationsaustausch in Echtzeit ermöglicht.

So werden Prognosen für jeden Ort auf unserem Planeten ermöglicht, was insbesondere für die Vorhersage von tropischen Wirbelstürmen wichtig ist, da diese eine enorme Zerstörungskraft entfalten und regelmäßig zu schwersten Überschwemmungen und Sturmfluten führen. So bildete sich Ende August 2017 der Tropenzyklon "Irma" in der Nähe der Kapverdischen Inseln. Er fegte über Kuba und weitere Karibikinseln hinweg, bevor er die Südspitze Floridas erreichte (Abbildung). Dabei wurden Windgeschwindigkeiten von über 285 Kilometer pro Stunde gemessen. Der Versuch, Irma ohne Satellitenbeobachtungen vorherzusagen, hätte nur den Hinweis auf eine sehr schwache, westwärts über den Atlantik ziehende atmosphärische Störung erbracht. Nichts hätte auf die Entwicklung eines ausgewachsenen Tropenzyklons hingedeutet, denn die Messung einer verstärkten Konvektionsaktivität, in diesem Fall die für tropische Wirbelstürme charakteristische Zirkulationsströmung, erfordert Luftfeuchtigkeitsdaten aus einer Höhe von ungefähr 3000 Metern.

Verlauf der Tropenzyklone Jose und Irma sowie satellitenbasierte Niederschlagsmessungen vom 5. bis zum 12. September 2017 (© Quelle: NASA Earth Observatory image/Joshua Stevens (eigene Beschriftung).)

Die globalen Messungen haben dem EZMW eine Vorhersage der Zyklogenese von Irma mit einer Woche Vorlauf ermöglicht, anhand des entsprechenden Modells konnte zudem etwa fünf bis sieben Tage vorher angegeben werden, welche Inseln und Küstengebiete betroffen sein würden, was noch vor wenigen Jahrzehnten unmöglich gewesen wäre. Es gelang dagegen nicht, die Zyklonstärke richtig vorherzusagen. Dies lässt sich zumindest teilweise dadurch erklären, dass die Planquadrate, in die Meteorologen des EZMW die Erde aufgeteilt haben, noch nicht klein genug sind, um bestimmte Eigenschaften von Tropenzyklonen richtig vorher zusagen.

Die Modellauflösung bildet die Berechnungsgrundlage für die Wettergleichungen und hat großen Einfluss auf die Qualität der Wettervorhersage. Dabei wird zwischen der vertikalen und der horizontalen Auflösung unterschieden. Die vertikale Auflösung teilt die Atmosphäre senkrecht in Ebenen auf, die horizontale gibt die Größe der Gitterzelle an. Ein globales Prognosemodell wie das numerische System des EZMW arbeitet beispielsweise heute mit bis zu 128 vertikalen Ebenen, während es in den 1980er Jahren noch 16 Ebenen waren. Die höchste horizontale Auflösung für die Prognosen des EZMW beträgt derzeit etwa 9 Kilometer, in den 1990er Jahren waren es 300 Kilometer. Die erheblichen wissenschaftlichen und technischen Anstrengungen zur Entwicklung eines höher aufgelösten Modells haben beispielsweise Überschwemmungsprognosen deutlich verbessert.

Wie wichtig der Schritt zu einer höheren Auflösung ist, lässt sich auch an der Topografie veranschaulichen. Durch diese wird die atmosphärische Strömung gesteuert und blockiert sowie die Niederschlags- und Einwirkungstemperatur erhöht, die zentral für die Stärke von Wetterphänomenen wie dem Föhnwind ist. Bei einer Gittergröße von 300 mal 300 Kilometern läge der höchste Punkt in den Alpen bei 906 Metern, bei einer Größe von 9 mal 9 Kilometern sind es 3063 Meter.

Neben der Modellauflösung spielen auch Verbesserungen in der mathematischen Erfassung physikalischer Prozesse eine wichtige Rolle. Die Erhöhung der Modellauflösung muss mit einer Verbesserung der Modellphysik einhergehen, um die Prognosen für verheerende Ereignisse wie Hochwasser spürbar zu verbessern. So sind extrem hohe Niederschläge und Sturzfluten weltweit für etwa 85 Prozent der Überschwemmungen verantwortlich, insbesondere Sturzfluten jedoch auf kleine Gebiete und kurze Zeiträume beschränkt, was die Vorhersage besonders schwierig macht.

Sturzfluten werden oft durch eine Abfolge mehrerer Gewitter erzeugt, die zu einer tiefen, feuchten Konvektion führen: Feuchte Luft steigt als Reaktion auf Instabilitäten in der Atmosphäre auf. Da globale Modelle mit der aktuellen Gittergröße von 9 Kilometern diese kleinräumige Konvektion nicht simulieren können, wird diese oft in einem Schema abgebildet, das auf Basis empirisch herleitbarer Parameter näherungsweise den vertikalen Massentransport in jeder Gitterzelle erfasst. Höher auflösende Modelle oder Modelle mit Konvektionskomponente kommen ohne diese Parametrisierung aus. Durch diese "Nowcasts" lässt sich die Atmosphärenkonvektion mit ausreichender Genauigkeit abbilden und lassen sich so der Niederschlag und die Bewölkung entsprechend besser prognostizieren, was bei der Vorhersage einzelner Stürme und anderer kleinräumiger Ereignisse zu zuverlässigeren Ergebnissen führt als im Falle von numerischen Wettermodellen. Da die Veröffentlichung abweichender Prognosen durch Warndienste zu Irritationen in der Öffentlichkeit führen könnte, hat beispielsweise der Deutsche Wetterdienst (DWD) mit dem integrierten Vorhersagesystem "Sinfony" ein Pilotprojekt ins Leben gerufen, das die Prognosemodelle zusammenführen soll.

Eine weitere Möglichkeit zur Verbesserung der Niederschlagsprognose bietet das Maschinelle Lernen (ML). Dabei werden Archivprognosen und Fehlerstatistiken mit den tatsächlichen Messungen verglichen. ML, das mittlerweile auch von vielen kommerziellen Anbietern genutzt wird, eignet sich prinzipiell für jedes Wettermerkmal, beispielsweise zur Prognose der Temperatur, Windgeschwindigkeit oder Bewölkung. Die meisten Verfahren nutzen Prognosen von mehreren Zentren als Input, da die Differenzen eine bessere Ergebnisbandbreite erlauben. Ein bestimmtes Vorhersagemodell mag im Durchschnitt anderen überlegen sein, doch die Tagesqualität der Modelle ist variabel und auch vom Zielgebiet abhängig. So unterscheidet sich die Ensemblemethode der Nationalen Ozean- und Atmosphärenbehörde der Vereinigten Staaten von der Methode des EZMW. In ML-Verfahren kann von diesen Differenzen oder individuellen systematischen Fehlern profitiert werden, indem historische Datensätze analysiert und bestimmte Prognosen, die im Durchschnitt besser abschneiden als andere, höher gewichtet werden.

Viele Wetter-Apps nutzen ML für ihre Vorhersagen, die deutlich besser sind als rohe Modellausgabedaten. Diese Verfahren sind, wie durch das Europäische Hochwasserwarnsystem im Oktober 2007 bei den Überschwemmungen in Rumänien gezeigt wurde, für die Hochwasservorhersage geeignet. Mit dem Point-Rainfall-Projekt des EZMW und den Model-Output-Statistics-Verfahren des DWD existieren zwei weitere auf ML basierende Modelle, die unter anderem unterschiedliche Prognosemodelle, Boden- und Radarmessungen und Blitzeinschläge statistisch kombinieren, um so Sturzfluten vorherzusagen. ML wäre auch bei der Prognose von Merkmalen wie der Windstärke, Wellenhöhe, Wasserqualität und Humangesundheit sehr nützlich.

Zukunftsperspektiven

Die Qualität der numerischen Wettervorhersage wird sich weiter verbessern. Das EZMW hat sich beispielsweise das Ziel gesetzt, Wettereignisse wie Extremniederschläge mit zwei Wochen Vorlauf (statt aktuell einer Woche) und großräumige Wetterphänomene beziehungsweise Änderungen der Großwetterlage, die insbesondere mit Blick auf Hitzewellen und Dürren wichtig sind, mit vier Wochen Vorlauf (statt aktuell zwei Wochen) vorherzusagen. Auf globaler Ebene sollten Vorhersagen für großräumige Anomalien wie La Niña oder El Niño, die durch periodische Änderungen der Meeresoberflächentemperatur des äquatornahen Pazifiks alle drei bis sieben Jahre das Wetter auf der ganzen Welt beeinflussen und stets von Naturkatastrophen begleitet werden, bis zu einem Jahr im Voraus (statt aktuell sechs bis neun Monaten) getroffen werden können. Der Erfolg hängt allerdings von Fortschritten in mehreren Bereichen ab.

Modellierung der Erde

Ältere numerische Wettervorhersagesysteme konzentrierten sich weitgehend auf die Modellierung der Atmosphäre. Bei dieser Konzentration auf die Atmosphäre wurden unter anderem die Auswirkungen von Aerosolen vernachlässigt. Diese festen oder flüssigen Partikel können – je nach chemischer Zusammensetzung – beispielsweise die Sonnenstrahlung reflektieren und absorbieren, was wiederum Wärmeverteilung in der Atmosphäre verändern oder die Fotosynthese beeinflussen kann. Zudem wurden Ozeane und Landflächen als nahezu konstante Größen behandelt. Das Geosystem ist jedoch vielschichtiger. Die Komponenten – Ozeane, Landoberflächen, Meereis, Atmosphäre, Biosphäre und der Mensch – interagieren auf komplexe Weise. Es lässt sich bereits nachweisen, wie die direkte Kopplung der Ozeane an die Atmosphärenmodelle die Vorhersagen für mittlere Zeiträume und für Jahreszeiten verbessern kann. Eine weitere Verbesserung der numerischen Vorhersage muss die Wechselwirkungen sämtlicher Komponenten des Geosystems ausreichend komplex abbilden können. Das erfordert verstärkte Anstrengungen zur besseren Repräsentation der Geophysik. Insbesondere ist die zusätzliche Aufnahme einer Reihe natürlicher Faktoren notwendig. So sollten Abbrüche von Eisbergen, Auenwaldüberschwemmungen oder die Entwicklung des Küstenschelfe, aber ebenso die Auswirkungen des städtischen Autoverkehrs und der bebauten Umwelt auf die Atmosphäre stärker in die Modellierung der Erde integriert werden. Das erfordert Milliarden zusätzlicher Messungen für die Datenassimilation.

Informatik und Skalierbarkeit

Die weitere Verbesserung der Wettervorhersage ist eng an eine Steigerung der Rechenleistung geknüpft. Jede spürbare Prognoseverbesserung hängt ganz wesentlich von der Verfügbarkeit geeigneter Hochleistungsrechner und Datenverarbeitungssysteme ab. Da sich die Fortschritte in der Rechentechnik zu verlangsamen scheinen, die Vorhersagesysteme zugleich aber weiterhin komplexer werden, dürften sich künftige Prognoseverbesserungen kaum noch auf die heutige Art und Weise erzielen lassen. Insbesondere der Energiebedarf könnte zu einer problematischen Größe werden, da es mit der aktuellen Computerarchitektur bald unmöglich sein wird, Prognosen zu angemessenen Kosten abzugeben. Das macht neue Konzepte für die numerische Wettervorhersage erforderlich. Weitere Prognoseverbesserungen werden weniger von der Steigerung der Einzelprozessorleistung erwartet, sondern eher vom massenhaften Einsatz von Spezialprozessoren. Dieser Paradigmenwechsel erfordert ein komplettes Umdenken in der numerischen Wettervorhersage.

Bei manchen Wettervorhersagemodellen und anderen numerischen Systemen wurde dieser Schritt bereits gemacht und ihre Rechenpower verstärkt auf Grafikprozessoren gestützt. Künftige Exascale-Computersysteme werden verstärkt auf das Zusammenwirken unterschiedlicher Disziplinen angewiesen sein. Kooperationen zwischen Wettermodellentwicklern, Informatikern und Hardwareanbietern sind daher notwendig, damit die numerische Wettervorhersage von den weiteren Fortschritten in der Rechentechnik profitieren kann. Zu den vielen spannenden Möglichkeiten, die sich künftig bieten werden, gehört zudem insbesondere das noch junge Quantencomputing.

Maschinelles Lernen und Künstliche Intelligenz (KI)

ML und KI haben sich in vielen Bereichen als effizienter erwiesen als der Mensch. Ihre Fähigkeit zur Wissensextraktion aus komplexen, umfangreichen Datenbeständen – das aktuelle EZMW-Archiv hat einen Umfang von 466 Petabyte, was etwa 60 Millionen Spielfilmen entspricht – macht sie besonders geeignet für die numerische Wettervorhersage. Darüber hinaus können solche Verfahren eine Rolle bei der Vorbereitung von Beobachtungen, der Optimierung von Arbeitsabläufen und der Modellierung komplexer physikalischer Prozesse spielen und somit die Berechnungen beschleunigen. Die Verfahren kommen bereits zum Einsatz, um die Reaktion des menschlichen Körpers auf atmosphärische Bedingungen zu modellieren und um Bodenfeuchtekurven in der Datenassimilation zu schätzen. Die Verfahren und ihre praktische Anwendung stehen noch am Anfang, zeigen aber schon jetzt großes Potenzial. Zugleich wird anhand des spektakulären Aufstiegs der KI die Rolle des Meteorologen hinterfragt, was Anpassungen erforderlich machen könnte, da viele Aufgaben, die heute per Hand von einem Menschen durchgeführt werden, in der Zukunft automatisiert erledigt werden.

Internet der Dinge

Die numerische Wettervorhersage ist eine ausgesprochen datenhungrige Fachrichtung. Als Faustregel gilt: Je mehr Daten, desto besser die Prognose – denn die Messdaten sind ausschlaggebend für die Festlegung der Anfangsbedingungen des Geomodells. Üblicherweise stammen die Messungen von einer begrenzten Anzahl von Quellen, und insbesondere für Vor-Ort-Beobachtungen sind nur relativ wenige Messdaten verfügbar. Das dürfte sich bald ändern. Moderne Smartphones können Luftdruck und Temperatur messen, immer mehr Wetterbegeisterte haben sich eigene preiswerte Wetterstationen gebaut, moderne Autos können bestimmte Umgebungsdaten wie die Vereisung von Straßen messen und aus der Geschwindigkeit von Scheibenwischern lässt sich die Niederschlagsmenge ableiten.

Diese Daten finden allmählich Eingang in die Wettervorhersage. So übernimmt der norwegische Wetterdienst seit kurzem Messungen aus einem Bürgerbeobachtungsnetz und konnte dadurch die Vorhersagegüte für bodennahe Temperaturen deutlich steigern. Die Umweltdaten, die zunehmend über das Internet der Dinge bereitgestellt gestellt werden (können), bilden die Grundlage für die nächste "stille Revolution" in der Wettervorhersage. Sie wird unseren Alltag noch sicherer machen – unabhängig davon, ob es um die Entscheidung für oder gegen einen Regenschirm, um die Nutzung von Windenergie oder die Prävention von Hochwasserkatastrophen geht.

ist Direktor des Geschäftsbereichs Vorhersagen am Europäischen Zentrum für mittelfristige Wettervorhersagen (EZMW). E-Mail Link: florian.pappenberger@ecmwf.int

ist Professorin für Hydrologie an der University of Reading in Großbritannien und der Uppsala University in Schweden. E-Mail Link: h.l.cloke@reading.ac.uk