Untersuchung der überirdischen Dinge“ oder „Untersuchung der Himmelskörper.

Als ein kleiner Rechenfehler, „Schmetterlingseffekt“ genannt, ein Chaos verursachte.

Flattert ein Schmetterling in Brasilien, beeinflusst er dadurch die Atmosphäre und kann damit zu einem Wirbelsturm in Texas beitragen: Dieses Phänomen ist als Schmetterlingseffekt bekannt. Der Begriff stammt von Edward Lorenz, dem Wegbereiter der Chaostheorie – Stand: 22.05.2017 |Bildnachweis

Edward Norton Lorenz wurde am 23. Mai 1917 in West Hartford im US-amerikanischen Bundesstaat Connecticut geboren. Schon früh, so erklärte er in einem Buch, habe er sich für Zahlen interessiert. Zunächst ging er ans Dartmouth College, dann machte er 1940 an der Harvard University seinen Master in Mathematik. Während des Zweiten Weltkriegs arbeitete er an Wettervorhersagen für die Luftstreitkräfte der US-Armee. 1946 kam er ans Massachusetts Institute of Technology (MIT) und studierte Meteorologie. Dort promovierte er und erhielt 1962 eine Professur. Und bei seiner Arbeit am Institut entdeckte er auch den Schmetterlingseffekt.

Ein kleiner Fehler von Lorenz zeigt große Wirkung

1961 arbeitete Lorenz mit einem – für heutige Verhältnisse – primitiven Computer an einem einfachen Wettervorhersage-Modell. Zur Simulation verwendete er drei Variablen: Temperatur, Luftdruck und Windrichtung und setzte diese in Beziehung. Er spielte sein Modell durch und bekam erste Ergebnisse. Doch als er das Modell ein weiteres Mal durchrechnete, unterlief ihm ein minimaler Fehler: Statt seine Berechnungen wie beim ersten Mal mit der Zahl 0,56127 durchzuführen, ließ er versehentlich die letzten drei Ziffern weg und verwendete 0,56. Diese minimale Veränderung führte zu einem komplett anderen Ergebnis.

Kleine Veränderungen können Großes bewirken
Ein schmetterlingsähnliches Gebilde aus Linien, die sich nie überschneiden.

Lorenz ging der Sache nach. Er stellte fest, dass kleinste Variationen in einem dynamischen deterministischen Prozess – wie in einem Wettermodell – später zu sehr großen Unterschieden führen können. Diese Abhängigkeit von den Anfangsbedingungen wurde bekannt als sogenannter Schmetterlingseffekt. Die Metapher steht seither dafür, dass Zusammenhänge so komplex sind, dass kleinste Abweichungen größte Wirkung haben können. Sein Beispiel: das globale Wetter, das langfristig nicht vorhersehbar ist. Demnach ist das Wetter ein sogenanntes deterministisches chaotisches System. Lorenz erkannte, dass hinter dem Phänomen ein relativ einfaches Gleichungssystem steht, das wiederum ein Muster von unendlicher Komplexität hervorruft und niemals zum selben Ergebnis führt. Das war der Beginn der „Chaos-Theorie“.

Der Schmetterlingseffekt:

Der „Schmetterling“ kam Lorenz in den Sinn, als er eine Computer-Grafik zu seinen Berechnungen sah: Sie stellt die Ergebnisse eines einfachen Wettermodells durch abstrakte Punkte und Linien dar: Sie zeigt zwei „Flügel“, die Schmetterlingsflügeln ähneln, aus aneinandergereihten Punkten. Jeder Punkt entspricht der Lösung des Differentialgleichungssystems, das aus den drei Variablen besteht. Dabei beschreiben die Punkte eine chaotische Bewegung auf einer Schleifenlinie im dreidimensionalen Raum, die sich niemals trifft. Auch, wenn man für die Atmosphäre diese Berechnungen immer wieder macht und diese niemals identisch sind, so behalten sie trotzdem immer wieder dieselbe schmetterlingshafte Form.

Kyoto-Preis für grundlegende wissenschaftliche Erkenntnis:

Bis 1987 war Lorenz als Professor am Massachusetts Institute of Technology (MIT) tätig. Neben zahlreichen anderen wissenschaftlichen Auszeichnungen – so erhielt er 1983 den Crafoord-Preis der Königlich Schwedischen Akademie der Wissenschaften in Geowissenschaften und wurde 1988 in die Akademie der Wissenschaften der ehemaligen Sowjetunion (UdSSR) aufgenommen – bekam er 1991 den Kyoto-Preis in der Sparte Grundwissenschaften. Bei der Verleihung wurde seine Chaos-Theorie „als eine der dramatischsten Veränderungen in der Sicht der Menschheit auf die Natur seit Sir Isaac Newton“ gewürdigt. Am 16. April 2008 starb Edward Lorenz mit 90 Jahren.

Chaosforschung:

Die Chaosforschung ist ein Teilgebiet der Physik und Mathematik und befasst sich mit der Ordnung in dynamischen Systemen. Als dynamisches System versteht man das mathematische Modell eines Prozesses, dessen Verlauf ganz entscheidend vom Anfangszustand abhängt und den man nicht langfristig vorhersehen kann. Solch ein nicht linearer, unvorhersehbarer Vorgang ist auch das Wetter. Ein weiteres Beispiel für chaotische Systeme ist das Verkehrschaos – bei dem der Name Programm ist: Es ist unmöglich zu wissen, wann es an bestimmten Stellen exakt wieder zu einem Stau kommt. Auch die Umlaufbahnen von Planeten und Monden sind nicht endlos im Voraus zu berechnen.

Ausnahme die Meteorologie:

Mahgue – Eigenes Werk – Atmosphärische Bewegungen und ihre typischen Ausdehnungen in Raum und Zeit nach Heinz Fortak: Meteorologie. 2 Auflage. Reimer, 1982, ISBN 978-3496005063 und 100 Sekunden Natur-Gesetz-Mäßigkeiten u.a. Chaostheorie.

Einen Quantensprung in der Wettervorhersage ermöglichen die rasanten Fortschritte in der Elektronischen Datenverarbeitung („EDV“) und die schnell wachsende Rechenleistung. Immer größere Datenmengen von immer mehr Messstationen werden verarbeitet. Die komplexen Algorithmen und Modelle, nach denen sie ausgewertet werden, erfordern leistungsstarke Rechenanlagen. Dadurch werden die Vorhersagen präziser und auch detaillierter in ihrer lokalen Auflösung. Zwar ist der Hauptfokus der Meteorologie auf die großskaligen dynamischen Prozesse innerhalb der heutigen Erdatmosphäre gerichtet, jedoch sind die im Rahmen eines besseren Verständnisses der Wetterdynamik entwickelten Modellvorstellungen desselben auch auf andere Systeme übertragbar.

Man zählt daher auch begrenzte Raumklimate bzw. Stadtklimate, extraterrestrische Atmosphären oder Atmosphären vergangener Erdzeitalter (Paläoklimatologie) zu den Studienobjekten der Meteorologie. Diese spielen jedoch meist nur in der Forschung eine größere Rolle, wo sie auch teilweise als „Spielwiese“ zur Verbesserung derjenigen Modelle dienen, die auch die derzeitige Erdatmosphäre beschreiben. Man versucht daher, durch genaue Beobachtungen der Erdatmosphäre eine gesicherte Datengrundlage auszubilden und gleichzeitig diese Daten für die Schaffung eines immer besseren Verständnisses meteorologischer Prozesse heranzuziehen.

Viele Methoden, Herangehensweisen und Ideen der dynamischen Meteorologie entspringen der allgemeinen Fluiddynamik und finden weitere Anwendung in MeereskundeGeophysik und Ingenieurwissenschaft sowie in fast allen Umweltwissenschaften.

Die Meteorologie ist – abgesehen von der Wetterbeobachtung (Wetterkunde) – eine junge Wissenschaft. Sie besitzt einen außerordentlich interdisziplinären Anspruch, vereint also sehr viele verschiedene Wissenschaften in sich. Wissenschaftliche Fachgebiete, die von der Meteorologie genutzt oder berührt werden, sind:

Die Meteorologie lässt sich nach verschiedenen Richtungen unterteilen, wobei sich einige von ihnen stark überschneiden.

Teilgebiete
nach Verfahren nach räumlichen Gegebenheiten nach angewandten Techniken
allgemeine Meteorologie Aerologie Satellitenmeteorologie
theoretische Meteorologie Aeronomie Radar-Meteorologie
dynamische Meteorologie[11] Grenzschicht-Meteorologie LIDAR-Meteorologie
experimentelle Meteorologie Mikrometeorologie
angewandte Meteorologie

 

Maritime Meteorologie
Alpine Meteorologie
Glaziale Meteorologie
Polare Meteorologie
Mittelbreiten-Meteorologie
Tropische Meteorologie

Diese Zusammenstellung ist nicht vollständig. Insbesondere beschäftigt sich die Meteorologie nicht nur mit der Troposphäre, also der untersten Schicht der Atmosphäre, sondern auch mit Stratosphäre und in beschränktem Umfang sogar mit Mesosphäre und Thermosphäre.

Datenquellen und Datenqualität

Die wichtigste Aufgabe und zugleich das größte Problem der Meteorologie als empirischer Wissenschaft besteht in der Erfassung, Bearbeitung und insbesondere in der Bewertung und dem Vergleich von Daten. Im Unterschied zu anderen Naturwissenschaften kann man in der Meteorologie dabei nur für eine kleine Minderheit von Fragestellungen kontrollierbare Laborbedingungen herstellen. Meteorologische Datenerfassung ist daher in der Regel an die von der Natur vorgegebenen Rahmenbedingungen geknüpft, was die Reproduzierbarkeit von Messergebnissen einschränkt und insbesondere den Reduktionismus auf geschlossene, durch eine Messung beantwortbare, Fragestellungen erschwert.

Anordnung der Wetterdaten

Die wichtigsten Grundgrößen sind:

Viele dieser Messwerte werden in Klimagärten erhoben.

Diese Größen werden in verschiedenen Standardformaten zum Datenaustausch bereitgestellt. In der Luftfahrt wird beispielsweise der Meteorological Aviation Routine Weather Report (METAR)-Code genutzt, für die Übertragung meteorologischer Daten von Landstationen der SYNOP FM12/13-Code, auf See gewonnene Daten werden mit dem Ship-Code verschlüsselt. Zur Klassifizierung der Ausprägung eines Parameters können unterschiedliche Hilfsmittel eingesetzt werden, für Wind beispielsweise kann die Beaufortskala oder die Sichtmarkentabelle einer Wetterstation dienen. Meteorologische Daten werden abhängig vom jeweiligen Status einer Wetterstation im Messnetz (als Klimastation, Niederschlagsmessstation oder synoptische Station) stündlich oder 2- bis 3-mal am Tag (um 7 und 19 Uhr oder um 7, 12 und 19 Uhr) gewonnen und international ausgetauscht sowie national verarbeitet. Die Daten werden durch eine Vielzahl von meteorologischen Messgeräten erfasst, wobei die folgende Aufzählung nur die wichtigsten Beispiele aus dieser Vielfalt auflistet:

Wetterkarte mit Stationsdaten

Aus der Vielzahl von Messgeräten, der Art der Messgrößen und den Zielen ihrer Verwendung ergeben sich zahlreiche Probleme.

Für die Messgröße Niederschlag beispielsweise sind verschiedene Messgeräte zur Erfassung von Regen, Tau, Schnee und Hagel weit verbreitet und praxiserprobt. Aus methodischen Gründen wird die Erfassung von flüssigem (RegenTau) und festem (SchneeHagel) Niederschlägen unterschieden und die Messgröße daher nach den erfassten Niederschlagsarten klassifiziert angegeben. Die Messgenauigkeit der marktgängigen Verfahren zur Bestimmung des flüssigen Niederschlages kann mit ca. 30 % angesetzt werden, die des festen Niederschlages ist nicht besser. Andere Hydrometeore werden durch Ansaugen einer Luftmenge oder durch die Ablagerung an Stäben erfasst und volumetrisch bestimmt.

Die Qualität der Niederschlagsmessungen wird in erster Linie durch die Parameter Wind, Lufttemperatur, Aufstellungshöhe über Grund, Verdunstung und Aufstellort beeinflusst. Die Frage ihrer Vergleichbarkeit beziehungsweise der notwendigen Korrekturen ist Gegenstand wissenschaftlicher Diskussionen; für verschiedenste Niederschlagsmesser sind bereits zahlreiche Vergleiche durchgeführt worden (siehe hierzu WMO bzw. CIMO).

Auch die Messung der anderen meteorologischen Größen ist mit ähnlichen, wenn auch geringeren Problemen behaftet: beispielsweise konnte lange Zeit die vertikale Komponente der Windgeschwindigkeit nicht richtig erfasst werden und auch heute noch ist die Messung vertikaler Gradienten sehr aufwändig. Man beschränkt sich daher auch meist auf Bodenmessungen, wobei man je nach Messgröße standardisierte Bodenabstände von meist zwei oder zehn Metern anwendet. Zu beachten ist hierbei, dass eine einzelne meteorologische Messung nahezu bedeutungslos ist und die Wetterdynamik in größeren Raumskalen nur durch eine Vielzahl von Messungen verstanden und prognostiziert werden kann. Diese Messungen müssen hierfür jedoch vergleichbar sein, weshalb die Normung und Standardisierung von Messgeräten und Messverfahren in der Meteorologie essenziell ist, aufgrund vielfältiger praktischer Probleme jedoch nur bedingt umgesetzt werden kann. Man spricht daher auch von Messnetzen und der Einrichtung von Wetterstationen. Diese befolgen in der Regel die VDI-Richtlinie 3786 oder andere, teilweise weltweit durch die World Meteorological Organization standardisierte Richtlinien.

Zu einer räumlichen Vergleichbarkeit der Daten, die zur Wettervorhersage notwendig ist, kommt jedoch auch eine zeitliche Vergleichbarkeit, die unter anderem für Klimaprognosen eine entscheidende Rolle spielt. Wird die Entwicklung der Messgeräte und damit der Messgenauigkeit bei der Analyse teilweise sehr alter Daten nicht berücksichtigt, so sind diese Daten wissenschaftlich beinahe wertlos, weshalb weltweit oft veraltete und seit Jahrzehnten unveränderte Messgeräte noch sehr weit verbreitet sind. Auch ist dies eine Kostenfrage, denn es ist hier nicht immer sinnvoll, die modernsten und damit teuersten Messgeräte zu verwenden, da diese nur für einzelne Länder bzw. Institute bezahlbar sind. Zudem ist jeder Wechsel der Messapparatur mit einem Wechsel der Datenqualität verknüpft, was bei längeren und sehr wertvollen Messreihen von vielen Jahrzehnten bis wenigen Jahrhunderten leicht zu falsch postulierten bzw. interpretierten Trends führen kann. Es wird also oft zugunsten der Vergleichbarkeit auf eine höhere Genauigkeit verzichtet. Bei einer globalen Erwärmung von wenigen Grad Celsius sind diese sehr alten Daten meist wenig hilfreich, da schon ihr Messfehler in der Regel den Effekt dieser möglichen Temperaturänderungen übersteigt. Ein großer Teil der Argumente von sogenannten „Klimaskeptikern“ basiert auf dieser teilweise umstrittenen Datenlage, es existieren jedoch auch andere natürliche Klimaarchive mit wesentlich genaueren Daten über sehr lange Zeiträume. Mit der Diskussion um die Aussagekraft von Temperaturaufzeichnungen hat sich u. a. das BEST-Projekt an der Universität Berkeley beschäftigt.

Es ergibt sich also die Notwendigkeit, bedingt durch standortspezifische, personelle und messtechnische Faktoren, Messdaten kritisch zu hinterfragen und diese richtig einzuordnen. In der Meteorologie steht hierbei die räumliche Datenanalyse im Vordergrund, in der ansonsten eng verwandten Klimatologie spielt hingegen die zeitliche Datenanalyse (Zeitreihenanalyse) die Hauptrolle.

Strahlungsmessung

Die Gewinnung von physikalischen Größen aus Messungen in verschiedenen Bereichen des elektromagnetischen Spektrums ist eine Herausforderung, die nur mit großem technischen Aufwand sowie durch Einsatz von Modellen gelingt.

Satellitenmessung

Ein wichtiges Hilfsmittel für Meteorologen, speziell der Satellitenmeteorologie, bilden heutzutage die Satelliten, insbesondere die Wetter- und Umweltsatelliten. Man unterscheidet hierbei geostationäre Satelliten, die in einer Höhe von 36’000 km stationär über der Erde verankert sind, und Satelliten, die auf einem LEO in 400 bis 800 km die Erde umkreisen. Aufgrund der großflächigen Erfassung von Messdaten lassen sich mit Satelliten globale Zusammenhänge erfassen und damit letztendlich auch verstehen. Nur mittels Satelliten ist es heutzutage möglich, Informationen in Form von Beobachtungen auf globaler Basis und täglich aufgelöst über die Atmosphäre zu erlangen. Insbesondere den Zustand und die Zusammensetzung der oberen Atmosphäre (Stratosphäre, Mesosphäre, Thermosphäre) kann man nur wirkungsvoll durch den Einsatz von Satelliten untersuchen.

Hohe räumliche und zeitliche Auflösung von Satellitendaten ist wünschenswert, da man dadurch in die Lage versetzt wird, effektiv Atmosphärenbestandteile und deren Änderung zu überwachen. Satellitendaten leisten beispielsweise bei der Überwachung der Entwicklung der Ozonlöcher wertvolle Dienste, indem man aus Satellitenmessungen direkt den Gehalt von Ozon pro Höhe und pro Tag sehr genau abschätzen kann. Viele andere atmosphärische Spurengase werden auf diese Weise überwacht (beispielsweise MethanKohlendioxidWasserdampf), aber auch Druck und Temperatur in der Atmosphäre können so sehr genau und räumlich exakt bestimmt werden. Die fortschreitende Entwicklung der Instrumente und der Trend zu kleinen Hoch spezialisierten Satelliten macht es darüber hinaus möglich, auch anthropogen induzierte Störungen der Atmosphärenzusammensetzung zu verfolgen. Zusammen mit in-situ durchgeführten Messungen (beispielsweise per Ballon) und Modellrechnungen ergibt sich so nach und nach ein immer geschlosseneres Bild des Zustandes der Erdatmosphäre.

Troposphärische Satellitendaten werden genutzt, um Erkenntnisse über Regionen zu erhalten, die keiner anderen Messmethode zugänglich sind. Ein Beispiel sind Niederschlagsschätzungen oder Windgeschwindigkeitsbestimmungen über den Ozeanen. Dort hat man kein enges Messnetz zur Verfügung und war lange Zeit auf großflächige Datenextrapolationen angewiesen, was selbst heute noch dazu führt, dass bei stark maritim geprägten Wetterlagen, beispielsweise an der Westküste Nordamerikas, wesentlich geringere Vorhersagequalitäten erreicht werden können als bei kontinental bestimmten Wetterlagen. Alle nicht satellitengestützten Datenerhebungen auf dem Ozean stammen hierbei aus Schiffs– oder Bojenmessungen beziehungsweise von Messstationen auf vereinzelten Inseln. Kenntnisse zu den Wetterverhältnissen über den Ozeanen können daher zu einer Verbesserung der Gesamtvorhersagen von Niederschlagsereignissen an Küsten führen. Dies ist gerade für vom Monsun betroffene Länder, wie Indien, eine lebenswichtige Information.

Satellitendaten werden, beispielsweise über die sogenannte Datenassimilierung, als Grundlage in der Klimatologie genutzt, um deren Modelle zu verbessern bzw. zu stützen und eine umfassende und gleichmäßige Datenerfassung zu ermöglichen.

Die Arbeit mit Satellitendaten erfordert weitreichende Kenntnisse in der Datenverarbeitung und der damit zusammengehörenden Technik und der Techniken (beispielsweise effiziente Programmierung). Große Datenmengen (heutzutage im Bereich von Terabytes) müssen empfangen, weitergeleitet, gespeichert, verarbeitet und archiviert werden.

Modelle und Simulationen

Besonders in der Klimatologie (Klimamodell), aber auch in der Meteorologie (Numerische Wettervorhersage) und Fernerkundung spielen Modelle eine herausragende Rolle. Sie gewinnen ihre Bedeutung durch verschiedene Faktoren:

  • Mit zunehmender Entwicklung der Messtechnik und dem steigenden Anspruch an Wettervorhersagen steigt auch die Datenmenge enorm an. Dadurch ist eine schriftliche Auswertung der Daten auf Wetterkarten nicht mehr ausreichend. Vereinfachte Modelle und Rechnersimulationen sind daher schneller, kostengünstiger und ermöglichen erst die umfangreiche Datenauswertung.
  • Der Zeiträume in denen viele Effekte, beispielsweise Meeresspiegelschwankungen, auftreten sind enorm lang und können nur mit Modellen simuliert werden. Sie sind nicht direkt beobachtbar und zudem existieren keine durchgehenden und qualitativ ausreichenden Messreihen für solche Zeiträume. Meteorologen haben also in der Regel kein Labor, in dem sie Messungen durchführen können, und sind daher auf theoretische Modelle angewiesen. Diese müssen daraufhin wiederum mit real beobachteten Effekten verglichen werden. Ausnahmen sind beispielsweise die Klimakammer AIDA des Forschungszentrums Karlsruhe und die Klimakammer am Forschungszentrum Jülich.

Das Design von Modellen ist ebenso eine Herausforderung, wie deren inhaltliche Gestaltung. Nur Modelle, welche die Natur möglichst adäquat beschreiben, sind in Forschung wie Praxis sinnvoll einsetzbar. Da solche Modelle wegen der Komplexität des modellierten Systems leicht ganze Rechenzentren beschäftigen können, ist eine effiziente Algorithmik, also die Natur vereinfachende statistische Annahme, ein wichtiger Punkt bei der Entwicklung der Modelle. Nur auf diese Weise können Rechenzeit und somit die Kosten überschaubar gehalten werden.

In den 1920er-Jahren hat der Mathematiker Lewis Fry Richardson Methoden entwickelt, mit Hilfe, derer die enorme Komplexität mathematischer meteorologischer Modelle angegangen werden konnten. Diese sind heute noch häufig die Grundlage meteorologischer Simulationen (Simulationsmodell) auf Supercomputern. Diese dienen daher auch nicht ohne Grund in sehr vielen Fällen zur Simulation der Wetter- bzw. Klimadynamik, wobei diese ihre Grenzen, trotz teilweise gigantischer Größendimensionen, schnell erreichen.

Es lassen sich verschiedene Arten von Atmosphärenmodellen grob unterscheiden: Strahlungstransfermodelle (bspw. KOPRA), Chemietransportmodelle (bspw. ECHAM) und dynamische Modelle. Der Trend geht jedoch zu integrierten Modellen oder „Weltmodellen“, die die gesamte Natur nachzeichnen (SIBERIA 2).

Bei der Verbesserung der Qualität der Modelle fließen, wie überall in der physikalischen Modellierung, sowohl statistische Verfahrensweisen als auch experimentelle Beobachtungen, neue Ideen usw. in das Verfahren ein. Ein bekanntes Beispiel hierfür ist die Entwicklung, die zur Erkenntnis geführt hat, dass die Veränderung von Spurengasmengen in der Atmosphäre (bspw. Kohlendioxid oder Ozon) zu einer „ungesunden“ Wärmeentwicklung der Biosphäre führen können (bspw. Treibhauseffekt, Abkühlung der Stratosphäre). Auch die Entdeckung des Ozonloches und die Verstärkung des Augenmerks der Wissenschaftler auf die damit zusammenhängende Atmosphärenchemie fällt in diese Kategorie.

Einfachstes meteorologisches Modell und zugleich die erste Bewährungsprobe für alle neu entwickelten Modelle zur Wettervorhersage ist die simple Übertragung des aktuellen Wetters auf die Zukunft. Es gilt hierbei der einfache Grundsatz eines konstanten Wetters, man nimmt also an, das Wetter des nächsten Tages wird dem des aktuellen Tages entsprechen. Dies wird als Persistenzprognose bezeichnet. Da Wetterlagen oft lange nahezu gleich bleibend sind, hat diese einfache Annahme bereits eine Erfolgswahrscheinlichkeit von circa 60 %.

Wetterdaten

Um den Austausch von Wetterdaten (aktuell, historisch, prognostiziert) zu vereinfachen, hat die Weltorganisation für Meteorologie (WMO) das Datenformat GRIBengl. GRIdded Binary, definiert. Die Rechtslage ist ausgesprochen komplex (ebenso wie bei den Geoinformationen). Relevant ist vor allem das Urheberrecht und insbesondere das Datenbankschutzrecht, das sich auf Sammlungen von Wetterdaten bezieht (siehe Datenbankwerk). Es gibt allerdings auch europäische Richtlinien zur Weiterverwendung von Daten des öffentlichen Sektors (Public Sector Information, in Deutschland umgesetzt als Informationsweiterverwendungsgesetz) sowie zur Verbreitung von Umweltinformationen (in Deutschland umgesetzt als Umweltinformationsgesetz), die auf die Rechte an Wetterdaten und deren Verbreitung wirken.