RE: Klimakrise - CO2 Steuer
| 17.05.2021, 15:13 (Dieser Beitrag wurde zuletzt bearbeitet: 17.05.2021, 15:16 von Lancelot.)
Hach je.
Kurzbeschreibung GISS:
=> auslesen der Rohdaten für beide Datenquellen. Das geht über deren Web Site (GHCN) und dauert ein bisschen wenn du mehr abziehen willst. Links habe ich schon 1000mal geposted.
=> um die Anomalie Kurven zu reproduzieren, die du überall im Netz siehst, musst du einen Config File verwenden, der ebenfalls im Netz verfügbar ist. Da sind einfach outlier (insbesondere für die älteren Daten) hinterlegt, die rausgefiltert werden. Die Quality Control Mechanismen, die teuilweise zu der Config führen, sind hier hinterlegt: https://pubs.giss.nasa.gov/docs/1987/198...00700d.pdf
=> Für ältere Daten musst du dann noch die "urban-adjustment" machen. Auf Basis von Nacht-Lichtstärke Messungen werden einige Stationen als "Urban" markiert. Wenn es nicht für 2/3 der Zeit mindestens 3 "rural" Wetterstationen haben um als Datenpunkt zu gelten, sonst werden sie rausgeschmissen. => eigentlich nicht wichtig und für neuere Daten unnötiig, da kommt das schon gesäubert.
=> Das Grid. Der Planet wird in 8000 ziemlich gleich große Parzellen zerlegt (wird auch im Paper beschrieben). Alles was 1200KM vom geographischen Mittelpunkt der Zelle entfernt ist, wird der Zell zugerechnet. Bedeutet: es könnte sein, das die von dir genannte Wetterstation mehrfach gewertet wird.
Das wichtigste ist das Grid. Ich alles nachprogrammiert und hatte da Fehler drin. Das führt zu stark anderen Ergebnissen. Früher gab es hier python source code von der NASA (http://clearclimatecode.org/). Die Seite ist aber down. Wenn du suchst, findest du den Code aber bestimmt. Da hab ich dann verstanden wie das Grid wirklich erzeugt wird:
Auf der Home Page der Nasa gibt es auch den old School FORTRAN code.
Wenn du das alles verstanden hast, wirst du verstehen, das deine Frage "weiss jemand wie der Durchschnitt berechnet" wird klar mit einem JA beantwortet werden kann.
Gibt es den original code. Und die original Daten. ICh habe das komplett nach FORTRAN 2018 gehoben und mit PyTorch und sklearn auf den Daten gearbeitet.
Kurzbeschreibung GISS:
=> auslesen der Rohdaten für beide Datenquellen. Das geht über deren Web Site (GHCN) und dauert ein bisschen wenn du mehr abziehen willst. Links habe ich schon 1000mal geposted.
=> um die Anomalie Kurven zu reproduzieren, die du überall im Netz siehst, musst du einen Config File verwenden, der ebenfalls im Netz verfügbar ist. Da sind einfach outlier (insbesondere für die älteren Daten) hinterlegt, die rausgefiltert werden. Die Quality Control Mechanismen, die teuilweise zu der Config führen, sind hier hinterlegt: https://pubs.giss.nasa.gov/docs/1987/198...00700d.pdf
=> Für ältere Daten musst du dann noch die "urban-adjustment" machen. Auf Basis von Nacht-Lichtstärke Messungen werden einige Stationen als "Urban" markiert. Wenn es nicht für 2/3 der Zeit mindestens 3 "rural" Wetterstationen haben um als Datenpunkt zu gelten, sonst werden sie rausgeschmissen. => eigentlich nicht wichtig und für neuere Daten unnötiig, da kommt das schon gesäubert.
=> Das Grid. Der Planet wird in 8000 ziemlich gleich große Parzellen zerlegt (wird auch im Paper beschrieben). Alles was 1200KM vom geographischen Mittelpunkt der Zelle entfernt ist, wird der Zell zugerechnet. Bedeutet: es könnte sein, das die von dir genannte Wetterstation mehrfach gewertet wird.
Das wichtigste ist das Grid. Ich alles nachprogrammiert und hatte da Fehler drin. Das führt zu stark anderen Ergebnissen. Früher gab es hier python source code von der NASA (http://clearclimatecode.org/). Die Seite ist aber down. Wenn du suchst, findest du den Code aber bestimmt. Da hab ich dann verstanden wie das Grid wirklich erzeugt wird:
Auf der Home Page der Nasa gibt es auch den old School FORTRAN code.
Wenn du das alles verstanden hast, wirst du verstehen, das deine Frage "weiss jemand wie der Durchschnitt berechnet" wird klar mit einem JA beantwortet werden kann.
Gibt es den original code. Und die original Daten. ICh habe das komplett nach FORTRAN 2018 gehoben und mit PyTorch und sklearn auf den Daten gearbeitet.
__________________
Forum-Besserwisser und Wissenschafts-Faschist