Nur zur Erinnerung: Es gibt noch keine Quantencomputer, die mehr als ein paar Bits verarbeiten können mit Millionenaufwand. Dagegen sind Klimamodelle wie auch Wettermodelle so mit die rechenaufwendigsten Anwendungen, die auf heutigen Supercomputern laufen.

Und das andere: Der Grund, warum man in der Klimaforschung mit grossen Rechenmodellen und Simulationen arbeitet, ist um die vielfältigen Prozesse und ihre Relevanz besser zu verstehen. Man kann Modelle gezielt verändern um zu sehen, ob sie besser zu den aus vielen tausend vergangenen Jahren aufwendig gewonnenen Daten passen. Mit dem besseren Verständnis der Prozesse kann man dann zukünftige Entwicklungen besser vorhersagen.

Genau das kann “Machine Learning”, auch genannt automatische Mustererkennung aber eben nicht - die Rechenverfahren können die benutzten Muster nicht benennen, verstehen, oder identifizieren, die Modelle sind eine Black Box.

  • megrania
    link
    fedilink
    arrow-up
    10
    ·
    16 days ago

    Hmm in der Beschreibung steht “lernen von Parametrisierungen” … klingt eher so als ob sie bestimmte Parameterkonfigurationen eines Klimamodells mit Hilfe von ML suchen, nicht, dass das Modell selber auf ML basiert.

    Was den QML-Teil geht, kann ich da mangels Expertise nichts sagen.

    Aber an sich stelle ich mir das so vor (reine Hypothese), das z.B. die (noch unbekannten) Parameter des Modells für ein bestimmtes Wetterphänomen gesucht werden, um dann damit weiterzuforschen? Klingt erstmal nach 'nem recht legitimen Anwendungsfall für ML …

    • gigachad@sh.itjust.works
      link
      fedilink
      arrow-up
      5
      ·
      16 days ago

      Ganz genau so ist es.

      Klimamodelle wie bspw. CMIP haben ein ganzes Set an a priori zu bestimmenden Parametern, mit denen sie ins Rennen gehen. Das können Parameter sein, die etwas mit der Realität zu tun haben wie bspw. bestimmte Abflussparameter oder andere als konstant zu beschreibende Landoberflächenparameter, aber auch solche die nicht mehr viel mit dem eigentlichen Prozess zu tun haben - z.B. aufgrund der großflächigen Skala. So kann man bspw. die Rauhigkeit einer Fläche lokal recht einfach bestimmen oder sogar messen, dehnt man das auf 10 km² aus, gehen aber Einheit und Bezug verloren.

      Manche Modelle arbeiten mit 10 Parametern, manche mit 1000. Diese Parameter muss man vor den Modelläufen kalibrieren, kann man sich vereinfacht wie ein Gleichungssystem mit 1000 Variablen vorstellen. Die Lösung dieses Systems ist z.B. eine Landoberflächentemperatur oder eine Abflussgröße, häufig aber eine Metrik, die mehrere Prozessvariablen kombiniert. Nun wird die Parametrisierung aber nicht auf eine Zeit und einen Ort kalibriert, sondern für ein repräsentatives (oder sogar das ganze) Gebiet und idR ein paar Jahre Zeit. D.h. das Modell kalibriert vll. von 1980-1985 und läuft ab da im Vorhersagebetrieb.

      Die Parametrisierung ist ein klassisches Optimierungsproblem, denn ich kann keine Gleichung mit 1000 Unbekannten rechnen, ich muss approximieren. Und da kommen recht aufwendige Algorithmen ins Spiel, ein klassischer ist bspw. Shuffled Complex Evolution (SCE). Seit einigen Jahren verwendet man aber auch vermehrt Maschine Learning, weil das perfekt für die Optimierung geeignet ist. In den Parametrisierungen steckt schon so viel Black Box drin, da hat die klassische Sensitivity Analysis schon mit zu kämpfen.

      Von Quantum Processing habe ich zugegebenermaßen keine Ahnung. Aber wie es mit neuen Technologien so ist, testet man die am besten aus, bevor sie da sind. Wieso sollte das DLR nicht Ressourcen da rein stecken, Quantum computing für die Parametrisierung von Klimamodellen zu erproben, wenn auch vielleicht erstmal auf kleinerer Skala?

      Also wenn man sich über generative KI shareholder Quatsch beschwert, verstehe ich das sehr gut, das hier verstehe ich nicht. Tut mir Leid OP, aber ich glaube da hast du dich in ein Feld begeben, von dem du keine Ahnung hast.

      • megrania
        link
        fedilink
        arrow-up
        2
        ·
        16 days ago

        Danke für den Überblick :)

        Also wenn man sich über generative KI shareholder Quatsch beschwert, verstehe ich das sehr gut, das hier verstehe ich nicht.

        Ja, wird leider alles in einen Topf geworfen im Moment …

      • renormalizer@feddit.org
        link
        fedilink
        Deutsch
        arrow-up
        1
        ·
        15 days ago

        Man braucht Parametrisierungen auch, um Prozesse auf feinerer Skala als die Modellauflösung zu berechnen. Die haben einen großen Einfluss auf die Simulationen. Da geht es dann um Fragen wie “Wie viel Prozent meiner Gitterbox sind bewölkt, wenn im Mittel 80% Luftfeuchte und 10C herrschen, und die Luft mäßig turbulent ist?” Da kann man viel mit ML aus Beobachtungen lernen.

        Bei Quantenalgorithmen muss es auch nicht um universelle (Gate-) Quantencomputer gehen. Da gibt es z.B. quantum annealing, das sich prinzipiell gut für globale Optimierung eignet. Und da gibt es schon Maschinen mit tausenden qubits.

        Ob sie da aber jemanden finden, der das für TVöD E12 macht, halte ich für fraglich.

        • megrania
          link
          fedilink
          arrow-up
          3
          ·
          16 days ago

          Naja geht halt um Prototypen und theoretische Vergleiche, klingt jetzt nicht so als ob die da Millionen verbrennen … gibt bisher drei Publikationen: https://klim-qml.de/

          Hab die zwar nur überflogen, aber eigentlich ein recht spannendes Projekt wie es scheint …

        • trollercoaster@sh.itjust.works
          link
          fedilink
          Deutsch
          arrow-up
          1
          ·
          16 days ago

          Der Preis ist bei der Überlegung drittrangig, es geht um die Energiedichte, die ist nämlich bei flüssigen Kohlenwasserstoffen um ein Vielfaches höher, als bei Allem, was bisher sonst so als “alternative” Energieträger für Flugantriebe propagiert wurde.

          • HaraldvonBlauzahn@feddit.orgOP
            link
            fedilink
            arrow-up
            1
            arrow-down
            1
            ·
            edit-2
            16 days ago

            Ist das wegen der Energiedichte, dass sie auch schwere Wasserstofftanks ausprobieren, wie im Link beschrieben?

            Und: Wer möchte ernsthaft zehn mal so viel für einen kommerziellen Flug bezahlen, der hunderte Kilo Treibstoff pro Passagier kostet? So viel Geld hat doch kein Normalbürger!

            Letztlich, denke ich, ist das wie bei den Fusionskraftwerken - da wird an irgendeiner Wundertechnik geforscht, weil die Alternstive halt ist, Konsequenzen zu ziehen und Entscheidungen zu fällen. Was bei der Stromerzeugung eben die Nutzung von Ernererbaren Energien und Stromspeichern ist. Und bei der kommerziellen Luftfahrt eben, drastisch weniger zu fliegen.

            Edit: Christian Stöcker im Spiegel zu diesem Themenkomplex der Nebelkerzen-Technologie..

            • trollercoaster@sh.itjust.works
              link
              fedilink
              Deutsch
              arrow-up
              1
              ·
              16 days ago

              Wasserstoff ist tatsächlich eine der “Alternativen”, die von der Energiedichte her problematisch sind. Mit flüssigen Kohlenwasserstoffen braucht man nämlich überhaupt keine Tanks in diesem Sinne, es reicht, Hohlräume, die im Flugzeug eh schon vorhanden sind, mit ölbeständigem Lack zu versiegeln.

              Nochmal, das ist kein Kostenproblem, das ist ein Nutzlast- und Reichweitenproblem.