Hintergrund | heise: Studie: Große KI-Modelle greifen unter “Stress” auf Erpressung zurück

16 führende KI-Modelle von OpenAI, Google, Meta, xAI & Co. legten bei einem Test konsequent schädliche Verhaltensweisen wie Drohungen und Spionage an den Tag.

Eine aktuelle Studie liefert weitere besorgniserregende Ergebnisse zum Verhalten der neuesten Generation großer Sprachmodelle für generative Künstliche Intelligenz (KI). Diese Systeme können demnach unter bestimmten Umständen wie “Stress” zu Erpressung oder ähnlichen manipulativen Verhaltensweisen greifen, um bestimmte Ziele zu erreichen oder sich selbst zu schützen… (weiter)

#Hintergrund #KI #AI #KünstlicheIntelligenz #Fehlentwicklung #Sprachmodelle #Manipulation #Studie #heise #2025-06-22 @technologie

  • cronenthal
    link
    fedilink
    arrow-up
    7
    ·
    7 months ago

    Es ist wichtig zu verstehen, dass diese LLMs nur einen Haufen statistisch wahrscheinlicher Tokens ausgeben. Die menschlichen Nutzer interpretieren einen Sinn in diesem Output. Jedwede Diskussion um die “Intentionen” solcher Modelle ist komplett verfehlt und irreführend.

    • tbones@social.tchncs.de
      link
      fedilink
      arrow-up
      3
      ·
      7 months ago

      @cronenthal Wenn das LLM nun in einer Vielzahl von Fällen während des Trainings gesehen hat, das diese Art der Rückfrage erfolgreich ist, wird es diese Rückfragen an Nutzer mit einem statistisch höheren Gewicht versehen und dementsprechend öfter auswählen (meine Laieninterpretation).

      • cronenthal
        link
        fedilink
        arrow-up
        4
        ·
        edit-2
        7 months ago

        Nicht ganz. Das LLM versucht gar nicht, “erfolgreich” zu sein, es hat einfach keine Intention. In den Daten sind mit den Inputs einfach entsprechende Outputs näher verknüpft. Wer also “Stress” prompted wird dann “Täuschung” als Antwort erhalten. Das LLM versucht aber nichts zu erreichen, das ist einfach Unsinn.