• tau
    link
    fedilink
    Deutsch
    arrow-up
    16
    arrow-down
    2
    ·
    edit-2
    1 year ago

    deleted by creator

    • luckystarr@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      6
      arrow-down
      1
      ·
      1 year ago

      Unwahrscheinlich. So etwas in der Breite zu erstellen ist nicht so einfach wie du dir das eventuell vorstellst. Erstens müssen die Kommentare von ChatGPT gelesen und verstanden werden (1 API request), dann bewertet werden ob etwas pro/contro Reddit gesagt wird (1 API request), dann eine entsprechende Response generiert werden (1 API request). Also 3 API requests pro Kommentar. Und auch wenn es einfach wäre, kostet doch jeder Zugriff auf GPT-3.5 oder GPT-4 via OpenAI’s API Geld. Skripten via ChatGPT kann zu einem Ban führen.

      • luckystarr@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        5
        ·
        1 year ago

        Nach erneutem Nachdenken glaube ich dass man das billiger lösen kann indem man verschiedene Kommentare in einem API request zusammenfasst und dann GPT anweist die Ziel-Kommentare herauszufiltern. Dann kann man das an eine andere Komponente weiterleiten und die entsprechenden Antworten generieren lassen. Es stimmt also, dass so etwas konzeptionell sicher einfach zu erstellen ist (ich bin ja schließlich auch darauf gekommen wie man so etwas baut), aber so ein Unterfangen ist sicher nicht an einem Nachmittag umgesetzt.

        • Besen@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          6
          ·
          1 year ago

          Die OpenAI Kosten werden pro Token (entspricht in etwa einigen Buchstaben) berechnet. Für längere input Texte zahlt man also mehr.

      • tau
        link
        fedilink
        Deutsch
        arrow-up
        3
        ·
        edit-2
        1 year ago

        deleted by creator