Hochschulen wollen KI ab Mitte des Jahres vollständig für alle Aufgaben zu Hause erlauben. Gleichzeitig sollen mündliche Prüfungen wichtiger werden.

  • fyffes@feddit.org
    link
    fedilink
    arrow-up
    8
    ·
    12 hours ago

    Um hier auch mal die Perspektive einer Hochschule einzubringen: Ich kann es nachvollziehen, ist bei uns ähnlich. Ich teile viele der hier geäusserten Bedenken. Aber es ist auch wahr, dass LLMs hier sind, bleiben werden und genutzt werden - ob erlaubt oder nicht. Es ist auch sinnvoller und realitätsnäher Tools zuzulassen, die verfügbar sind als eine künstliche “Prüfungssituation” herzustellen. Ausserdem können wir als Hochschulen einfach nicht rechtsfest nachweisen, ob LLMs verwendet wurden. Also ist es doch besser sie zuzulassen, aber transparent. Unsere Studys müssen auflisten, welche, wie und wo LLMs in der Arbeit verwendet wurden. Ausserdem müssen alle unsere Studys ihre Thesis verteidigen. Ich kann aus Erfahrung sagen, dass übermässige Nutzung von LLMs tendenziell eher ein Nachteil ist. Aber auch das ist eine wichtige Lernerfahrung, denn so lernt man den sinnvollen Umgang damit.

  • the_wiz@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    33
    arrow-down
    1
    ·
    18 hours ago

    Aaaaaaaaargh… (Sorry, das musste einfach raus)

    Ich finde LLMs (ES IST KEINE KI HERRGOTTNOCHMAL) haben durchaus ihre Daseinsberechtigung und können schon ein wirklich nettes Tool sein das ich persönlich auch gerne für die eine oder andere Aufgabe nutze. Das Problem bei den Dingern ist aber: Wenn du selber nicht weißt wie das Ergebnis aussehen sollte, hast du eine recht hohe Chance Kuhmist zu bekommen und weiterzuverarbeiten. Mal als Beispiel: Wenn ich ein LLM nutze um einen von mir geschriebenen Text umformulieren zu lassen, weiß ich ob das Ergebnis sich besser anhört oder auch nicht. Wenn ich ein LLM nutze um mir C Code generieren zu lassen kann ich beurteilen ob das passt oder auch nicht (weil ich 20 Jahre Erfahrung mit der Sprache habe).

    Wenn ich mir jetzt aber von einem LLM erklären lassen möchte wie z.B. Finanzmarkttheorie funktioniert könnte ich nicht im Ansatz beurteilen ob das was ich da lese korrekt oder Kuhmist ist, demzufolge halte ich den Einsatz im Studium oder sonstiger Ausbildung für sehr, sehr bedenklich.

        • smokeysnilas@feddit.org
          link
          fedilink
          Deutsch
          arrow-up
          10
          arrow-down
          1
          ·
          edit-2
          13 hours ago

          Die Aussage ist absolut korrekt. Der Punkt ist: die Menschheit kann nicht mal sauber definieren was natürliche Intelligenz ist. Was soll der Begriff “künstliche Intelligenz” dann sein? Das ist einfach absolut irreführend. Wovon wir hier eigentlich reden ist eher statistische, datenbasierte Modellierung. Künstliche Intelligenz als Begriff dient nur der Übervorteillung ahnungsloser Investoren. Sonst nichts.

          Aber ich glaube der Kampf ist wohl mittlerweile verloren und wir müssen uns damit abfinden das der Begriff so in den Sprachgebrauch übergegangen ist…

          Edit: die eigentlich interessantere Frage ist doch, ob das Gehirn mehr/etwas anderes macht als datenbasierte Modellierung oder sind wir nicht auch bloß Produkt unserer Erfahrungen und gesammelten Sinneseindrücke usw.?

          • Zacryon@feddit.org
            link
            fedilink
            arrow-up
            1
            ·
            3 hours ago

            Die Aussage ist absolut korrekt.

            Nein.

            die Menschheit kann nicht mal sauber definieren was natürliche Intelligenz ist.

            Richtig.

            Was soll der Begriff “künstliche Intelligenz” dann sein?

            Eben aus der mangelhaften Definition von “Intelligenz” lässt sich konsequenterweise auch nicht klar definieren, was künstliche “Intelligenz” im Allgemeinen ist. Aber dann muss die Diskussion auch anders geführt werden, statt künstliche Intelligenz anzugreifen und fachlich falsches Pseudowissen zu verbreiten.

            Jenseits dessen haben wir aber eine praktische Vorstellung davon, was wir unter dem Begriff “künstliche Intelligenz” kategorisieren und da ist sich die Fachwelt weitgehend auch einig. Während die Natur von Intelligenz und dessen Definition eher ein philosophisches Problem ist, ordnen wir diverseste Algorithmen und Konzepte aus einer pragmatischen Perspektive dem Begriff der KI zu. Dass es nun KI heißt und nicht “Luftbanane” oder was auch immer, ist hierfür unerheblich. Wir haben eine Schublade für diesen Zweig der Forschung bzw. Technologie und diese heißt nun erstmal “künstliche Intelligenz”. Solange das der Fall ist, ist es falsch zu behaupten, dass LLMs u.ä. keine KI seien.

            Wovon wir hier eigentlich reden ist eher statistische, datenbasierte Modellierung

            Im Fall von LLMs mag das zutreffen, jedoch nicht auf KI allgemein.

            Künstliche Intelligenz als Begriff dient nur der Übervorteillung ahnungsloser Investoren. Sonst nichts.

            Ich bin mir absolut sicher, dass das der einzige Grund dafür ist, warum die Menschheit und auch die Fachwelt noch seit vor den 1940ern diesen Begriff verwendet. /s

            die eigentlich interessantere Frage ist doch, ob das Gehirn mehr/etwas anderes macht als datenbasierte Modellierung

            Sehr viele Methoden aus der KI sind von biologischen Vorbildern inspiriert. Und dass sie tatsächlich gelegentlich sogar direkt vergleichbar sind, hat man beispielsweise bei CNNs bemerkt (neuronale Netzarchitekturen aus dem Bereich der Computer Vision): Gabor Filter. Diese wurden eigenständig erlernt und sind nach gegenwärtigem Kenntnisstand vergleichbar zu einer Komponente des menschlichen Sehens.

            Komplett identisch ist KI zu natürlicher Intelligenz natürlich nicht. Viele Komponenten fehlen da. Z.B. gibt es idR keine Neurogenese, auch sind viele KI-Systeme, anders als das menschliche Gehirn, nicht in einem durchgehenden Denkprozess, sondern ballern nur ein Eingabesignal auf Knopfdruck durch. Myelinisierte und unmyelinisierte Axone, welche die Siganlleitungsgeschwindigkeit beeinflussen, gibt es auch nicht. Auch spezialisierte Nervenzellen oder Nervenzellverschaltungen, wie z.B. Inhibitoren, existieren bisweilen meines Wissens nicht in KI-Architekturen. Und so weiter…

            Aber KI muss auch nicht komplett identisch zu den biologischen Vorbildern sein und kann dennoch extreme Leistungsfähigkeit zeigen. Letzenendes ist das menschliche Gehirn auch nur ein vernetztes biochemisches Konstrukt, welches uns dazu verhilft Sinneseindrücke zu verarbeiten, darüber zu sinnieren oder auch kreativ damit umzugehen. Manche gehen auch soweit zu sagen, dass das menschliche Gehirn letztlich auch nur eine “Wahrscheinlichkeitsmaschine” sei. So betrachtet sind sich diverse KI-Methoden und biologische Gehirne recht ähnlich.

    • Zacryon@feddit.org
      link
      fedilink
      arrow-up
      3
      arrow-down
      1
      ·
      13 hours ago

      LLMs (ES IST KEINE KI HERRGOTTNOCHMAL)

      Doch. LLMs gehören zum großen weiten Feld der KI.

      • the_wiz@feddit.org
        link
        fedilink
        Deutsch
        arrow-up
        3
        ·
        9 hours ago

        OK, technisch gesehen sind es KI im gleichen Sinn wie die Lisp und Prolog Systeme der 80er KI waren. Ich wehre mich nur gegen den Begriff weil es bei den “Zivilisten” zu viele falsche Erwartungen weckt.

  • superkret@feddit.org
    link
    fedilink
    arrow-up
    21
    arrow-down
    1
    ·
    edit-2
    1 day ago

    Ich fand schon als Student, dass Klausuren komplett veraltet sind und vollständig durch Projektarbeiten und Referate abgelöst werden sollten.
    Weder in der wissenschaftlichen Arbeit noch in der Wirtschaft hängt Erfolg je davon ab, stupide gelerntes Wissen abzurufen.
    Es geht immer darum, die eigene Arbeit vorzustellen oder ein praktisches Ergebnis zu erreichen (das dann vorgestellt werden muss).

    Das nötige Wissen eignet man sich dabei nebenher an, weil man es braucht. Nicht weil es abgefragt wird.

    • Tiptopit@feddit.org
      link
      fedilink
      arrow-up
      24
      ·
      1 day ago

      Hängt finde ich stark vom Fach ab. Außerdem ist in gewissem Maße eine Wissensgrundlage auch über den eigenen direkten Bereich hinaus wichtig und Lernen auch durchaus eine Kompetenz, die man erlernen muss. Meines Erachtens nach bleibt bei einer Klausurvorbereitung auch in der Regel breiteres Wissen hängen, als bei einem Referat, wo man sich in einem Bereich tief einarbeitet und das restliche Semester nicht zuhört.

      Aber das hängt durchaus auch stark vom Fach ab. In naturwissenschaftlichen Grundlagenvorlesungen oder auch später machen Klausuren häufig Sinn, erst Recht, wenn es in der Klausur um Verständnis und nicht um bulemisches Auswendig lernen geht. Im Informatik Bereich zum Beispiel sieht das natürlich oft anders aus.

    • lichtmetzgerOP
      link
      fedilink
      arrow-up
      15
      ·
      edit-2
      1 day ago

      Das nötige Wissen eignet man sich dabei nebenher an, weil man es braucht. Nicht weil es abgefragt wird.

      Da gehe ich komplett mit. Mit ChatGPT und Co. überspringt man aber den Schritt, eigenes Wissen zu erlernen, zu großen Teilen. Zumindest in der Programmierung.

      Ich habe leider Kollegen, die komplexe Funktionen schreiben und nur die Hälfte von dem Code überhaupt verstehen. Bei Fehlern stehen sie dann komplett alleine da und ziehen entweder falsche Schlüsse oder resignieren vollständig (wodurch es dann auf meinem Tisch landet). Ich hätte gerne weniger von solchen Menschen um mich herum und nicht mehr davon.

      • superkret@feddit.org
        link
        fedilink
        arrow-up
        10
        ·
        1 day ago

        Wenn diese Menschen im 1. Semester bereits eigene einfache Programme schreiben und als Prüfungsleistung mündlich im Detail erklären müssten, wäre das wahrscheinlich weniger ein Problem.

        • Ephera@lemmy.ml
          link
          fedilink
          Deutsch
          arrow-up
          8
          ·
          23 hours ago

          Finde ich gut, wenn das erklären dann auch geübt wird. Selbst wenn wir unsere Stundenten auf Arbeit dazu bringen, Code selbst zu schreiben, statt irgendetwas Gruseliges aus LLMs zu ziehen, und selbst wenn wir mit ihnen den Code auch wirklich durchgehen und Fragen stellen, kannst du sie zehn Minuten später fragen, den Code jemand anderes zu erklären und sie bringen wieder kaum eine Erklärung zusammen. 🫠

  • lichtmetzgerOP
    link
    fedilink
    arrow-up
    11
    arrow-down
    1
    ·
    edit-2
    1 day ago

    Was vor einigen Jahren undenkbar schien, ist heute teils Realität. Zum Beispiel für einen 20-Jährigen, der an der Hochschule Kempten Wirtschaftsingenieurwesen studiert. Bei einer Klausur im Fach Informationsverarbeitung verhalf ihm KI zur Note 1,0. „Ich habe einfach eins zu eins die Sachen gemacht, die mir ChatGPT gesagt hat.“

    Der neuen Leitlinie nach wird KI bei allen Leistungen, die zu Hause angefertigt werden, vollständig zugelassen. Da seien sich alle bayerischen Hochschulen einig, sagt Rohrmair. Das betreffe Projektarbeiten, Seminararbeiten, Bachelorarbeiten oder die Vorbereitungen für Vorträge. „Da bringt ein Verbot nichts“, sagt der THA-Präsident. Die Studierenden nützten die KI sowieso.

    Boah, ich weiß echt nicht, ob die Begründung “Die machen das ja eh, also erlauben wir es einfach” so eine tolle Sache ist. Ich arbeite als Webdev und sehe an einigen meiner Kollegen leider, wie unfassbar unfähig sie die KI gemacht hat - ohne ChatGPT können sie oft einfachste Aufgaben nicht lösen und die Qualität ihrer Arbeit leidet durch halluzinierende KI’s und enthält viel unnötigem Boilerplate-Code.

    Bestes Beispiel: Ich schreibe fast nie Kommentare, weil ich meinen Code so verfasse, dass er möglichst von allen verstanden werden kann - nur in absoluten Ausnahmefällen (wenn ein Prozess schwer ersichtlich ist oder der Kunde massiv dumme Ideen hatte), sind Kommentare nötig. ChatGPT ballert Kommentare links und rechts rein - daran erkenne ich dann auch immer den Code, den bestimmte Kollegen verfasst haben.

    // We are doing things here to get a result
    function doThings() {
        return $result;
    }
    

    Das ist absoluter Mist. Wenn wir noch mehr Leute in den Arbeitsmarkt schubsen, die bereits während des Studiums gelernt haben, so zu arbeiten und denken, dass das auch noch völlig okay ist, sehe ich schwarz für die Zukunft.

    • Obelix@feddit.org
      link
      fedilink
      Deutsch
      arrow-up
      4
      arrow-down
      1
      ·
      13 hours ago

      Hast du jetzt ernsthaft geschrieben, dass du deinen Code nie kommentierst, weil ja eh jeder versteht, was er macht und dass KI blöd ist, weil sie Kommentare hinzufügt? Ich persönlich halte Kommentare im Code für absolut sinnvoll. Die stören nicht, machen nichts kaputt und sind unglaublich hilfreich, wenn man eine fremde Codebasis vorgesetzt bekommt.

      • lichtmetzgerOP
        link
        fedilink
        arrow-up
        1
        ·
        edit-2
        3 hours ago

        Wie unten bereits kommentiert, sind Kommentare nicht hilfreich, die genau das erklären was eine Zeile darunter steht. ChatGPT kommentiert zu viel und bläht Code nur unnötig mit nutzlosen Kommentaren auf.

        Ich schreibe Kommentare, um etwas verständlich zu machen, was auf den ersten Blick vielleicht nicht gleich ersichtlich ist. ChatGPT schreibt einen Kommentar, wenn eine Zahl inkrementiert wird - jeder Programmierer (selbst totale Anfänger) erkennen das auch so und benötigen solche Kommentare nicht.

        Und ich empfinde es sehr wohl störend, wenn ein Code durchsiebt ist mit Kommentaren. Man muss das Zeug ja schließlich auch wegscrollen oder mental ignorieren.

      • zaphod@sopuli.xyz
        link
        fedilink
        arrow-up
        3
        ·
        8 hours ago

        Kommentare sollten sinnvoll sein, also komplexen Code verständlicher machen. LLMs machen Kommentare im Stil i++; // increment i

        • lichtmetzgerOP
          link
          fedilink
          arrow-up
          1
          ·
          3 hours ago

          Exakt das meinte ich - das ist übermäßiger Clutter, der den Code nur aufbläht und nicht unbedingt verständlicher macht.

      • Tiptopit@feddit.org
        link
        fedilink
        arrow-up
        1
        ·
        11 hours ago

        Hängt jetzt aber auch stark von der Komplexität des Programmes, der Programmiersprache und der genauen Umgebung des Programms ab.

    • Ephera@lemmy.ml
      link
      fedilink
      Deutsch
      arrow-up
      10
      ·
      23 hours ago

      Naja, ist jetzt nicht so, dass die Leute bisher vom Studium gekommen sind und gewusst hätten, wie man Software entwickelt. Aber ja, wäre natürlich schön gewesen, wenn das besser statt schlechter wird.

      Mir macht Sorge, dass die Leute bis zum Berufseinstieg keinen Eindruck haben, ob der Job überhaupt etwas für sie ist. Viele von den Aufgaben im Studium sind gelöste Probleme, wo dir die KI die Musterlösung geben kann. Im Berufsleben hingegen sind’s schon regelmäßig knackige Puzzles, die man lösen muss, wo die KI auch dumm aus der Wäsche schaut. Wenn du da erst merkst, dass logisches Denken nicht so dein Fall ist, dann wäre das schon ziemlich bescheiden…

    • Tiptopit@feddit.org
      link
      fedilink
      arrow-up
      12
      ·
      1 day ago

      Sehe ich auch schwierig. Im Endeffekt ist es ein Selbstbetrug, weil man Arbeiten einreicht, die im Zweifel über der eigenen Kompetenz liegen. Das kann dann halt auch nur so lange gut gehen.

      KI als Werkzeug nutzen zu lernen, halte ich dabei nicht für generell falsch, aber man lernt ja in seinem Leben auch erst Kopfrechnen, bevor man irgendwann einen Taschenrechner benutzen darf.