- cross-posted to:
- austria@feddit.de
- cross-posted to:
- austria@feddit.de
Crossgeposted von: https://discuss.tchncs.de/post/453970
Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.
In einer Studie zeigen Schweizer Forscherinnen und Forscher, dass …
die fast 700 Probandinnen und Probanden nicht in der Lage waren, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.
Außerdem zeigte sich, dass …
die vom Sprachmodell GPT-3 generierten Texte oft leichter verständlich waren als die Texte von realen Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten laut den Probandinnen und Probanden oft überzeugender als falsche Informationen, die von Menschen geschrieben wurden.
Schwieriges Thema und vorallem schwierig hier eine sinnvolle Reglementierung zu finden, ohne zuweit einzugreifen. Vorallem ist es technisch schwer, da solche Systeme in der Entscheidungsfindung grundsätzlich eine BlackBox darstellen, aber dadurch auch interessant wie man solche Gefahren in Zukunft mitigieren will.
Mit Angst vor KI Regulation pushen halte ich fast für gefährlicher. Es gibt keine gute theoretische Möglichkeit KI generierte Texte zu identifizieren und Zugriff auf KI Tools wird man fast unmöglich so einschränken können, dass nicht jene Personen darauf zugreifen können
Stimme ich zu. Deshalb ist es auch interessant wie das, rein technisch, funktionieren soll. Ich spreche aber von der Anpassung der KI Modelle um solche Dinge zu mitigieren in Zukunft, weniger davon zu versuchen den Zugriff auf die Technologie einzuschränken, das ist nicht realistisch.
Es gibt bsplw. sehr erfolgreiche Forschung in die Richtung KI generierte Bilder zu erkennen. Von Texten ist mir bisher aber nichts bekannt, schließe aber nicht aus, dass auch das möglich ist.
Dass das Recht jetzt einfach kapituliert ist aber auch keine gute Option.
Die vermeintlich einfachste Lösung ist der Einsatz des menschlichen Verstandes. 
Dinge hinterfragen, verstehen, verbinden. Das große Ganze sehen. Zusammenhänge verstehen. Auswirkungen eruieren. Selbstreflektion. Dinge ins Verhältnis setzen. Usw.
Ist vermutlich zu viel verlangt.
Ist vermutlich zu viel verlangt.
Viele verstehen ja auch nicht, dass ChatGPT keine Suchmaschine ist, sondern schlicht Texte generiert. Von daher…
Jain. Ich habe ChatGPT schon mehrfach anstelle von Google benutzt und war sehr zufrieden, Antworten zu erhalten anstelle von Links.
Natürlich bekommst du antworten. Mit ein wenig Glück taugt die Antwort sogar etwas, kann aber halt auch genausogut Blödsinn mit überzeugend aussehenden Quellen sein. Als Suchmaschine taugt es entsprechend nicht.
Das denke ich mir auch.
Echt merkwürdig, dass das so neu zu sein scheint. Aber wir leben wohl schon längst in einer Zeit, in der die Leute im Internet / in der Bild viel Mist lesen und einfach hinnehmen. Quellen prüfen und kritisch bleiben - das sollte man nicht nur bei der Nutzung von ChatGPT.
Absolut. Das ist aber ein generelles Problem der Gesellschaft und der verrückt schnellen Entwicklung der Online-Medienkultur und weniger bezogen auf das hier beschriebene, eher technische, Problem.
Sprich: Man sollte es nicht ignorieren weil jeder selbst genug Verstand haben muss Fake News zu erkennen und wenn nicht Pech gehabt ;) Noch dazu sind die generierten anscheinend qualitativ besser formuliert, im Sinne von schwerer als Falschmeldung identifizierbar für viele, digital weniger kompetente Menschen. Es fehlt schon an Kompetenz, wie du sagst, aber das zu verbessern wird ein paar Generationen brauchen, wenn überhaupt. Viele gute Ansätze sehe ich im Bildungsystem dafür ja nicht.