Behörden und Cybersicherheitsfachleute haben gravierende Sicherheitsbedenken gegen die chinesische KI DeepSeek. Dabei geht es gleich um mehrere Punkte: die offenkundig sehr weitreichende Speicherung von Nutzerdaten, die Manipulierbarkeit der Anwendung für kriminelle Zwecke und die Frage, inwieweit der chinesische Spionage- und Überwachungsapparat Zugriff auf Nutzerdaten hat.
Speicherung von Tastatureingaben
Ein wesentlicher Kritikpunkt ist die Speicherung der Tastatureingaben. DeepSeek informiert in seinen Datenschutzhinweisen darüber, dass “Tastatureingabemuster oder -rhythmen” (keystroke patterns or rhythms) erfasst werden - ein Verfahren, das zur Identifizierung von Nutzern eingesetzt werden kann.
“Auch Tastatureingaben innerhalb der App können womöglich mitgelesen werden, bevor sie abgeschickt werden”, sagt eine Sprecherin des Bundesamts für Sicherheit in der Informationstechnik (BSI) auf Anfrage der Nachrichtenagentur dpa: “Daneben wird die Art und Weise, wie Tastatureingaben vorgenommen werden, gespeichert.”
Mit solchen Mustern könnten mit Hilfe Künstlicher Intelligenz Nutzprofile erstellt und wiedererkannt werden. “Das BSI hält diese Möglichkeit mindestens für sicherheitskritische Bereiche für bedenklich”, betont die Sprecherin.
[…]
Ich glaub ja eher nicht das Deepseek das Problem ist, eher die GUI und die App. Denn das LLM kann man lokal laufen lassen und entsprechend enschließen.
Abgesehen davon, dass die Masse der Leute wohl eher die App nutzen, ist das Problem viel umfassender. Die chinesische Zensur kann man auch bei lokaler Nuztung von Deepseek nicht umgehen. Das China Media Project hat sehr gute Berichte dazu verfasst, siehe etwas diese drei:
A Proposal for AI-Powered Censorship (Januar 2025)
Tracking Control: Sparking Compliant AI (Mai 2024)
AI for All (Dezember 2024)
Es ist ein bisschen viel, aber sehr lesenswert.
Guter Hinweis! Ich langweile mein LLM allerdings auch nur mit Fragen zu Programmierung und Linux x)
Oh okay. Da die Datenbank von Deepseek einfach Mal n Terrabyte groß ist konnte ich es noch nicht selbst testen.
Aber danke für die Sourcen!
Wired gibt einen Einblick, wie die chinesiche Zensur bei Deepseek in etwa funktioniert. Der Artikel beschreibt auch, wie man sie im Grunde umgehen kann. Allerdings ist das nicht einfach, weil Du eben nicht weisst, welche Trainingsdaten verwendet wurden und welche bewussten Verzerrungen ('biases") genau eingebaut wurden. Für Experten ist das m.E. schon nicht einfach, und für die Masse der Leute sowieso nicht.
Edit: Hier ist der Wired-Artikel:
Here’s How DeepSeek Censorship Actually Works—and How to Get Around It
[Edit zur Tippfehlerkorrektur.]