KI-Textgeneratoren wie ChatGPT oder Gemini sind praktisch, sorgen aber auch für Unsicherheit beim Thema Datensicherheit. Was geschieht zum Beispiel mit den eingegebenen Informationen? Marcel Waldvogel ordnet diese und andere Fragen in seinem Fachartikel ein, den wir hier stark gekürzt wiedergeben.
Symbolbild Firefly
KI-Textgeneratoren wie ChatGPT werfen viele Fragen zum Datenschutz und zur Datensicherheit auf. Was darf man ihnen anvertrauen und was sollte man besser für sich behalten? KI-Werkzeuge zur Fragenbeantwortung, Texterstellung oder Bildgenerierung sind inzwischen alltäglich, doch Horrorgeschichten über öffentlich zugängliche Eingaben verunsichern viele. Der Artikel von Marcel Waldvogel beleuchtet die Risiken im Umgang mit KI-Chatbots, insbesondere die Datensicherheit bei Clouddiensten und die Nutzung von Eingaben als Trainingsdaten.
Neue Texte müssen her
Die grossen Sprachmodelle (LLMs) hinter KI-Chatbots benötigen riesige Mengen an Texten, um Muster zu extrahieren und besser zu werden. Dies erfordert frische, menschliche Texte, da KI-generierte Inhalte zu einer Art «Inzucht» und damit zu einem Qualitätsverlust führen würden. Daher sammeln KI-Unternehmen alle verfügbaren Texte. Da Inhalte aus dem Internet, Zeitungen und sozialen Medien bereits genutzt wurden, wenden sich die Unternehmen nun den Eingaben der Chatbot-User zu. Viele AGBs der KI-Firmen erlauben die Nutzung dieser Eingaben zur Verbesserung der Dienste – doch das birgt Risiken.
Risiko 0: Verführung
Durch das menschliche Verhalten von KI-Chatbots können wir dazu verleitet werden, mehr über uns preiszugeben als bei einer Suchmaschine.
Risiko 1: «Normale» Datensicherheitsprobleme
Daten können immer in die Hände Unbefugter gelangen. Dieses Risiko ist besonders hoch, wenn Informationen im Internet zugänglich sind. Dies betrifft nicht nur KI-Chatbots, sondern alle Online-Aktivitäten, einschliesslich Suchmaschinen,
Risiko 2: Datenflüsse bei KI-Chatbots
Probleme entstehen oft durch die verschiedenen Ebenen der Datenflüsse bei KI-Chatbots:
- Innerhalb eines Chatverlaufs: Chatbots behalten den Kontext eines Gesprächs, damit sie auf vorherige Eingaben reagieren können. Dies erfordert, dass die letzten Ein- und Ausgaben kontinuierlich verarbeitet werden, da die Rechenzentren derzeit keinen Langzeitspeicher haben.
- Innerhalb eines Benutzerkontos: Traditionell startet jeder Chat unabhängig. Neuere Chatbots bieten jedoch eine Memory-Funktion, die ein Bild zur Person erstellt und zur Personalisierung von Antworten dient.
- Über Benutzerkonten hinaus: KI-Firmen nutzen Benutzereingaben als Trainingsmaterial. Sobald ein Text trainiert wurde, kann er später 1:1 wieder ausgegeben werden, einschliesslich urheberrechtlich geschützter Inhalte und detaillierter Personenbeschreibungen.
Falls Chatverläufe als Trainingsdaten verwendet werden, dauert es oft Monate, bis sie dort landen, wenn überhaupt. Es ist dann möglich, dass andere Nutzer diese Eingaben sehen, aber eher unwahrscheinlich. Auch versprechen viele AGBs, Chatverläufe zu anonymisieren.
Zusammenfassung
Hier die wichtigsten Schritte, wenn man Chatbots und andere KI-Generatoren nicht nur zum Spass nutzen will, sondern auch für sensitive Vorgänge nutzen will:
- Computer und Handy schützen sowie sichere Cloudangebote nutzen
- Einen vertrauenswürdigen Anbieter für den Chatbot wählen
- Einmaliges, sicheres Passwort wählen und im Passwortmanager hinterlegen
- Zwei-Faktor-Authentisierung aktivieren
- Vor allem: Der Nutzung der eigenen Eingaben für Trainingsdaten widersprechen
Erst wenn alle Punkte erfüllt sind, sollten wir Chatbots Informationen preisgeben, welche auch in mehreren Monaten noch unter Verschluss bleiben sollten
Diese Zusammenfassung wurde mithilfe einer KI erstellt. Den vollständigen Beitrag von Marcel Waldvogel mit umfangreichen Zusatzinformationen lesen Sie auf dnip.ch
Der Beitrag erschien im topsoft Fachmagazin 24-4
Das Schweizer Fachmagazin für Digitales Business kostenlos abonnieren
Abonnieren Sie das topsoft Fachmagazin kostenlos. 4 x im Jahr in Ihrem Briefkasten.