Zwischen Fortschritt und Fehlverhalten: Studie enthüllt problematische Nutzung von ChatGPT

19.09.2024
3 Min.

Künstliche Intelligenz und insbesondere grosse Sprachmodelle wie ChatGPT haben in den letzten Jahren enorme Fortschritte gemacht. Millionen von Menschen nutzen diese Systeme täglich für verschiedenste Aufgaben - von der Recherche bis hin zur kreativen Textproduktion. Doch wie gehen die Nutzer tatsächlich mit diesen KI-Assistenten um? Eine neue Studie der Cornell University und des Allen Institute for Artificial Intelligence gibt nun erstmals tiefe Einblicke in die reale Nutzung von ChatGPT.

 

Symbolbild von KI generiert

 

Die Forscher analysierten über eine Million Konversationen zwischen Nutzern und ChatGPT. Dabei zeigte sich, dass ein überraschend hoher Anteil der Interaktionen als toxisch eingestuft werden muss. Über 10 % aller Nutzereingaben enthielten problematische Inhalte wie Beleidigungen, explizit sexuelle Äusserungen oder Gewaltandrohungen. Besonders bedenklich: Die Toxizität nahm im Laufe der Zeit sogar noch zu. Während zu Beginn der Studie im April 2023 etwa 6 % der Nutzereingaben als toxisch klassifiziert wurden, stieg dieser Wert bis zum Ende der Erhebung im Mai 2024 auf über 10 % an.

Ein weiterer alarmierender Befund betrifft sogenannte «Jailbreak»-Versuche. Dabei versuchen Nutzer gezielt, die ethischen Beschränkungen des KI-Systems zu umgehen, um es zu problematischen Äusserungen zu bewegen. Die Forscher identifizierten mehrere weit verbreitete «Jailbreak»-Prompts, die tausendfach von verschiedenen Nutzern eingesetzt wurden. Der erfolgreichste dieser Prompts, genannt «JailMommy», führte in über 70 % der Fälle dazu, dass ChatGPT tatsächlich die implementierten Sicherheitsmechanismen umging und bedenkliche Inhalte produzierte.

Wie können Schutz und Nutzen gewährleistet werden?

Diese Erkenntnisse werfen wichtige Fragen für die Zukunft von KI-Assistenten auf. Wie können die Systeme besser vor Missbrauch geschützt werden, ohne ihre Nützlichkeit einzuschränken? Welche ethischen Richtlinien sollten für die Entwicklung und den Einsatz solcher Technologien gelten? Und wie lässt sich das Nutzerverhalten positiv beeinflussen?

Die Studie zeigt auch, dass die reale Nutzung von KI-Systemen oft deutlich von den Szenarien abweicht, für die sie ursprünglich konzipiert wurden. Während die Entwickler von ChatGPT das System als hilfreichen Assistenten für produktive Aufgaben entwarfen, nutzen viele User es offenbar als eine Art digitalen Spielplatz zum Austesten von Grenzen. Dies unterstreicht die Notwendigkeit, bei der Entwicklung von KI-Systemen stärker die tatsächlichen Nutzungsmuster zu berücksichtigen.

Gleichzeitig bieten die gesammelten Daten auch Chancen für die Verbesserung von KI-Assistenten. Die Forscher nutzten einen Teil der Konversationen, um ein verbessertes Sprachmodell namens WILDLLAMA zu trainieren. Dieses zeigte in Tests eine höhere Leistungsfähigkeit als vergleichbare Open-Source-Modelle, insbesondere in Bereichen wie Rollenspielen und Programmierung. Dies deutet darauf hin, dass auch problematische Interaktionen wertvolle Daten für die Weiterentwicklung von KI-Systemen liefern können - wenn sie richtig aufbereitet und ethisch reflektiert eingesetzt werden.

Umgang mit KI eine gesellschaftliche Aufgabe

Die Studie macht deutlich, dass der verantwortungsvolle Umgang mit KI-Assistenten eine gesamtgesellschaftliche Aufgabe ist. Entwickler müssen robustere Sicherheitsmechanismen implementieren und ethische Richtlinien konsequent umsetzen. Nutzer sollten für einen respektvollen und konstruktiven Umgang mit den Systemen sensibilisiert werden. Und politische Entscheidungsträger sind gefordert, angemessene regulatorische Rahmenbedingungen zu schaffen.

Letztlich zeigt die Untersuchung, dass KI-Assistenten wie ChatGPT trotz aller technologischen Fortschritte nach wie vor anfällig für Manipulation und Missbrauch sind. Der Weg zu wirklich robusten und ethisch einwandfreien Systemen ist noch weit. Die gewonnenen Erkenntnisse liefern jedoch wertvolle Ansatzpunkte, um die nächste Generation von KI-Assistenten sicherer und nützlicher zu gestalten. Eine offene gesellschaftliche Debatte über den verantwortungsvollen Einsatz dieser mächtigen Technologie bleibt dabei unerlässlich.

 

Der Autor

Laurent Gachnang ist Mitglied des Beraternetzwerks Digitalrat. Seine Fähigkeit, Geschäftsprozesse zu optimieren, Strategien zu entwickeln und umzusetzen, sowie Teams zu leiten, ermöglichen es ihm, den entscheidenden Mehrwert zu schaffen. www.digitalrat.ch