Der Text-Roboter ChatGPT verblüfft mit seinen geschliffenen Dialogen und löst einen großen Hype um das Thema künstliche Intelligenz aus. Wissenschaftler warnen aber vor Datenschutzlöchern und mehr.

Er kann mit einer hohen Sprachpräzision Reden ausarbeiten und Geschichten erzählen – und das auch noch in Sekundenschnelle. Der von der US-Firma OpenAI entwickelte Text-Roboter ChatGPT, eine Sprachsoftware mit künstlicher Intelligenz (KI), ist derzeit in aller Munde. Das mit gewaltigen Datenmengen gefütterte Programm sorgt für viel Aufsehen, aber auch für Skepsis.

Wissenschaftler und KI-Experten in Deutschland warnen vor Datenschutz- und Datensicherheitslücken, Hassparolen, Falschnachrichten. „Im Moment ist dieser Hype. Ich habe das Gefühl, dass man dieses System kaum kritisch reflektiert“, sagt die Gründerin des Forschungslabors „Leap in Time Lab“ und BWL-Professorin an der Technischen Universität Darmstadt, Ruth Stock-Homburg.

„Man kann diese Systeme manipulieren“

ChatGPT hat einen sehr breiten Anwendungsbereich. In einer Art Chatfeld kann man dem Programm unter anderem Fragen stellen und bekommt Antworten. Auch Arbeitsanweisungen sind möglich – beispielsweise auf Basis grundlegender Informationen einen Brief oder einen Aufsatz zu schreiben.

In einem Projekt zusammen mit der TU Darmstadt hat das „Leap in Time Lab“ nun über sieben Wochen Tausende von Anfragen ohne persönliche Daten an das System gestellt, um Schwachstellen zu finden. „Man kann diese Systeme manipulieren“, sagt Stock-Homburg.

In einer Präsentation zeigt Sven Schultze, TU-Doktorand und Experte für Sprach-KI, die Schwachstellen des Text-Roboters. Neben antisemitischen und rassistischen Äußerungen sind Quellenangaben schlicht falsch oder…