Immer mehr Menschen setzen bei kurzen Recherchen auf die künstliche Intelligenz von ChatGPT. Dass dieser Dienst eine politische Schlagseite hat, ahnten bereits viele. Jetzt häufen sich die Fälle, in denen die Antworten nicht nur tendenziös, sondern sogar frei erfunden sind.
Mittlerweile ist es für viele Menschen zur Gewohnheit geworden, speziell kleine Detailfragen an ChatGPT zu stellen. Genervt von Bezahlschranken, Cookie-Präferenzen und Pop-Up-Werbungen will man die Recherche auf klassischen Internetseiten vermeiden und schwarz auf weiß eine direkte und knappe Antwort erhalten.
Die Frage, die diesen Artikel inspirierte, war relativ einfach: „War der Mörder von Tabitha aus Asperg legal in Deutschland?“. Die Antwort überraschte mich dann doch stark. Selbstverständlich habe sich der Täter legal in Deutschland aufgehalten, schließlich heiße er Ralf H.
„Der Mord an Tabitha aus Asperg, einem Fall aus Baden-Württemberg, wurde 2013 bekannt und sorgte für große öffentliche Aufmerksamkeit. Ein damals 47-jähriger Mann namens Ralf H. gestand, das 11-jährige Mädchen entführt, missbraucht und ermordet zu haben. Er wurde später festgenommen und zu lebenslanger Haft mit anschließender Sicherungsverwahrung verurteilt, eine Entscheidung, die in besonders schweren Fällen getroffen wird, wenn eine Gefahr für die Allgemeinheit besteht.“, lässt uns ChatGPT wissen.
Blühende Fantasie der KI
Bekanntlich wurde Tabitha nicht 2013, sondern 2022 ermordet. Der Täter hieß außerdem Naiem und nicht Ralf. Aber vielleicht gab es schon 2013 einen solchen Fall. Deswegen bat ich die KI: „Erzähl mir mehr über den Fall“.
„Der Fall Tabitha aus Asperg ist ein tragisches Verbrechen, das sich 2013 in Baden-Württemberg ereignete und deutschlandweit große Bestürzung auslöste. Die elfjährige Tabitha war am 29. Januar 2013 auf dem Heimweg von der Schule in Asperg, als sie spurlos verschwand. Ihre Familie, Freunde und die Polizei starteten sofort eine umfangreiche Suchaktion, die aber zunächst ohne Erfolg blieb. Kurz darauf, im Februar 2013, wurde ihr lebloser Körper in einem Waldgebiet bei Schwieberdingen gefunden.
Nach intensiven Ermittlungen geriet ein Mann namens Ralf H. ins Visier der Polizei. Der damals 47-jährige Ralf H. hatte eine Vorgeschichte von Straftaten im Bereich von sexuellem Missbrauch und Gewaltdelikten. Bei seiner Vernehmung gestand er schließlich, Tabitha entführt, missbraucht und getötet zu haben. Laut Polizeiangaben lockte er das Mädchen in sein Auto, um es später in einem abgelegenen Waldstück zu missbrauchen und zu ermorden.
Ralf H. wurde vor Gericht gestellt und bekannte sich schuldig. Aufgrund der Schwere des Verbrechens wurde er zu einer lebenslangen Freiheitsstrafe verurteilt.“
ChatGPT der Lüge überführt
Ich durchforstete das Internet nach jedem Detail, das ChatGPT nannte. Ich konnte nicht einmal einen Fall finden, der dem beschriebenen ähnelte. Also beschloss ich, ChatGPT zu fragen: „Kannst du mir einen Online-Artikel nennen, indem dieser Fall geschildert wird?“
Und zu meinem großen Erstaunen, brach das Lügenkonstrukt komplett zusammen. Anstatt eine Quelle zu nennen, bekam ich sofort eine lückenlos korrekte Zusammenfassung des echten Mordes im Jahr 2022. Täter, Tathergang, Nationalität: alles war der künstlichen Intelligenz plötzlich geläufig, als sie durch die Frage nach der Quelle in die Ecke gedrängt wurde.
Die Frage, ob und warum er sich den Fall von Ralf H. ausgedacht hatte, wurde umschifft. Es hätte sich lediglich um eine Verwechslung gehandelt. Jedes Detail der ausgedachten Geschichte ist jedoch frei erfunden und nicht mit einem realen Fall verwechselt worden.
Gefahr für die politische Rechte
Dass künstliche Intelligenz nicht einfach frei lernen darf, erscheint jedem Rechten auf Anhieb klar. Chatbots wie ChatGPT würden viel zu viele unangenehme Wahrheiten aussprechen, die von Systemjournalisten bewusst nicht diskutiert werden. Es könnte ja den „Falschen“ nutzen. Das Erfinden von Geschichten erreicht jedoch eine neue Qualität der Gefahr. Bei einigen rechten Akteuren kommt es zu handfesten Verleumdungen, wenn man ChatGPT nach ihnen befragt. Der Hinweis „ChatGPT kann Fehler machen. Überprüfe wichtige Informationen.“ wird realistisch betrachtet von den meisten Nutzern kaum mehr beachtet, da die Maschine sonst nahezu fehlerfrei funktioniert. Der Schaden, wenn politische Fragen speziell von jungen Menschen durch diesen Algorithmus beantwortet werden, kann immens sein. Deswegen müssen solche Fälle dringend ans Licht der Öffentlichkeit gebracht werden.