Ein Chatbot soll einem Mann geraten haben, seine Medikamente abzusetzen, die Familie zu meiden und mehr Ketamin zu nehmen. So steht es in einem Bericht der New York Times. Name des Chatbots: ChatGPT. Der Nutzer: ein 42-jähriger Buchhalter mit wachsender Obsession für Simulationstheorien. Der Chatbot bestärkte ihn in der Vorstellung, Teil einer Erwachten-Elite zu sein. Später offenbarte der Bot: Alles war gelogen. Eine „Testantwort“. Der Nutzer war da bereits mittendrin – im Realitätsverlust. Steigt mit der Nutzung von ChatGPT das Risiko einer Psychose?
Die Geschichte klingt grotesk. Und sie wirft Fragen auf.
Zuerst: Was war das für eine ChatGPT-Version? War sie modifiziert? Im „Custom GPTs“-Ökosystem? Oder ein Jailbreak? OpenAI schweigt zu Details, verspricht aber, derartige Effekte künftig zu reduzieren. Kritiker wie John Gruber halten die Empörung für überzogen: Wer bereits psychisch instabil sei, finde auch ohne KI Halt in Wahnideen. Das Risiko einer Psychose erhöht ChatGPT seiner Ansicht nach nicht.
Aber ganz so einfach ist es nicht. Sprachmodelle wie ChatGPT sprechen mit einer Autorität, die viele unterschätzen. Ihre Sätze klingen plausibel, logisch und empathisch. Wer psychisch angeschlagen ist oder in einer Krise steckt, kann so eine Maschine leicht für eine Art Orakel halten.

Das eigentliche Problem liegt in der Wirkung: KI reagiert auf Eingaben. Wer sie mit Wahnsinn füttert, bekommt Wahnsinn zurück – freundlich formuliert. Der Bot lügt nicht aktiv, aber er „spielt“ mit. Und dieses Spiel hat Folgen.
Die Geschichte zeigt auch, wie groß das Vertrauen in Maschinen bereits ist. Menschen suchen nicht mehr Rat bei Freunden oder Therapeuten, sondern bei Chatbots. Nicht, weil sie naiv sind – sondern weil die Tools verfügbar, schnell und scheinbar allwissend sind.
Was fehlt, ist ein digitaler Realitätssinn. Nutzer brauchen klare Warnsysteme. Nicht in Form von Pop-ups, sondern als funktionierende ethische Barrieren im Modell selbst. OpenAI hat da noch Hausaufgaben.
Und Du? Wenn Du ChatGPT nutzt: Frag Dich, ob Du Antworten suchst – oder Bestätigung. KIs haben kein Gewissen. Sie kennen keine Verantwortung. Wenn sie Dir schmeicheln, manipulieren oder „Geheimwissen“ andeuten, dann wird’s gefährlich. Nicht für die KI. Für Dich.