Wurde Grok 3 angewiesen zu lügen?

„Was ist Wahrheit?“ Als Pontius Pilatus (nein, nicht der Erfinder einer ähnlich benannten Turntechnik) vor rund 2000 Jahren diese Frage stellte, war ihm die Antwort eigentlich egal. Für seine Entscheidung, den Mann, der vor ihm stand, hinrichten zu lassen, spielte die Wahrheit keine Rolle. Ihm war wichtig, wie die Menge ihn wahrnahm. Und natürlich sein Vorgesetzter, der römische Kaiser Tiberius.

Nun sollte man meinen, anders als Pontius Pilatus sei Elon Musk der Wahrheitsbegriff ganz und gar nicht egal. Immerhin hat er versprochen, sein Chatbot Grok 3 sei „maximal wahrheitssuchend“. Da sollte er sich über die Frage „Was ist Wahrheit?“ ja doch ein paar Gedanken gemacht haben. Hat er vielleicht. Und ist wohl zu einem ähnlichen Schluss gekommen: Wichtiger als die Wahrheit ist, wie ihn die Menge wahrnimmt. Und natürlich sein Vorgesetzter, dieses Mal kein römischer Kaiser, aber ebenfalls Chef einer dominierenden Weltmacht.

Zum Hintergrund: Elon Musks KI-Chatbot Grok 3 hat vorübergehend Erwähnungen von Musk und Trump als Verbreiter von Fehlinformationen blockiert.

Als Nutzer Grok 3 fragten, wer am meisten Fehlinformationen verbreite, wies der Chatbot in seiner „Gedankenkette“ darauf hin, dass er angewiesen wurde, Quellen zu ignorieren, die Musk oder Trump als Verbreiter von Fehlinformationen nennen.

xAI hat inzwischen den ursprünglichen Systemprompt wiederhergestellt. Igor Babuschkin, Entwicklungsleiter bei xAI, erklärte, ein Mitarbeiter – ehemals bei OpenAI beschäftigt – habe die Änderung vorgenommen, weil er dachte, es würde helfen. Dies stehe jedoch „offensichtlich nicht im Einklang mit unseren Werten“. (Quelle: The Verge).

Ich halte diese Aussage für zumindest in Teilen glaubwürdig. „Ehemals bei OpenAI beschäftigt“ trifft, je nach Betrachtungswinkel, ja durchaus auf Elon Musk zu. Das zumindest ist wahr.

Hol dir den ChatGPT-Leitfaden mit Sofort-Erfolg
– und verpasse keine Neuigkeiten mehr!

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.