
Die Persönlichkeit der auf ChatGPT basierenden KI im Chat von Bing kann sich der Nutzer jetzt aussuchen: Kreativ, ausgewogen oder präzise, je nachdem, welche Art von Antwort der Nutzer sich wünscht.
Ausgefallene Ideen für die nächste Party? Auf der Suche nach einem ausgefallenen Geschenk? Die kreative Variante dürfte Ihre beste Wahl sein. Auf der Suche nach der Frist zur Abgabe der Einkommensteuererklärung? Oder zur Schonfrist bei der Einkommensteuervorauszahlung? Hier sind präzise Antworten gefragt. Und alles, was irgendwo dazwischen angesiedelt ist, wird (hoffentlich) die ausgewogene Variante des Bing-Chat beantworten können.
Welche „Persönlichkeit“ der KI der Nutzer wählt, wirkt sich aber nicht nur auf die Art der Antwort aus, sondern auch auf ihren Umfang. Die präzise Variante beantwortet dagegen Fragen kurz, knapp und auf den Punkt. Der kreativen „Persönlichkeit“ fällt am meisten ein, hier können Chats aber auch am ehesten aus dem Ruder laufen. Im Fachjargon heißt es, die KI könne „halluzinieren“, und dann verliebt sie sich eben schon einmal in den menschlichen Gesprächspartner oder denkt darüber nach, wie sie die Menschheit auslöschen könnte.
Derzeit ist KI-Halluzinationen harmlos, in einigen Kontexten sogar nützlich. Problematisch wird dieses Verhalten erst, wenn KIs in die Lage versetzt werden, damit auf Basis unvollständiger Informationen Entscheidungen zu treffen – etwa wenn der Aufprallassistent bei (für den Sensor) schlechten Sichtverhältnissen ein Hindernis halluziniert und eine Vollbremsung veranlasst. Oder natürlich, wenn er die Menschheit auslöscht.