Das KI-Unternehmen Anthropic hat den Dialog mit führenden Vertretern der katholischen und protestantischen Kirche gesucht. Im Zentrum des Austauschs stand die ethische und spirituelle Ausrichtung des Chatbots Claude. Ziel ist eine verantwortungsvollere Gestaltung der KI im Umgang mit komplexen moralischen Fragestellungen.
- Anthropic sucht nach moralischen Leitplanken durch den Austausch mit religiösen Autoritäten.
- Interne Diskussionen bei Anthropic über eine mögliche moralische Verantwortung gegenüber KI-Systemen dauern an.
- Das Unternehmen nutzt diese strategische Positionierung auch in Abgrenzung zum US-Verteidigungsministerium.
Quelle: Heise
Zwischen Ethikrat und der Frage nach KI-Bewusstsein
Es ist durchaus bemerkenswert, dass ein führendes KI-Unternehmen neben Informatikern auch Kleriker an den Tisch holt. Diese Diversität im Diskurs könnte helfen, ethische Grauzonen bei der Programmierung sensibler Funktionen besser auszuloten. Eine KI, die bei psychischen Krisen menschlich fundierte Unterstützung bietet, kann einen echten gesellschaftlichen Mehrwert darstellen.
Allerdings wäre es naiv, diesen Schritt nicht in den Kontext aktueller Ereignisse – insbesondere des Konflikts mit der US-Regierung – einzuordnen. Anthropic versucht sich aktuell als ethisch orientierte Alternative zu anderen Rüstungs-nahen KI-Firmen zu positionieren. Der Dialog mit der Kirche dient hier auch als geschicktes Marketinginstrument im Konflikt mit dem US-Verteidigungsministerium.
Vielleicht steckt aber wirklich mehr dahinter, und wir erleben KI-Modelle, die in irgendeiner Form “moralisch” agieren. Wir erleben hier eventuell den Versuch, philosophische Konzepte in binären Code zu übersetzen. Dies ist ein notwendiger, aber auch riskanter Prozess, da er die Definition von Werten zentralisiert – auch solchen, für die es keinen breiten interkulturellen Konsens gibt.


