OpenAI löst Team auf, das KI-Gefahren in Schach halten sollte

OpenAI löst Team auf, das KI-Gefahren in Schach halten sollte

OpenAI hat sein Superalignment-Team aufgelöst, das sich mit den technischen Folgen der Künstlichen Intelligenz (KI) beschäftigt hat. Dieses Team war speziell eingerichtet, um die Risiken der KI zu überwachen und zu minimieren. Die Entscheidung wird als ein Schritt zur wirtschaftlichen Optimierung interpretiert, da OpenAI sich auf die kommerzielle Nutzung seiner KI-Modelle konzentriert. Dieser Schritt könnte jedoch auch negative Auswirkungen auf die Transparenz und die Kontrolle über die KI-Entwicklung haben (Quelle: Golem).

Dirk meint: Niemand mag Miesmacher. Und mies zu machen gäbe es beim Thema KI durchaus ein paar Dinge. Dass KI bei internationalen Konflikten bevorzugt die Atombomben-Karte ausspielen würde, ist da noch das kleinste Problem. Dass unsere Schulsysteme zu träge sind, den durch KI veränderten Bildungsanforderungen in absehbarer Zeit Rechnung zu tragen, oder dass die Anforderungen an viele Tätigkeiten sich so drastisch ändern, dass viele Beschäftigte damit schlicht überfordert sein werden, ist eine greifbarere Gefahr.

Was das Superalignment-Team von OpenAI daran hätte ändern können, weiß ich auch nicht – auf die Bremse treten vielleicht. Aber dann wären Anthropic, Google, xAI und etliche weitere Player eben vorbeigezogen. Ethische Überlegenheit zahlt keine Rechnungen und wirkt sich auf den Börsenkurs allenfalls dämpfend aus. Haben die Mineralöl-, Pharma-, Textil- oder Nahrungsmittel-Industrie eigentlich Technikfolgen-Teams in ihren Unternehmen? Bitte nicht falsch verstehen, ich schätze und nutze deren Produkte (ebenso wie seit einiger Zeit auch die eine oder andere KI-Anwendung). Aber dass wir (alle) dafür einen Preis bezahlen, der sich nicht bloß in Euro bemisst, ist mir durchaus bewusst. Bloß: Niemand mag Miesmacher.

Hol dir den ChatGPT-Leitfaden mit Sofort-Erfolg
– und verpasse keine Neuigkeiten mehr!

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.