OpenAI hat ein neues Sprachmodell namens GPT-Rosalind vorgestellt, das speziell für biologische Anwendungen optimiert ist. Das Modell soll skeptischer urteilen und besser erkennen, wenn ein Medikamentenziel ungeeignet ist. Der Zugang bleibt jedoch stark eingeschränkt, da OpenAI mögliche Risiken fürchtet.
Schneller Überblick:
- GPT-Rosalind ist auf Biologie spezialisiert und soll kritischer als andere Modelle sein.
- OpenAI begrenzt den Zugang aus Sorge vor Missbrauch oder Fehlentscheidungen.
- Die Diskussion über „Denkfähigkeiten“ des Modells bleibt umstritten.
- Unklar ist, ob das Problem der KI-Halluzinationen gelöst wurde.
Quelle: ArsTechnica
Wenn KI die Medizin revolutioniert – zwischen Hoffnung und Risiko
OpenAIs neues Modell GPT-Rosalind klingt vielversprechend. Es könnte Forschern helfen, schneller falsche Ansätze in der Medikamentenentwicklung zu erkennen. Bisher verschwenden Wissenschaftler oft Jahre mit Sackgassen. Doch die Skepsis ist berechtigt. OpenAI selbst traut dem Modell nicht ganz über den Weg und hält es unter Verschluss.
Die Debatte über „Denkfähigkeiten“ von KI ist nicht neu. Schon bei früheren Modellen wurde diskutiert, ob sie tatsächlich verstehen oder nur geschickt Muster reproduzieren. GPT-Rosalind soll nun „skeptischer“ sein. Doch ob das reicht, bleibt fraglich. Halluzinationen, also erfundene Fakten, sind ein altes Problem. Wenn das Modell falsche Warnungen ausgibt, könnte das mehr schaden als nutzen.
In der Medizin sind Fehler besonders riskant. Ein falsches Medikamentenziel kann Leben kosten. Gleichzeitig könnte KI hier Wunder wirken – etwa indem sie seltene Krankheiten schneller erkennt. Doch Wunder haben oft zwei Seiten. Auch die zehn Plagen aus dem Buch Exodus waren ja Wunder – allerdings keine aus Sicht der Betroffenen wünschenswerten. GPT-Rosalind ist kein biblisches Ereignis, aber auch die Wunder der Neuzeit haben sich mehr als einmal eher als Plagen denn als Segnungen erwiesen.



