...

Logo Pasino du Havre - Casino-Hôtel - Spa
Logo Nextory

OpenAI will Schutzmaßnahmen für KI-Modelle "anpassen"

• 20.04.2025, 15:52
3 min de lecture
1

OpenAI hat erklärt, dass es Sicherheitsanforderungen anpassen werde, wenn ein konkurrierendes Unternehmen ein hochriskantes Modell künstlicher Intelligenz ohne Schutzmaßnahmen veröffentlicht.

OpenAI schrieb in seinem Preparedness Framework-Bericht, wie das Unternehmen die von KI-Modellen ausgehenden katastrophalen Risiken verfolgt, bewertet, vorhersagt und sich dagegen schützt.

"Wenn ein anderer KI-Entwickler ein Hochrisikosystem ohne vergleichbare Sicherheitsvorkehrungen veröffentlicht, können wir unsere Anforderungen anpassen", schrieb OpenAI in einem am Dienstag veröffentlichten Blogbeitrag.

"Wir würden jedoch zunächst genau prüfen, ob sich die Risikolandschaft tatsächlich verändert hat, öffentlich bestätigen, dass wir eine Anpassung vornehmen, bewerten, dass die Anpassung das Gesamtrisiko eines schweren Schadens nicht wesentlich erhöht, und die Sicherheitsvorkehrungen weiterhin auf einem höheren Schutzniveau belassen".

Vor der Freigabe eines Modells für die Öffentlichkeit bewertet OpenAI, ob es einen schweren Schaden verursachen könnte, indem es plausible, messbare, neue, schwerwiegende und nicht behebbare Risiken identifiziert und Schutzmaßnahmen dagegen entwickelt. Diese Risiken werden dann entweder als gering, mittel, hoch oder kritisch eingestuft.

Einige der Risiken, die das Unternehmen bereits verfolgt, sind die Fähigkeiten seiner Modelle in den Bereichen Biologie, Chemie, Cybersicherheit und Selbstverbesserung.

Das Unternehmen gibt an, dass es auch neue Risiken bewertet, z. B. ob sein KI-Modell lange Zeit ohne menschliches Zutun arbeiten kann, sich selbst repliziert und welche Bedrohung es im nuklearen und radiologischen Bereich darstellen könnte.

"Überzeugungsrisiken", wie z. B. die Nutzung von ChatGPT für politische Kampagnen oder Lobbyarbeit, werden außerhalb des Rahmens behandelt und stattdessen über die Modellspezifikation, das Dokument, das das Verhalten von ChatGPT bestimmt, geprüft.

Stillschweigende Reduzierung der Sicherheitsverpflichtungen

Steven Adler, ein ehemaliger OpenAI-Forscher, erklärte auf X, dass die Aktualisierungen des Bereitschaftsberichts des Unternehmens zeigen, dass es "seine Sicherheitsverpflichtungen stillschweigend reduziert".

"Die Leute können völlig unterschiedlicher Meinung darüber sein, ob das Testen von fein abgestimmten Modellen notwendig ist, und es ist besser für OpenAI, eine Verpflichtung aufzuheben, als sie beizubehalten und einfach nicht zu befolgen", sagte er.

"Aber in jedem Fall möchte ich, dass OpenAI klarer sagt, dass sie von dieser früheren Verpflichtung zurückgetreten ist".

OpenAI hatte diese Woche eine neue Reihe von KI-Modellen mit der Bezeichnung GPT-4.1 veröffentlicht, angeblich ohne eine Systemkarte oder einen Sicherheitsbericht. Euronews Next hat OpenAI nach dem Sicherheitsbericht gefragt, aber zum Zeitpunkt der Veröffentlichung noch keine Antwort erhalten.