Die beiden Firmen hätten entsprechende Verträge unterschrieben, teilte das vor etwa einem Jahr ins Leben gerufene US-Institut für die Sicherheit von KI am Donnerstag mit. Künftig erhalte die Behörde Zugriff auf sämtliche neuen KI-Versionen, sowohl vor als auch nach der Veröffentlichung. Die Vereinbarungen ermöglichten ausserdem gemeinsame Forschung zur Bewertung der Fähigkeiten der KI-Modelle und der damit verbundenen Risiken.

«Diese Verträge sind erst der Anfang, aber sie sind ein wichtiger Meilenstein auf dem Weg zu einem verantwortungsvollen Umgang mit der Zukunft von KI», sagte Elizabeth Kelly, die Chefin des AI Safety Institute. Anthropic-Mitgründer Jack Clark betonte die Bedeutung von Sicherheit und Vertrauenswürdigkeit für die Akzeptanz von KI. «Durch unsere Zusammenarbeit können wir die umfassende Expertise des Instituts nutzen, um unsere Modelle vor einem breiten Einsatz rigoros zu testen.» Jason Kwon, der bei OpenAI die Firmenstrategie verantwortet, wertete die Vereinbarungen als Fundament, auf dem der Rest der Welt aufbauen könne.

In Europa wurde mit dem «AI Act» bereits vor Monaten ein Gesetzespaket zur Regulierung von KI verabschiedet. Die US-Behörden arbeiten dagegen bislang auf Grundlage von Dekreten des US-Präsidenten Joe Biden. In Kalifornien, der Heimat zahlreicher KI-Entwickler, steht ein erstes KI-Gesetz kurz vor der Abstimmung.

(Reuters)