KI-News: OpenAI zahlt Forschern dafür, herauszufinden, was schiefgehen könnte – aber seine internen Sicherheitsteams sind bereits weg

Cryptonews

Die KI-News von OpenAI diese Woche haben eine scharfe Kante: Das Unternehmen hat ein bezahltes „Safety Fellowship“ gestartet und bietet externen Forschern wöchentliche Stipendien in Höhe von 3.850 US-Dollar für die Untersuchung dessen, was bei fortgeschrittener KI schiefgehen könnte — angekündigt innerhalb weniger Stunden nach einer New Yorker Untersuchung, in der berichtet wurde, dass OpenAI seine internen Safety-Teams aufgelöst und stillschweigend das Wort „safely“ aus seiner IRS-Missionsverlautbarung entfernt hatte.
Zusammenfassung

  • Das OpenAI Safety Fellowship, das am 6. April angekündigt wurde, läuft vom 14. September 2026 bis zum 5. Februar 2027; Fellows erhalten ein wöchentliches Stipendium von 3.850 US-Dollar, etwa 15.000 US-Dollar an monatlichen Compute-Ressourcen und ein Mentoring durch OpenAI-Forscher, werden jedoch keinen Zugriff auf die internen Systeme des Unternehmens haben
  • Zu den vorrangigen Forschungsbereichen gehören Safety-Evaluation, Ethik, Robustheit, skalierbare Gegenmaßnahmen, datenschutzfreundliche Methoden, agentische Aufsicht und missbräuchliche Nutzung mit hoher Schwere — Bewerbungen sind bis zum 3. Mai möglich; die Benachrichtigung der Fellows erfolgt bis zum 25. Juli
  • Ronan Farrow von The New Yorker berichtete in derselben Woche, dass OpenAI sein Superalignment-Team, sein AGI-Readiness-Team und sein Mission-Alignment-Team seit 2024 aufgelöst habe, und dass ein OpenAI-Vertreter auf eine Journalistenanfrage zu existenziellen Safety-Forschern geantwortet habe: „Was meinen Sie mit existenzieller Safety? Das ist nicht so etwas.“

OpenAI kündigte das Fellowship am 6. April als „Pilotprogramm zur Unterstützung unabhängiger Safety- und Alignment-Forschung und zur Entwicklung der nächsten Generation von Talenten“ an. Das Programm zahlt 3.850 US-Dollar pro Woche, auf das Jahr hochgerechnet über 200.000 US-Dollar, plus ungefähr 15.000 US-Dollar an monatlichem Compute und Mentoring durch OpenAI-Forscher. Fellows arbeiten vom Berkeley-Workspace von Constellation oder remote, und Bewerbungen sind bis zum 3. Mai möglich. Das Fellowship ist nicht auf KI-Spezialisten beschränkt — OpenAI rekrutiert auch aus Cybersicherheit, Sozialwissenschaften und Human-Computer-Interaction neben der Informatik.

KI-News: OpenAI startet Safety Fellowship, während seine internen Safety-Teams weg sind

Der Zeitpunkt ist die Story. Die Untersuchung von Ronan Farrow in The New Yorker, die am selben Tag veröffentlicht wurde, dokumentierte, dass OpenAI drei aufeinanderfolgende interne Sicherheitsorganisationen innerhalb von 22 Monaten aufgelöst hatte. Das Superalignment-Team wurde im Mai 2024 geschlossen, nachdem die Co-Leads Ilya Sutskever und Jan Leike abgereist waren. Leike schrieb bei seinem Abschied, dass „safety culture und Prozesse in den Hintergrund getreten sind zugunsten glänzender Produkte“. Das AGI-Readiness-Team folgte im Oktober 2024. Das Mission-Alignment-Team wurde im Februar 2026 aufgelöst, und das nach nur 16 Monaten. The New Yorker berichtete außerdem, dass, als ein Journalist darum gebeten habe, mit den existenziellen Safety-Forschern von OpenAI zu sprechen, ein Unternehmensvertreter geantwortet habe: „Was meinen Sie mit existenzieller Safety? Das ist nicht so etwas.“

Das Fellowship ersetzt ausdrücklich keine interne Infrastruktur. Fellows erhalten API-Credits und Compute-Ressourcen, aber keinen Systemzugriff; damit wird das Programm als Forschung mit Abstand finanziert, statt als Wiederaufbau der aufgelösten Teams.

Was das Fellowship von den Fellows verlangt, zu produzieren

Die Forschungsagenda umfasst sieben vorrangige Bereiche: Safety-Evaluation, Ethik, Robustheit, skalierbare Gegenmaßnahmen, datenschutzfreundliche Safety-Methoden, agentische Aufsicht und Bereiche mit missbräuchlicher Nutzung mit hoher Schwere. Am Ende des Programms im Februar 2027 muss jeder Fellow eine substanzielle Ausgabe produzieren — ein Paper, einen Benchmark oder einen Datensatz. Spezifische akademische Qualifikationen sind nicht erforderlich; OpenAI erklärte, man lege den Schwerpunkt auf Forschungskompetenz, technisches Urteilsvermögen und Umsetzungsfähigkeit.

Warum das auch außerhalb der KI-Industrie wichtig ist

Wie crypto.news berichtet hat, ist das Vertrauen in die erklärten Safety-Commitments von Unternehmen im Bereich der Frontier-KI ein Marktsignal, das die Kapitalallokation über KI-Infrastruktur, KI-Tokens sowie die DePIN- und AI-Agent-Protokolle beeinflusst, die an der Schnittstelle von Krypto und künstlicher Intelligenz liegen. Wie crypto.news außerdem angemerkt hat, wird die Ausgaben-Entwicklung von OpenAI und die Glaubwürdigkeit seiner operativen Prioritäten von Investoren, die den KI-Infrastruktursektor bewerten — einem Sektor mit zunehmender Überschneidung mit blockchainbasierten Systemen — sehr genau verfolgt. Ob externe Fellows, die ohne internen Zugriff arbeiten, die Modellentwicklung tatsächlich sinnvoll beeinflussen können, ist eine Frage, die die Forschung des ersten Kohortenstarts Anfang 2027 beantworten wird.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare