Die KI-News von OpenAI diese Woche haben eine scharfe Kante: Das Unternehmen hat ein bezahltes „Safety Fellowship“ gestartet und bietet externen Forschern wöchentliche Stipendien in Höhe von 3.850 US-Dollar für die Untersuchung dessen, was bei fortgeschrittener KI schiefgehen könnte — angekündigt innerhalb weniger Stunden nach einer New Yorker Untersuchung, in der berichtet wurde, dass OpenAI seine internen Safety-Teams aufgelöst und stillschweigend das Wort „safely“ aus seiner IRS-Missionsverlautbarung entfernt hatte.
Zusammenfassung
OpenAI kündigte das Fellowship am 6. April als „Pilotprogramm zur Unterstützung unabhängiger Safety- und Alignment-Forschung und zur Entwicklung der nächsten Generation von Talenten“ an. Das Programm zahlt 3.850 US-Dollar pro Woche, auf das Jahr hochgerechnet über 200.000 US-Dollar, plus ungefähr 15.000 US-Dollar an monatlichem Compute und Mentoring durch OpenAI-Forscher. Fellows arbeiten vom Berkeley-Workspace von Constellation oder remote, und Bewerbungen sind bis zum 3. Mai möglich. Das Fellowship ist nicht auf KI-Spezialisten beschränkt — OpenAI rekrutiert auch aus Cybersicherheit, Sozialwissenschaften und Human-Computer-Interaction neben der Informatik.
Der Zeitpunkt ist die Story. Die Untersuchung von Ronan Farrow in The New Yorker, die am selben Tag veröffentlicht wurde, dokumentierte, dass OpenAI drei aufeinanderfolgende interne Sicherheitsorganisationen innerhalb von 22 Monaten aufgelöst hatte. Das Superalignment-Team wurde im Mai 2024 geschlossen, nachdem die Co-Leads Ilya Sutskever und Jan Leike abgereist waren. Leike schrieb bei seinem Abschied, dass „safety culture und Prozesse in den Hintergrund getreten sind zugunsten glänzender Produkte“. Das AGI-Readiness-Team folgte im Oktober 2024. Das Mission-Alignment-Team wurde im Februar 2026 aufgelöst, und das nach nur 16 Monaten. The New Yorker berichtete außerdem, dass, als ein Journalist darum gebeten habe, mit den existenziellen Safety-Forschern von OpenAI zu sprechen, ein Unternehmensvertreter geantwortet habe: „Was meinen Sie mit existenzieller Safety? Das ist nicht so etwas.“
Das Fellowship ersetzt ausdrücklich keine interne Infrastruktur. Fellows erhalten API-Credits und Compute-Ressourcen, aber keinen Systemzugriff; damit wird das Programm als Forschung mit Abstand finanziert, statt als Wiederaufbau der aufgelösten Teams.
Die Forschungsagenda umfasst sieben vorrangige Bereiche: Safety-Evaluation, Ethik, Robustheit, skalierbare Gegenmaßnahmen, datenschutzfreundliche Safety-Methoden, agentische Aufsicht und Bereiche mit missbräuchlicher Nutzung mit hoher Schwere. Am Ende des Programms im Februar 2027 muss jeder Fellow eine substanzielle Ausgabe produzieren — ein Paper, einen Benchmark oder einen Datensatz. Spezifische akademische Qualifikationen sind nicht erforderlich; OpenAI erklärte, man lege den Schwerpunkt auf Forschungskompetenz, technisches Urteilsvermögen und Umsetzungsfähigkeit.
Wie crypto.news berichtet hat, ist das Vertrauen in die erklärten Safety-Commitments von Unternehmen im Bereich der Frontier-KI ein Marktsignal, das die Kapitalallokation über KI-Infrastruktur, KI-Tokens sowie die DePIN- und AI-Agent-Protokolle beeinflusst, die an der Schnittstelle von Krypto und künstlicher Intelligenz liegen. Wie crypto.news außerdem angemerkt hat, wird die Ausgaben-Entwicklung von OpenAI und die Glaubwürdigkeit seiner operativen Prioritäten von Investoren, die den KI-Infrastruktursektor bewerten — einem Sektor mit zunehmender Überschneidung mit blockchainbasierten Systemen — sehr genau verfolgt. Ob externe Fellows, die ohne internen Zugriff arbeiten, die Modellentwicklung tatsächlich sinnvoll beeinflussen können, ist eine Frage, die die Forschung des ersten Kohortenstarts Anfang 2027 beantworten wird.