OpenAIが外部研究者向け安全性フェローシップを新設
出典:OpenAI公式
詳細を読む
OpenAIは2026年4月6日、外部の研究者・エンジニア・実務家を対象とした「OpenAI Safety Fellowship」の応募受付を開始したと発表しました。このフェローシップは、先進的なAIシステムの安全性とアラインメントに関する独立した研究を支援するパイロットプログラムで、2026年9月14日から2027年2月5日までの約5カ月間にわたって実施されます。
優先研究領域には、安全性評価、倫理、堅牢性、スケーラブルな緩和策、プライバシー保護型の安全手法、エージェント監視、高リスク悪用領域などが含まれます。実証的で技術的に優れ、広範な研究コミュニティに貢献する研究が特に歓迎されています。
フェローにはOpenAIのメンターとの密接な連携機会が提供されるほか、BerkeleyのConstellationにワークスペースが用意されます。リモート参加も可能です。プログラム終了時には論文、ベンチマーク、データセットなどの具体的な研究成果物の提出が求められます。
応募資格は計算機科学に限らず、社会科学、サイバーセキュリティ、プライバシー、HCIなど幅広い分野の人材が対象です。特定の学歴・資格よりも研究能力と技術的判断力が重視されます。なおフェローにはAPIクレジットなどのリソースが提供されますが、OpenAI内部システムへのアクセス権は付与されません。
応募は現在受付中で、締切は5月3日です。選考結果は7月25日までに通知される予定です。OpenAIが外部研究者にこうした体系的なフェローシッププログラムを提供するのは初めてであり、AI安全性研究の次世代人材育成への取り組みとして注目されます。