OpenAI、AI安全性に特化したバグ報奨金制度を新設
出典:OpenAI公式
詳細を読む
OpenAIは、AI製品の悪用や安全性リスクを発見した研究者に報奨金を支払う「Safety Bug Bounty」プログラムを新たに公開しました。従来のセキュリティ脆弱性とは異なるAI固有のリスクに焦点を当てた制度です。
対象領域の柱は3つあります。第一にエージェント型リスクとして、ChatGPTエージェントやブラウザ機能への第三者プロンプト注入、データ流出、MCP経由の攻撃が含まれます。再現率50%以上が報告の条件です。
第二にOpenAI独自情報の漏洩リスクです。推論過程に関する機密情報がモデル出力に含まれるケースや、その他の社内情報が露出する脆弱性が対象となります。
第三にアカウント・プラットフォーム整合性の問題です。自動化対策の回避、信頼シグナルの操作、アカウント停止・制限の回避といった不正行為が報告対象に含まれます。
一方、検索エンジンで容易に見つかる情報を返すだけの単純な脱獄は対象外です。ただし生物リスクなど特定の有害カテゴリについては、GPT-5やChatGPTエージェント向けに非公開の報奨金キャンペーンが別途実施されています。