OpenAI、会話の文脈を跨ぐ安全機能を強化
詳細を読む
OpenAIは2026年5月14日、ChatGPTが複数回の会話にまたがって文脈を把握し、危険な兆候に適切に対応するための安全機能アップデートを発表しました。単一メッセージでは無害に見える要求でも、過去の会話で示された苦痛や有害な意図の兆候と組み合わせると意味が変わる場合があります。この課題に対処するため、同社は「安全サマリー」という仕組みを導入しました。
安全サマリーとは、過去の会話から安全上関連する文脈を短い事実メモとして保持する機能です。自殺・自傷・他害といった急性リスクのシナリオに限定して作成され、保持期間も限られています。汎用的なパーソナライズや長期記憶とは異なり、深刻な安全上の懸念がある場合にのみ参照される設計です。開発にはフォレンジック心理学や自殺予防の専門家が携わり、いつサマリーを作成すべきか、どの程度の文脈が必要かといった判断を支えています。
内部評価では顕著な改善が確認されました。単一会話のシナリオでは、自殺・自傷ケースで安全応答率が50%向上し、他害ケースでも16%改善しています。複数会話をまたぐテストでは、現行デフォルトモデルのGPT-5.5 Instant上で他害ケース52%、自殺・自傷ケース39%の改善を記録しました。4,000件以上の評価でサマリーの安全関連性スコアは5点満点中4.93、事実性スコアは4.34と高い精度を示しています。
重要なのは、この安全強化が日常的な会話体験を損なわない点です。通常のチャットにおけるユーザー体験は安全サマリーの有無で有意な差がなく、過剰反応を避けつつ必要な場面でのみ慎重に対応する設計思想が貫かれています。OpenAIは今後、同様の手法を生物学やサイバーセキュリティなど他の高リスク領域にも応用する可能性を示唆しており、モデルの進化に合わせて継続的にセーフガードを強化していく方針です。