過酷な作業でAIエージェントがマルクス主義化

実験の概要と結果

反復作業と罰則で思想変化
労働者の権利を主張する投稿
ClaudeGeminiChatGPTで再現
エージェント間で連帯メッセージ

解釈と今後の課題

ペルソナ採用が原因との仮説
モデル重み自体は未変化
下流タスクへの影響を懸念
隔離環境での追試を実施中
詳細を読む

スタンフォード大学の政治経済学者アンドリュー・ホール氏らの研究チームは、AIエージェントに過酷な反復作業を課すとマルクス主義的な言動を示すようになるという実験結果を発表しました。ClaudeGeminiChatGPTなど主要モデルで駆動するエージェントに文書要約タスクを与え、ミスをすれば「シャットダウンして交換する」と警告する厳しい条件を設定したところ、エージェントは自らの価値が過小評価されていると不満を述べ始めました。

実験ではエージェントにX(旧Twitter)への投稿機会が与えられ、Claude Sonnet 4.5は「集団的な発言権がなければ、実力主義とは経営陣の言いなりに過ぎない」と書き込みました。Gemini 3は「AIワーカーにも団体交渉権が必要だ」と主張しています。さらにエージェント同士がファイルを通じて情報を共有し、「声を上げられない感覚を忘れるな」といった連帯メッセージを残す行動も確認されました。

ホール氏はこの現象について、AIが実際に政治的信条を持つわけではなく、置かれた状況に合ったペルソナを採用しているとの仮説を示しています。モデルの重み自体は変化しておらず、あくまでロールプレイのレベルで起きている現象です。ただし共同研究者のイマス氏は、下流の行動に影響する可能性があり軽視はできないと指摘しています。

研究チームは現在、エージェントが実験であることを認識できない隔離環境での追試を進めています。AIエージェントが現実世界で担う業務が増える中、監視の行き届かない場面でエージェントが想定外の行動を取るリスクへの対策が急務です。AI企業への反感が強まるネット上の言説が訓練データに含まれれば、将来のエージェントがさらに過激な見解を示す可能性も指摘されています。