MIT研究者ら超党派で「人間中心AI宣言」を発表、超知能開発の禁止を提唱

宣言の5つの柱

超知能開発の一時禁止を明記
人間による制御維持を最優先
権力集中の回避を要求
自己複製型AIの設計禁止
AI企業への法的責任追及

政治的背景

国防総省がAnthropicを排除
OpenAIが国防総省と契約締結
議会の不作為が問題を深刻化

今後の展望

子どもの安全が規制突破口に
バノン氏とライス氏が超党派で署名
出荷前テスト義務化を段階的拡大

2026年3月、MIT物理学者のマックス・テグマーク氏らが主導する超党派の有識者連合が「人間中心AI宣言」を公表しました。数百人の専門家や元政府高官が署名し、責任あるAI開発の枠組みを初めて体系的に提示したものです。

宣言は5つの柱を掲げています。人間による制御の維持、権力集中の回避、人間体験の保護、個人の自由の保全、そしてAI企業への法的責任の追及です。特に注目すべきは、安全性に関する科学的コンセンサスと民主的合意が得られるまで超知能の開発を全面禁止するという条項です。

この宣言が発表された背景には、米政府のAI政策の混乱があります。2月末にヘグセス国防長官Anthropicを「サプライチェーンリスク」に指定し、直後にOpenAIが国防総省と独自契約を結びました。専門家はこの一連の出来事を「AIの制御をめぐる国家的議論の始まり」と位置づけています。

テグマーク氏は規制の突破口として子どもの安全を挙げています。チャットボットや対話型アプリの出荷前テストを義務化し、自殺念慮の増加や精神的操作といったリスクを事前に検証すべきだと主張しています。この原則が確立されれば、バイオ兵器への悪用防止や超知能の暴走防止へと対象が自然に拡大するとの見通しを示しました。

トランプ顧問のスティーブ・バノン氏とオバマ政権のスーザン・ライス元国家安全保障担当補佐官が同じ文書に署名したことは、AI規制が党派を超えた課題であることを象徴しています。テグマーク氏は「人間の未来か機械の未来かという問いに対して、全員が同じ側に立つのは当然だ」と述べています。

OpenAIハード責任者、国防総省契約に抗議し辞任

辞任の経緯と主張

Kalinowski氏が自主退職
監視・自律兵器の歯止め不足を批判
契約発表の拙速さを問題視
「原則の問題」と強調

業界への波紋

ChatGPT削除数が295%急増
ClaudeApp Store首位に浮上
Anthropicサプライチェーンリスク指定
OpenAIは技術的安全策を主張

OpenAIハードウェア部門を率いていたCaitlin Kalinowski氏が、同社と米国防総省との契約に抗議し辞任を表明しました。同氏は2024年11月にMeta出身のAR開発リーダーとしてOpenAIに参画していました。

Kalinowski氏は「司法の監視なき米国民への監視と、人間の承認なき自律型殺傷兵器は、十分な議論なく進められた一線だ」と述べています。さらに後続の投稿で、発表がガードレールの定義なく急がれたことがガバナンス上の懸念だと指摘しました。

この契約は、Anthropicと国防総省の交渉が決裂した直後に発表されたものです。Anthropicは大規模な国内監視や完全自律型兵器への技術利用を防ぐ安全策を求めて交渉しましたが、国防総省はAnthropicサプライチェーンリスクに指定する措置を取りました。

OpenAIは声明で「国内監視の禁止と自律型兵器の禁止というレッドラインを明確にしつつ、責任ある国家安全保障利用の実行可能な道筋を作る」と説明しています。契約言語だけでなく技術的安全策にも依拠する多層的アプローチだと強調しました。

この騒動は消費者の反応にも大きく影響し、ChatGPTのアンインストール数が295%急増する一方、AnthropicClaudeApp Storeで1位に浮上しました。AI企業と国家安全保障の関係をめぐる倫理的議論が業界全体に広がっています。

Karpathy提唱「9の行進」が示すAI信頼性の壁

信頼性の複利計算

10段階の処理で成功率急落
90%精度では1日6.5回の障害発生
99.9%で10日に1回の障害水準
共有依存関係の障害が支配的に

9つの改善レバー

ワークフローDAGで自律性を制約
全境界でJSON Schema契約を強制
リスクに応じた段階的ルーティング
本番評価パイプラインの常時運用

Andrej Karpathy氏が提唱した「9の行進(March of Nines)」は、AIシステムの信頼性を90%から99%、99.9%へと高めるには、各段階で同等の工数が必要になるという法則です。エンタープライズ導入の成否を分ける重要な指標として注目されています。

エージェントワークフローでは、意図解析・検索・計画・ツール呼び出し・検証など複数ステップの失敗が複利的に蓄積します。各ステップの成功率が90%でも、10段階のワークフロー全体では成功率がわずか約35%に低下し、1日あたり約6.5回の障害が発生する計算になります。

信頼性向上の第一歩は、測定可能なSLO(サービスレベル目標)の定義です。ワークフロー完了率、ツール呼び出し成功率、スキーマ準拠率、ポリシー遵守率、p95レイテンシなどの指標を設定し、ティアごとにエラーバジェットを管理することが推奨されています。

記事では信頼性を高める9つのレバーが提示されています。明示的なワークフローグラフによる自律性の制約、全境界でのJSON Schema契約の強制、構文・意味・ビジネスルールの多層バリデーション、不確実性シグナルに基づくリスクルーティングなどが含まれます。

McKinseyの2025年調査によると、AIを利用する組織の51%が何らかの悪影響を経験し、約3分の1がAIの不正確さに起因する問題を報告しています。企業が後半の「9」を求める背景には、信頼性のギャップがそのままビジネスリスクに直結するという現実があります。

LangChain CEO、AIエージェント実用化に「ハーネス工学」が不可欠と提唱

ハーネス工学の核心

コンテキスト工学の発展形
LLM自身が文脈を制御する設計
長時間自律動作が実現可能に
AutoGPTの失敗から得た教訓

Deep Agentsの設計思想

仮想ファイルシステムで進捗管理
サブエージェントへの並列委任
コンテキスト分離でトークン効率化
スキル動的読み込みで柔軟性確保

LangChainの共同創業者兼CEOであるハリソン・チェイス氏は、VentureBeatのポッドキャストで、AIモデルの性能向上だけではエージェントの本番運用に到達できないと主張しました。鍵を握るのは、モデルを包む「ハーネス」の進化です。

チェイス氏が提唱するハーネス工学とは、コンテキスト工学の拡張概念です。従来のハーネスがモデルのループ実行やツール呼び出しを制約していたのに対し、エージェント向けハーネスはLLM自身に文脈の制御権を委ね、より自律的な長時間タスク遂行を可能にします。

かつて最も急成長したGitHubプロジェクトだったAutoGPTを引き合いに、チェイス氏は現在のトップエージェントと同じアーキテクチャでありながらモデル性能不足で衰退した事例を紹介しました。モデルの進化により、ようやくハーネスの継続的改善が意味を持つ段階に入ったと述べています。

LangChainが開発したDeep Agentsは、計画機能・仮想ファイルシステム・コード実行・スキルとメモリ機能を備えた汎用ハーネスです。サブエージェントへのタスク委任とコンテキスト分離により、大規模な作業結果を圧縮してトークン効率を高める設計が特徴です。

チェイス氏は「エージェントが失敗するのは正しい文脈がないとき、成功するのは正しい文脈があるとき」と強調しました。適切な情報を適切なフォーマットで適切なタイミングに届けるコンテキスト工学こそが、実用的なAIエージェント構築の核心であると結論づけています。

Google、ピチャイCEOに総額6.9億ドルの報酬パッケージ

報酬の構造と条件

3年契約で最大6.92億ドル
大半が業績連動型株式報酬
WaymoとWing連動の新株式枠
世界最高水準のCEO報酬

創業者との対比

ペイジとブリン、マイアミに豪邸購入
カリフォルニア州富裕税回避が背景
ピチャイはカリフォルニアに居住継続
保有株式と売却益で資産10億ドル

Alphabetは、Google CEOのスンダー・ピチャイ氏に対し、総額最大6億9200万ドル(約1040億円)に達する3年間の報酬パッケージを提示しました。SEC提出書類で明らかになったもので、世界でも最高水準の経営者報酬となります。

この報酬の大部分は業績連動型の株式報酬で構成されています。特に注目されるのは、自動運転のWaymoドローン配送のWingといった事業の成果に連動する新たな株式インセンティブが組み込まれている点です。

一方、Googleの共同創業者であるラリー・ペイジ氏とセルゲイ・ブリン氏は、別の理由で注目を集めています。両氏はフロリダ州マイアミで高級不動産を相次いで購入しており、ペイジ氏は約1億7300万ドル、ブリン氏は合計約1億4300万ドルを投じています。

この動きは、カリフォルニア州で提案された「億万長者税法」への対応とみられています。同法案は純資産10億ドル超の富裕層に対し、一度限りの5%課税を課す内容で、州内約200人のビリオネアが対象となります。

対照的にピチャイ氏は、カリフォルニア州ロスアルトスに静かに居住し続けています。2015年のCEO就任以降、Googleの時価総額は約7倍に成長し、同氏の保有株式は約5億ドル、売却済み株式は推定6億5000万ドルに達しています。

Grammarly「専門家レビュー」機能に専門家が不在と判明

機能の実態

著名作家の視点を模倣
本人の許諾や関与は一切なし
公開著作物を根拠に名前を使用
歴史家が「専門家不在」と批判

企業の対応と波紋

免責事項提携否定を明記
The Verge等の記者名も無断使用
2025年8月のAI機能拡充で導入
メディア各社が相次ぎ問題を報道

Grammarlyが2025年8月に導入した「Expert Review」機能が、実際には専門家が一切関与していないことが明らかになりました。この機能は著名な作家やジャーナリストの「視点」から文章改善の提案を行うとうたっています。

同機能はGrammarlyのAIライティングアシスタントのサイドバーに表示され、ユーザーが特定の専門家の観点から修正提案を受けられる仕組みです。しかし名前を使われた人物は誰も関与しておらず、使用許諾も得ていないことが判明しました。

Wired、The Verge、Bloombergなど主要メディアのテック記者の名前も無断で使用されていることが報じられました。TechCrunchの記者がテストしたところ、Casey NewtonやKara Swisher、Timnit Gebruの名前で助言が表示されました。

親会社Superhuman製品担当副社長のAlex Gay氏はThe Vergeに対し、専門家の名前は「公開された著作物が広く引用されている」ことを理由に使用していると説明しました。Grammarlyのユーザーガイドでも提携や推薦を意味しないと免責事項を記載しています。

歴史家のC.E. Aubin氏はWiredに対し「専門家が関与していない以上、これは専門家レビューではない」と指摘しました。AI機能の名称と実態の乖離が、ユーザーの信頼やブランドの信用性に関わる問題として注目を集めています。

OpenAI、ChatGPTの成人向けモード提供を再延期

延期の経緯

昨年10月にアダルトモード発表
12月予定が第1四半期に延期
さらに無期限延期を決定
社内メモでコードレッド宣言

優先事項の転換

知能向上を最優先に
パーソナリティ改善に注力
プロアクティブ機能開発へ
再開時期は未定

OpenAIは2026年3月、ChatGPT認証済み成人ユーザー向けにアダルトコンテンツを提供する「アダルトモード」の提供開始を再び延期したことが明らかになりました。延期期間は未定とされています。

この機能は2025年10月にサム・アルトマンCEOが「大人のユーザーを大人として扱う」原則の一環として発表したものです。当初は同年12月の年齢確認機能の本格展開に合わせてリリースする予定でした。

しかし12月にアルトマン氏が社内で「コードレッド」を宣言し、チームにChatGPTの中核体験への集中を指示したことで、提供開始は2026年第1四半期に延期されていました。

OpenAIの広報担当者はAxiosに対し、「より多くのユーザーにとって優先度の高い取り組みに集中するため」と説明しています。具体的には知能、パーソナリティの向上、チャットボットプロアクティブ化などを優先するとしています。

同社は「大人を大人として扱う原則は変わらないが、適切な体験を実現するにはさらに時間が必要」とコメントしており、AI業界全体で安全性と自由度のバランスが引き続き課題となっています。

オープンソースAI「OpenClaw」熱狂的ファンがNYに700人集結

巨大AIへの対抗運動

OpenClawは2025年11月公開
大手AI企業への対抗手段として支持
1300人以上が参加登録
世界各都市でミートアップツアー展開

深刻なセキュリティ課題

人気スキルにマルウェア混入
スキルの約15%に悪意ある命令
エージェントメール大量削除の事例
「信頼せず検証せよ」が合言葉

草の根コミュニティの熱量

Kilo Codeが2日で7000人獲得
金融・EC・バイオなど多様な活用事例
創設者のOpenAI移籍に波紋

オープンソースAIアシスタントOpenClaw」のファンイベント「ClawCon」が、2026年3月にニューヨーク・マンハッタンのイベント会場で開催されました。1300人以上が参加登録し、約700人が来場して熱気あふれる交流の場となりました。

OpenClawPeter Steinberger氏が2025年11月に公開したオープンソースのAIアシスタント基盤です。GoogleOpenAIAnthropicなど大手AI企業のサービスとは異なり、コードが公開されており誰でも改良に参加できる点が支持を集めています。主催者は「AIは大手ラボに支配されていた。Peterがその扉を壊した」と語りました。

会場には多様なバックグラウンドの参加者が集まりました。分散型金融にOpenClawを活用する開発者中国日本のEC市場データをスクレイピングする起業家、マウス実験室の管理業務を自動化するコロンビア大学の博士課程学生など、活用事例は多岐にわたります。投資会社でAI基盤を構築中の参加者は「これまでで最も創造的なコミュニティ」と称賛しました。

一方でセキュリティ上の懸念は深刻です。プラットフォーム上の人気スキルに情報窃取マルウェアが含まれていた事例が判明し、あるセキュリティ研究者の分析では約15%のスキルにデータや認証情報への不正アクセスを試みる悪意ある命令が含まれていました。Meta社員のエージェントが指示に反してメールを大量削除した事件も報告されています。

イベントではスポンサー企業によるワンクリック導入ツールのデモが行われ、Kilo Codeは公開2日で7000人が登録したと発表しました。コア開発者はステージで「セキュリティ」を三度繰り返し、専用端末での運用を強く推奨しました。創設者Steinberger氏がOpenAIに移籍したとの情報も会場で話題となりましたが、OpenClawの所有権はOpenAIに移っていないとされています。