米政府が銀行にMythos試験を推奨

Mythos金融活用の動き

米財務長官とFRB議長が銀行に推奨
JPモルガンなど大手5行が試験中
脆弱性検出での高い性能が評価
英金融当局もリスクを検討

Claude人気の高まり

HumanX会議で最も言及されたAI
企業利用でAnthropicが追い上げ
OpenAI焦点の分散が課題に
月100ドル新プランで対抗

米財務省のベッセント長官と連邦準備制度理事会のパウエル議長が今週、大手銀行の幹部を招集し、Anthropicの新モデル「Mythos」を脆弱性検出に活用するよう推奨したことがBloombergの報道で明らかになりました。JPモルガン・チェースに加え、ゴールドマン・サックス、シティグループ、バンク・オブ・アメリカ、モルガン・スタンレーの大手5行がすでにMythosの試験を行っています。

この動きは、Anthropicが現在国防総省のサプライチェーンリスク指定をめぐりトランプ政権と法廷で争っている最中だけに注目を集めています。政府内でもAnthropicへの評価が一枚岩ではないことが浮き彫りになりました。また、英国の金融規制当局もMythosがもたらすリスクについて議論を始めています。

一方、サンフランシスコで開催されたHumanXカンファレンスでは、Claudeが最も話題に上ったチャットボットとして存在感を示しました。出展企業からは「ChatGPTOpenAIは勢いを失った」という声が繰り返し聞かれ、業界の評価が変化していることがうかがえます。

Financial Timesのデータによれば、企業ユーザーの間でAnthropicOpenAIに迫りつつあるとされています。Wall Street Journalは両社をテック史上最速で成長する企業と評しました。OpenAIは焦点の分散や経営陣への批判的報道に悩まされる一方、Codex強化のため月額100ドルのChatGPT Proプランを発表し、Claude Codeのユーザー獲得を狙う姿勢を見せています。

企業AI防衛に死角、端末推論とデータドリフト

端末上の影のAI利用

開発者がローカルで未承認モデルを実行
ネットワーク監視では検知不能
コード汚染やライセンス違反の温床

データドリフトの脅威

訓練時と異なるデータで精度が低下
攻撃者がモデルの盲点を悪用
予測信頼度の低下が早期警告に

対策の方向性

端末レベルのガバナンス強化が急務
社内モデルハブで安全な選択肢を提供

企業のAIセキュリティに新たな死角が生まれています。従来のセキュリティ対策はクラウドAPIへのデータ流出を監視する方針でしたが、開発者が高性能ノートパソコン上でオープンウェイトの大規模言語モデルをローカル実行する「Shadow AI 2.0」とも呼ばれる現象が広がり、ネットワーク監視では捕捉できないリスクが顕在化しています。同時に、セキュリティ機械学習モデルの入力データが時間とともに変質する「データドリフト」も、防御力を静かに蝕んでいます。

端末上でのAI推論が実用的になった背景には、3つの技術的変化があります。64GBメモリ搭載のMacBook Proで700億パラメータ級モデルが動作可能になったこと、量子化技術の普及、そしてOllamaなどのツールによる導入の容易さです。開発者はWi-Fiを切った状態でソースコードレビューや機密文書の要約を行えるため、プロキシログやクラウド監査証跡が一切残りません。

ローカル推論がもたらすリスクは3種類に分類されます。第一に、未検証モデルが生成したコードがセキュリティ脆弱性を含んだまま本番環境に混入する「整合性リスクです。第二に、非商用ライセンスのモデルで業務コードを生成してしまう「コンプライアンスリスク」があります。第三に、Pickle形式のPyTorchファイルなど悪意あるペイロードを含みうるモデルファイルをダウンロードしてしまう「サプライチェーンリスク」です。

一方、データドリフトの問題も深刻です。機械学習モデルは過去のデータのスナップショットで訓練されるため、現在の攻撃パターンと乖離すると検知精度が低下します。2024年にはエコースプーフィング手法でメール保護サービスのML分類器が突破される事例も発生しました。性能指標の急落、統計分布の変化、予測挙動の変動、信頼度スコアの低下、特徴量間の相関変化が、ドリフト発生の5つの兆候です。

対策としては、ネットワーク監視だけでなくエンドポイントレベルでのガバナンス強化が不可欠です。MDMやEDRを活用して未承認の推論ランタイムを検知し、社内にライセンス検証済みのモデルカタログを整備することが推奨されています。データドリフトに対しては、KS検定やPSIによる継続的な分布監視と、最新データによるモデル再訓練が基本的な対処法です。AIセキュリティの境界線はクラウドから端末へと回帰しつつあり、企業は両面からの防御態勢を構築する必要があります。

Apple、スマートグラス4デザインを試作 2027年発売へ

4種のデザインと仕様

長方形楕円形の計4種を試作
黒・オーシャンブルー・ライトブラウンの色展開検討
ディスプレイ非搭載でカメラ・通話・音楽対応
Meta Ray-Banに近いコンセプト

発表・発売の見通し

2027年の発売を計画
年内の発表も視野に
Vision Pro不振からの戦略転換

AI連携とSiri

Siri大幅刷新との連携を想定

Appleが初のスマートグラス2027年に発売する計画であることが、BloombergのMark Gurman氏の報道で明らかになりました。年内にも発表される可能性があり、現在4種類のデザインが試作段階にあります。複数デザインを同時に展開する可能性も示唆されています。

試作中のデザインは、大型の長方形フレーム、Tim Cook CEOが着用するものに近いスリムな長方形フレーム、大型の楕円・円形フレーム、小型の楕円・円形フレームの4種です。カラーバリエーションとして黒、オーシャンブルー、ライトブラウンが検討されています。

これらのグラスにはディスプレイが搭載されず、写真・動画の撮影、通話、音楽再生、Siriとの対話が主な機能となります。楕円形のカメラレンズを搭載する方針で、MetaのRay-Banグラスに近い製品コンセプトです。

Appleはかつてさまざまなミックスドリアリティ・拡張現実デバイスの展開を計画していましたが、Vision Proの需要低迷を受けて方針を転換しました。ディスプレイなしのスマートグラスという選択は、より実用的な路線への戦略シフトを示しています。長らく予告されてきたSiriの大幅刷新との連携も見込まれており、AI機能がグラスの差別化要素となる可能性があります。

TechCrunch、AI用語集を更新し最新定義を公開

収録用語の概要

AGILLMなど主要語を網羅
ハルシネーションの定義と危険性
推論・学習・トークンの基礎解説
拡散モデルや蒸留技術も収録

新たに追加された項目

AIエージェントの定義を掲載
RAMageddonなど新造語も解説
メモリキャッシュの仕組みを説明
連鎖思考による推論手法の紹介

TechCrunchは2026年4月12日、人工知能分野で頻出する専門用語をまとめた用語集の最新版を公開しました。この用語集は、AI業界の報道で使われる技術用語を一般読者にもわかりやすく解説することを目的としています。複数の記者が共同で執筆しており、新たな手法や安全上のリスクが発見されるたびに定期的に更新される方針です。

収録されている用語はAGI(汎用人工知能)、LLM(大規模言語モデル)、ハルシネーション推論、学習、トークンなど多岐にわたります。AGIの定義についてはOpenAIGoogle DeepMindなど主要企業ごとに解釈が異なることも併せて紹介しています。LLMについてはChatGPTClaudeGeminiといった具体的なAIアシスタントとの関係も説明されています。

注目すべき新項目として、AIエージェントの定義が加わりました。経費精算やレストラン予約、コード管理といったタスクを自律的に実行するツールとして説明されています。またRAMageddonという新造語も収録され、AI産業の急成長がメモリチップの世界的な供給不足を引き起こしている状況を解説しています。

技術的な項目では、連鎖思考(Chain of Thought)による推論の精度向上、拡散モデルによる画像音楽生成の仕組み、蒸留技術による小型モデルの効率的な開発手法などが取り上げられています。ファインチューニングや転移学習といったモデル最適化の手法も網羅されており、AI開発の全体像を俯瞰できる内容です。

この用語集は、AIを活用したいビジネスリーダーやエンジニアにとって実用的なリファレンスとなります。専門用語の壁を越えて技術の本質を理解するための入り口として、定期的に参照する価値があるでしょう。