パッチ(脅威・リスク)に関するニュース一覧

TII、6億パラメータで画像認識の統合モデル「Falcon Perception」公開

単一モデルで高精度認識

画像とテキストを1つのTransformerで統合処理
SAM 3を上回るMacro-F1 68.0達成
属性・OCR・空間理解で大幅な性能差
0.6Bパラメータの軽量設計

OCRモデルも同時発表

Falcon OCRは0.3Bパラメータ
olmOCRベンチで80.3点の高精度
オープンソースOCR最高スループット

診断ベンチマークPBench

能力別にL0〜L4の5段階で評価
空間理解でSAM 3に+21.9点差

UAE・技術革新研究所(TII)Falconチームは2026年4月1日、画像認識・セグメンテーション・OCRを単一のTransformerで処理するオープンソースモデルFalcon Perception」を公開しました。パラメータ数はわずか6億で、従来のパイプライン型システムに代わる統合的なアプローチを提案しています。

Falcon Perceptionの最大の特徴は、画像パッチとテキストトークンを最初の層から同一のパラメータ空間で処理する「早期融合」アーキテクチャです。画像トークンには双方向注意、テキストトークンには因果的注意を適用するハイブリッドマスクにより、1つのモデルで視覚エンコーダとテキストデコーダの両方の役割を果たします。

オープン語彙セグメンテーションベンチマークSA-Coでは、Macro-F1で68.0を達成し、Meta社のSAM 3の62.3を上回りました。特に属性認識で+8.2、食品・飲料カテゴリで+12.2と大きな差をつけています。一方、存在判定の精度(MCC 0.64対0.82)ではSAM 3に及ばず、今後の改善課題として示されています。

同時に発表されたFalcon OCRは0.3Bパラメータの文書認識モデルです。olmOCRベンチマークで80.3点、OmniDocBenchで88.6点を記録し、DeepSeek OCR v2やGPT 5.2を上回る性能を示しました。オープンソースOCRモデルとして最高のスループットを実現し、vLLM統合によりA100上で毎秒2.9画像を処理できます。

チームは性能評価のため、能力別に分類した診断ベンチマークPBench」も公開しました。単純な物体認識(L0)から関係推論(L4)まで5段階に分かれ、Falcon Perceptionは空間理解でSAM 3に+21.9点、OCR識別で+13.4点と、プロンプトが複雑になるほど差が拡大する結果となっています。

学習には5400万枚の画像と1億9500万の正例表現、4億8800万のハードネガティブを使用しました。3段階の学習レシピにより、シーン理解からタスク特化、高密度シーン対応へと段階的に能力を獲得させています。モデルとコードはHugging Faceで公開されており、Apple Silicon向けのMLX統合やDockerサーバーも提供されています。

GitHub Copilot CLIに複数エージェント並列実行の新機能

/fleetの仕組み

タスクを独立した作業単位に自動分解
依存関係を識別し並列実行を最適化
各サブエージェントは独立したコンテキストを保持
オーケストレーターが進捗管理と最終統合を担当

効果的なプロンプト設計

成果物をファイル単位で明示的に指定
エージェント間の依存関係を宣言
カスタムエージェントでモデルやツールを使い分け

注意点と活用場面

同一ファイルへの同時書き込みは上書きリスク
複数ファイルのリファクタリングに最適

GitHubは2026年4月、Copilot CLIに複数のAIエージェントを同時に動かせるスラッシュコマンド「/fleet」を公開しました。従来の逐次処理から並列処理へ移行し、開発作業の効率化を図ります。

/fleetを実行すると、裏側のオーケストレーターがタスクを独立した作業単位に分解します。依存関係のない項目はサブエージェントとして同時にディスパッチされ、依存関係のある項目は順序を守って実行されます。各サブエージェントは専用のコンテキストウィンドウを持ちますが、ファイルシステムは共有します。

効果的に使うには、プロンプト成果物をファイル単位で明示することが重要です。曖昧な指示では並列化が進まず逐次実行になります。ドキュメント作成やAPI・UI・テストなど、独立した作業領域を持つタスクで特に威力を発揮します。

依存関係がある場合は明示的に宣言することで、オーケストレーターが適切に直列・並列の判断を行います。また.github/agents/ディレクトリにカスタムエージェントを定義すれば、タスクごとに異なるモデルやツールを指定できます。

注意点として、サブエージェント間にはファイルロック機構がありません。同一ファイルに複数エージェントが書き込むと、最後の書き込みが無警告で上書きします。対策として、エージェントごとに担当ファイルを分離するか、一時ファイルに書き出して最後に統合する設計が推奨されています。

Meta、コード審査の精度を93%に高める構造化プロンプト手法を発表

半形式推論の仕組み

LLMに論理証明テンプレートを付与
前提・実行パス・結論の明示が必須
コード実行不要で意味解析が可能
非構造的推論の推測・幻覚を大幅抑制

実験結果と精度向上

パッチ等価検証で精度93%達成
標準推論比で最大10ポイント改善
障害箇所特定やコードQAでも効果確認

導入時の留意点

推論ステップ数が約2.8倍に増加
既に高精度なタスクでは効果限定的

2026年3月、Metaの研究チームは、LLMによるコードレビューの精度を大幅に向上させる「半形式推論(semi-formal reasoning)」と呼ばれる構造化プロンプト手法を発表しました。コードを実行せずに高精度な意味解析を実現する手法です。

従来、AIエージェントによるコードレビューには、リポジトリごとにサンドボックス環境を構築する高コストな方法か、LLMに自由に推論させる非構造的な方法がありました。後者は根拠のない推測や幻覚が頻発するという課題を抱えていました。形式検証は厳密ですが、任意の企業コードベースには実用的ではありません。

半形式推論では、タスクごとに設計された論理証明テンプレートをLLMに提供します。エージェントは前提条件の明示、具体的な実行パスのトレース、検証可能な証拠に基づく結論の導出を義務付けられます。これにより関数名などの表面的パターンに頼らず、体系的に証拠を収集して判断します。

実験ではClaude Opus-4.5Sonnet-4.5モデルを使用し、パッチ等価検証・障害箇所特定・コード質問応答の3タスクで評価しました。パッチ等価検証では標準推論の78%から88%へ、実環境パッチでは93%の検証精度を達成し、非構造的推論の86%やテキスト類似度手法の73%を上回りました。

Djangoリポジトリの実例では、標準推論がformat()関数をPython標準関数と誤認して2つのパッチを同等と判断した一方、半形式推論はモジュール内で関数名がシャドーイングされていることを発見し、一方のパッチがクラッシュすることを正しく証明しました。

ただし導入にはトレードオフがあります。半形式推論は標準推論と比べて約2.8倍の実行ステップを必要とし、推論コストが増加します。また、既に高精度なタスクでは改善効果が限定的で、Sonnet-4.5のコードQAでは85%の精度から向上しませんでした。

さらに、精緻な証拠連鎖を構築するがゆえに、調査が深いが不完全な場合に高確信度の誤答を出すリスクがあります。サードパーティライブラリのソースコードが参照できない場合も、関数名に基づく推測に頼らざるを得ません。それでも非構造的推論と比較すれば幻覚は大幅に減少します。

この手法はモデルの追加学習やツール導入が不要で、プロンプトテンプレートのみで即座に適用できます。研究チームはテンプレートを公開しており、企業の開発現場で静的解析ツールの柔軟な代替として活用できる可能性を示しています。

清華大学発IndexCache、長文LLM推論を最大1.82倍高速化

スパース注意の課題

自己注意機構の二乗計算量が壁
DSAのインデクサ自体に冗長計算が残存
長文プロンプトプリフィル遅延が深刻化

IndexCacheの仕組み

隣接層間で選択トークンが70〜100%一致
少数のF層のみインデクサを実行し結果をキャッシュ
75%のインデクサ削除で精度維持

導入効果と展望

20万トークンでプリフィル1.82倍高速化
RAG等の長文処理でコスト約20%削減

清華大学とZ.aiの研究チームは、スパース注意機構の冗長計算を最大75%削減する新技術IndexCacheを発表しました。20万トークンの長文コンテキストにおいて、最初のトークン生成までの時間を最大1.82倍、生成スループットを1.48倍高速化する成果を示しています。

大規模言語モデルの自己注意機構は、文脈長に対して二乗の計算量が必要となり、長文処理のボトルネックとなっていました。DeepSeek Sparse Attention(DSA)はコア注意の計算量を線形に削減しましたが、各層のインデクサモジュール自体が依然として二乗計算を行っており、長文になるほど処理時間が急増する問題が残っていました。

研究チームは、DSAモデルにおいて隣接するトランスフォーマー間でインデクサが選択するトークンの70〜100%が共通であることを発見しました。この冗長性を活用し、少数の「F層」でのみインデクサを実行して結果をキャッシュし、残りの「S層」ではキャッシュを再利用する手法を開発しました。

GLM-4.7 Flash(300億パラメータ)での実験では、75%のインデクサを削除してもプリフィル遅延が19.5秒から10.7秒に短縮されました。推論品質も維持され、長文ベンチマークでは原版とほぼ同等のスコアを記録しています。7440億パラメータのGLM-5でも10万トークン超で1.3倍以上の高速化が確認されました。

企業導入においては、RAGや文書分析、エージェントパイプラインなどの長文処理で約20%のコスト削減が見込まれます。vLLMやSGLang向けのオープンソースパッチGitHubで公開されており、既存の推論基盤に最小限の設定変更で統合可能です。研究チームは、将来のモデル設計において推論効率が設計段階から考慮される方向性を示唆しています。

Cloudflare、コンテナ比100倍高速のAIエージェント実行基盤を公開

Dynamic Workersの特徴

起動時間ミリ秒単位
メモリ効率コンテナの10〜100倍
同一スレッド上での即時実行
isolate方式で使い捨て可能

Code Modeの設計思想

ツール逐次呼び出しからコード生成
MCP→TypeScript変換でトークン81%削減
認証情報の外部注入で安全性確保

市場への影響

microVMとの棲み分け鮮明化
JS制約に開発者から賛否両論

Cloudflareは2026年3月、AIエージェント向けの新実行基盤「Dynamic Workers」をオープンベータとして公開しました。従来のLinuxコンテナと比較して起動速度が約100倍、メモリ効率が10〜100倍と大幅に改善されており、エージェントが生成したコードを即座に安全に実行できる環境を提供します。

Dynamic WorkersはV8 isolate技術を基盤とし、リクエストを処理するWorkerと同一マシン・同一スレッド上で動的に新しいWorkerを生成できます。コンテナのようにウォームアップ待ちやネットワーク越しのサンドボックス探索が不要なため、AIエージェントが小さなコードを生成・実行・破棄する用途に最適化されています。

同時に推進する「Code Mode」戦略では、エージェントにツールを逐次呼び出させる代わりにTypeScript関数を書かせるアプローチを採用しています。自社MCP サーバーでは全APIを2つのツールに集約し、トークン使用量を81%削減した実績があります。これにより推論コストと遅延の両方を大幅に改善できるとしています。

セキュリティ面では、V8のバグがハイパーバイザーより多いことを認めつつ、約10年のWorkers運用で培ったパッチ即時適用、二重サンドボックス、リスクベースのテナント隔離、MPKによるハードウェア保護などの多層防御を強調しています。さらにglobalOutbound機能で全外部通信を傍受・制御でき、認証情報をエージェントに露出せず注入する仕組みも備えています。

料金はWorkers有料プランで利用可能で、固有Worker読み込みあたり1日0.002ドル(ベータ期間中は免除)に加え標準のCPU・呼び出し課金が適用されます。Docker SandboxesのmicroVM方式が永続的で深い実行環境を志向するのに対し、Cloudflareは大量・短命・使い捨ての実行層を狙っており、エージェント基盤市場の二極化が鮮明になっています。

OpenAI、コード脆弱性を自動検出するCodex Securityを公開

製品の特徴と精度

脅威モデル自動生成と編集機能
サンドボックスで検証し誤検知削減
修正パッチ文脈付きで提案
フィードバック学習で精度向上

OSS貢献と実績

14件のCVEをOSSで発見・報告
OpenSSH・GnuTLS等の重大脆弱性修正
誤検知率50%以上削減を達成
OSS支援プログラムを無償提供

OpenAIは2026年3月、アプリケーションセキュリティエージェントCodex Security」のリサーチプレビューを開始しました。ChatGPT Pro・Enterprise・Business・Edu顧客向けに、初月は無料で提供されます。

Codex Securityは旧名「Aardvark」として昨年からプライベートベータを実施してきました。ベータ期間中にSSRFやクロステナント認証バイパスなどの重大脆弱性を発見し、セキュリティチームが数時間以内にパッチを適用した実績があります。

同ツールの最大の特徴は、リポジトリを分析して脅威モデルを自動生成し、プロジェクト固有の文脈に基づいて脆弱性を優先順位付けする点です。サンドボックス環境での自動検証により、誤検知率を50%以上削減し、重要度の過大報告も90%以上減少させました。

OSSコミュニティへの貢献も注目されます。OpenSSH、GnuTLS、GOGS、Chromiumなど広く使われるプロジェクトで14件のCVEを報告しました。過去30日間で外部リポジトリの120万コミット以上をスキャンし、792件の重大・1万561件の高深刻度の脆弱性を検出しています。

OpenAIはOSSメンテナー向けに「Codex for OSS」プログラムも開始し、無償のChatGPT ProアカウントやCodex Securityを提供します。vLLMなどのプロジェクトが既に活用を開始しており、今後数週間で対象を拡大する予定です。

Anthropic、Firefoxの脆弱性22件をAIで2週間で発見

発見の成果

高深刻度14件含む22件発見
Firefox 148で大半を修正済み
C++ファイル約6,000件を走査
報告総数は112件に到達

攻撃検証の限界

エクスプロイト成功はわずか2件
検証に約4,000ドルのAPI費用
発見能力と悪用能力に大きな差

防御者への提言

タスク検証器で精度向上
最小テストケースの添付を推奨

Anthropicは2026年3月、Mozillaとの協力のもとClaude Opus 4.6を用いてFirefoxの脆弱性調査を実施し、2週間で22件の脆弱性を発見しました。うち14件は高深刻度に分類され、2025年に修正された高深刻度脆弱性の約5分の1に相当します。

調査はFirefoxのJavaScriptエンジンから開始されました。わずか20分の探索で、攻撃者が任意のデータを上書きできるUse After Free型のメモリ脆弱性が報告されています。その後ブラウザ全体に範囲を拡大し、約6,000のC++ファイルを走査して合計112件の報告を提出しました。

一方でAIの悪用能力には明確な限界がありました。Anthropicは約4,000ドルのAPIクレジットを費やしてエクスプロイト作成を試みましたが、実際に成功したのは2件のみです。しかもサンドボックスなどのセキュリティ機能を意図的に無効化したテスト環境での成功にすぎません。

Anthropicは効果的な脆弱性発見の鍵としてタスク検証器の活用を提唱しています。エージェントが自らの出力を検証できるツールを組み合わせることで、パッチの品質が大幅に向上するとしています。報告時には最小テストケース、概念実証、候補パッチの添付が信頼性向上に不可欠です。

Anthropicは今後、Linuxカーネルなど他の重要プロジェクトでも脆弱性調査を拡大する方針です。現時点ではAIの発見能力が悪用能力を大きく上回っており、防御者に有利な状況にあるとしつつも、将来的にこの差が縮まる可能性を警告し、開発者セキュリティ強化を急ぐよう呼びかけています。

Photoroom、画像生成モデルを24時間・約22万円で訓練する手法を公開

訓練レシピの全体像

H200 32台で24時間の速習訓練
総コスト約1500ドルに抑制
ピクセル空間で直接訓練しVAE不要に
TREADトークンルーティングで計算削減

品質向上の技術要素

LPIPSとDINOの知覚損失を併用
REPAでDINOv3と表現整合
オプティマイザにMuonを採用
コードとレシピをOSS公開

Photoroomは2026年3月3日、テキストから画像を生成する拡散モデルを24時間・約1500ドル(約22万円)の計算予算で訓練する手法「PRX Part 3」を公開しました。H200 GPU 32台を使用し、コードもGitHubでオープンソース化しています。

最大の特徴はピクセル空間での直接訓練です。従来必要だったVAE(変分オートエンコーダ)を排除し、パッチサイズ32と256次元のボトルネック層で系列長を制御します。512pxで訓練を開始し、1024pxへファインチューニングする2段階方式を採用しています。

品質向上のため知覚損失を2種類導入しています。LPIPSは低レベルの知覚的類似性を、DINOv2ベースの損失は意味的な信号を捉えます。プール済み画像全体に適用し、全ノイズレベルで計算する独自の工夫が加えられています。

計算効率の面ではTREADによるトークンルーティングを採用し、50%のトークンをTransformerブロックの大部分でスキップさせます。またREPAでDINOv3教師モデルとの表現整合を行い、収束を加速させています。オプティマイザにはMuonを使用しAdamを上回る性能を確認しています。

訓練データは合成データセット3種(計約870万枚)を使用し、Gemini 1.5でキャプションを再生成しています。生成品質にはまだ改善余地があるものの、プロンプト追従性や美的一貫性は高く、構造的な欠陥ではなくデータ多様性の不足が主な課題と分析しています。

Claude CodeにAI脆弱性スキャンが統合

Claude Codeセキュリティ機能の概要

Claude Codeにコードベース脆弱性スキャン機能を統合
AIがセキュリティパッチを生成し人間がレビュー
従来の静的解析ツールが見落とす脆弱性を検出
現在は限定リサーチプレビューとして公開中
セキュリティチームの人材不足問題への対応策

AIセキュリティ支援の新局面

フロンティアAIを防御側に活用する新コンセプト
AIによる脆弱性発見の精度が従来手法を超える可能性
開発者セキュリティ知識なく安全なコードを書けるように
攻撃側AIへの対抗手段としての重要性が増大
CI/CDパイプラインへの統合が次のステップ

Anthropicは、Claude Code on the webに新機能「Claude Code Security」を統合し、限定リサーチプレビューとして公開しました。この機能はコードベースをスキャンしてセキュリティ脆弱性を検出し、人間のレビュー用にパッチを提案するものです。

セキュリティチームが直面する最大の課題は、脆弱性の数に対して対応できる人材が圧倒的に不足していることです。Claude Code Securityは、AIの文脈理解能力を活用して従来の静的解析ツールが見落としがちなロジックレベルの脆弱性を検出することを目標としています。

「フロンティアのサイバーセキュリティ能力を防御側に開放する」というAnthropicのビジョンは示唆に富んでいます。AIが攻撃的なサイバー能力を持つ可能性がある以上、防御側も同等のAI能力を持つべきという論理は説得力があります。

現在は限定プレビューですが、この機能がGA(一般提供)段階に移行した場合、ソフトウェア開発のセキュリティプラクティスを大きく変える可能性があります。CI/CDパイプラインへの統合で、コードがコミットされるたびに自動セキュリティ審査が行われる未来が近づいています。

競合他社もAIセキュリティ機能を急速に拡充している中、AnthropicClaude Codeに統合することで開発者向けのオールインワンAI開発環境の価値を高める戦略的な動きです。セキュリティを標準機能として提供する差別化は重要な競争優位になりえます。

GitHubがエージェント型CIで今日から自動化できる開発フローを解説

アジェンティックCIの実践

エージェント型CIの実用ガイド公開
PR作成からテスト修正まで自動化
継続的AIの概念を定義
GitHub Actionsとの統合方法
開発者今日から実践できる内容

開発生産性への影響

CI/CDパイプラインの知的化
バグ修正の自律化
開発速度を1.5〜2倍に向上

GitHubは2026年2月5日のブログで、エージェント型CI(継続的インテグレーション)の実践的な使い方を開発者向けに解説した。

エージェント型CIでは、AIエージェントがプルリクエストのコードを読み、テスト失敗の自動修正セキュリティ脆弱性の検出・パッチ、コードスタイルの自動整形などを実行する。

GitHubはこれを「Continuous AI」と呼び、コードが書かれたその瞬間からAIが品質保証を継続的に行う未来像を提示している。

GitHub Actionsとの組み合わせにより、既存のCI/CDパイプラインに最小限の変更エージェント機能を追加できることが強調されている。

エージェント型CIの普及は開発チームの速度と品質を同時に向上させるが、AIの判断を人間がどこまで監督するかという新しいガバナンス問題も提起する。

OpenClaw AIスキル拡張機能がセキュリティ上の重大欠陥と判明

脆弱性の詳細

OpenClawスキル拡張が悪意ある実行を許可
サードパーティ製スキルの検証不足
ユーザーデータへの不正アクセスリスク
The Verge脆弱性詳細を報告
緊急のセキュリティパッチが必要な状況

企業への教訓

AIプラグインのサンドボックス化の重要性
サプライチェーン攻撃の新たなベクター

The Vergeは2026年2月4日、AIアシスタントOpenClawのスキル拡張機能が深刻なセキュリティリスクを持つことを報じた。悪意のあるコードが実行される可能性がある。

問題の核心はサードパーティ製スキルに対する検証・サンドボックス化が不十分な点で、攻撃者はプロンプトインジェクション手法でシステムを悪用できる。

ユーザーのプライベートデータや認証情報への不正アクセスが技術的に可能な状態となっており、企業環境での使用はリスクが高い。

この問題はAIアシスタントのプラグイン・スキルエコシステム全体のセキュリティ設計に関わる構造的課題を示しており、ChatGPTプラグインやGPT Storeにも同様のリスクが存在する可能性がある。

企業がAIツールを導入する際は、サードパーティ拡張機能のリスク評価とアクセス権限の最小化が不可欠であり、セキュリティ基準の整備が急務だ。

LLMへのプロンプトインジェクション対策と攻撃の実態が明らかに

OpenAIのエージェント防御強化

ChatGPT Atlas強化学習ベースの自動レッドチームを導入
ブラウザエージェントへの実世界の攻撃手法を発見
本番悪用前にパッチ適用するプロアクティブ防御
プロンプトインジェクション攻撃を継続的に検出
エージェントモードが最も汎用的な攻撃対象に
強化学習でエクスプロイトパターンを自動生成

レッドチームが示すLLM脆弱性の現実

高度な攻撃より自動化された反復攻撃が有効
モデルごとに失敗パターンが大きく異なる
継続的・無差別な試行でどのモデルも破られる
AIアプリ開発者は前提として失敗を織り込むべき
洗練された攻撃でなく量と継続が鍵
セキュリティモデルの根本的な見直しが必要

OpenAIChatGPT Atlasエージェントモードに対し、強化学習を活用した自動レッドチームシステムを導入し、プロンプトインジェクション攻撃を継続的に発見・修正するサイクルを確立したと発表しました。このシステムはブラウザエージェントの実世界での脆弱性を先行的に特定します。

VentureBeatが報じたレッドチーム研究によると、LLMセキュリティの「厳しい真実」は、高度な攻撃よりも単純な自動化された反復攻撃が有効であることです。あらゆるモデルは十分な試行回数があれば失敗することが示されています。

これらの知見はAIアプリやプラットフォームの開発者に対し、セキュリティを完璧に防ぐという発想を捨て、失敗を前提とした設計への転換を促しています。モデルの種類によって脆弱性のパターンが異なるため、包括的なテストが不可欠です。

React Server Components、DoSと情報漏洩の脆弱性

脆弱性の概要

高深刻度DoS攻撃(CVE-2025-55184)
中深刻度のソースコード露出
リモートコード実行の危険性はなし

影響と対応

React 19.0.0〜19.2.1が対象
Next.js 13.x〜16.xにも影響
Vercel WAFで全プロジェクトを保護
パッチ適用の即座の更新を推奨

Vercelが、React Server Componentsに新たに発見された2件の脆弱性を公表しました。CVE-2025-55184は、不正なHTTPリクエストによりサーバープロセスがハングしCPUを消費するDoS脆弱性です。CVE-2025-55183は、Server Actionのコンパイル済みソースコードが漏洩する可能性があります。

影響を受けるのはReact 19.0.0から19.2.1のreact-server-dom関連パッケージで、Next.js 13.x〜16.xをはじめ、Vite、Parcel、React Routerなどにも波及します。いずれもリモートコード実行は不可能です。

Vercelは全ホスティングプロジェクトにWAFルールを無償展開しましたが、WAFだけでは不十分としてパッチ適用を強く推奨しています。React 19.0.2、19.1.3、19.2.2で修正されています。

OpenAI、自律防衛AI「Aardvark」公開 脆弱性を自動修正

AIの攻撃・防御能力が急伸

GPT-5.1のCTFスコアが76%に到達
8月の27%から3ヶ月で約3倍に急成長
次期モデルはゼロデイ攻撃可能な水準を想定

自律型セキュリティAIの投入

コード全体の脆弱性を発見し修正パッチを提案
すでにOSSで新規CVEを発見する実績
一部OSSリポジトリには無償提供を計画

安全なエコシステムの構築

専門家によるフロンティア・リスク評議会を設置
防御目的の利用者に信頼されたアクセスを提供

OpenAIは2025年12月10日、AIのサイバーセキュリティ能力向上に対応する新戦略を発表しました。同時に、脆弱性を自律的に発見・修正するAIエージェント「Aardvark」のベータ版を公開。最新モデル「GPT-5.1」のCTFスコアが76%に達するなど能力が急伸する中、防御側の体制強化を急ぎます。

最新の評価では、AIのハッキング能力が劇的に向上しています。2025年8月時点で27%だった「GPT-5」のCTF(旗取りゲーム)スコアは、11月の「GPT-5.1-Codex-Max」で76%へと約3倍に跳ね上がりました。同社は次期モデルが未知の脆弱性を突く「ゼロデイ攻撃」も可能な水準に達すると予測しています。

防御力強化の切り札として投入されたのが、自律型セキュリティ研究エージェント「Aardvark」です。コードベース全体を推論して脆弱性を特定し、修正パッチまで提案します。すでにオープンソースソフトウェア(OSS)において新規の脆弱性(CVE)を発見する実績を上げており、一部の非営利OSSには無償提供される計画です。

技術提供に加え、組織的な安全対策も強化します。新たに「フロンティア・リスク評議会」を設置し、外部のセキュリティ専門家と連携してリスク境界を定義します。また、防御目的の研究者や企業に対して、より強力なモデル機能へのアクセス権を付与する「信頼されたアクセスプログラム」の導入も予定しており、エコシステム全体の強化を図ります。

GoogleのAI「Jules」が自律型へ進化し開発を能動支援

指示待ちから自ら動くパートナーへ

TODOからコード改善を自動提案
定型業務のスケジュール実行が可能
未指示でもバックグラウンドで稼働

開発フローの自動修復と成果

Render統合でデプロイ失敗を即座に修復
ログ解析から修正PR作成まで完結
Google内部で最大級の貢献者
人間は創造的業務に集中可能

Googleは2025年12月10日、コーディングAIエージェントJules」に自律的なタスク遂行機能を追加したと発表しました。開発者が明示的に指示せずとも、AIがバックグラウンドでコード改善や修正を行い、チームの生産性を劇的に高めます。

特筆すべきは、コード内のTODOコメントを検知して改善案を提示する「Suggested Tasks」と、定期メンテナンスを自動化する「Scheduled Tasks」です。これらは従来の「指示待ちAI」を脱却し、能動的なパートナーへと進化させる重要な機能です。

クラウド基盤「Render」との統合も強化されました。デプロイ失敗時にJulesが自動でログを解析し、修正コードを作成してプルリクエストを送ります。開発者がエラーログを手動でコピーして解析する手間を省き、迅速な復旧を実現します。

Google内部のAIデザインチームでは、Julesがリポジトリへの主要な貢献者として活躍しています。セキュリティパッチやテスト拡充をAIに任せることで、エンジニアが複雑な機能開発や創造的な問題解決に専念できる環境が整いつつあります。

React2Shell脆弱性、Next.js等は即時更新を

深刻なリモートコード実行の危機

React Server Componentsに致命的欠陥
React 19およびNext.js等が影響
遠隔から任意コード実行される恐れ

対象バージョンと緊急対応手順

Next.js 15.0.0〜16.0.6が対象
パッチ適用版へ即時アップグレード
更新後に環境変数の変更を推奨

2025年12月、React Server Componentsに起因する深刻な脆弱性「React2Shell」のエクスプロイトが確認されました。この欠陥はReact 19およびNext.js等のフレームワークに影響し、攻撃者によるリモートコード実行(RCE)を許す可能性があります。該当技術を利用する企業や開発チームは、直ちにセキュリティ状況を確認し、対策を講じる必要があります。

影響を受けるのは、Next.jsのバージョン15.0.0から16.0.6、および特定のCanaryビルドです。React Server Componentsを採用している場合、他のフレームワークでもリスクが存在します。Vercelダッシュボードの警告や、ブラウザコンソールでの`next.version`実行により、現在利用中のバージョンを速やかに特定してください。

対策として、修正パッチが適用されたバージョンへのアップグレードが必須です。自動修復ツール`npx fix-react2shell-next`を利用するか、`package.json`を更新して再デプロイを行ってください。WAFによる遮断はあくまで緩和策であり、アプリケーション自体の更新以外に完全な保護手段はありません。

脆弱な状態で稼働していたシステムは、すでに侵害されているリスクを否定できません。フレームワークのアップデート完了後、APIキーやデータベース接続情報など、アプリケーションに関連するすべての環境変数(Secrets)をローテーションすることを強く推奨します。Vercel Agent等の自動検知機能も活用し、継続的な監視体制を維持してください。

Vercel、脆弱性対応を一元化する新ダッシュボードを公開

介入が必要な問題を即座に特定

重大な脆弱性を自動検出
影響あるプロジェクトを集約
バナー通知リスクを可視化

自動・手動の両面から修正を支援

AIエージェントによる自動修正
手動対応用のコマンド提示
調査コストの大幅な削減

Vercelは2025年12月8日、ユーザーの介入が必要なセキュリティ問題を一元管理できる「Unified security actions dashboard」を公開しました。WAF等で自動防御できない脆弱性が検出された際、影響範囲と対応策を即座に提示し、開発チームの迅速な意思決定と対処を支援します。

新機能は、未パッチの依存関係や保護されていないプレビュー環境など、アクションが必要な項目をプロジェクト単位で自動的にグループ化します。ダッシュボード上にバナーとして通知されるため、重大なリスクを見逃すことなく、優先順位をつけて対応にあたることが可能です。

具体的な修正手段もシームレスに提供されます。可能な場合はVercel Agentを通じてワンクリックでの自動修正やプルリクエスト作成が行えるほか、手動対応が必要なケースでも実行すべきコマンドが明示されるため、エンジニアの調査コストを大幅に削減できます。

このダッシュボードにより、複数のプロジェクトを抱えるチームでもセキュリティ体制を効率的に維持できます。自律的な防御システムと人間による判断が必要な領域を明確に分けることで、開発者はより本質的な開発業務に集中できるようになるでしょう。

トランプ氏、州のAI規制を阻止へ 統一ルールで開発加速狙う

統一基準で開発を促進

今週中に「ONE RULE」大統領令に署名へ
50州ごとの承認プロセスを排除
対中競争での米国の優位性維持

業界歓迎も政治的反発

企業は規制パッチワーク解消を支持
共和党内からも州権侵害と批判の声
35州以上の検事総長が反対表明

トランプ大統領は8日、州独自のAI規制を事実上無効化する大統領令に、今週中に署名する意向を表明しました。AI開発における米国の優位性を保つため、企業にとって負担となる州ごとの異なるルールを排除し、連邦レベルでの統一基準を導入する狙いです。この動きは、AIビジネスの加速を期待させる一方で、州の自治権を巡り与野党を超えた激しい反発を招いています。

シリコンバレーの有力者たちは、この方針を歓迎しています。州ごとに異なる規制が乱立する現状は、迅速な開発を妨げるイノベーションの足かせとなるからです。特にホワイトハウスのAI政策責任者となるデビッド・サックス氏らは、対中国競争における米国のリードを維持するためには、規制の一本化が不可欠だと主張してきました。

リークされた草案によれば、大統領令には州法に法的に挑戦する「AI訴訟タスクフォース」の設置が含まれます。また、連邦通信委員会(FCC)や連邦取引委員会(FTC)に対し、州法を上書きする国家基準の策定を促す方針です。これにより、企業は50州それぞれの承認を得る手間から解放されますが、各州の消費者保護策が無効化される懸念もあります。

しかし、この方針は共和党内でも一枚岩ではありません。フロリダ州のデサンティス知事らは「州の権限を侵害する連邦政府の越権行為」として強く反対しています。AIによる被害から市民を守る権利を州から奪うことへの懸念は根強く、上院でも同様の提案が却下されたばかりです。ビジネスの自由と連邦主義を巡る対立は、今後法廷闘争へと発展する可能性が高いでしょう。

Vercel、脆弱なNext.jsデプロイを強制ブロック

脆弱性対策でデプロイ制限

React2Shellへの防御措置
脆弱なバージョンのデプロイを遮断
v15〜16系の一部がブロック対象

多層防御と報奨金制度

WAFルールで攻撃パターンを遮断
HackerOneと連携し報奨金を開始
最大5万ドルの報酬を用意

推奨されるアクション

修正済み版への即時更新が不可欠
コンソール等でバージョン確認

Vercelは2025年12月5日、脆弱性「React2Shell」対策として、脆弱なNext.jsを含むアプリの新規デプロイをブロックする措置を開始しました。攻撃の活発化を受け、エンジニアやリーダーは直ちに対応が必要です。

今回の措置により、修正パッチが適用されていないNext.js(バージョン15.0.0から16.0.6)を使用するプロジェクトは、デプロイが自動的に失敗します。これはWAFによるフィルタリングに加え、根本的なリスク排除を目的とした強力な強制措置といえます。

経営者エンジニアが最優先すべきは、影響を受けるNext.jsを直ちに修正済みバージョンへアップグレードすることです。VercelはWAFルールで既知の攻撃を防御していますが、完全な保護を保証するものではなく、アップデートこそが唯一の恒久的な解決策となります。

またVercelは、セキュリティ企業のHackerOneと提携し、WAFの回避策を発見した場合に最大5万ドルを支払うバグ報奨金プログラムを開始しました。外部の研究者の知見を取り入れ、プラットフォーム全体の防御能力を継続的に強化する姿勢を打ち出しています。

ご自身のプロジェクトが影響を受けるか確認するには、ブラウザコンソールで`next.version`を実行するか、`package.json`を点検してください。Vercelの管理画面にも警告バナーが表示されるため、見逃さずに確実な対応を進めましょう。

米当局がWaymoを調査へ、スクールバス追い越し違反で

違反の実態と当局の動き

オースティンで19回の違法追い越しが発生
NHTSAがWaymoに詳細な情報提供を要求
停止中のスクールバスを認識できず通過

技術的課題と企業の対応

Waymoは自主的なソフトリコールを表明
修正パッチ適用後も同様の違反が5件発生
20都市への展開計画に対する規制リスクが浮上

米運輸省道路交通安全局(NHTSA)は5日、Alphabet傘下のWaymoに対する調査を開始しました。テキサス州オースティンなどで、同社のロボタクシーが停止中のスクールバスを違法に追い越す事案が相次いだためです。

オースティン学区は今年度だけで19件の違反を報告しており、その中にはWaymoが修正ソフトを配布した後に行われたものも含まれます。NHTSAは、Waymoの第5世代自動運転システムが「予期せぬ挙動」を示しているとして強い懸念を表明しました。

これに対しWaymoは、問題解決に向けた自主的なソフトウェアリコールをNHTSAに届け出る方針です。同社の安全責任者は「最高の安全基準を維持するため、改善すべき点は認める」とし、継続的な修正と分析を行う姿勢を示しています。

本件は、Waymoが全米20都市以上へのサービス拡大を目指す中で起きました。AIが地域の交通ルールや特殊な状況にどう適応し、信頼を勝ち取るかは、自動運転ビジネスにおける市場価値と収益性を左右する重要な試金石となります。

ReactとNext.jsに重大な脆弱性、リモートコード実行の恐れ

影響範囲とリスク

React 19とNext.jsに及ぶ影響
リモートコード実行の危険性
不正な入力処理で意図せぬ動作

解決策と対応

VercelはWAFで自動防御済み
全環境でパッチ適用版へ更新必須
Reactは19.0.1以降へ更新
Next.jsは15.0.5以降へ

2025年12月3日、React Server Componentsに重大な脆弱性が公表されました。Next.jsを含む主要フレームワークに影響し、最悪の場合リモートコード実行(RCE)に至る危険性があります。エンジニアは即時の確認が必要です。

対象はReact 19系のサーバーコンポーネント機能を使用する環境で、Next.jsのバージョン15や16も含まれます。信頼できない入力を処理する際、攻撃者に任意のコードを実行される可能性があるため、早急な対策が求められます。

解決策として、React 19.0.1やNext.js 15.0.5などの修正版への更新を行ってください。VercelユーザーはWAFで一時的に保護されていますが、セキュリティを確実にするため、ホスティング環境に関わらずアップデートを推奨します。

トランプ氏主導の州AI規制禁止、米防衛法案で再び頓挫

米議会での攻防と決裂

トランプ大統領が州規制の無効化を強く要請
NDAAへの条項追加に超党派で反発が発生
共和党内からも州知事らが異論を唱える

テック業界の思惑と今後

企業は統一ルールによる効率化を支持
連邦法なき規制撤廃に監視空白の懸念
共和党は別法案での再提出を模索中

2025年12月3日、米議会共和党指導部は、各州による独自のAI規制を無効化する条項の国防権限法(NDAA)への盛り込みを断念しました。トランプ大統領やシリコンバレーが後押ししたこの措置は、超党派の議員や一部の共和党州知事からの強い反発を受け、最終的な合意には至りませんでした。

この動きは、州ごとに異なる規制が乱立する「パッチワーク」状態を回避し、イノベーションを促進したい大手テック企業の意向を反映したものです。トランプ氏は、統一された連邦基準がなければ中国とのAI開発競争に敗れると主張し、法制化を強く求めていました。

一方で批判派は、連邦レベルの包括的なAI法が存在しない現状で州の権限を剥奪することは、実質的に巨大IT企業への監視を放棄することに等しいと指摘しています。州法は主に安全性や消費者保護に焦点を当てており、その無効化には慎重論が根強くあります。

スカリス下院院内総務は、NDAAがこの規定を含めるのに「最適な場所ではなかった」と認めつつ、関心は依然として高いと強調しました。共和党指導部は今後、単独の法案や別の立法手段を通じて、再び連邦による規制統一を目指す方針です。

AI攻撃に対抗、クラウド防御をリアルタイム検知へ刷新

AI武装する脅威の現実

攻撃は数ミリ秒で実行され甚大な被害
従来型のバッチ処理では防御不能
組織の55%がクラウド侵害を経験

秒速の防御システム

CrowdStrikeがリアルタイム検知発表
対応時間を15分から数秒へ圧縮
AIが自動トリアージし負荷軽減

リーダーへの提言

可視化ギャップの解消が急務
パッチサイクルを72時間以内へ

CrowdStrikeは12月1日、AWS re:Inventにて、ハイブリッドクラウド向けのリアルタイム検知・対応機能を発表しました。AIにより高速化したサイバー攻撃に対抗するため、従来のバッチ処理型セキュリティを刷新し、攻撃検知から対応までの時間を数秒レベルに短縮します。AIを悪用した脅威が急増する中、企業の防御態勢を根本から見直す新たな業界標準となりそうです。

AIを武器化した攻撃者は、パッチ公開からわずか72時間以内に弱点を突く手法を開発しています。従来のセキュリティツールはログ収集に15分程度の遅延があり、数ミリ秒で実行されるAI攻撃に対しては「検知=事後処理」となってしまうのが実情です。

新機能はAmazonAWS EventBridgeと連携し、イベントストリームを直接分析します。これにより、攻撃の予兆をリアルタイムで捉え、SOC(セキュリティ監視センター)チームが介入する前に、AIが自動で悪意ある通信を遮断・修復することが可能になりました。

CrowdStrike幹部は「リアルタイム検知のないCNAPP(クラウドネイティブ保護基盤)は時代遅れになる」と断言します。ハイブリッド環境の複雑化と攻撃の高度化が進む中、リアルタイム性は今後のセキュリティ投資における必須要件となるでしょう。

経営者やリーダーは、自社のセキュリティが「人間速度」か「機械速度」かを見極める必要があります。可視化できない死角をなくし、パッチ適用サイクルを短縮するなど、AI時代のスピード感に合わせた戦略の再構築が求められています。

米AI規制で連邦と州が衝突、業界は「州法無効化」へ圧力

州独自規制への反発と業界の主張

加州等の独自規制に対し業界はイノベーション阻害と反発
中国競争を理由に連邦レベルの統一基準を要望
OpenAI等が支援する団体が州法無効化へ資金投入

政治的駆け引きと今後の展望

議会は国防権限法を利用し州の規制権限を制限する動き
次期トランプ政権の大統領令案も州規制排除を示唆
一部議員は現実的な連邦法案による解決を模索

2025年11月、米国のAI政策において「誰がルールを作るか」を巡る主導権争いが激化しています。カリフォルニア州などが独自の消費者保護法案を先行させる中、シリコンバレーのテック企業群はこれに強く反発し、連邦政府による統一基準の策定を求めています。彼らの狙いは、州ごとの異なる規制に対応するコストを回避し、連邦法によって州法を無効化(プリエンプション)することにあります。

OpenAIAndreessen Horowitzなどが支援する政治活動委員会(PAC)は、州による規制の乱立が「パッチワーク」のような複雑さを生み、イノベーションを阻害すると主張しています。業界団体は「中国とのAI開発競争に遅れをとる」というロジックを展開し、数億ドル規模の資金を投じて、州規制を排除する連邦法の成立や、規制反対派候補の支援に向けたロビー活動を加速させています。

この動きに呼応し、ワシントンでは州の権限を制限する具体的な政治的動きが見られます。連邦議会の一部では、国防権限法(NDAA)に州のAI規制を禁止する条項を盛り込むことが検討されています。また、次期トランプ政権のものとされる流出した大統領令案では、州法を法的に無効化し、連邦取引委員会(FTC)などに統一基準を設けさせる方針が示唆されています。

一方で、州政府や消費者保護団体は、連邦政府の対応の遅さを批判し、州こそが「民主主義の実験場」として迅速にリスクに対処できると反論しています。専門家からは、テック企業はすでに厳格なEUのAI規制に対応しており、州ごとの違いに対応できないというのは責任逃れの方便に過ぎないとの指摘もあがっています。

連邦議会ではテッド・リュウ下院議員らが、詐欺防止や透明性確保を含む包括的な連邦AI法案の準備を進めています。しかし、ねじれ議会や次期政権の方針を考慮し、極端な規制ではなく共和党とも合意可能な現実的なラインを模索しているのが現状です。日本企業にとっても、米国の規制が統一されるか分散するかは、グローバルなコンプライアンス戦略に直結する重要な指標となります。

Vercel流React Native開発:v0 iOSの技術的挑戦と全貌

ネイティブ品質と技術選定

React NativeとExpoで開発効率を最大化
Apple Design Award級の品質を追求

AIチャットUIの極致

Reanimatedで滑らかな表示を実現
キーボード開閉時のスクロール挙動を制御
動的なコンテンツサイズに即座に対応

共有戦略とOSS貢献

Webと型定義を共有しUIは個別最適化
OpenAPIで型安全な通信環境を構築
バグ修正をReact Native本体へ還元

Vercelが初のモバイルアプリ「v0 for iOS」をリリースしました。React NativeとExpoを駆使し、Apple純正アプリに匹敵するネイティブ品質を実現しています。本記事では、AIチャット特有の複雑なUI課題をどう解決し、Web主体の企業が高品質なモバイルアプリを構築したのか、その技術的裏側を解説します。

開発の目標は、Apple Design Awardに値する最高品質のアプリ構築でした。Web技術に精通した同社は、数週間の実験を経てReact NativeとExpoを選定。Appleの標準アプリのような自然な操作感を目指し、iMessageなどを参考にしながら、細部に至るまでネイティブらしい挙動を追求しました。

チャット体験の核となるのは、メッセージ表示の滑らかさです。React Native Reanimatedを駆使し、送信時のフェードインやAI回答のストリーミング表示を実装。動的に高さが変わるメッセージ要素に対しても、計算されたアニメーションを適用することで、心地よい対話フローを作り上げました。

モバイルチャット開発で最も困難なのがキーボード制御です。iOSの更新による挙動変化に対応するため、独自のフックuseKeyboardAwareMessageListを開発しました。メッセージの高さやキーボードの位置関係を精密に計算し、コンテンツが隠れることなくスムーズにスクロールされる仕組みを構築しています。

Web版とのコード共有においては、UIや状態管理を分離し、型定義やヘルパー関数のみを共有する戦略を採りました。ZodとOpenAPIを活用してバックエンドAPIの型安全性を確保し、モバイル側でクライアントコードを自動生成することで、開発効率と堅牢性を両立させています。

開発過程で直面したReact NativeやiOSのバグに対しては、単にパッチを当てるだけでなく、本家リポジトリへの修正提供も行いました。CallstackやMetaエンジニアと連携し、エコシステム全体の改善に貢献する姿勢は、技術リーダーとして参考になるアプローチです。

トランプ政権、州のAI規制無効化の大統領令を保留へ

連邦統一基準への執着と画策

州ごとの規制乱立を問題視
訴訟による州法無効化を計画
補助金停止を交渉材料に検討

政治的圧力と方針転換

ロイターが命令の保留を報道
上院共和党からも強い反発
AI規制の主導権争い続く

トランプ政権は、各州が独自に制定するAI規制を無効化するために準備していた大統領令の発令を、一時停止したと報じられました。当初、政権は「50州のパッチワーク規制ではなく、単一の連邦基準が必要」と主張し、州法を排除する強硬な姿勢を見せていました。しかし、法的・政治的な反発を受け、方針転換を余儀なくされた形です。

報道によると、準備されていた大統領令案には「AI訴訟タスクフォース」の設立が含まれていました。これは連邦政府が州法に対抗して訴訟を起こし、従わない州への連邦ブロードバンド補助金の停止を示唆する内容でした。しかし、過去にも同様の州規制禁止案が上院で99対1という圧倒的大差で否決されるなど、身内の共和党内からも批判が出ていました。

シリコンバレーでは、AI規制を巡る意見が二分されています。トランプ政権に近い勢力は、カリフォルニア州のAI安全性法案(SB 53)を支持するAnthropic社などを批判していますが、今回の保留決定は、連邦政府による強権的な介入の限界を示唆しています。企業にとって、規制環境の不確実性は当面続くことになりそうです。

Cisco警告、AI時代の老朽インフラは重大な経営リスク

AIによる攻撃の自動化

生成AIで脆弱性発見が容易化
古い機器はパッチ適用外が多い
攻撃者の参入障壁が低下

対策と国際比較

危険な設定に警告表示を強化
米英はリスク高、日本は低リスク
更新は経営課題として扱う

米Ciscoは20日、生成AIの普及により、老朽化したITインフラへのサイバー攻撃リスクが急増していると警告しました。サポート切れのルーター等が攻撃者の標的となりやすく、企業は緊急の対策を迫られています。

生成AIにより、攻撃者がシステムの脆弱性を発見・悪用するハードルが劇的に下がりました。放置された古い機器は「サイレント・リスクとなり、高度な知識がない攻撃者でも容易に侵入できる危険な状態にあります。

Ciscoは対策として、製品の危険な設定に対する警告を強化する新方針を発表しました。サポート終了が近い製品を使用中の顧客に対し、明確な警告を表示し、将来的には危険な相互運用オプション自体を削除する計画です。

重要インフラに関する5カ国調査では、英国米国が最もリスクが高いとされました。一方、日本一貫した更新と分散化、デジタルレジリエンスへの注力により、相対的にリスクが最も低いと高く評価されています。

同社幹部は、現状維持には「計上されていないコスト」が存在すると指摘します。古い技術を使い続けることは経営リスクそのものであり、現場任せではなく取締役会レベルで投資と刷新を議論すべきだと訴えています。

OpenAI、脆弱性自動発見・修正AI『Aardvark』発表

自律型AIセキュリティ研究者

GPT-5搭載の自律型AIエージェント
脆弱性発見から修正までを自動化
開発者セキュリティ負担を軽減

人間のような分析と連携

コードを読み分析・テストを実行
サンドボックスで悪用可能性を検証
GitHub等の既存ツールと連携

高い実績と今後の展開

ベンチマーク脆弱性特定率92%を達成
OSSで10件のCVE取得に貢献
プライベートベータ参加者を募集

OpenAIは2025年10月30日、最新のGPT-5を搭載した自律型AIエージェント「Aardvark」を発表しました。これは、ソフトウェアの脆弱性を自動で発見・分析し、修正パッチまで提案するAIセキュリティ研究者です。増え続けるサイバー攻撃の脅威に対し、開発者脆弱性対策に追われる現状を打破し、防御側を優位に立たせることを目指します。

Aardvarkの最大の特徴は、人間の一流セキュリティ研究者のように思考し、行動する点にあります。従来の静的解析ツールとは一線を画し、大規模言語モデル(LLM)の高度な推論能力を活用。自らコードを読み解き、テストを書き、ツールを使いこなすことで、複雑な脆弱性も見つけ出します。

そのプロセスは、脅威モデルの分析から始まります。次に、コミットされたコードをスキャンして脆弱性を特定。発見した脆弱性は、サンドボックス環境で実際に悪用可能か検証し、誤検知を徹底的に排除します。最終的に、修正パッチを自動生成し、開発者にワンクリックでの適用を促すなど、既存の開発フローにシームレスに統合されます。

Aardvarkはすでに目覚ましい成果を上げています。ベンチマークテストでは、既知および合成された脆弱性の92%を特定するという高い精度を実証。さらに、オープンソースプロジェクトで複数の未知の脆弱性を発見し、そのうち10件はCVE(共通脆弱性識別子)として正式に採番されています。

ソフトウェアが社会インフラの根幹となる一方、脆弱性は増え続け、2024年だけで4万件以上報告されました。Aardvarkは、開発者がイノベーションに集中できるよう、継続的なセキュリティ監視を自動化します。これは防御側に有利な状況を作り出し、デジタル社会全体の安全性を高める大きな一歩と言えるでしょう。

OpenAIは現在、一部のパートナー向けにAardvarkのプライベートベータ版を提供しており、今後、対象を拡大していく方針です。また、オープンソースエコシステムの安全に貢献するため、非営利のOSSリポジトリへの無償スキャン提供も計画しています。ソフトウェア開発の未来を変えるこの取り組みに、注目が集まります。

Vercel、AIエージェント開発を本格化する新SDK発表

AIエージェント開発の新基盤

AI SDK 6によるエージェント抽象化
人間による承認フローの組み込み
エンドツーエンドの型安全性を確保
ゼロ設定でPythonフレームワーク対応

高信頼な実行環境とエコシステム

ワークフローキットで高信頼性を実現
マーケットプレイスでAIツールを導入
Vercel Agentによる開発支援
OSSの営業・分析エージェント提供

Vercelが先週開催したイベント「Ship AI 2025」で、AIエージェント開発を本格化させる新技術群を発表しました。中核となるのは、エージェント中心の設計を取り入れた「AI SDK 6」や、タスクの信頼性をコードで担保する「Workflow Development Kit」です。これにより、ウェブ開発のように直感的かつスケーラブルなAI開発環境の提供を目指します。

新たにベータ版として公開された「AI SDK 6」は、エージェントを一度定義すれば、あらゆるアプリで再利用できるアーキテクチャが特徴です。これにより、ユースケースごとにプロンプトやAPIを連携させる手間が不要になります。また、人間のレビューを必須とするアクションを制御できる承認機能も組み込まれ、安全な運用を支援します。

長時間実行されるタスクの信頼性を高めるのが「Workflow Development Kit」です。従来のメッセージキューやスケジューラの設定に代わり、TypeScriptの関数に数行のコードを追加するだけで、失敗した処理の自動リトライや状態保持を実現します。これにより、AIエージェントのループ処理やデータパイプラインを安定して実行できます。

エコシステムの拡充も進んでいます。Vercel Marketplaceでは、CodeRabbitなどのエージェントやAIサービスをプロジェクトに直接導入可能になりました。さらに、FastAPIやFlaskといったPythonフレームワークが設定不要でデプロイ可能となり、バックエンド開発者のAIクラウド活用を促進します。

Vercel自身も、開発者を支援するAIアシスタントVercel Agent」のベータ版を提供開始しました。このエージェントは、コードレビューパッチ提案、本番環境でのパフォーマンス異常の検知と原因分析を自動化します。開発チームの一員として、生産性向上に貢献することが期待されます。

Vercelの一連の発表は、AIエージェント開発を一部の専門家から全ての開発者へと解放するものです。SDKによる抽象化、ワークフローによる信頼性確保、マーケットプレイスによるエコシステムが一体となり、アイデアを迅速に本番稼働のエージェントへと昇華させる強力な基盤が整ったと言えるでしょう。

AI生成タンパク質のバイオ脅威、MSが「ゼロデイ」発見し緊急パッチ適用

AIタンパク質の脅威発覚

AI設計による毒性タンパク質の生成
既存バイオ防御網の回避を確認
AIとバイオにおける初のゼロデイ脆弱性

緊急対応と国際協力

サイバー型CERTアプローチを適用
新たなAI耐性パッチを即時開発
IGSC通じ世界的に導入を完了

情報ハザード対策

機密データに階層型アクセスを適用
IBBISが利用申請を厳格審査

Microsoftの研究チームは、AIを用いたタンパク質設計(AIPD)ツールが悪性のタンパク質配列を生成し、既存のバイオセキュリティ・スクリーニングシステムを回避できるという深刻な脆弱性を発見しました。この「Paraphrase Project」は、AIとバイオセキュリティ分野における初の「ゼロデイ脆弱性」と認定され、サイバーセキュリティ型の緊急対応を促しました。この結果と対応策は、機密情報の開示方法に関する新たなモデルとともに科学誌Scienceに発表されました。

研究チームは、オープンソースのAIツールを利用して、毒素として知られるリシンなどのタンパク質配列を「パラフレーズ」(言い換え)するパイプラインを構築しました。その結果、生成された数千の変異体が、構造や機能を維持しながらも、主要なDNA合成企業が採用するスクリーニングソフトウェアの検出をすり抜けることが実証されました。これは、AIの高度な設計能力が、既存の防御手法(既知の配列との類似性に基づく)を無力化しうることを示しています。

この極めて危険な脆弱性の発見を受け、Microsoftは即座にサイバーセキュリティ分野のCERT(緊急対応チーム)モデルを採用しました。脆弱性の公表に先行して、Twist BioscienceなどのDNA合成企業や国際的なバイオセキュリティ機関と機密裏に連携し、10カ月間にわたり「レッドチーミング」を実施。AI設計タンパク質の検出能力を大幅に向上させる「パッチ」を開発し、国際遺伝子合成コンソーシアム(IGSC)を通じて世界中に迅速に展開しました。

AIタンパク質設計は、新薬開発などの恩恵と悪用のリスクという「二重用途のジレンマ」を内包します。研究結果の公開が悪意ある行為者に悪用される「情報ハザード」に対処するため、MicrosoftはIBBIS(国際バイオセキュリティ・バイオセーフティ・イニシアティブ・フォー・サイエンス)と協力し、画期的な開示モデルを確立することに注力しました。

この新モデルは、データとメソッドを潜在的な危険度に応じて分類する「階層型アクセスシステム」です。研究者はアクセス申請時に身元や目的を開示し、専門家委員会による審査を受けます。Science誌がこのアプローチを初めて正式に承認したことは、厳密な科学と責任あるリスク管理が両立可能であることを示し、今後の二重用途研究(DURC)における情報共有のテンプレートとして期待されています。

専門家らは、AIの進化により、既知のタンパク質を改変するだけでなく、自然界に存在しない全く新規の脅威が設計される時代が来ると警告しています。DNA合成スクリーニングは強力な防御線ですが、これに頼るだけでなく、システムレベルでの防御層を多重化することが不可欠です。AI開発者は、脅威認識と防御強化に直接応用する研究を加速させる必要があります。

GoogleがAI防衛戦略を強化、自動パッチAI「CodeMender」と報奨金制度を開始

自動パッチAI「CodeMender」

Gemini活用による複雑な脆弱性の自動修正
受動的/能動的防御アプローチの統合
人手によるレビュー前提の高品質パッチ提案
オープンソースに既に72件の修正を適用

AI特化の報奨金制度(VRP)

AI製品の脆弱性に特化したVRPを新設
最大報奨金は3万ドル(約450万円)
重点対象はAIによる「不正なアクション」
データ漏洩など実害のある脆弱性が対象

SAIF 2.0によるエージェント防御

自律型AIエージェントリスクに対応
制御・制限・可視化」の3原則を設定
SAIFリスクマップを業界団体に寄贈

Googleは、AIを攻撃ツールとして利用する悪質な脅威に対抗するため、包括的なAIセキュリティ戦略を始動しました。核となるのは、コードの脆弱性を自動修正するAIエージェント「CodeMender」の開発、AI製品に特化した報奨金制度「AI VRP」の新設、そして自律型エージェントの安全性を確保する「SAIF 2.0」へのフレームワーク拡張です。AIの力を防御側に決定的に傾けることを目指します。

中でも「CodeMender」は、ソフトウェア開発におけるセキュリティ対応のあり方を一変させる可能性があります。これはGeminiの高度な推論能力を活用し、複雑な脆弱性の根本原因を特定し、高品質なパッチを自動生成・適用するAIエージェントです。これにより、開発者は煩雑な修正作業から解放され、本質的な開発に集中できるようになります。

CodeMenderは、新しい脆弱性を即座に修正する「受動的」対応に加え、セキュアなコード構造への書き換えを促す「能動的」な防御も行います。既に、オープンソースプロジェクトに対し、人間によるレビューを経た72件のセキュリティ修正を適用しています。自己検証機能により、誤った修正や退行を防ぎながら、迅速なパッチ適用を実現します。

セキュリティ研究コミュニティとの連携を強化するため、GoogleはAI脆弱性報奨金制度(AI VRP)を立ち上げました。この制度では、LLMや生成AIシステムを悪用し、不正に動作させる「不正なアクション (Rogue Actions)」に関する報告に注力します。最高で3万ドル(約450万円)の報奨金が提供されます。

AI VRPは、データ漏洩アカウント改ざんなど、セキュリティ上の実害を伴うAIの脆弱性を対象とします。例えば、プロンプトインジェクションにより、Google Homeに不正にドアを解錠させたり、機密情報を攻撃者のアカウントに要約・送信させたりするケースが該当します。単なるAIのハルシネーション(幻覚)は対象外です。

さらにGoogleは、自律的に動作するAIエージェントセキュリティリスクに対応するため、「Secure AI Framework (SAIF) 2.0」を発表しました。このフレームワークでは、エージェントを安全に運用するための「人間による制御」「権限の制限」「行動の可視化」という3つのコア原則を掲げています。AIエージェントが普及する未来を見据えた業界標準の構築を推進しています。

AIがサイバー防御の主役に、Claude新版で性能飛躍

Claude Sonnet 4.5の進化

最上位モデルOpus 4.1に匹敵する防御スキル
汎用能力に加えサイバー能力を意図的に強化
低コストかつ高速な処理を実現

驚異的な脆弱性発見能力

ベンチマーク旧モデルを圧倒するスコア
未知の脆弱性33%以上の確率で発見
脆弱性修正パッチの自動生成も研究中

防御的AI活用の未来

攻撃者のAI利用に対抗する防御AIが急務
パートナー企業もその有効性を高く評価

AI開発企業のAnthropicは2025年10月3日、最新AIモデル「Claude Sonnet 4.5」がサイバーセキュリティ分野で飛躍的な性能向上を達成したと発表しました。コードの脆弱性発見や修正といった防御タスクにおいて、従来の最上位モデルを凌駕する能力を示し、AIがサイバー攻防の重要な「変曲点」にあることを示唆しています。これは、AIの悪用リスクに対抗するため、防御側の能力強化に注力した結果です。

Sonnet 4.5」は、わずか2ヶ月前に発表された最上位モデル「Opus 4.1」と比較しても、コードの脆弱性発見能力などで同等かそれ以上の性能を発揮します。より低コストかつ高速でありながら専門的なタスクをこなせるため、多くの企業にとって導入のハードルが下がるでしょう。防御側の担当者がAIを強力な武器として活用する時代が到来しつつあります。

その性能は客観的な評価でも証明されています。業界標準ベンチマーク「Cybench」では、タスク成功率が半年で2倍以上に向上しました。別の評価「CyberGym」では、これまで知られていなかった未知の脆弱性33%以上の確率で発見するなど、人間の専門家でも困難なタスクで驚異的な成果を上げています。

この性能向上は偶然の産物ではありません。AIが攻撃者によって悪用される事例が確認される中、Anthropicは意図的に防御側の能力強化に研究資源を集中させました。マルウェア開発のような攻撃的作業ではなく、脆弱性の発見と修正といった防御に不可欠なスキルを重点的に訓練したことが、今回の成果につながっています。

さらに、脆弱性を修正するパッチの自動生成に関する研究も進んでいます。初期段階ながら、生成されたパッチの15%が人間が作成したものと実質的に同等と評価されました。パートナーであるHackerOne社は「脆弱性対応時間が44%短縮した」と述べ、実践的な有効性を高く評価しています。

Anthropicは、もはやAIのサイバーセキュリティへの影響は未来の懸念ではなく、現在の課題だと指摘します。攻撃者にAIのアドバンテージを渡さないためにも、今こそ防御側がAIの実験と導入を加速すべきだと提言。企業や組織に対し、セキュリティ態勢の強化にAIを活用するよう強く呼びかけています。

大手AIに透明性義務、加州で全米初の安全法成立

法案「SB 53」の概要

カリフォルニア州で全米初のAI安全法が成立
AIのリスク管理と公衆の信頼確保が目的
イノベーションと規制の両立を目指す

大手AI企業への義務

安全性プロトコルの透明性確保を要求
従業員の内部告発者保護を強化
重大インシデントの州当局への報告義務

分かれる業界の反応

Anthropic社は法案を支持
MetaOpenAIイノベーション阻害を懸念し反対

カリフォルニア州のギャビン・ニューサム知事は29日、大手AI企業に安全対策の透明性を義務付ける全米初の法案「SB 53」に署名し、同法は成立しました。この法律は、OpenAIGoogle DeepMindなどのAI開発企業に対し、安全性プロトコルの開示や重大なインシデントの報告を求めるものです。AIの急速な進化に伴うリスクを管理し、公衆の信頼を確保することが狙いです。

新法「SB 53」の柱は、大手AI企業に対する厳しい透明性要件です。具体的には、開発するAIモデルの安全性プロトコルを明確にすることが求められます。さらに、従業員が内部から安全上の懸念を指摘できる内部告発者保護制度を保証し、サイバー攻撃のような重大な安全インシデントが発生した際には、州当局への報告が義務付けられます。

この法案に対し、AI業界の反応は二分しています。Anthropic社が法案を支持する一方、Meta社やOpenAI社は「イノベーションを阻害する規制のパッチワークを生む」として強く反対し、ロビー活動を展開しました。シリコンバレーでは、AI規制に緩やかなアプローチを求める候補者を支援するため、巨額の資金が投じられる動きも活発化しています。

今回の法案成立は、昨年ニューサム知事がより広範な規制法案に拒否権を行使した後の、2度目の挑戦でした。カリフォルニア州の動向は、他州のAI規制政策に大きな影響を与える可能性があります。ニューヨーク州でも同様の法案が可決されており、知事の署名を待つ状況です。カリフォルニア州は、イノベーションと規制のバランスを取ることで、米国のAI政策をリードする構えです。

Meta、AI規制対抗で新組織設立 ロビー活動を全米展開

Facebookの親会社Metaは9月23日、AI技術の革新を阻害しうる州レベルの規制に対抗するため、数千万ドル規模のスーパーPAC(特別政治活動委員会)を設立しました。新組織を通じてAI開発に友好的な政治家を支援し、米国の技術的リーダーシップを維持する狙いです。各州で独自のAI規制案が急増していることが背景にあります。 このスーパーPACは超党派で運営され、来年の中間選挙でAIの進歩を支持する候補者を当選させることが目的です。Metaは、AIの発展を擁護するとともに、保護者が子供のオンライン体験を管理できる仕組みを重視する方針を強調しています。これは、同社が直面する子供の安全に関する批判をかわす狙いもあるとみられます。 なぜ今、政治活動を強化するのでしょうか。背景には、連邦レベルでの包括的なAI規制が進まない一方、州議会が独自に規制を策定する動きが全米で加速していることがあります。2025年の会期だけで、全50州で1000を超えるAI関連法案が提出されるなど、規制強化の波が押し寄せています。 この動きはMetaに限りません。大手ベンチャーキャピタルAndreessen HorowitzOpenAI幹部も、AI規制に反対する大規模なスーパーPACを設立しています。州ごとに異なる規制が乱立する「パッチワーク」状態は、イノベーションを阻害しかねません。シリコンバレー全体で政治的な影響力確保を急いでいるのです。