CI/CD(ソフトウェア開発)に関するニュース一覧

axios等npm主要パッケージに連続サプライチェーン攻撃、保守者認証情報が弱点

axiosへの攻撃の全容

週1億DLのaxiosに悪意あるRAT混入
保守者のnpmトークン窃取が起点
OIDC認証を迂回しCLI経由で公開
公開から89秒で最初の感染確認

7カ月で3件の同種攻撃

2025年9月のShai-Huludワームで500超パッケージ被害
レガシートークンが毎回の根本原因
npm改革後も旧認証並存し無効化されず

企業が取るべき対応策

lockfileで該当バージョン有無を確認
感染時は全認証情報のローテーション必須
CI/CDignore-scriptsを強制適用

2026年3月31日、JavaScriptで最も広く使われるHTTPライブラリaxiosのnpmパッケージがサプライチェーン攻撃を受け、悪意あるバージョンが約3時間にわたり公開されました。攻撃者は保守者のnpmトークンを窃取し、遠隔操作型トロイの木馬を仕込んだ2つのバージョンを配布しています。

axiosは週1億回以上ダウンロードされ、クラウド環境の約80%に存在するとWizが報告しています。Huntressは公開から89秒で最初の感染を検知し、露出期間中に少なくとも135システムの感染を確認しました。影響を受けたバージョンはaxios@1.14.1とaxios@0.30.4です。

攻撃者はaxiosのソースコードには触れず、plain-crypto-jsという悪意ある依存パッケージを追加しました。このパッケージのpostinstallスクリプトがmacOSWindows・Linuxの各プラットフォーム向けRATを展開します。マルウェアは実行後に自身を消去し、フォレンジック調査を妨害する仕組みでした。

axiosプロジェクトはOIDC Trusted PublishingやSLSA証明など最新のセキュリティ対策を導入していました。しかしCI/CD環境にレガシーなNPM_TOKENが残存しており、npmはOIDCよりトークンを優先する仕様のため、攻撃者はOIDCを迂回できました。これは7カ月間で3件目のnpm認証情報を起点とする攻撃です。

AI採用スタートアップMercorも、オープンソースプロジェクトLiteLLMの侵害に関連するセキュリティ事故を公表しました。Lapsus$がデータ窃取を主張しており、Slackデータや業務動画の流出が指摘されています。サプライチェーン攻撃の被害が企業の事業データにまで波及する事例として注目されます。

企業の対応としては、lockfileやCI/CDログで該当バージョンの有無を確認し、感染が判明した場合は認証情報のローテーションとマシンの再構築が必要です。C2サーバー(sfrclak.com)のDNSブロック、CI/CDでのnpm ci --ignore-scripts強制、レガシートークンの棚卸しが推奨されています。

LangChain、AIエージェント評価の実践チェックリストを公開

評価の事前準備

トレース20〜50件の手動確認が最優先
成功基準は曖昧さを排除して定義
能力評価と回帰評価の明確な分離
障害原因の分類体系構築が必須

評価設計と運用

3段階の評価レベルを使い分け
コード・LLM・人間の専門グレーダー選定
数値スケールより二値判定を推奨
本番障害をフライホイールでデータセットに還元

LangChainエンジニアVictor Moreira氏が、AIエージェント評価の実践的なチェックリストをブログで公開しました。エージェント評価は従来のソフトウェアテストとは異なるアプローチが必要であり、段階的に構築していく手順を体系的にまとめています。

評価構築の前段階として、まず20〜50件の実トレースを手動で確認し、障害パターンを把握することが最重要とされています。成功基準は専門家2人が合否判定で一致できる水準まで明確化し、能力評価と回帰評価を分離して管理することで、改善と品質保護を両立させる方針です。

評価レベルはシングルステップ・フルターン・マルチターンの3段階に分類されます。多くのチームはフルターン評価から着手すべきとし、最終出力の正確性だけでなく、実際の状態変更(DBの更新やファイル生成)の検証が不可欠であると強調しています。

グレーダー設計では、客観的な検証にはコードベースの判定器、主観的な評価にはLLM-as-Judge、曖昧なケースには人間を使い分けることを推奨しています。また数値スケールよりも二値の合否判定が明確なシグナルを得やすく、エージェントが取った経路ではなく最終成果物で評価すべきとしています。

本番運用に向けては、高い合格率を維持する能力評価を回帰テストに昇格させ、CI/CDパイプラインに統合する流れを提示しています。ユーザーフィードバックの収集と本番トレースの定期的な手動探索を組み合わせることで、自動評価では発見できない障害モードを継続的にデータセットへ還元する仕組みの構築を推奨しています。

GitHub、OSS脆弱性とActions安全強化の年次報告を公開

脆弱性動向の変化

レビュー済み勧告は4年ぶり低水準
新規報告の審査は前年比19%増
npmマルウェア勧告が69%急増
CVE公開数は35%増の2,903件

Actions security roadmap

ワークフロー依存関係ロック導入
ポリシー制御で実行制限を一元化
ランナーにegress firewall搭載予定

企業への影響

シークレットのスコープ制御強化
CI/CDリアルタイム監視実現へ

GitHubは2025年のオープンソースセキュリティ動向と、2026年のGitHub Actionsセキュリティロードマップを公開しました。脆弱性データベースの年次レビューとCI/CD基盤の安全強化策を包括的に示しています。

2025年にGitHubがレビューしたセキュリティ勧告は4,101件で2021年以来の低水準でしたが、これは古い脆弱性の未レビュー分が減少したためです。新規報告に限れば審査数は前年比19%増加しており、脆弱性の報告自体は衰えていません。

npmマルウェア勧告は7,197件に達し前年比69%増となりました。SHA1-Huludなどの大規模キャンペーンが要因です。またGitHubCNAとしてのCVE公開は2,903件で35%増加し、987の組織がCVEを発行しました。

2026年のActionsロードマップでは、ワークフローの依存関係をコミットSHAでロックする仕組みを3〜6カ月以内にプレビュー提供します。Goのgo.modに相当する決定論的ビルドを実現し、サプライチェーン攻撃のリスクを大幅に低減します。

さらにルールセットに基づくポリシー駆動の実行制御、シークレットのスコープ制限、ランナー向けegressファイアウォールを段階的に導入します。CI/CDを本番環境と同等の重要インフラとして扱い、監視・制御・監査を一体化する方針です。

LangChain、エージェント一発デプロイCLIを公開

deploy CLIの主要機能

langgraph deployで即時デプロイ
Docker構築からインフラ自動構成まで一貫
Postgres・Redisも自動セットアップ
CI/CDパイプラインへの組み込みに対応

管理コマンドと開発支援

デプロイ一覧・ログ確認・削除を完備
uvx経由で即座に利用可能
deep agent・simple agentテンプレート提供

LangChainは、langgraph-cliパッケージに新たなdeploy CLIコマンド群を追加し、コマンドライン一つでAIエージェントLangSmith Deploymentデプロイできる機能を公開しました。

中核となるlanggraph deployコマンドは、ローカルのLangGraphプロジェクトからDockerイメージを自動構築し、本番運用に必要なインフラを一括で構成します。手動でのサーバー設定が不要になり、開発者の負担を大幅に軽減します。

インフラ面では、永続化のためのPostgreSQLとメッセージストリーミング用のRedisが自動的にセットアップされます。これにより、エージェントは追加設定なしに本番環境で安定稼働できます。

GitHub ActionsやGitLab CI、Bitbucket Pipelinesなど既存のCI/CDワークフローとの統合も容易です。デプロイの一覧表示、ログ確認、削除といった管理コマンドも同時に提供されています。

開発者向けにはdeep agentとsimple agentの新テンプレートも公開されており、langgraph newコマンドで雛形を生成できます。uvxを使えばインストール不要で即座に試用が可能です。

GitHub Actions入門、YAML定義でCI/CD自動化を実現

基本構成と仕組み

YAMLワークフロー定義
イベント駆動で自動実行
ホステッドランナーで仮想実行
Marketplaceの再利用可能アクション活用

実践と運用管理

イシュー自動ラベル付けを実装
permissionsでアクセス権制御
Actionsタブで実行履歴確認
ワークフロー一時停止・再開対応

GitHubは、リポジトリに組み込まれたCI/CDおよび自動化プラットフォーム「GitHub Actions」の入門ガイドを公開しました。YAMLファイルでワークフローを定義し、プッシュやプルリクエストなどのイベントをトリガーに自動実行される仕組みです。

ワークフローイベントランナージョブの3要素で構成されます。イベントが発火するとGitHubが仮想マシン上でジョブを起動し、定義されたステップを順次実行します。Ubuntu、WindowsmacOSのホステッドランナーが提供されています。

実践例として、新規イシューに自動でラベルを付与するワークフローの作成手順が紹介されています。.github/workflowsディレクトリにYAMLファイルを配置し、トリガー条件とジョブ内容を記述します。GitHub CLIを活用したスクリプト実行も可能です。

セキュリティ面では、permissionsキーワードでジョブごとのアクセス権を制御します。環境変数にはGitHubが自動生成するGITHUB_TOKENを設定し、リポジトリへの安全なアクセスを実現しています。

GitHub Marketplaceには、コードのチェックアウトやNode.jsセットアップなど再利用可能なアクションが多数公開されています。パッケージ公開、テスト実行、セキュリティチェックなど幅広い自動化に対応しており、Actionsタブからワークフローの監視・管理・デバッグが可能です。

GitHubがエージェント型ワークフローのセキュリティ設計を公開

多層防御の仕組み

3層アーキテクチャで隔離
サブストレート層がVM境界を保証
設定層が権限・接続を制御
計画層が段階実行を管理

エージェントへの制約

シークレット非公開原則を徹底
書き込みは全件バッファ後に検査
全トラストバウンダリで完全ログ取得

GitHubは2026年3月、CI/CD環境でAIエージェントを安全に動作させる「GitHub Agentic Workflows」のセキュリティアーキテクチャを公式ブログで詳細に公開した。同ワークフローGitHub Actions上で動作し、エージェントの非決定性とCI/CDの高権限環境が組み合わさる新たな脅威モデルに対応している。

脅威モデルの核心は、エージェントが信頼できない入力を処理しながらリポジトリ状態を自律的に判断するという特性にある。プロンプトインジェクション攻撃により、悪意あるウェブページやイシューがエージェントを操作し、シークレットの漏洩や不正なコミットを引き起こす可能性があるとGitHubは指摘している。

これに対してGitHubは「多層防御」「エージェントへのシークレット非公開」「全書き込みの段階的検査」「完全ログ記録」の4原則を設計指針とした。エージェントは専用コンテナに隔離され、ファイアウォールでインターネットアクセスを制限し、LLM認証トークンはAPIプロキシが代理保持する構造をとる。

書き込み操作については、エージェントが直接GitHubへ書き込むことを禁止し、Safe Outputs MCPサーバーを経由してバッファリングする仕組みを採用した。バッファされた操作はフィルタリング・コンテンツモデレーション・シークレット除去の3段階検査を経て初めて実行される。許可する操作の種類や上限件数もワークフロー作者が宣言的に指定できる。

ログ記録はファイアウォール層・APIプロキシ・MCPゲートウェイの各トラストバウンダリで徹底される。これによりインシデント後のフォレンジック解析や異常検知が可能となる。GitHubは今後、リポジトリオブジェクトの公開範囲や作者ロールに基づく情報フロー制御を追加する計画も明らかにしている。

EYがAIコーディング生産性4倍達成、Endor Labsは安全性問題に無料ツール投入

EYの生産性革新

AI agentを社内基準と接続し4〜5倍生産性
開発者主導でFactoryのDroidsを採用
タスクを高自律型と人間監視型に分類

AI生成コードの安全性危機

AI生成コードのわずか10%が安全と判明
Endor Labsが無料セキュリティツールAURIを公開
コード文脈グラフで到達可能性分析を実現
MCP経由でCursorClaudeと連携
脆弱性検出の80〜95%が誤検知削減

EYのプロダクト開発チームは、AIコーディングエージェントを社内のエンジニアリング基準やコードリポジトリ、コンプライアンスフレームワークと接続することで、最大4〜5倍生産性向上を達成しました。従来のAI生成コードは社内基準を満たせず、かえって手戻りを増やす問題がありました。

EYはまずGitHub Copilot型ツールで開発者にAIを浸透させ、その後複数のエージェントプラットフォームを評価しました。開発者が自発的に選んだFactoryのDroidsが採用され、導入後は「野火のように」普及が進み、トラフィック制御が必要になるほどでした。

EYはタスクをコードレビューやドキュメント作成などエージェントに委任可能な高自律型と、大規模リファクタリングやアーキテクチャ決定など人間の監視が必要な複雑型に分類しています。開発者の役割もコード記述者からエージェントオーケストレーターへと変化しました。

一方、Endor Labsは研究結果を受けて無料セキュリティツールAURIを発表しました。カーネギーメロン大学らの研究によると、AIモデルが生成するコードのうち機能的に正しいのは61%で、機能的かつ安全なものはわずか10%です。AURIはMCPを通じてCursorClaudeなどと連携します。

AURIの技術的な差別化要素は「コードコンテキストグラフ」で、アプリケーションのコードや依存関係の到達可能性を関数レベルで解析します。これにより従来のツールが報告する無関係な脆弱性を除外し、企業顧客で平均80〜95%セキュリティ検出結果削減を実現しています。

Endor Labsはフリーミアム戦略を採用し、個人開発者には無料で提供します。コードはローカルで処理され外部に送信されません。企業版はRBACCI/CDパイプライン統合など大規模組織向け機能を追加します。同社は9,300万ドルのシリーズBを完了し、ARR30倍成長を記録しています。

Vercel CLIがAIエージェント向け連携機能を追加

エージェント連携の仕組み

discoverコマンドで連携先を探索
guideコマンドで設定手順を取得
JSON出力対応で自動化が容易に
DB・認証・ログ等を自律的に構成

開発者への実用性

CI/CDパイプラインのスクリプト化に対応
利用規約同意など人間判断で一時停止可能
エージェント評価で継続的にテスト済み
pnpmで最新版に更新し即利用可能

Vercelは、AIエージェントVercel Marketplaceの連携機能を自律的に発見・インストール・設定できるCLI新機能を発表しました。データベースや認証、ロギングなどのサービスを一連のワークフローで構成できます。

中核となるのはdiscoverコマンドとguideコマンドです。discoverで利用可能な連携先を一覧取得し、guideでセットアップ手順やコードスニペットをMarkdown形式で受け取れます。エージェントはこれを解析して自動構成します。

--format=jsonフラグを指定すると非対話型のJSON出力が得られるため、エージェントだけでなく開発者にとってもインフラ自動化やカスタムスクリプトの作成、CI/CDパイプライン管理が容易になります。

メタデータが必要な連携ではhelpコマンドで必須入力項目を確認し、オプションとして渡すことが可能です。たとえばUpstash Redisではリージョン指定をコマンドラインから直接設定できます。

利用規約の承認など人間の判断が必要な場面ではプロセスを一時停止し、開発者に確認を促すハイブリッドワークフローにも対応しています。各コマンドはエージェント評価で継続的にテストされ、信頼性が担保されています。

Claude CodeにAI脆弱性スキャンが統合

Claude Codeセキュリティ機能の概要

Claude Codeにコードベース脆弱性スキャン機能を統合
AIがセキュリティパッチを生成し人間がレビュー
従来の静的解析ツールが見落とす脆弱性を検出
現在は限定リサーチプレビューとして公開中
セキュリティチームの人材不足問題への対応策

AIセキュリティ支援の新局面

フロンティアAIを防御側に活用する新コンセプト
AIによる脆弱性発見の精度が従来手法を超える可能性
開発者セキュリティ知識なく安全なコードを書けるように
攻撃側AIへの対抗手段としての重要性が増大
CI/CDパイプラインへの統合が次のステップ

Anthropicは、Claude Code on the webに新機能「Claude Code Security」を統合し、限定リサーチプレビューとして公開しました。この機能はコードベースをスキャンしてセキュリティ脆弱性を検出し、人間のレビュー用にパッチを提案するものです。

セキュリティチームが直面する最大の課題は、脆弱性の数に対して対応できる人材が圧倒的に不足していることです。Claude Code Securityは、AIの文脈理解能力を活用して従来の静的解析ツールが見落としがちなロジックレベルの脆弱性を検出することを目標としています。

「フロンティアのサイバーセキュリティ能力を防御側に開放する」というAnthropicのビジョンは示唆に富んでいます。AIが攻撃的なサイバー能力を持つ可能性がある以上、防御側も同等のAI能力を持つべきという論理は説得力があります。

現在は限定プレビューですが、この機能がGA(一般提供)段階に移行した場合、ソフトウェア開発のセキュリティプラクティスを大きく変える可能性があります。CI/CDパイプラインへの統合で、コードがコミットされるたびに自動セキュリティ審査が行われる未来が近づいています。

競合他社もAIセキュリティ機能を急速に拡充している中、AnthropicClaude Codeに統合することで開発者向けのオールインワンAI開発環境の価値を高める戦略的な動きです。セキュリティを標準機能として提供する差別化は重要な競争優位になりえます。

HarnessがCodexでエージェントファースト開発を5ヶ月実践した知見

実践から得た知見

5ヶ月間のCodex活用実験の成果を公開
エージェントファーストの開発体制への移行
実務での課題と成功パターンを詳説

CI/CDプラットフォームのHarnessは、OpenAICodexを活用したエージェントファースト開発の5ヶ月間にわたる実験結果を公開しました。実際の製品機能の構築・出荷にエージェントを活用した現場レポートとして注目されます。

実験から得られた主な知見として、エージェントは繰り返しのルーティン作業では高い効果を発揮する一方、複雑な依存関係のある機能開発では人間の監督が依然として必要であることが確認されました。

このような実践からの学びは、AI開発ツールの導入を検討する企業にとって非常に参考になります。理論ではなく実際の開発現場での課題と解決策が語られており、日本の開発チームにも応用可能な示唆が含まれています。

GitHubがエージェント型CIで今日から自動化できる開発フローを解説

アジェンティックCIの実践

エージェント型CIの実用ガイド公開
PR作成からテスト修正まで自動化
継続的AIの概念を定義
GitHub Actionsとの統合方法
開発者今日から実践できる内容

開発生産性への影響

CI/CDパイプラインの知的化
バグ修正の自律化
開発速度を1.5〜2倍に向上

GitHubは2026年2月5日のブログで、エージェント型CI(継続的インテグレーション)の実践的な使い方を開発者向けに解説した。

エージェント型CIでは、AIエージェントがプルリクエストのコードを読み、テスト失敗の自動修正セキュリティ脆弱性の検出・パッチ、コードスタイルの自動整形などを実行する。

GitHubはこれを「Continuous AI」と呼び、コードが書かれたその瞬間からAIが品質保証を継続的に行う未来像を提示している。

GitHub Actionsとの組み合わせにより、既存のCI/CDパイプラインに最小限の変更エージェント機能を追加できることが強調されている。

エージェント型CIの普及は開発チームの速度と品質を同時に向上させるが、AIの判断を人間がどこまで監督するかという新しいガバナンス問題も提起する。

GitHub Copilot CLIがターミナル向けエージェント型ワークフローをサポート

新機能の内容

ターミナルでのエージェントワークフロー
コマンドライン作業の自動化
Copilotとの深い統合

開発者への影響

CLI作業の効率化
コマンド提案の精度向上
DevOpsへの応用拡大

GitHub Copilot CLIは新たにエージェントワークフロー機能を追加し、開発者がターミナルで複雑なタスクをAIに任せられるようになりました。

この機能により、CI/CDパイプラインの設定やシェルスクリプト作成など、これまで手動で行っていた作業が大幅に効率化されます。

VercelがファイルシステムAIエージェント構築ガイドとビルド制御を強化

Vercelエージェント開発の新機能

Vercelがファイルシステムとbash連携のエージェント構築ガイドを公開
エージェントがリポジトリのファイルを直接操作できる手法を解説
ブランチごとの同時ビルド数を1に制限する新機能も追加
リソース効率の向上とビルドパイプラインの安定化
エージェントが安全にコードを変更・テストできる環境を整備
開発者がAIエージェントを本番ワークフローに統合しやすくなる

Vercelは2つの関連するアップデートを公開しました。まず「ファイルシステムとbashを使ったエージェント構築方法」というガイドを公開し、ファイルシステムを通じたコード操作エージェントが行う実装パターンを示しました。エージェントがbashコマンドでファイルを読み書きする際の安全な設計原則が解説されています。

もう一つのアップデートは、同一ブランチで同時に実行できるビルド数を1に制限する機能です。並列ビルドの競合によるリソース無駄遣いとデプロイの予測不可能性を解消します。

これらのアップデートはVercelがAIエージェントによる開発ワークフロー自動化を支援するプラットフォームとして進化していることを示しています。CI/CDとAIエージェントの統合に関心を持つ開発者に直接的な価値を提供します。

DatadogがOpenAI Codexでシステムレベルのコードレビューを実現

大規模コードレビューの自動化

DatadogがOpenAI Codexを使ったシステムコードレビューを展開
数百万行規模のコードベースを自動的にレビュー
セキュリティ脆弱性・品質問題・パフォーマンス改善を検出
人間の reviewer では見落としやすい問題を発見
CI/CDパイプラインに統合してプルリクエスト毎に自動実行
開発速度を落とさずにコード品質を維持

OpenAIが紹介したDatadogの事例では、Codexを使ってシステム全体のレベルでのコードレビューを自動化しています。個々のプルリクエストを審査するだけでなく、コードベース全体の整合性を評価する仕組みを構築しています。

Datadog社内のコードリポジトリは巨大であり、人間のレビュアーだけでは全体的な品質維持が困難です。Codexによる自動スキャンは、セキュリティ脆弱性、パフォーマンスのアンチパターン、コーディング規約違反などを一括してフラグアップします。

この事例はSREやプラットフォームエンジニアにとって参考になるAI活用パターンです。大規模なマイクロサービスアーキテクチャを持つ企業ほど、Codexのようなシステムレベルのコードレビュー自動化の価値が高まります。

Vercelエージェントがカスタムコードガイドラインに準拠したレビューを実現

開発ワークフローへの統合

Vercel AgentがリポジトリのAIコードレビューを自動化
チームのコーディング規約に従ったレビューが可能に
開発者ガイドラインをエージェントに読み込む仕組み
プルリクエストの品質チェックを自動化
既存のCI/CDパイプラインとシームレスに統合
チームごとのルールに基づいた一貫性のある指摘

VercelはAIエージェントによるコードレビュー機能が、チーム独自のコーディングガイドラインに従ったレビューを行えるようになったと発表しました。プロジェクトに定義された規約・スタイル・ベストプラクティスをエージェントが学習し、プルリクエスト審査に反映します。

この機能によって、コードレビューの一貫性が保たれるだけでなく、チームの規約や設計原則が自動的に施行される仕組みが実現します。新しいメンバーのオンボーディングにも有効です。

開発者体験(DX)を重視するVercelの戦略の一環として、エージェントによる開発支援の精度を高める取り組みが継続的に行われています。AIコードレビューの活用が一般化する中、カスタマイズ性と実用性の向上が差別化の鍵となっています。

企業のAIコーディング導入、成否を分けるコンテキスト設計

失敗の本質

モデル性能ではなくコンテキスト不足が原因
既存ワークフローへの安易な導入で生産性低下
検証作業が自力コーディングより時間を浪費

成功する導入のポイント

コンテキストエンジニアリング対象として扱う
仕様書を第一級の成果物として管理
ワークフロー自体の再設計が不可欠
CI/CDパイプラインへのエージェント統合

実践的な導入指針

テスト生成やリファクタなど限定領域から開始
欠陥流出率やPRサイクルなど明確な指標を設定
エージェントの行動ログが知識資産に変化

企業におけるAIコーディングエージェントの導入が進んでいますが、その多くが期待を下回る結果に終わっています。VentureBeatの寄稿記事は、失敗の原因はモデルの性能ではなく、コンテキストの設計不足にあると指摘しています。コードベースの構造や依存関係、変更履歴といった文脈をエージェントに適切に提供できていないことが根本的な問題なのです。

成功している組織は、コンテキストエンジニアリング対象として扱っています。エージェントの作業記憶をスナップショット化・バージョン管理するツールを構築し、仕様書をレビュー可能な第一級成果物として管理しています。また、McKinseyの2025年レポートが指摘するように、既存プロセスにAIを重ねるのではなく、ワークフロー自体を再設計することが重要です。

セキュリティとガバナンスも見逃せない課題です。成熟した組織はエージェントの活動をCI/CDパイプラインに統合し、人間の開発者と同じ静的解析・監査・承認プロセスを適用しています。AIを「すべてを書かせる」ツールではなく、定義されたガードレール内で動作する自律的な参加者として位置づけているのです。

技術リーダーへの提言として、モノリスでテスト不足のコードベースでは効果が出にくいため、まずテスト生成やレガシー刷新など限定的な領域でパイロットを実施すべきとしています。長期的には、エージェントの計画・行動ログが意思決定の知識グラフとなり、コンテキスト設計に投資した企業が持続的な競争優位を獲得すると結論づけています。

AI実用化の核心は「可観測性」 SRE原則で信頼性を担保

成果起点の設計と3層の監視構造

モデル精度よりビジネス成果の定義を最優先
プロンプト・制御・成果の3層テレメトリーを構築
全決定を追跡可能なトレースIDで紐付け

SRE原則の適用と短期実装計画

正確性や安全性のSLOとエラー予算を設定
予算超過時は人間によるレビューへ自動誘導
2回のスプリント、計6週間で基盤構築を完了
CI/CDに評価を組み込み継続的な監査を実現

生成AIを実験から本番運用へ移行させる企業が増える中、SRE(サイト信頼性エンジニアリング)の原則に基づく「可観測性」の欠如が深刻な課題となっています。米国の最新知見によれば、モデルの精度よりもビジネス成果を優先し、システム全体の挙動を可視化することが、信頼性とガバナンスを確立し、AIを成功させる唯一の道です。

多くのAIプロジェクトはモデル選定から始まりますが、これは順序が逆です。まず「処理時間の短縮」や「解決率の向上」といったビジネス成果を明確に定義し、その達成に最適なモデルやプロンプトを後から設計する必要があります。成果から逆算することで、無意味な技術検証を避けられます。

信頼性の確保には、マイクロサービスと同様に構造化された監視スタックが不可欠です。具体的には、入力されたプロンプト、適用された安全性ポリシー、そして最終的なビジネス成果という3層のテレメトリーを構築します。これらを共通のIDで紐付けることで、AIの判断プロセス全体が監査可能になります。

ソフトウェア運用を変革したSREの手法は、AI運用にも極めて有効です。正確性や安全性に対してSLO(サービスレベル目標)を設定し、エラー予算を管理します。基準を下回った場合や不確実な回答は、自動的に人間によるレビューへ切り替える仕組みを導入し、リスクを制御します。

導入に際して、半年がかりの壮大なロードマップは不要です。最初の3週間でログ基盤を作り、続く3週間でガードレールを設置する2回のスプリントを実行してください。わずか6週間の集中開発で、ガバナンス上の疑問の9割に答えられる「薄くても強力な監視層」が完成します。

評価プロセスは特別なイベントではなく、日常業務に組み込むべきです。継続的な自動テストでモデルのドリフト(性能劣化)を検知しつつ、トークン消費量やレイテンシを常時監視します。可観測性を徹底することで、予期せぬ請求を防ぎ、コスト管理を確実なものにできます。

自社AIのGPUコストを最大7割削減、ScaleOps新製品

GPUコストと運用負荷を劇的削減

GPUコストを50〜70%削減
自社運用LLM向けに最適化
年間140万ドル削減の事例も

コード変更不要で即時導入可能

アプリのコード変更不要
Kubernetes全環境に対応

自動化でパフォーマンスを安定化

リアルタイムでリソース調整
スパイク時の遅延を防止

ScaleOpsは、企業が自社で運用するLLMやAIアプリのインフラコストを劇的に削減する新製品「AI Infra Product」を発表しました。本製品はGPUリソースの管理を自動化し、コストを最大70%削減しながら、パフォーマンスの安定化を実現するものです。

企業が直面する最大の課題は、高価なGPUリソースの「低稼働率」と「管理の複雑さ」です。新製品はトラフィック変動に応じてリアルタイムでGPUを割り当て、不要な容量を削減します。これにより、エンジニア手動での調整作業から解放され、生産性を高められます。

既存システムへの導入障壁が極めて低い点も大きな特徴です。アプリケーションコードやインフラ設定の変更は一切不要で、Kubernetesや主要クラウド、オンプレミス環境にシームレスに統合できます。わずか数分の設定で、既存のCI/CDツールと連携し稼働を開始します。

実際の導入効果も顕著です。ある大手ソフトウェア企業ではGPU支出を半分以下に抑えつつ、遅延を35%削減しました。また、大規模なゲーム会社ではGPU稼働率を7倍に引き上げ、年間140万ドルのコスト削減を見込むなど、高い投資対効果が実証されています。

GitHub年次報告:開発は『小さく速い』反復型へ

変化する開発の常識

大規模リリースから小規模・高頻度の反復へ
リスクを低減する軽量コミットの常態化
レビューしやすい小規模プルリクエスト
未完成機能を安全に公開する機能フラグの活用

自動化が支える新手法

プッシュを起点とするCI/CDの全面自動化
自動テストの実行時間が前年比35%増
非同期化が進むチームの意思疎通
AI活用でさらに加速する開発サイクル

GitHubが2025年版の年次レポート「Octoverse」を発表しました。同レポートは、AIの台頭により開発者ワークフローが「小さく、速く、頻繁な」反復型へと根本的に変化していることを明らかにしています。昨年のコミット数は9億8600万回に達し、開発の高速化がデータで裏付けられました。

かつて主流だった四半期ごとの大規模リリースは姿を消しつつあります。現在のトレンドは、バグ修正や小規模な機能追加といった単位で、継続的にコードをプッシュする軽量なコミットです。この手法は、問題発生時の原因特定や修正を容易にし、開発リスクを大幅に低減します。

この高速な反復を支えるのが、「フィーチャーフラグ」と「CI/CD」です。フィーチャーフラグは未完成の機能を安全に本番環境へ導入する技術。CI/CDパイプラインはプッシュを起点にテストやデプロイ完全に自動化し、手動作業を過去のものにしつつあります。

レビュー文化も変化しています。巨大なプルリクエストは敬遠され、目的を一つに絞った小規模なものが主流になりました。これによりレビューの心理的・時間的負担が軽減。同時に、自動テストの重要性が増し、GitHub Actionsでのテスト実行時間は昨年比で35%も増加しています。

開発手法の変化は、チームのコミュニケーションにも影響を及ぼしています。日々の進捗報告は非同期で行われるようになり、会議は減少傾向に。採用においても、単なる技術力だけでなく、高速な開発サイクルに対応できる能力と明確な意思疎通能力が重視されるようになっています。

一部で「AI疲れ」も指摘されますが、生産性を真に向上させるツールは淘汰を経て定着するでしょう。今後は仕様書とコードがより一体化し、AIを前提とした新たな開発の「標準」が生まれると見られています。変化の波は、まだ始まったばかりなのかもしれません。

AIモデルの安全強化へ Hugging FaceとVirusTotalが提携

提携の概要と仕組み

220万超の全公開資産を常時スキャン
VirusTotalの脅威データベースと連携
ファイルハッシュ照合でプライバシー保護

ユーザーと企業への恩恵

ダウンロード前にファイルの安全性を可視化
悪意ある資産の拡散を未然に防止
CI/CDへの統合で開発効率を向上
信頼できるオープンソースAIエコシステムの構築

AIモデル共有プラットフォーム大手のHugging Faceは2025年10月23日、脅威インテリジェンスで世界をリードするVirusTotalとの協業を発表しました。この提携により、Hugging Face Hubで公開されている220万以上の全AIモデルとデータセットがVirusTotalによって継続的にスキャンされます。AI開発におけるセキュリティリスクを低減し、コミュニティ全体を悪意のあるファイルから保護することが目的です。

なぜ今、AIのセキュリティが重要なのでしょうか。AIモデルは、モデルファイルやデータに偽装されたマルウェア、不正なコードを実行する依存関係など、隠れた脅威を内包する可能性があります。プラットフォームが拡大するにつれ、共有される資産の安全性を担保することが、エコシステム全体の信頼性を維持する上で不可欠な課題となっています。

今回の連携では、ユーザーがHugging Face Hub上のファイルにアクセスすると、そのファイルのハッシュ値がVirusTotalのデータベースと自動で照合されます。ファイルの中身自体は共有されないため、プライバシーは保護されます。過去に悪意あると分析されたファイルであれば、その情報が表示され、ユーザーはダウンロード前にリスクを把握できます。

この協業は、開発者や企業に大きな恩恵をもたらします。ファイルの安全性が可視化されることで透明性が高まるだけでなく、企業はセキュリティチェックをCI/CD(継続的インテグレーション/継続的デプロイメント)のパイプラインに組み込めます。これにより、悪意ある資産の拡散を未然に防ぎ、開発の効率性と安全性を両立させることが可能になります。

Hugging FaceとVirusTotalの提携は、オープンソースAIのコラボレーションを「設計段階から安全(セキュア・バイ・デザイン)」にするための重要な一歩です。開発者が安心してモデルを共有・利用できる環境を整えることで、AI技術の健全な発展とイノベーションを強力に後押しすることになるでしょう。

Vercel、30vCPU搭載の高速ビルド機導入

新Turboビルドマシンの概要

全有料プランで利用可能
30vCPUと60GBメモリ搭載
従量課金制でプロジェクト単位で有効化

主な用途と導入効果

Turbopackビルドに最適
大規模モノレポの並列処理
静的生成を高速化
依存関係の解決を高速化

WebホスティングプラットフォームのVercelは2025年10月22日、全有料プラン向けに「Turboビルドマシン」の提供を開始したと発表しました。この新マシンは30vCPUと60GBメモリを搭載し、過去最速のビルド性能を実現します。プロジェクト単位で有効化でき、従量課金制で利用可能です。

新たに提供されるTurboビルドマシンは、30vCPUと60GBメモリという強力なスペックを誇ります。この潤沢なリソースにより、特に大規模なプロジェクトのビルド時間を大幅に短縮することが期待されます。利用はプロジェクト単位で選択でき、コストは使用量に応じて発生します。

このマシンは、特にNext.jsで利用される高速バンドラー「Turbopack」でのビルドや、大規模なモノレポ(単一リポジトリでの複数プロジェクト管理)での並列タスク実行に最適化されています。複雑なプロジェクト構造を持つ開発チームの生産性を大きく向上させるでしょう。

具体的な効果として、静的サイト生成(SSG)や、プロジェクトが依存するライブラリの解決処理が高速化されます。これにより、開発者CI/CDパイプラインの待ち時間を削減し、より迅速なデプロイメントとイテレーション(反復開発)を実現できます。

開発者はプロジェクト設定からTurboビルドマシンを有効化するだけで、すぐに高速なビルド環境を手に入れることができます。Vercelは、エンタープライズ規模の複雑な開発ニーズに応えることで、フロントエンド開発の生産性向上を強力に支援する姿勢を明確にしました。

Gemini CLIが外部連携を全面開放、オープンな拡張機能で開発生産性を劇的に向上

オープンな連携基盤を確立

Gemini CLIを拡張プラットフォームへ進化
外部ツールとの連携をコマンドラインで実現
開発者100万人が利用するAIエージェント
FigmaStripeなど大手と連携開始

開発者主導の拡張性

Google非承認で公開できるオープン性
GitHubリポジトリでの手動インストールを推奨
Playbook機能でAIが使い方を即座学習
複雑な設定不要で意味のある結果を即時提供

Googleは、開発者向けAIシステム「Gemini CLI」に、外部ツールと連携するための拡張機能システムを正式に導入しました。これにより、100万人以上の開発者は、コマンドライン上で直接、FigmaStripe、Dynatraceといった業界リーダーのサービスを利用可能になります。AIの力を借りて、開発者がターミナルと外部ツール間でのコンテキストスイッチングを排除し、生産性を劇的に高めることが目的です。

この拡張機能システムは、Gemini CLIを単なるコーディング補助ツールから「拡張性プラットフォーム」へと進化させます。拡張機能は外部ツールへの接続を可能にするだけでなく、AIエージェントがそのツールを効果的に使用するための「プレイブック」(組み込みの説明書)を含んでいます。これにより、開発者は複雑な設定なしに、最初のコマンドから意味のある結果を得ることができます。

特に注目すべきは、そのオープンなエコシステム戦略です。OpenAIChatGPTのアプリが厳しくキュレーションされているのに対し、Gemini CLIの拡張機能は、Googleの承認や関与なしに、誰でもGitHub上で開発・公開できます。これは「誰もが参加できる公正なエコシステム」を確立したいというGoogleの強い意志を反映しています。

ローンチ時点で、Figmaデザインコード生成)、Stripe(支払いサービスAPI連携)、Postman(API評価)、Shopify(開発者エコシステム連携)など、多数の主要パートナーが参画しています。これらの拡張機能をインストールするだけで、ターミナルが開発者統合されたツールチェーンの中心となり、デバッグCI/CDセキュリティチェックといった作業が効率化されます。

拡張機能は、Model Context Protocol (MCP) と呼ばれるツール連携の基盤上に構築されています。これにより、拡張機能は、ローカルファイルやGitステータスなどの環境コンテキストも利用し、開発者の意図通りに適切なツールと指示を実行します。この統合されたインテリジェンスが、開発現場におけるAIの利用価値を飛躍的に高めるでしょう。

OpenAI「Codex」一般提供開始、Slack連携とSDKで開発を加速

開発を加速する新機能

Slack連携によるタスクの直接委任
Codex SDKで独自のワークフローへ統合
環境制御・監視を行う管理者向けツール追加
CI/CD向けにGitHub Actionsも提供開始

実証された生産性向上

日常利用が8月以降10倍以上に急増
OpenAI社内PRマージ数が週70%増加
Ciscoは複雑なレビュー時間を最大50%削減
Instacartは技術的負債の自動クリーンアップを実現

OpenAIは、コード生成とレビューを支援するコーディングエージェントCodex」の一般提供(GA)開始を発表しました。これにより、新たなSlack連携機能やCodex SDKが提供され、開発チームは既存のワークフロー内でAIをシームレスに活用できるようになります。世界中のスタートアップや大企業で採用が進んでおり、開発効率の劇的な向上が期待されています。

Codexは研究プレビュー開始以来、飛躍的に進化し、日常利用は8月上旬から10倍以上に急増しました。OpenAI社内ではほぼ全てのエンジニアが利用しており、プルリクエスト(PR)のマージ数が週70%増加しています。さらに、Codexが自動でPRをレビューし、本番環境に到達する前に重大な問題点を検出するなど、コード品質維持にも貢献しています。

今回のGAにおける目玉は、エンジニアリングワークフローに直接組み込むための「Codex SDK」と「Slack連携」です。SDKを利用すれば、Codex CLIの核となる強力なエージェントを独自のツールやアプリに数行のコードで統合できます。また、Slackから直接Codexにタスクを委任できるため、チームコラボレーションを効率化します。

大規模導入を進める企業向けには、新しい管理者ツールが追加されました。これにより、ChatGPTワークスペース管理者は、クラウド環境の制御、ローカル利用における安全なデフォルト設定の適用が可能になります。加えて、利用状況やコードレビューの品質を追跡するための分析ダッシュボードが提供され、ガバナンスと監視が強化されます。

導入事例として、Ciscoでは複雑なプルリクエストのレビュー時間を最大50%削減し、エンジニアはより創造的な業務に集中できています。また、InstacartではCodex SDKを統合し、ワンクリックでのエンドツーエンドのタスク完了や、デッドコードなどの技術的負債を自動で解消し、コードベース全体のレイテンシ改善に役立っています。

Slack連携およびSDKは、ChatGPT Plus、Pro、Business、Edu、Enterpriseの各プランで利用可能です。管理者向け機能は、企業での利用を想定しBusiness、Edu、Enterpriseプランに限定されています。OpenAIは、Codexを通じて開発者生産性を根本から変革することを目指しています。

GoogleのAIコーディング支援、APIとCLIで開発を加速

開発ワークフローに直接統合

ターミナルで直接操作するCLI提供
API公開でシステム連携が可能に
SlackCI/CDパイプラインへ統合
作業環境の切替コストを大幅削減

Julesの進化と今後の展望

対話履歴を記憶するメモリ機能を搭載
Gemini 2.5 Proを基盤に動作
GitHub以外のバージョン管理も検討
プロ向け有料プランで利用上限拡大

Googleは10月2日、AIコーディングエージェントJules」を開発者ワークフローに深く統合するための新機能を発表しました。新たに提供されるコマンドラインインターフェース(CLI)とパブリックAPIにより、開発者はターミナルや既存ツールからJulesを直接利用できます。これは、開発環境の切り替え(コンテキストスイッチ)を減らし、生産性を向上させることが目的です。

今回のアップデートの核心は、開発者が日常的に使用するツールへの統合です。新CLI「Jules Tools」を使えば、WebサイトやGitHubを開くことなく、使い慣れたターミナル上でJulesコーディングタスクを指示できます。また、公開されたAPIは、SlackCI/CDパイプラインといった既存システムとの連携を可能にし、開発ワークフローの自動化を促進します。

Julesは、同じくGoogleが提供する「Gemini CLI」とは異なる役割を担います。Julesは、ユーザーが計画を承認すると自律的にタスクを遂行する非同期型のエージェントとして設計されています。一方、Gemini CLIは、ユーザーと対話を重ねながら作業を進める、より反復的な共同作業を想定しており、用途に応じた使い分けが求められます。

GoogleJulesの機能強化を継続的に進めています。最近では、過去の対話やユーザーの好みを記憶する「メモリ機能」を導入しました。これにより、タスクを依頼するたびに同じ指示を繰り返す必要がなくなり、よりパーソナライズされたアシスタントとして進化しています。ファイルシステムの改善なども行われ、信頼性と品質が向上しています。

今後の展望として、Julesの利用環境の拡大が挙げられます。現在はGitHubリポジトリ内での利用が前提ですが、今後は他のバージョン管理システムへの対応も検討されています。これが実現すれば、より多様な開発環境でJulesの能力を活用できるようになり、開発者コミュニティにとって大きなメリットとなるでしょう。

AIエージェントの自律性が高まる一方、人間の監督も重要です。Julesは、タスクの実行中に行き詰まった場合、自ら処理を中断し、ユーザーに質問するように設計されています。これにより、AIが意図しない動作をするリスクを低減し、開発者が安心してタスクを委任できる信頼関係の構築を目指しています。

GV、CI/CDのBlacksmithに再投資 ベアメタル活用で開発を加速

異例の速さで資金調達

GVがわずか4ヶ月で追加投資
シリーズAで1000万ドルを調達完了
ARR(年間収益)は350万ドルに急増

開発速度を革新する技術

CI/CD処理にベアメタルを採用
処理速度を最大2倍に高速化
計算コストを最大75%の大幅削減

継続的インテグレーション・デリバリー(CI/CD)を提供するスタートアップBlacksmithは、シードラウンドからわずか4ヶ月で、Google Ventures(GV)主導のシリーズAラウンドを実施し、1000万ドル(約15億円)を調達しました。AI駆動のソフトウェア開発が加速する中、コードのリリース速度を劇的に高める同社の実績と市場拡大の可能性が評価され、GVは異例の速さで追加投資を決定しました。

Blacksmithの成長は目覚ましいものがあります。今年2月にわずか4人のチームでARR(年間経常収益)100万ドルを達成しましたが、現在は従業員8名体制でARRは350万ドルに急増しています。顧客数も700社を超えており、この短期間での確かな実績が、GVが短期間で大規模な追加投資を決断する決め手となりました。

同社の最大の強みは、従来のCI/CDプロセスが抱える高コストで予測不可能なテスト実行の課題を解消した点です。一般的なクラウドサービスをレンタルするのではなく、高性能なゲーミンググレードのCPUをベアメタル環境で活用しています。これにより、同社はリソースの経済性を完全に制御しています。

この独自のアプローチの結果、Blacksmithは顧客企業に対し、処理速度を最大2倍に高め、計算コストを最大75%削減できると主張しています。導入も容易であり、既存のコードを一行変更するだけで切り替えが完了します。これにより、企業は数分以内にコードの出荷プロセスを高速化することが可能です。

Blacksmithは、主にエンジニアを500人以上抱える大規模な開発チームをターゲットとしています。同サービスはGitHub Actionsと連携し、テスト分析や深い可視化機能を提供することで、既存のCI/CDプラットフォームを補完します。AIエージェントの普及は開発市場を広げ、同社の成長を後押ししています。

創業者は、Cockroach LabsやFaireなどの企業で大規模な分散システムを構築した経験を持ちます。CIにおけるビルドやユニットテストの非効率性を痛感した経験が、このサービス開発の原点です。今回のシリーズAには、Cockroach LabsのCEOら既存投資家も再参加しています。