Vercel(企業)に関するニュース一覧

Vercelがサンドボックス復元を40秒から1秒未満に高速化

並列化による高速化

S3からの並列分割ダウンロード導入
展開処理を複数goroutineで並行実行
ダウンロードと展開のストリーム直結

キャッシュ戦略の効果

NVMeディスクにLRUキャッシュ実装
展開済みイメージを直接保存し二重処理回避
キャッシュヒット率95%を達成

成果と今後の展望

p75が40秒から1秒未満に短縮
自動永続化機能のベータ版を提供開始

Vercelは、Sandbox機能のファイルシステムスナップショット復元において、p75レイテンシを40秒超から1秒未満に短縮する最適化を実施しました。並列ダウンロード、並列展開、ローカルキャッシュの3つの手法を組み合わせた成果です。

Vercel SandboxはFirecracker microVM上で動作する隔離コンテナで、スナップショットはディスクイメージを独自VHS形式に圧縮しS3に保存します。従来の復元は単一のS3ダウンロードとシングルスレッド展開を逐次実行しており、数百MBからGB級のファイル処理に時間がかかっていました。

最初の改善として、S3のRange HTTPヘッダを使い並列分割ダウンロードを導入し、2〜5倍の速度向上を達成しました。さらにVHS形式のフレームごとに複数のgoroutineで並列展開する方式に変更し、2〜4倍の高速化を実現しています。

加えて、S3ダウンロードのストリームを展開処理に直結するパイプライン化で中間ファイル書き込みを排除し、さらに2倍の短縮を達成しました。ローカルNVMeディスク上のLRUキャッシュでは展開済みイメージを直接保存し、ヒット時にはダウンロードと展開の両方を省略できます。

これらの最適化によりp95も50秒から5秒に改善され、現在ベータ版の自動永続化機能(Automatic Persistence)を支えています。今後はキャッシュアフィニティによる更なる最適化も検討されており、キャッシュに頼らずとも高速な復元を目指す方針です。

FLORA、Vercel基盤で画像生成AIエージェント「FAUNA」を構築

FAUNAの特徴と狙い

50以上の画像生成モデルを統合
アイデアから自動で多方向の視覚探索を展開
ワークフロー設計の負担をエージェントが代替

Vercel移行の効果

AI SDKとWorkflow SDKで基盤を一本化
本番投入までの速度が2倍に向上
インフラ議論からプロダクト議論へ転換

今後の展望と周辺機能

UI/UX以外の全デザイン業務を支援対象
Vercelがチーム間のDB移行機能も追加

クリエイティブワークフロー基盤を提供するFLORAは、VercelAIスタック上に画像生成AIエージェントFAUNA」を構築したと発表しました。50以上の画像モデルを統合し、ファッションキャンペーンなどの視覚制作を効率化する狙いです。

FAUNAは従来のノードベースのキャンバスとは異なり、ユーザーがアイデアを伝えるだけで参考画像の収集、モデル選択、バリエーション生成を自動で行います。ワークフロー設計の知識がなくても、プロ品質のビジュアル探索が可能になります。

技術面では、画像動画生成は数分かかり、1回のセッションで多数の並行ジョブが発生します。FAUNAはVercelAI SDKエージェントフレームワークとWorkflow SDKの永続化機能を組み合わせ、長時間実行や障害時の再試行に対応しています。

FLORA開発チームは以前LangChainとTemporalを併用していましたが、2つのシステムの保守負担が課題でした。Vercelへの移行により基盤が一本化され、本番投入速度が2倍に向上したと報告しています。インフラの議論が不要になり、プロダクト改善に集中できるようになりました。

FLORAはUI/UX以外の全デザイン業務の支援を最終目標に掲げています。また、Vercelは同時期にダッシュボードからチーム間でDB移行ができる機能も公開しました。Prisma、Neon、Supabaseに対応し、今後対応プロバイダーを拡大する予定です。

Vercel、AIエージェント時代の開発指針とTurborepo96%高速化を発表

エージェント責任論

CI通過は安全性の証明にならず
生成コードの本番環境リスク把握が必須
段階的デプロイ自動ロールバックを標準化
実行可能なガードレールで運用知識を自動適用

Turborepo高速化手法

8日間で最大96%の性能改善を達成
LLM向けMarkdownプロファイル形式を開発
並列化・割当削減・syscall削減の3軸で最適化

CDNキャッシュ仕様変更

4月6日から外部オリジンのCache-Controlを自動尊重

Vercelは2026年3月末、AIコーディングエージェントを安全に活用するための社内フレームワークを公開しました。エージェント生成コードはCIを通過しても本番環境の負荷パターンや障害モードを理解しておらず、盲目的な信頼は深刻な障害につながると警告しています。

同社が提唱する対策の柱は、カナリアデプロイによる段階的ロールアウトと自動ロールバック、継続的な負荷テストとカオスエンジニアリング、そして運用知識を実行可能なツールとして符号化することです。ドキュメントではなくツールにすることで、エージェントも人間も同じガードレールに従えます。

一方、同社のビルドツールTurborepo 2.9では、タスクグラフ構築が81〜91%高速化されました。開発者のAnthony Shew氏は8日間でAIエージェントVercel Sandbox・従来の手法を組み合わせ、1000パッケージ規模のモノレポで起動時間を8.1秒から716ミリ秒に短縮しました。

高速化の鍵は、Chrome Trace形式のプロファイルをMarkdown形式に変換しエージェントが読みやすくしたことです。これにより同じモデルでも最適化提案の質が劇的に向上しました。具体的には並列化、ヒープ割り当ての排除、gitサブプロセスのライブラリ呼び出しへの置き換えなど20以上のPRを生み出しています。

さらにVercelは4月6日以降、新規プロジェクトで外部オリジンへのリライト時にCache-Controlヘッダーを自動的に尊重する仕様変更を発表しました。従来は明示的なヘッダー設定が必要でしたが、CDNが上流のキャッシュ指示を標準で反映するようになり、既存プロジェクトもダッシュボードからオプトイン可能です。

OpenAI、Codexにプラグイン機能を追加しコーディング以外に拡張

プラグインの概要

スキル・連携・MCPの統合パッケージ
GitHubGmailVercel等とワンクリック連携
組織横断で設定を再現可能

競合との関係

GoogleGemini CLIも同等機能提供済み
既存機能のパッケージ化が本質
検索可能なプラグインライブラリを新設

OpenAIは、エージェントコーディングアプリCodexにプラグイン機能を追加しました。これにより、Codexコーディング領域を超えた幅広いタスクに対応できるようになります。競合するAnthropicGoogleの類似機能に対抗する動きです。

プラグインは、スキル(ワークフローを記述するプロンプト)、アプリ連携、MCP(Model Context Protocol)サーバーを一つにまとめたバンドルです。特定のタスクに合わせてCodexを構成し、組織内の複数ユーザー間で再現可能にする仕組みとなっています。

技術的には、これまでもカスタム指示MCPサーバーを個別に設定すれば同等の機能を実現できました。しかし今回のプラグインでは、それらをワンクリックでインストールできるようパッケージ化した点が最大の特徴です。

Codexアプリ内には新たにプラグインセクションが設けられ、検索可能なライブラリからプラグインを選択できます。GitHubGmail、Box、CloudflareVercelなど主要サービスとの緊密な統合が用意されています。

この動きは、AIコーディングツール市場におけるプラットフォーム競争の激化を示しています。各社がエコシステムの拡充を通じて開発者の囲い込みを図る中、OpenAICodex汎用性を高めることで差別化を狙っています。

Vercel Sandboxにファイル自動永続化機能、ベータ提供開始

自動永続化の仕組み

停止時にファイルシステムを自動保存
再開時にスナップショットから復元
手動スナップショット操作が不要
状態保存のストレージ料金は無料

開発者向け新機能

カスタム名でSandboxを識別・管理
OpenAI Codex向けVercelプラグイン対応
39以上のプラットフォームスキルを提供
CLI・SDKともにベータ版で利用可能

Vercelは、クラウド開発環境「Vercel Sandbox」にファイルシステムの自動永続化機能をベータ版として追加しました。停止時に自動でスナップショットを取得し、再開時に復元することで、手動操作なしに長期稼働が可能になります。

自動永続化の仕組みは、ストレージとコンピュートを分離するオーケストレーションにより実現されています。Sandboxを停止するとセッションは終了しますが、ファイルシステムは自動的にスナップショットされます。再開時には新しいセッションがそのスナップショットから起動し、状態保存のストレージ料金は発生しません

あわせて、Sandboxにカスタム名を付与できる機能も導入されました。従来のID方式に代わり、プロジェクト内で一意の名前を設定することで、Sandboxの検索・参照・再開が容易になります。名前は自動永続化と連携し、作成時と再開時の識別に活用されます。

さらに、OpenAI CodexおよびCodex CLIへのVercelプラグイン対応も発表されました。39以上のプラットフォームスキルと3つの専門エージェント、リアルタイムコード検証機能を通じて、開発ワークフローを支援します。

これらの機能はすべてベータ版として全プランで利用可能です。SDK(@vercel/sandbox@beta)およびCLI(sandbox@beta)をインストールすることで、リソースの動的変更やセッション履歴の確認など高度な管理機能も含めて試用できます。

Vercel、AI Gateway全利用を一元管理するレポートAPIを公開

レポートAPI概要

全プロバイダー横断の統合レポート
モデル・ユーザー・タグ別のコスト分析
BYOK含む全リクエスト対応
Pro・Enterpriseプラン向けベータ提供

導入効果と実装

導入企業が8万ドル削減に成功
サードパーティプロキシの完全置換
タグ付けで機能別原価を可視化
複数SDK・APIから統一エンドポイントに集約

Vercelは、AI Gatewayの全利用状況を一元的に把握できるCustom Reporting APIのベータ版を、ProおよびEnterpriseプラン向けに公開しました。複数プロバイダーにまたがるコスト・トークン使用量・リクエスト数をプログラムから取得できます。

従来、AI機能の利用データはプロバイダーごとに分散しており、CSVエクスポートやスプレッドシートでの手作業による集計が必要でした。特にBYOK(ユーザー持ち込みAPIキー)環境では、支出の追跡がさらに困難になっていました。

新APIでは、リクエストにユーザーIDやカスタムタグを付与することで、機能別・顧客別・料金プラン別のコストを単一エンドポイントから取得できます。AI SDK、Chat Completions API、Anthropic Messages APIなど主要インターフェースすべてに対応しています。

プライベートベータに参加した20万人以上のユーザーを抱えるAIプラットフォーム企業は、コスト追跡と管理を統合し、サードパーティのプロキシレイヤーを完全に廃止することで8万ドル以上のコスト削減を実現しました。

このAPIにより、AI関連の支出をプロダクション指標として扱うことが可能になります。予算設定、マージン計算、価格改定の意思決定を、実際の単位経済性に基づいて行える環境が整いました。

Vercel Chat SDKがメッセージ並行処理とSlack予約送信に対応

並行処理の4戦略

concurrencyオプション新設
drop・queue・debounce・concurrentの4方式
キューサイズやTTLを柔軟に設定可能
未完了メッセージの衝突制御を実現

Slack予約送信

thread.schedule()で将来時刻に送信
postAtで日時指定が可能
送信前ならキャンセルにも対応

Vercelが提供するオープンソースのChat SDKに、メッセージの並行処理制御機能とSlack予約送信機能が追加されました。チャットボット開発における主要な課題であった、メッセージ競合とスケジュール配信の両方に対応します。

並行処理機能では、Chatクラスに新たなconcurrencyオプションが導入されました。前のメッセージ処理が完了する前に新しいメッセージが到着した場合の挙動を、開発者が細かく制御できるようになります。

利用可能な戦略は4種類です。デフォルトのdropは新着メッセージを破棄し、queueはハンドラ完了後に最新メッセージを処理します。debounceは会話の一時停止を待って最終メッセージのみを処理し、concurrentはすべてのメッセージを即座に並行処理します。

キューの最大サイズやエントリのTTL、キュー満杯時の動作などもカスタマイズ可能です。大量のメッセージが同時に送信されるシナリオでも、アプリケーションの安定性を維持できる設計となっています。

Slack連携ではthread.schedule()メソッドが追加され、指定した日時にメッセージを自動送信できます。リマインダーや定期通知などのユースケースに対応し、送信前であればキャンセルも可能です。

Vercelがビルドマシン自動最適化機能をベータ公開

エラスティック構成

有料プラン全体で利用可能
チームまたはプロジェクト単位で設定
プロジェクトごとに最適マシン自動割当
Standard・Enhanced・Turboの3段階

コスト最適化

過剰プロビジョニングを自動防止
小規模案件はStandardで費用抑制
複雑なワークロードは自動スケールアップ
プロジェクト単位の手動管理が不要

Vercelは2026年3月、ビルドマシンを自動的に最適化する「エラスティックビルドマシン」機能をベータ版として全有料プランユーザーに公開しました。チーム設定またはプロジェクト設定から有効化できます。

従来のビルド環境では、すべてのプロジェクトに同一スペックのマシンが割り当てられるか、プロジェクトごとに手動でマシンタイプを選択する必要がありました。エラスティック機能はこの課題を自動化によって解消します。

新機能ではVercelがプロジェクトの実際の要件を個別に評価し、StandardEnhancedTurboの3段階からビルドマシンを自動的に割り当てます。小規模プロジェクトにはコスト効率の高いマシンが選ばれます。

大規模で複雑なワークロードを持つプロジェクトには、自動的にEnhancedTurboマシンへスケールアップされるため、開発チームはビルド性能と費用のバランスを意識する必要がなくなります。

このスマート割当により過剰プロビジョニングが防止され、チーム全体で最適なパフォーマンスを適正コストで自動的に得られるようになります。設定はチーム設定画面またはプロジェクト設定画面から有効化可能です。

Vercel、CLI・ビルド・ログなど開発者向け機能を一斉強化

プラットフォーム機能強化

CLIにアクティビティログ追加
Enterprise向けビルドマシン既定設定
ランタイムログにエラーコード表示
new.websiteがv0チームに合流

AI活用の実践事例

不動産SERHANT.がAI SDK採用
マルチモデル運用でコスト最適化
200名から900名超へ無停止拡張
AI Gatewayで利用状況を一元管理

Vercelは2026年3月、開発者向けプラットフォームの複数機能を同時にアップデートしました。CLIへのアクティビティログ追加、Enterpriseチーム向けビルドマシン既定設定、ランタイムログのエラーコード表示など、運用効率を高める改善が中心です。

vercel activityコマンドがCLIに追加され、チーム内の全操作履歴をターミナルから直接検索できるようになりました。イベント種別や日付範囲、プロジェクト単位でのフィルタリングにも対応しており、監査やトラブルシューティングの迅速化が期待されます。

Enterpriseプランでは、チームオーナーがデフォルトのビルドマシンをチーム単位で設定可能になりました。新規プロジェクトに自動適用される一方、既存プロジェクトは明示的に変更しない限り現行設定が維持される安全な設計です。

ランタイムログでは、HTTPステータスコードに加えて具体的なエラーコードがダッシュボードに表示されるようになりました。リクエスト失敗の原因特定がより迅速になり、アプリケーションのデバッグ効率が向上します。

AI活用の実例として、不動産企業SERHANT.VercelAI SDKとAI Gatewayを活用し、ClaudeOpenAIGeminiをタスク別に使い分ける事例が紹介されました。200名の内部試験から900名超への本番展開を、インフラ変更なしで達成しています。

さらにWebサイト構築ツールnew.websiteがv0チームに合流することが発表されました。フォームやSEOコンテンツ管理などの組み込みプリミティブをv0のエージェント機能に統合し、プロンプト不要でサイト基盤機能を提供する方針です。

豪州AI新興2社、DevOpsなしで世界展開を実現

インフラ人材不足の現実

APACでIT人材確保が困難
豪州DevOps人件費は15万ドル超
シンガポールAI投資84億ドル

2社の運用モデル

Leonardo.AIが日産450万画像
ビルド時間を10分から2分に短縮
Relevance AIが5万エージェント運用
専任インフラチームゼロで稼働

Vercel基盤の効果

Sandbox SDKにファイル権限機能追加

Vercelの基盤を活用する豪州発のAIスタートアップ2社が、専任のDevOpsチームを持たずにグローバル規模のサービス運用を実現しています。画像生成Leonardo.AIとAIエージェントRelevance AIが、その代表例です。

APAC地域ではAIスタートアップへの投資が急増しており、豪州だけで10億ドル超がAI企業に投じられています。一方でDevOpsエンジニアの採用は困難を極め、豪州での年収は15万ドル以上、IDCによればAPAC企業の6〜8割がIT人材の確保に苦戦しています。

Leonardo.AIは当初ゲーム開発者向けのAI画像生成ツールとして出発し、現在は日産450万枚画像を処理しています。Vercel導入前はビルドに10分以上、ページ読み込みに60秒かかっていましたが、移行後はビルド時間が2分に短縮されました。

Relevance AIはシドニーを拠点に、SalesforceやHubSpot、Slackなど既存ツール上で動作するAIエージェントプラットフォームを提供しています。5万のエージェントインフラチームなしで自律稼働し、リード選定や顧客対応を自動化しています。

またVercel Sandbox SDKはバージョン1.9.0でファイル書き込み時の権限設定機能を追加しました。writeFiles APIにmodeプロパティを渡すことで、chmodの追加実行が不要になり、サンドボックス内でのスクリプト管理が効率化されます。

両社に共通するのは、インフラ管理をプラットフォームに委ね、エンジニアリングリソースをプロダクト開発に集中させる運用モデルです。AI時代のスタートアップにとって、最大のチームではなく最速で出荷できるチームが勝つという構図が鮮明になっています。

VercelがベクトルDB不要のナレッジエージェント基盤を公開

ファイル検索の仕組み

ベクトルDB・埋め込み不要
grep/find/cat検索実行
Sandbox内でbash操作
デバッグ数分で完結
コスト75%削減の実績

マルチ展開と拡張性

Chat SDKで全平台対応
AI SDKとの深い統合
複雑度による自動ルーティング

管理機能

利用統計・エラーログ内蔵
AI管理エージェント自己診断

Vercelは、ベクトルデータベースや埋め込みモデルを使わずにナレッジエージェントを構築できるオープンソーステンプレート「Knowledge Agent Template」を公開しました。Vercel Sandbox、AI SDK、Chat SDKを組み合わせた構成で、ワンクリックでデプロイできます。

従来のRAGパイプラインでは、チャンキングや埋め込みモデルの選定、類似度スコアの調整に多大な工数がかかり、誤回答時のデバッグも困難でした。ベクトル検索では類似度0.82と0.79の差異の原因特定が難しく、障害対応が長期化する課題がありました。

新アーキテクチャでは、エージェントgrep・find・catといたファイルシステム操作で情報を検索します。LLMはコード学習を通じてディレクトリ操作に習熟しているため、この手法が有効です。社内の営業通話要約エージェントでは、コストが約1ドルから約0.25ドルに削減され、出力品質も向上しました。

Chat SDKにより、同一のナレッジベースをSlackDiscordGitHubMicrosoft Teamsなど複数プラットフォームに同時展開できます。各アダプターが認証やメッセージ形式の差異を吸収し、エージェント本体のコードは変更不要です。さらにAI SDKとの統合により、質問の複雑度に応じてモデルを自動選択するスマートルーティング機能も備えています。

テンプレートには管理画面が内蔵されており、利用統計、エラーログ、ユーザー管理、ソース設定を一元管理できます。さらにAI管理エージェントが搭載され、「過去24時間のエラー」や「よくある質問」を自然言語で問い合わせることが可能です。外部の監視ツールを別途導入する必要がありません。

Vercel、マルチプラットフォーム対応のChat SDKを公開

Chat SDKの特徴

単一コードで複数基盤対応
Slack・Teams・Discord7種
AI SDKとストリーミング統合
Redis・PostgreSQLで状態管理

エコシステム拡充

WhatsAppアダプター追加
テーブル・カード等の自動変換
Stripe Projectsとの連携開始
CLI経由でインフラ一括構築

Vercelは、AIエージェントSlackMicrosoft Teams、Discordなど複数のチャットプラットフォームに単一コードベースから展開できるTypeScriptライブラリ「Chat SDK」をオープンソースで公開しました。

Chat SDKはAI SDKと同様の設計思想で、各プラットフォーム固有のAPIの違いをアダプター層で吸収します。ストリーミング対応では、Slackのネイティブストリーミングや他プラットフォームのマークダウン変換を自動処理し、開発者の負担を大幅に削減します。

テーブルやカード、ボタンなどのUI要素はJSXで一度記述すれば、各プラットフォームのネイティブ形式に自動変換されます。SlackではBlock Kit、TeamsやDiscordではGFMマークダウンなど、最適な表示形式が選択されます。

状態管理にはRedisに加えPostgreSQLアダプターが新たに対応し、スレッド購読や分散ロック、TTLベースキャッシュなどの本番運用機能を備えます。WhatsAppアダプターも追加され、メッセージ・リアクション・メディア送受信に対応しました。

また同社はStripe Projectsのローンチパートナーとして、CLIからVercelプロジェクトを直接プロビジョニングできる統合機能を発表しました。AIエージェントやチームがターミナルからインフラ環境を一括構築できる開発者プレビューとして提供されています。

Durable、エンジニア6人で300万顧客のAI基盤をVercelに統合

Vercel移行の背景

マルチテナント運用の限界
SSL・複数リージョン管理が重荷に
6人体制でDevOps不在
セルフホスト比3〜4倍コスト削減

AI基盤の成果

年間3600億トークン処理
エージェント1日で本番投入
エンジニア1人あたり10倍生産性
コーディングエージェントで全面書き換え実現

Durableは、起業家が数分でビジネスを立ち上げられるAIビジネスビルダーです。SEOコンテンツ、業務運営をAIエージェントが代行し、現在300万以上の事業者にサービスを提供しています。わずか6人のエンジニアチームで、年間3600億トークンを処理する大規模プラットフォームを運営しています。

同社はもともとAWSでセルフホストしていましたが、マルチテナント環境の運用が深刻な課題となっていました。数百万の顧客サイトごとに異なるトラフィックパターンがあり、カスタムドメインのSSL管理、複数リージョンのクラスタ維持、DDoS対策、テナント別コスト計測など、インフラ管理だけで開発リソースが圧迫されていました。

CTOのKhan氏は「Vercelを自前で作るか、Vercel上に構築するかの二択だった」と語ります。移行はiframeで旧プロダクトをラップしてVercelデプロイし、その後セルフホスト基盤を完全に撤去するという大胆な手法で実行されました。コーディングエージェントを活用してコードベースの全面書き換えも同時に進めています。

AI機能においては、モデルの切り替え柔軟性、テナント間のコンテキスト漏洩防止、顧客単位のAIコスト可視化という3つの課題を解決しました。マルチエージェント・マルチモデル・マルチモーダルのプロダクトを安全に運用できる体制が整っています。

創業者のClift氏は「数年前の10倍のアウトプットをエンジニア・PM・デザイナー全員が出せるようになった」と述べています。インフラチーム不在で1日11億トークンを処理し、新しいエージェントを1日で顧客に届けられる体制は、今後のテック企業の標準になるとの見方を示しました。

Vercel Workflowが全データのエンドツーエンド暗号化を標準搭載

暗号化の仕組み

コード変更不要で自動適用
デプロイごとに固有の暗号鍵生成
AES-256-GCMで機密性と完全性確保
イベントログには暗号文のみ保存

復号と運用

ダッシュボードでブラウザ内復号
CLIの--decryptフラグで復号可能
環境変数と同一の権限モデル適用
全復号操作を監査ログに記録

Vercelは、サーバーレスワークフロー基盤「Vercel Workflow」において、すべてのユーザーデータに対するエンドツーエンド暗号化を標準機能として提供開始しました。開発者側のコード変更は一切不要です。

暗号化の対象は、ワークフローの入力値、ステップの引数・戻り値、フックペイロード、ストリームデータなど、イベントログに書き込まれるすべてのデータです。APIキーやトークン、ユーザー認証情報といった機密データも安全に受け渡しできるようになります。

技術的には、各デプロイに固有の暗号鍵が割り当てられ、ワークフロー実行ごとにHKDF-SHA256で鍵を導出します。データはAES-256-GCM方式で暗号化され、機密性と完全性の両方が担保される設計です。

復号はWebダッシュボードまたはCLIから実行できます。ダッシュボードではWeb Crypto APIを用いてブラウザ内で完結するため、観測サーバーが平文データに触れることはありません。アクセス権限は環境変数の閲覧権限と連動しています。

すべての復号リクエストは監査ログに記録され、チーム全体でアクセス状況を把握できます。また、カスタム実装向けにgetEncryptionKeyForRun()メソッドを提供しており、独自のWorld実装でも暗号化機能を利用可能です。

Vercelのv0にコード変更差分ビュー機能が追加

差分ビューの概要

ファイル単位の変更確認が可能
行の追加・削除数を表示
インターフェース内で直接レビュー

開発者への影響

コード変更の可視性が向上
AI生成コードの品質管理を支援
レビュー工数の削減に期待
v0.appから即日利用可能

Vercelは、AIコード生成ツールv0に専用の差分ビュー(diff view)機能を追加したことを発表しました。この機能により、ユーザーはv0のインターフェース内でコード変更内容を直接確認できるようになります。

新機能では、ファイルごとに変更箇所を一覧表示し、各ファイルの行の追加数と削除数を明確に把握できます。従来はAIが生成したコードの変更点を把握しにくいという課題がありましたが、差分ビューによって透明性が大幅に向上します。

この機能は、AIによるコード生成が普及する中で特に重要です。開発者がAIの出力を逐一検証し、意図しない変更や不具合を早期に発見できる仕組みを提供することで、品質管理ワークフローを強化します。

v0はVercelが提供するAIコード生成プラットフォームで、フロントエンド開発を中心にプロンプトからコードを自動生成するサービスです。今回の差分ビュー追加により、生成からレビューまでを一つのツール内で完結できるようになりました。

この機能はv0.appで即日利用可能です。詳細なドキュメントも公開されており、企業の開発チームがAIコード生成を安心して導入するための信頼性向上につながる重要なアップデートといえます。

MiniMax M2.7公開、自己進化型AIで開発工程の半分を自動化

自己進化と性能

RL工程の30〜50%を自動実行
MLE Benchメダル率66.6%達成
幻覚率34%Claude超え
SWE-Proで56.22%の高水準

コストと戦略転換

入力0.30ドル/100万トークン
GLM-5の3分の1以下のコスト
中国AI勢のプロプライエタリ転換
Claude Code11以上のツール対応

中国AI企業MiniMaxは2026年3月18日、新たなプロプライエタリLLM「M2.7」を公開しました。同モデルはエージェントワークフローとソフトウェア工学タスクに特化し、Vercel AI Gatewayでも標準版と高速版の2種類が利用可能となっています。

M2.7の最大の特徴は自己進化型の開発手法です。先行バージョンのモデルを活用して強化学習のハーネスを構築し、データパイプラインや学習環境の管理を自動化しました。これにより開発工程の30〜50%をモデル自身が担当し、100ラウンド以上の反復ループでコード修正を最適化しています。

ベンチマーク性能ではSWE-Pro 56.22%GPT-5.3-Codexに匹敵し、GDPval-AAではElo 1495を記録しました。幻覚率は34%とClaude Sonnet 4.6の46%やGemini 3.1 Pro Previewの50%を下回り、MLE Bench Liteのメダル率66.6%はGoogleGemini 3.1に並ぶ水準です。

価格面では入力0.30ドル、出力1.20ドル(100万トークンあたり)と前モデルM2.5から据え置きで、同等の知能水準を持つGLM-5と比較して3分の1以下のコストを実現しています。Claude CodeCursor、Trae等11以上の開発ツールへの公式統合も提供されています。

戦略的には、オープンソースで評価を高めてきた中国AI勢がプロプライエタリ路線へ転換する動きの一環として注目されます。一方で中国企業であることから米国・西側の規制産業での採用にはハードルがあり、企業の意思決定者はコスト効率と地政学的リスクを慎重に比較検討する必要があります。

Vercel、AI学習へのコード利用を含む利用規約を改定

エージェント基盤の強化

障害の自動調査・緩和機能
パフォーマンス分析と改善提案
コスト最適化PRの自動作成
不正利用対策へのデータ活用

AI学習の選択制

Hobbyプランはデフォルト許諾
Pro有料プランはデフォルト拒否
Enterpriseは完全にオプトアウト
チーム設定から随時変更可能

Vercelは2026年3月、利用規約とプライバシーポリシーを改定し、エージェント機能の強化やAIモデル学習へのデータ利用に関する新たな方針を発表しました。開発者のコードやチャットデータの取り扱いが大きく変わります。

エージェント基盤の強化として、Vercelはアプリケーションの障害を自動的に調査・緩和する機能や、Webアプリのパフォーマンスデータを分析して改善を提案する機能、さらにコスト最適化のためのPRを自動作成する機能の開発を進めています。

AIモデル学習については選択制を導入しました。無料のHobbyプランではデフォルトでオプトイン、有料のProプランではデフォルトでオプトアウト、Enterpriseプランでは完全にオプトアウトとなります。設定はチーム設定画面からいつでも変更できます。

学習データにはコードエージェントチャット、ビルド・デプロイのテレメトリデータ、集約トラフィック統計が含まれます。ただし個人情報、アカウント情報、環境変数、APIキーなどの機密情報は匿名化・除去された上で利用されます。

その他の変更として、紛争解決プロセスの更新があり、従来は国際顧客とEnterprise顧客に適用されていた仲裁手続きが米国内顧客にも拡大されました。2026年3月31日までにオプトアウトすれば、データはAI学習や第三者共有に使用されません。

Vercel GitHub App、Actions権限を新たに要求開始

新規権限の内容

Actionsの読み取り権限追加
Workflowsの読み書き権限追加
GitHub組織設定で承認が必要

対応する新機能

Vercel AgentがCI障害を診断
ワークフロー設定の自動構成
v0CI/CD付きリポジトリ作成
本番対応リポジトリの即時生成

Vercelは、同社のGitHub Appに対してActionsの読み取り権限とWorkflowsの読み書き権限の2つを新たに追加しました。インストール時にこれらの権限が要求されるようになっています。

Vercel Agentはこの権限を活用し、ワークフロー実行ログを読み取ることでCI障害の診断を支援します。開発者が手動でログを確認する手間を省き、問題の特定を迅速化する狙いがあります。

さらに、Workflows書き込み権限によりCIワークフローファイルの自動構成が可能になります。Vercel Agentがユーザーに代わって設定を行うことで、CI/CDパイプラインの構築工数を大幅に削減できます。

同社のAIコード生成ツールv0にも恩恵があり、CI/CDパイプラインが設定済みの本番対応リポジトリを一括で作成できるようになります。開発プロジェクトの初期セットアップが格段に効率化されます。

新権限を利用するには、GitHubの組織またはアカウント設定で更新された権限を承認する必要があります。詳細はVercelの公式ドキュメントで確認できます。

Vercelがオープンソース支援の冬季コホートに30件採択

採択プロジェクト概要

AI関連含む30件を新規採択
開発ツールからUIライブラリまで多様
ブラウザAIやテスト生成も対象
創薬AI非営利団体も選出

注目プロジェクト

InsForgeはAIエージェント向け基盤
Answer Overflowは月間150万ユーザー
browser-aiでブラウザ内AI統合
Ersilia Hubが創薬研究を支援

Vercelは2026年冬季のオープンソースプログラムとして、新たに約30件のプロジェクトを採択したと発表しました。同プログラムは2025年春に開始され、メンテナーにクレジットやサポートを提供することで開発の加速とスケーリングを支援するものです。

今回の採択プロジェクトはAIネイティブアプリから開発インフラデザインシステム、クリエイティブツールまで多岐にわたります。特にInsForgeはAIエージェントを前提としたバックエンド基盤で、MCPを活用したエージェントワークフローに対応しています。

開発者ツール分野では、Answer OverflowDiscordコンテンツ検索エンジンやAIエージェントからアクセス可能にするサービスとして300以上のコミュニティに採用され、月間150万アクティブユーザーを獲得しています。browser-aiはブラウザ内で複数のAIモデルプロバイダーを統一的に扱えるTypeScript SDKです。

UIコンポーネント分野の採択が特に多く、Neobrutal UIやEldora UI、SmoothUI、ui-layoutsなど複数のライブラリが選ばれました。React、Vue、Svelteなど主要フレームワーク向けのアニメーション付きコンポーネントやアイコンライブラリも含まれ、フロントエンド開発の効率化に貢献するプロジェクトが目立ちます。

社会貢献型プロジェクトとしては、Ersilia Model Hubが途上国の生物医学研究を支える抗生物質創薬AIモデルのリポジトリとして採択されました。またYourDigitalRights.orgはデータ削除リクエストを自動化し、オンラインプライバシーの保護を支援するプラットフォームです。Vercelは春・夏・秋の既存コホートとあわせて、オープンソースコミュニティへの還元を継続するとしています。

Vercelがコーディングエージェント向けプラグインを公開

プラグインの主要機能

47種以上のスキルを搭載
Next.jsやAI SDK等の知識グラフ対応
3種の専門エージェントを内蔵
5つのスラッシュコマンドを提供

技術的な仕組み

ファイル編集やコマンドをリアルタイム監視
非推奨パターンを即時検出・警告
Claude CodeCursorに対応
OpenAI Codex対応も近日予定

Vercelは、コーディングエージェント向けの新プラグインを公開しました。Claude CodeCursorに対応し、Vercelプロジェクトの理解を深めるためのプラットフォーム知識グラフを提供します。

プラグインは47種以上のスキルを搭載しており、Next.js、AI SDK、Turborepo、Vercel Functions、Routing Middlewareなど主要技術をカバーしています。リレーショナル知識グラフにより、各技術間の関連性も把握できます。

AIアーキテクト、デプロイメントエキスパート、パフォーマンスオプティマイザーの3種の専門エージェントを内蔵しています。bootstrapやdeploy、env、status、marketplaceの5つのスラッシュコマンドも利用可能です。

技術的には、ビルド時にパターンマッチャーをコンパイルし、7つのライフサイクルフックで優先度付きの注入パイプラインを実行します。globパターンやbash正規表現、import文などに基づきスキルが発火し、セッション内で重複排除されます。

さらにPostToolUseバリデーションにより、非推奨パターンやサンセット済みパッケージ、古いAPIをリアルタイムで検出します。npxコマンドやClaude Code公式マーケットプレイスから簡単にインストールでき、OpenAI Codexへの対応も近日中に予定されています。

Vercel、2026年AIアクセラレーターに世界39チームを採択

プログラム概要

39チームが米欧亜中南米から参加
6週間の集中支援プログラム
800万ドル超のパートナークレジット提供
AWSAnthropicOpenAI等が協賛
VCメンターと毎週セッション実施

注目の参加企業

Carbyn AIがAIグラス活用の製造支援
Kuvia AIががん診断AI開発
Lane社がAIエージェント向け決済基盤構築

Vercelは2026年版AIアクセラレータープログラムに、米国欧州・アジア・中南米から39の初期段階チームを採択したと発表しました。6週間にわたりVercelインフラを活用した集中支援が行われます。

参加チームにはVercelインフラへのアクセスに加え、AWSAnthropicOpenAI、Cartesia、ElevenLabsなどのパートナーから総額800万ドル超のクレジットが提供されます。毎週の創業者・技術リーダーとのセッションや専任VCメンターによる支援も受けられます。

採択チームの事業領域は多岐にわたり、Carbyn AIはAIグラスで製造現場の暗黙知を可視化し、Kuvia AIはデジタル病理学でがんバイオマーカー検出に取り組みます。Lane社はAIエージェントが代理購入できる決済・商取引基盤を構築しています。

セキュリティ分野ではHacktron AIが開発ライフサイクルに統合する脆弱性検出を、Mighty社がAIを悪用した詐欺防止ゲートウェイを開発しています。不動産、建設、獣医学、ゲーム広告など産業横断的なAI活用が目立ちます。

4月16日にサンフランシスコで開催されるデモデーでは、各チームがAIリーダーやVCの前でプレゼンを行い、審査員が上位3チームを選出します。1位チームにはVercel Venturesからの出資を含む10万ドル超の賞品が贈られます。

Vercel、ストリーミングMarkdownライブラリStreamdown 2.5を公開

パーサーの強化

インラインKaTeX数式の自動補完
通貨記号との曖昧性を回避
単一チルダの誤判定を防止
段階的アニメーションの追加

コードブロック改善

メタ文字列のカスタムレンダラー対応
長い行の水平スクロール対応
Tailwind v3互換性の修正
CSV出力時のUTF-8 BOM付与

Vercelは、AIアプリケーション向けReactコンポーネントライブラリ「Streamdown」のバージョン2.5をリリースしました。本ライブラリは、マークダウンコンテンツをリアルタイムでストリーミング表示する際の課題を解決するために設計されています。

今回のアップデートでは、インラインKaTeXサポートが追加されました。ストリーミング中に数式の自動補完を行い、ドル記号が通貨記号と混同される問題を回避します。ブロックKaTeXの部分的な閉じタグ処理も修正されています。

新たに段階的ストリーミングアニメーション機能が導入され、単語や文字のアニメーションが一斉ではなく順次カスケードで表示されるようになりました。タイミングはstaggerオプションで調整可能で、デフォルトは40ミリ秒に設定されています。

コードブロックの機能も大幅に改善されました。カスタムレンダラーがコードフェンスからメタ文字列を受け取れるようになり、行番号表示の制御も可能になりました。長い行はクリップではなく水平スクロールで対応し、未知の言語識別子はプレーンテキストにフォールバックします。

バグ修正として、CSV保存時にUTF-8 BOMが付与されるようになり、Windows版Excelでのエンコーディング検出が正しく動作します。また、Tailwind CSS v3でのキャレット表示の不具合も解消されました。

VercelがLiteLLMサーバーの公式デプロイに対応

LiteLLM連携の概要

Vercel上にワンクリック展開
任意のLLMプロバイダーに接続可能

技術的な特徴

Vercel AI Gateway経由のルーティング
YAML設定でモデル切替が容易
環境変数によるAPIキー管理
既存proxy_serverをそのまま利用

Vercelは、LLMプロキシツール「LiteLLM」のサーバーを同社プラットフォーム上にデプロイできる公式サポートを開始しました。これにより開発者は、複数のLLMプロバイダーへの接続を一元管理できるようになります。

LiteLLMは、OpenAI互換のAPIゲートウェイとして機能し、背後で任意のLLMプロバイダーに接続する仕組みです。開発者はエンドポイントを統一したまま、モデルの切り替えやプロバイダーの変更を柔軟に行えます。

デプロイ方法は非常にシンプルで、litellm.proxyモジュールのproxy_serverアプリをそのまま利用します。基本的なゲートウェイ構成であれば数行のコードで立ち上げることが可能です。

Vercel AI Gatewayを経由してモデルをルーティングする場合は、litellm_config.yamlに設定を記述します。モデル名やAPIキーを環境変数で管理でき、セキュリティと運用性の両立が図られています。

この対応により、Vercelエコシステム内でLLMアプリケーションの構築からデプロイまでを完結させる選択肢が広がりました。マルチプロバイダー戦略を採る企業にとって、ベンダーロックインを避けつつ迅速に開発を進められる環境が整います。

Vercelがnext-forge 6公開、Bun標準化とエージェント機能追加

主要な新機能

BunがデフォルトPM化
エージェント向けスキル機能追加
環境変数未設定時のgraceful degradation
必須環境変数はDATABASE_URLのみ

ガイド・移行支援

クイックスタートガイド新設
Dockerデプロイガイド追加
Appwrite・Convex等の移行ガイド整備

Vercelは、Next.jsアプリ向けの本番グレードTurborepoテンプレート「next-forge」のメジャーバージョン6を公開しました。今回のリリースでは開発者体験の向上、エージェントスキル機能、各種ガイドの追加が行われています。

最大の変更点として、デフォルトのパッケージマネージャーBunに変更されました。CLIの初期化スクリプトは現在のパッケージマネージャーを自動検出し、pnpm・npm・yarnも引き続きサポートされます。

新たに導入されたエージェントスキル機能により、npxコマンド一つでnext-forgeのアーキテクチャやパッケージ構成、一般的なタスクに関する構造化された知識をAIエージェントにインストールできるようになりました。

StripePostHog、BaseHub、フィーチャーフラグなど、すべてのオプション統合が環境変数未設定時にエラーではなく安全なデフォルト値を返すgraceful degradation方式に変更されました。プロジェクト起動に必要な環境変数はDATABASE_URLのみです。

ドキュメント面では、ClerkとPostgresだけで開発サーバーを起動できるクイックスタートガイドDockerデプロイガイド、さらにAppwrite・Convex・Novuからの移行ガイドが新たに整備され、導入障壁が大幅に低下しています。

Vercel、AI Elements 1.9を公開し新コンポーネント追加

主な新機能

JSXPreviewコンポーネント追加
ストリーミング中の不完全JSX自動補完
スクリーンショット取得機能搭載
会話のMarkdownダウンロード対応

エージェント連携

AIスキルとしてエージェントに導入可能
npxコマンドで即座にインストール
composable AI UIの構築を支援

Vercelは、AIインターフェース構築ライブラリ「AI Elements」のバージョン1.9をリリースしました。今回のアップデートでは新コンポーネントの追加、エージェントスキル機能、および複数のバグ修正が含まれています。

新たに追加されたJSXPreviewコンポーネントは、JSX文字列を動的にレンダリングする機能を提供します。ストリーミング中に不完全なJSXが送られてきた場合でも、未閉鎖のタグを自動的に閉じる仕組みを備えており、AIが生成するUIをリアルタイムに表示する用途に適しています。

PromptInputActionAddScreenshotは、PromptInputのサブコンポーネントとして新たに追加されました。現在のページのスクリーンショットを取得し、AIモデルへの視覚的なフィードバックとして活用できる機能です。

Conversationコンポーネントには、会話内容をMarkdownファイルとしてダウンロードできるオプションボタンが追加されました。チャット履歴の保存や共有が容易になります。

さらに注目すべきは、AI Elementsをエージェントスキルとしてインストールできる新機能です。npx skills addコマンドにより、任意のエージェントにAI Elementsの知識を組み込み、composable AIインターフェースの構築と活用を効率化できます。

VercelがDomain Connect対応、DNS設定をワンクリック化

Domain Connect概要

外部サービスとの自動DNS連携
ワンクリックでドメイン設定完了
手動レコードコピー不要に
設定ミスと手間を大幅削減

初期パートナーと展望

Resendと連携開始
メール用DNSレコード自動設定
テンプレート追加を随時受付

Vercelは、オープン標準プロトコル「Domain Connect」へのDNSプロバイダーとしての対応を発表しました。これにより外部サービスがVercel管理ドメインのDNS設定を自動構成できるようになります。

従来、外部サービスとの連携時にはDNSレコードを手動でコピー・貼り付けする必要がありました。今回の対応により、ワンクリックで設定が完了し、コピーミスやプロバイダー固有の手順書が不要になります。

最初の連携パートナーには、メール送信サービスのResendが選ばれました。Resendでカスタムドメインのメール設定を行う際、必要なDNSレコードがVercelドメインに自動的にプロビジョニングされます。

本アップデートは、Vercelで購入または移管済みのドメインを対象としています。ドメイン管理の効率化を図り、開発者インフラ設定ではなくプロダクト開発に集中できる環境を整えます。

Vercelは、特定のDomain Connectテンプレートへの対応リクエストも受け付けています。今後さらに多くの外部サービスとの連携が拡大する見込みで、Webアプリ開発におけるドメイン運用の簡素化が進みます。

Notion Workersが Vercel Sandboxで安全なコード実行基盤を構築

セキュリティ要件

Firecracker microVMで完全隔離
認証情報をコード外でプロキシ注入
動的ネットワークポリシーで通信制御
スナップショットで高速コールドスタート

開発者向け活用

CRMデータの定期同期が可能
ボタン操作で任意コード実行
カスタムエージェントのツール拡張
Notion開発者プラットフォーム化へ

Notionは、ユーザーやAIエージェントが任意のコードを安全に実行できる「Notion Workers」機能を発表しました。基盤にはVercel Sandboxを採用し、外部データの同期やAPI呼び出し、自動化処理などを実現します。

Notion Workersでは、第三者の開発者エージェントが生成した任意のコードをエンタープライズ環境内で実行するため、厳格なセキュリティ隔離が求められます。適切な分離がなければ、プロンプトインジェクションにより認証情報の窃取やデータ漏洩リスクが生じます。

Vercel Sandboxは各WorkerをFirecracker microVM上で実行し、コンテナより強固な隔離を提供します。各VMが独自のカーネル、ファイルシステム、ネットワークスタックを持ち、実行完了後はVMの破棄またはスナップショット保存が行われます。

認証情報の注入機構では、ファイアウォールプロキシがネットワークレベルでAPIキーを挿入するため、実行環境内にシークレットが入ることはありません。動的ネットワークポリシーにより、依存パッケージのインストール後に通信先を制限することも可能です。

Notion Workersは単発機能ではなく、Notion開発者プラットフォームへ転換する戦略の一環です。開発者CRMレコードや分析データの定期同期、ボタンによる自動化、AIエージェントツール呼び出しといった用途で活用でき、既成の統合を超えた柔軟な拡張が可能になります。

xAIのGrok 4.20、Vercel AI Gatewayで提供開始

3つのモデル構成

Non-Reasoningは高速応答向け
Reasoningは複雑な推論向け
Multi-Agentは協調動作向け
低いハルシネーション率を実現

Gateway統合機能

統一APIでコスト追跡可能
自動リトライ・フェイルオーバー対応
AI SDK経由で即時利用可能
自前APIキーの持ち込みに対応

xAIは最新フラグシップモデル「Grok 4.20」をVercel AI Gateway経由で提供開始しました。Non-Reasoning、Reasoning、Multi-Agentの3つのバリエーションが用意され、開発者は用途に応じて選択できます。

Non-Reasoningバリエーションは速度と直接的な応答に最適化されており、シンプルなタスクに適しています。一方、Reasoningバリエーションは拡張思考機能を備え、複雑な問題解決に対応します。

Multi-Agentバリエーションは、複数のAIエージェントが協調して動作するオーケストレーション用途に特化して設計されています。これにより、大規模な業務自動化や分析ワークフローの構築が可能になります。

Grok 4.20は業界トップクラスの速度とエージェント型ツール呼び出し能力を備えています。低いハルシネーション率と厳密なプロンプト遵守により、正確な応答を生成できる点が大きな特徴です。

Vercel AI Gatewayはモデル呼び出しの統一API、使用量・コスト追跡、リトライやフェイルオーバーの自動設定など、プロバイダー以上の稼働率を実現する機能を提供しています。AI SDKでモデルIDを指定するだけで即座に利用を開始できます。

Vercelがデータ収集の信頼性を高める新機能を公開

resilient intake

動的エンドポイント探索方式
単一パス依存から脱却
データ収集の欠損を削減
全チーム追加費用なしで利用可

導入と変更点

npm updateのみで設定不要
既存実装との後方互換性維持
ライセンスがMITに変更
Nuxtは1行で導入完了

Vercelは、Web AnalyticsおよびSpeed Insightsのバージョン2で「resilient intake」機能を導入しました。この新機能により、Webサイトのトラフィックデータとパフォーマンスデータの収集精度が向上します。

従来の仕組みでは単一の固定パスに依存していたため、広告ブロッカーなどによりデータが欠損するリスクがありました。新バージョンではエンドポイントを動的に探索する方式を採用し、より完全なデータ収集を実現しています。

導入方法は非常にシンプルです。@vercel/analytics@vercel/speed-insightsの最新版をnpmでインストールし、デプロイするだけで有効になります。追加の設定変更は一切不要です。

既存の実装は従来どおり動作するため、後方互換性が確保されています。また、ライセンスがApache-2.0からMITに変更され、他のオープンソースパッケージとの整合性が図られました。

本機能はすべてのチームに追加費用なしで提供されます。Nuxtアプリケーションではモジュール経由で1行のコード追加のみで導入でき、フレームワークを問わず幅広い開発環境で活用可能です。

Vercel、AIエージェント対応のフィーチャーフラグ管理機能を公開

CLI・SDK強化

CLIでフラグ作成・管理が可能に
Flags SDKスキルで自然言語操作
サーバーサイド評価でレイアウトシフト防止
アダプターで複数プロバイダー接続

Webhook連携

フラグの作成・変更・削除をWebhook通知
セグメント管理イベントも購読可能
外部システムとのフラグデータ統合に対応

Vercelは、フィーチャーフラグをAIエージェントから管理できる新機能を公開しました。CLIコマンドによるフラグの作成・管理に加え、SDKスキルを通じた自然言語での操作が可能になります。

Flags SDKスキルは、CLIを内部で活用しながらAIエージェントが自然言語プロンプトでフラグを生成・管理できる仕組みです。サーバーサイド評価によりレイアウトシフトを防ぎ、フラグの機密性も維持します。

SDKのアダプターパターンにより、複数のフラグプロバイダーを接続し、ユーザーセグメントの評価をコアロジックの書き換えなしに実現できます。開発チームの運用効率が大幅に向上する設計です。

あわせてWebhookイベントの購読機能も追加されました。フラグの作成・変更・削除、セグメントの管理といったイベントをリアルタイムで受信でき、フラグ運用の可視性が大きく向上します。

これらの機能により、開発チームはフラグのライフサイクル全体を監視し、プロジェクト横断での変更追跡や外部システムとの統合が可能になります。エージェント駆動の開発ワークフローにおけるフィーチャーフラグ管理の新たな標準となりそうです。

Vercel Chat SDKがWhatsAppアダプター追加

主な対応機能

WhatsAppアダプター新規追加
メッセージ・リアクション・既読通知に対応
画像音声・スタンプのダウンロード対応
位置情報共有をGoogle Maps URLで処理

制約と連携先

メッセージ履歴・編集・削除は非対応
24時間の送信ウィンドウ制限あり
SlackDiscord・Teams等6種に拡大
カード表示は最大3択のボタン形式

Vercelが提供するオープンソースのChat SDKが、新たにWhatsAppアダプターへの対応を発表しました。これにより、SlackDiscordGitHub、Teams、Telegramに加え、WhatsAppでも同一コードベースからボットを構築できるようになります。

WhatsAppアダプターは、メッセージの送受信やリアクション、自動分割送信、既読通知といった基本機能をサポートしています。さらに画像音声メッセージ、スタンプなどのマルチメディアダウンロードにも対応し、位置情報はGoogle MapsのURLとして処理されます。

導入方法はシンプルで、npmパッケージとして提供される@chat-adapter/whatsappをインポートし、数行のコードでボットを起動できます。既存のChat SDKのアーキテクチャを活用するため、他プラットフォーム向けのロジックをそのまま再利用できる設計です。

一方で現時点ではメッセージ履歴の取得、メッセージの編集・削除には対応していません。カード型UIはWhatsApp上では最大3つの選択肢を持つインタラクティブな返信ボタンとして表示され、非対応の場合はフォーマット済みテキストにフォールバックします。

また、WhatsApp固有の制約として24時間のメッセージングウィンドウが適用されるため、ボットはユーザーの最終メッセージから24時間以内にのみ応答可能です。なお本アダプターは、コミュニティメンバーによるPR #102の貢献が基盤となっており、オープンソースコミュニティとの協力で実現しました。

Manufact、AIエージェント向けMCP基盤で630万ドル調達

MCPの急速な普及

Anthropic発のMCPが業界標準に
月間700万DLのサーバー群
ChatGPTGemini等主要AIが対応
Linux Foundation傘下で標準化

Manufactの戦略

6行のコードでAIエージェント構築
OSSのSDKが500万DL突破
60秒でMCPサーバーをデプロイ
NASA・Nvidia・SAPがSDK採用

課題と展望

社員3名で売上はまだゼロ
AWSCloudflare大手が競合参入

Manufactは、AIエージェントがソフトウェアと連携するための標準プロトコル「MCP」の開発基盤を提供するスタートアップです。サンフランシスコとチューリッヒを拠点とし、Peak XV主導で630万ドルのシード資金を調達しました。Y Combinator 2025年夏バッチの出身企業です。

MCPAnthropicが2024年末に発表したオープン標準で、AIエージェントと外部ソフトウェアを接続する「AIのUSB-C」と呼ばれています。従来はツールごとに個別のコネクタ開発が必要でしたが、MCPにより単一プロトコルで統一的な接続が可能になりました。現在1万以上のMCPサーバーが稼働しています。

同社の主力製品であるオープンソースSDK「mcp-use」は、わずか6行のコードでMCPサーバーに接続するAIエージェントを構築できます。公開後すぐにGitHub上で大きな注目を集め、累計500万ダウンロード、9,000スターを獲得しました。NASAやNvidiaなど大手組織も利用しています。

ManufactはVercelのビジネスモデルを参考に、SDK・テストツール・クラウドの3層で展開しています。GitHubプッシュから60秒で本番MCPサーバーをデプロイでき、ChatGPT向けのMCPアプリも1分以内に構築可能です。AIエージェント市場は2025年の78億ドルから2030年に526億ドルへ急成長が見込まれています。

一方で課題も明確です。社員はわずか3名で、著名ユーザーはいるものの有料顧客はまだいません。AWSCloudflareVercelなどクラウド大手もMCPホスティング機能を相次ぎ投入しており、競争は激化しています。同社は2026年末までにARR 200〜300万ドルの達成を目指し、シリーズA調達につなげる方針です。

VercelのCDNで既存アプリを保護する構成手法

CDNプロキシの仕組み

Discourse等の外部アプリに対応
DDoS防御とBot管理を自動付与
内外2ドメイン構成でリライト設定
シークレットヘッダーで直接アクセス遮断

マイクロフロントエンド拡張

Next.jsアプリを同一ドメインに共存
ルート単位で段階的にページ追加
独立した環境変数と権限で分離運用

段階的モダナイゼーション

大規模移行なしでCDN保護を即日導入

Vercelは自社コミュニティサイトにおいて、外部ホストのDiscourseアプリケーションをVercelCDN経由でプロキシする構成を公開しました。この手法により、既存プラットフォームを移行せずにエンタープライズ級のセキュリティ機能を追加できます。

具体的には、Webアナリティクスによるクッキー不要の匿名アクセス解析、ファイアウォールによるDDoS防御、Bot管理による悪意あるスクレイパーの遮断と信頼済みクローラーの許可を実現しています。過去1年で複数の攻撃を自動防御した実績があります。

設定は内部ホストと外部ホストの2ドメイン構成で行います。vercel.ts設定ファイルでリライトルールを定義し、x-proxy-secretヘッダーで内部ホストへの直接アクセスを遮断する仕組みです。正規URLは外部ドメインに統一します。

マイクロフロントエンド機能を併用することで、Discourseでは実装困難なページをNext.jsで構築し、同一ドメイン上に共存させることが可能です。ライブセッションページやワークフロー連携など、ルート単位で段階的に追加できます。

このアーキテクチャは、WordPressやDiscourseなど既存プラットフォームへの投資を保護しながら、大規模リファクタリングリスクなしにモダナイゼーションを進める実用的な手段を提供します。CDN導入を即日で開始し、必要に応じて機能を追加できます。

Vercel Sandboxが軽量1vCPU構成に対応

新構成の概要

1vCPU・2GB RAM構成を追加
シングルスレッド処理に最適化
デフォルトは従来の2vCPU・4GB
SDK・CLIの両方から指定可能

利用方法

SDKでvcpus: 1オプション指定
CLIで--vcpus 1フラグを付与
未指定時は従来スペックを維持

Vercelは、クラウドサンドボックス環境において新たに1vCPU・2GB RAMの軽量構成をサポートしたと発表しました。従来の2vCPU・4GB RAM構成に加え、より小規模なリソースでの実行が可能になります。

この新構成は、シングルスレッドの処理や軽量なワークロードを想定しています。追加のシステムリソースを必要としないタスクにおいて、効率的な環境構築が実現できます。

利用方法は2通り用意されています。SDKでは`Sandbox.create`メソッドの`resources.vcpus`オプションに1を指定することで、軽量構成のサンドボックスを作成できます。

CLIからは`sandbox create --vcpus 1`コマンドで同様の構成を指定できます。開発者の作業スタイルに合わせた柔軟な選択肢が提供されています。

リソース指定を省略した場合、デフォルトの2vCPU・4GB RAM構成が適用されるため、既存の利用者に影響はありません。コスト最適化や開発環境の軽量化を図りたい場合に有効な選択肢です。

Vercel Chat SDKがPostgreSQL対応とアダプター公開ディレクトリを追加

PostgreSQL対応

PostgreSQLをステート管理に利用可能
Redis不要でインフラ簡素化
TTLキャッシュと分散ロック対応
初回接続時にテーブル自動作成

アダプター公開

アダプターディレクトリを新設
公式・ベンダー・コミュニティの3分類
ResendやBeeperなど外部連携拡充
サードパーティ開発者公開可能

Vercelは2026年3月、Chat SDKの新機能としてPostgreSQLステートアダプターとアダプターディレクトリの提供を開始しました。これにより開発者チャットボット基盤の構築をより柔軟に行えるようになります。

PostgreSQLアダプターは、node-postgresライブラリを使用し、サブスクリプション管理、分散ロック、キーバリューキャッシュの永続化を実現します。すでにPostgreSQLを運用しているチームは、Redisを追加することなく本番環境でChat SDKを利用できます。

技術面では、初回接続時に必要なテーブルが自動作成され、TTLベースのキャッシュや設定可能なキープレフィックスによる名前空間分離にも対応しています。コミュニティ貢献者のPR #154が本アダプターの基盤となりました。

同時に公開されたアダプターディレクトリでは、プラットフォームアダプターとステートアダプターを横断的に検索できます。公式アダプター、ベンダー公式アダプター、コミュニティアダプターの3カテゴリで整理されています。

たとえばResendのアダプターを使えば、メール受信をChat SDKのハンドラーで処理でき、Slackボットと同じカードUIやワークフローメール対応にも適用できます。サードパーティ開発者も独自アダプターを構築・公開できる仕組みが整備されました。

Vercelが開発者向けAI・ビルド機能を一斉強化

AI Gateway刷新

Responses APIに対応
テキスト生成・ツール呼出し対応
構造化出力推論制御を追加
Chat SDKにテーブル描画機能

ビルド・API改善

デプロイが平均15%高速化
Bunモノレポの差分ビルドに対応
v0 APIがカスタムMCPサーバー対応
SDK経由でサーバー登録が可能

Vercel開発者プラットフォームの複数機能を同時にアップデートしました。AI GatewayOpenAIのResponses APIに対応し、Chat SDKにはテーブル描画とストリーミングMarkdown変換が追加されています。ビルド性能やモノレポ対応も改善されました。

AI GatewayのResponses API対応により、開発者OpenAI SDKのベースURLをAI Gatewayに向けるだけで、テキスト生成・ストリーミング・ツール呼び出し・構造化出力推論レベル制御といった機能を利用できます。TypeScriptとPythonの両方に対応しています。

Chat SDKの新しいTable()コンポーネントは、Slack・Teams・DiscordGoogle Chatなど各プラットフォームに最適なフォーマットでテーブルを自動変換します。ストリーミング時のMarkdownレンダリングも改善され、リアルタイムで書式が反映されるようになりました。

ビルド性能の面では、認証情報のプロビジョニング最適化によりデプロイが平均1.2秒短縮されました。複雑なプロジェクトでは最大3.7秒の改善が見られます。また、Bunのロックファイル検出に対応し、モノレポ内の影響のないプロジェクトのビルドをスキップできるようになりました。

v0 APIはカスタムMCPサーバーへの接続をサポートしました。チームはSDK経由でエンドポイントと認証情報を設定し、チャットセッション内でカスタムサーバーを直接利用できます。開発ワークフロー自動化と拡張性が大幅に向上しています。

Vercelが開発者向けプラットフォームを大幅強化、決済・AI・CDN機能を拡充

決済・ストレージ統合

Stripe本番接続が正式対応
APIキー自動プロビジョニング
v0でBlobストア即時作成
公開・非公開アクセス選択対応

AI Gateway強化

GPT-5.4対応を追加
プロバイダー別タイムアウト設定
自動フェイルオーバー高速化

CDN・運用改善

CDNダッシュボード刷新
デプロイ不要のルーティング変更

Vercelは2026年3月、開発者プラットフォームの主要機能を一斉にアップデートしました。決済基盤のStripe統合が正式版となり、AIモデル連携やCDN管理など広範な機能強化が行われています。

Stripeとの連携がVercel Marketplaceおよびv0で正式に一般提供されました。本番Stripeアカウントの接続が可能になり、APIキーの暗号鍵交換による自動プロビジョニングにより、手動でのキー管理が不要になります。ECサイトやSaaSの課金をすぐに本番環境で開始できます。

v0ではVercel Blobのストア作成がワンクリックで可能になりました。非公開ストレージがデフォルトで選択され、認証付きの配信ルートが自動生成されます。公開ストレージではメディア資産への直接URLが設定され、コード記述は不要です。

AI GatewayにはOpenAIGPT-5.4および5.4 Proが追加されました。さらにプロバイダーごとのタイムアウト設定機能がベータ提供され、指定時間内に応答がない場合は次のプロバイダーへ自動的にフェイルオーバーする仕組みが導入されています。

CDNでは新しいダッシュボードが導入され、グローバルトラフィック分布の可視化やキャッシュ管理が一元化されました。プロジェクトレベルのルーティングルールを新規デプロイなしに即時変更できる機能も追加され、レスポンスヘッダーの設定や外部APIへのリライトが迅速に行えます。

マークダウン描画ライブラリStreamdown 2.4ではカスタマイズフックやアクセシビリティ機能が追加され、国際化対応やTailwind v4との互換性も強化されました。デプロイメントサマリーからのcronジョブ実行機能も新たに提供されています。

VercelがMCPアプリのデプロイに正式対応

MCPアプリの特徴

プロバイダー非依存の開放規格
iframe内で動作しpostMessageで通信
CursorClaudeChatGPTに対応
単一UIで複数ホスト横断利用が可能

Vercel連携の利点

Next.jsフルサポートで構築可能
SSRとServer Componentsを活用
テンプレートから即座にデプロイ可能

Vercelは2026年3月5日、MCPアプリのビルドとデプロイを正式にサポートしたと発表しました。MCPアプリはNext.jsとの完全な互換性を備え、開発者Vercelプラットフォーム上で高性能なエージェントUIを構築できるようになります。

MCPアプリは先行して対応していたChatGPTアプリと類似した仕組みですが、特定のプロバイダーに依存しないオープンスタンダードとして設計されています。埋め込みUI規格として、どのAIホストでも動作する汎用性が最大の特徴です。

技術的には、アプリはiframe内で動作し、JSON-RPCベースのpostMessage通信を用いてホストと連携します。この共通ブリッジにより、CursorClaude.ai、ChatGPTなど互換性のあるホスト上でプラットフォーム固有の統合なしに動作します。

Next.jsとの組み合わせにより、開発者はサーバーサイドレンダリングやReact Server Componentsを活用した高性能でポータブルなエージェントインターフェースを構築できます。フロントエンド開発の最新手法がそのまま適用可能です。

Vercelはスターターテンプレートも公開しており、数クリックでMCPアプリのデプロイを開始できます。AIエージェントのUI開発を効率化したい開発チームにとって、有力な選択肢となりそうです。

Inception Mercury 2がVercel AI Gatewayで提供開始

Mercury 2の特徴

推論品質をリアルタイム遅延で実現
エージェント・コード補助・音声に最適
RAGパイプラインの遅延累積を解消

AI Gatewayの機能

統合APIでモデル呼び出しを一元管理
自動リトライとフェイルオーバー対応
オブザーバビリティ機能を標準搭載
自前APIキーの持ち込みに対応
プロバイダルーティングで高可用性確保

Inceptionが開発した大規模言語モデル「Mercury 2」が、VercelAI Gatewayを通じて利用可能になりました。AI SDKでモデル名を「inception/mercury-2」と指定するだけで呼び出すことができます。

Mercury 2の最大の特徴は、推論グレードの品質をリアルタイムの低遅延で提供できる点です。エージェントループやコーディングアシスタント音声インターフェースなど、応答速度が重要な用途に適しています。

特にRAGパイプラインのように複数のLLM呼び出しが連鎖する処理では、各ステップの遅延が累積してボトルネックとなります。Mercury 2はこの課題を低遅延性能で解決し、実用的な応答時間を維持します。

Vercel AI Gatewayは、複数のモデルプロバイダを統合APIで利用できるサービスです。使用量やコストの追跡、リトライ・フェイルオーバーの自動設定により、プロバイダ単体を上回る稼働率を実現します。

同サービスにはオブザーバビリティ機能やBYOK(自前キー持ち込み)サポートも組み込まれています。モデルのリーダーボードやプレイグラウンドも公開されており、導入前の比較検証が容易です。

Vercel、Slackエージェント構築ツールや大規模リダイレクト機能を一挙公開

開発者向け新機能群

Slackエージェントをワンセッションで構築
コーディングエージェントと連携するスキルウィザード提供
Sandbox SDKが環境変数の一括設定に対応
Workflowの応答速度が2倍に高速化

リダイレクト基盤の刷新

プロジェクトあたり100万件のリダイレクトに対応
Bloomフィルタで不要な検索を即時スキップ
シャーディングと二分探索で低遅延を実現
JSON全体解析のレイテンシスパイクを解消

Vercel開発者向けプラットフォームの新機能を複数同時に発表しました。Slack Agent Skillは、コーディングエージェントと組み合わせることで、Slackボットの構築からデプロイまでを1セッションで完了できるツールです。

Slack Agent Skillはウィザード形式で動作し、プロジェクトのセットアップからSlackアプリの作成、ローカルテスト、本番デプロイまでを5つのステージで案内します。マルチターン会話や人間の承認フローにも対応しており、Workflow DevKitにより中断・再開が可能です。

Vercel SandboxのSDKとCLIが更新され、サンドボックス作成時に環境変数を一括設定できるようになりました。設定した変数はすべてのコマンドに自動で継承され、コマンド単位での上書きも可能です。

Vercel Workflowのサーバーサイド性能が2倍に向上し、APIレスポンスの中央値が37msから17msに短縮されました。ステップ間のオーバーヘッドも削減され、複数ステップを持つワークフローほど恩恵が大きくなります。

大規模リダイレクト機能では、従来のルーティングルールに代わり、シャーディングとBloomフィルタを組み合わせた専用パスを構築しました。当初はJSON形式でしたが、CPU負荷によるスパイクが課題となりました。

最終的にシャード内のキーをソートし二分探索検索する方式に移行したことで、シャード全体のJSON解析が不要になり、レイテンシスパイクが解消されました。Pro・Enterpriseプランで100万件まで利用可能です。

Vercel、Python型システム拡張のPEP 827を提案

PEP 827の概要

型レベルの構築ブロックを標準化
TypeScript的なPick/OmitをPythonで実現
ランタイムでも型情報を活用可能に

背景と狙い

Pythonの動的生成に型が追従できず
Pydantic等フレームワークにも恩恵
FastAPI作者Ramírez氏も支持表明

今後の展望

PEPプロセスで議論・改訂を継続
AIエージェント時代こそ型安全が重要

Vercelは2026年3月、約1年間の研究成果としてPEP 827(Type Manipulation)を公開しました。これはPythonの型システムに、型のintrospectionと新しい型の構築を可能にする標準的なビルディングブロックを追加する提案です。

Pythonはメタプログラミングやデコレータにより、クラスやAPIを動的に生成できる強力なランタイムを持っています。しかし現状の静的型チェックはこうした動的な振る舞いに追従できず、型チェッカープラグインや冗長なボイラープレートコードが必要になっていました。

PEP 827はTypeScriptのPickOmitのようなユーティリティ型をPythonでも実装可能にします。ただしTypeScriptの専用構文とは異なり、Pythonの標準的な命令型構文と型レベルAPIを組み合わせる設計で、言語の一貫性を保っています。

FastAPIの作者であるSebastián Ramírez氏もPython Discourseで本提案への支持を表明しました。PydanticなどPythonの主要フレームワークがランタイムでも型情報を活用できるようになるため、エコシステム全体への波及効果が期待されています。

Vercelは「AIエージェントがコードを書く時代だからこそ、型システムの充実が重要」と強調しています。型チェッカーの精度向上とフレームワークの表現力強化により、レビューしやすく簡潔なコードを安全に出荷できる環境を目指すとしています。

Vercel CLIがAIエージェント向け連携機能を追加

エージェント連携の仕組み

discoverコマンドで連携先を探索
guideコマンドで設定手順を取得
JSON出力対応で自動化が容易に
DB・認証・ログ等を自律的に構成

開発者への実用性

CI/CDパイプラインのスクリプト化に対応
利用規約同意など人間判断で一時停止可能
エージェント評価で継続的にテスト済み
pnpmで最新版に更新し即利用可能

Vercelは、AIエージェントVercel Marketplaceの連携機能を自律的に発見・インストール・設定できるCLI新機能を発表しました。データベースや認証、ロギングなどのサービスを一連のワークフローで構成できます。

中核となるのはdiscoverコマンドとguideコマンドです。discoverで利用可能な連携先を一覧取得し、guideでセットアップ手順やコードスニペットをMarkdown形式で受け取れます。エージェントはこれを解析して自動構成します。

--format=jsonフラグを指定すると非対話型のJSON出力が得られるため、エージェントだけでなく開発者にとってもインフラ自動化やカスタムスクリプトの作成、CI/CDパイプライン管理が容易になります。

メタデータが必要な連携ではhelpコマンドで必須入力項目を確認し、オプションとして渡すことが可能です。たとえばUpstash Redisではリージョン指定をコマンドラインから直接設定できます。

利用規約の承認など人間の判断が必要な場面ではプロセスを一時停止し、開発者に確認を促すハイブリッドワークフローにも対応しています。各コマンドはエージェント評価で継続的にテストされ、信頼性が担保されています。

GammaがVercel上でデザイン優先AIを構築

構築アプローチの特徴

デザイン優先エージェント設計思想
Vercelインフラでの高速反復開発
プレゼン・文書作成AIの新たな実装例

VercelのブログはGammaがVercelプラットフォーム上でデザインファーストなAIエージェントを構築した事例を紹介しました。プレゼンテーション・文書作成を自動化するGammaは、デザイン品質を最優先にしたエージェント設計で差別化しています。

Vercelエコシステムを活用した高速プロダクト開発の成功事例として、AIプロダクト開発者に実践的な参考になります。

Avalavraがv0プロトを特許申請製品に発展

プロジェクトの経緯

v0でのプロトタイプが特許申請プロダクトに発展
AIコード生成から知的財産創出への実例
VercelとAI開発ツールビジネス価値

VercelのブログはAvalara(税務コンプライアンス企業)がVercelのv0(AIウェブ開発ツール)で作成したプロトタイプが特許申請中の実用的な製品に発展した事例を紹介しました。

AIを使ったプロトタイプが知的財産へと発展するサイクルは、AI開発ツールの実際のビジネス価値を示す具体例です。

Vercel QueueがBGジョブ処理βへ移行

機能の概要

Vercel Queuesがパブリックベータに
バックグラウンドジョブ処理が簡単に

VercelはQueues機能のパブリックベータ開始を発表しました。開発者Vercelプラットフォーム上でバックグラウンドジョブや非同期タスク処理を簡単に実装できるようになります。

AIアプリケーションでの非同期処理需要に応えるVercelインフラ強化の一環です。

VercelがAIでコミュニティ拡大を解説

コミュニティ管理のアプローチ

AIエージェントコミュニティ管理を自動化
人間らしさを失わないハイブリッド設計

Vercelのブログは、コミュニティ運営にAIエージェントを活用しながら、人間的な温かみや本物のつながりを維持する方法を解説しています。

AIによる自動化と人間性のバランスという実践的テーマで、コミュニティマネージャーやプラットフォーム運営者に参考となる内容です。

Vercel SDKがTelegramに対応を拡大

新機能の概要

Telegram対応でチャットボット展開が容易に
Chat SDK経由でのマルチチャネル展開実現

VercelはChat SDKに新しいTelegramアダプターのサポートを追加しました。開発者Vercelインフラを使ってTelegramボットを簡単に構築・展開できるようになります。

チャットインターフェースの多様化に対応するVercel開発者体験向上の一環です。

Vercelがダッシュボード刷新と新ロールを追加

新機能の概要

ダッシュボードデザインが全ユーザーのデフォルトに
Proチームに開発者ロール追加で権限管理強化
チーム管理の粒度が大幅に向上

Vercelは2026年2月26日、刷新したダッシュボードデザインを全ユーザーのデフォルト表示として公開しました。同時にProチーム向けに新しい開発者ロールを追加し、チーム内の権限管理をより細かく制御できるようになりました。

これらの更新はVercelプラットフォームのエンタープライズ対応強化の一環であり、大規模チームでのガバナンス向上を目的としています。

GoogleがNB2を全ユーザーに開放

モデルの技術的優位性

Gemini 3.1 Flash Imageベースの次世代画像生成
旧Pro版のテキスト描画画像検索グラウンディングを統合
フラッシュ速度を維持しつつ視覚品質を大幅向上
無料ユーザーにもプロ機能を全面開放
Vercel AI GatewayやGemini APIでも即日利用可

エンタープライズへの影響

高品質×低コストで企業導入障壁を解消
AIメディア制作・広告制作のコスト構造を変革
OpenAIMidjourneyへの競争優位を強化
製品ロードマップへの即時統合が可能に

Googleは2026年2月26日、画像生成AIモデルNano Banana 2(正式名:Gemini 3.1 Flash Image)を発表し、Geminiアプリや主要AIプラットフォームで全ユーザーへの提供を開始しました。

本モデルは旧Nano Banana Proのテキスト精密描画能力と、リアルタイムのGoogleイメージ検索を活用したグラウンディング機能を統合し、フラッシュ速度での生成を実現しています。

エンタープライズにとって最大の意義は、従来Proモデルに必要だったコスト負担なしに、同等以上の高品質出力が得られる点です。VentureBeatの分析によれば、これは過去6カ月間の「品質か速度か」というジレンマを解消するものです。

Vercel AI GatewayにもNano Banana 2が即日対応し、既存のAPI統合でシームレスに切り替えが可能です。フラッシュティアのコスト水準を維持しながらより優れた出力が得られます。

GoogleNano Banana 2をAI Studio、Imagen API、Geminiアプリ全体に展開することで、AIクリエイティブ制作の民主化を進めています。企業は今すぐプロダクションへの統合を検討すべきです。

Vercelが変更ログを100%追跡可能に

新機能の詳細

88の新イベント追加でカバレッジ完全化
誰が・いつ・何を変更したか完全記録
監査コンプライアンス対応が大幅改善

開発者への恩恵

設定変更の追跡漏れがゼロに
セキュリティインシデントの調査が容易に
チームの透明性と説明責任が向上

Vercelはアクティビティログに88の新イベントを追加し、チームとプロジェクト設定への全変更を追跡できるようになりました。以前は一部の設定変更が記録されないケースがありましたが、これが解消されます。

コンプライアンス要件が厳しい企業や、セキュリティ上のインシデント調査を行う開発チームにとって、誰がいつ何を変更したかを完全に追跡できる監査ログは重要なインフラです。

医師が信頼するOpenEvidenceの構築法

信頼獲得の秘訣

医師が実際に信頼できる精度を徹底追求
TikTokでバイラル化した医療AI
スタートアップスピードで病院品質を実現

技術的アプローチ

臨床的根拠に基づいた回答生成を優先
ハルシネーション防止の多層的設計
Vercel基盤での高可用性・低レイテンシ

医療AIスタートアップOpenEvidenceは、TikTokで200万回再生を超えるバイラル現象を起こしながら、医師が実際に信頼できる精度を維持することに成功しました。Vercelが公開したケーススタディで詳細が明らかになっています。

医療AIでの最大の課題はハルシネーション(誤情報生成)の防止です。OpenEvidenceは臨床的根拠に基づく回答生成と多層的な検証システムを組み合わせ、医師が実際の診療判断に利用できる水準の精度を実現しています。

Vercelインフラを活用することでスタートアップのスピードと病院レベルの可用性・低レイテンシを両立させています。ヘルスケアAIにおける信頼性と可用性の両立は業界全体の課題です。

エージェントのセキュリティ境界設計指針

セキュリティ設計の要点

エージェントへの最小権限付与の原則
信頼レベルに応じたコンポーネント分離
シークレット管理の適切な配置が重要

実装のポイント

コーディングエージェントはシェル権限に注意
多層防御エージェントリスクを軽減
Vercel Sandboxとの組み合わせを推奨

Vercelエージェントアーキテクチャにおけるセキュリティ境界の設計方法を解説したブログを公開しました。現代のエージェントはファイルシステム読み込み、シェルコマンド実行、コード生成など多様な操作を行うため、信頼レベルに応じた権限設計が不可欠です。

最小権限の原則に従い、各エージェントコンポーネントに必要最低限のアクセス権のみを与えること、そして機密情報のエージェントからの分離が最も重要な設計原則として挙げられています。Vercel Sandboxとの組み合わせが推奨されています。

VercelがSlackエージェントを簡単構築

Slack Agent Skillの概要

OAuth・Webhookの複雑な設定を自動化
AIコーディングアシスタント一回のセッションで完成
Slackボット開発の障壁を大幅低下

開発者への価値

ボイラープレートコードが不要に
インタラクションハンドラーも自動生成
Vercelエコシステムとのシームレスな連携

VercelはAIコーディングアシスタントと組み合わせて使えるSlack Agent Skillを公開しました。このスキルを使うことで、OAuth認証設定、Webhookハンドラー、イベント処理などSlackボット開発の複雑な部分を一回のコーディングセッションで完成させることができます。

これまでSlackアプリの開発には多くのボイラープレートコードと設定作業が必要でしたが、AI支援による自動化により開発時間が大幅に短縮されます。Vercelエコシステムとの統合によりデプロイも容易です。

Vercel Python関数の上限が500MB

変更の詳細

250MBから500MBへバンドルサイズ上限を拡大
機械学習モデルを含むアプリのデプロイが容易に
Pythonエコシステムの大型依存関係に対応

開発者への影響

NumPy・PyTorchなど大型ライブラリの利用が可能に
AIアプリ開発の制約が一つ解消
サーバーレスでのML推論が現実的に

VercelはPython Functionsのバンドルサイズ上限を250MBから500MBに引き上げました。これにより、機械学習ライブラリや大型依存関係を含むPythonアプリケーションのデプロイが容易になります。

NumPyやscikit-learnなどの機械学習ライブラリを含むアプリでもサーバーレス環境でのデプロイが現実的になり、AIエッジ推論やデータ処理パイプラインの構築が一段と簡単になります。

GPT 5.3 CodexがVercelで利用可能

モデルの特徴

GPT-5.2 Codexの強みと推論深度を統合
従来比25%高速でトークン効率も改善
長時間エージェント作業に最適化

開発者への恩恵

Vercel AI Gatewayから即座にアクセス可能
コーディングエージェントの性能が一段向上
研究・ツール利用・長期実行に強み

OpenAIのGPT 5.3 CodexモデルがVercel AI Gatewayで利用可能になりました。このモデルはGPT-5.2のコーディング能力と深い推論能力を一つのモデルに統合したものです。

従来モデルより25%高速でトークン効率も改善されており、長時間のエージェントタスクや複雑なコーディング作業に特に適しています。Vercel経由で即座に利用できる利便性も魅力です。

Vercel Sandboxが認証注入機能追加

新機能の詳細

HTTPヘッダーへのクレデンシャル安全注入
AIエージェント認証フローを簡略化
シークレット漏洩リスクの最小化

開発者への恩恵

セキュリティ設計の複雑さが軽減
エージェント認証の標準化が進む
Vercelエコシステムの安全性が向上

Vercel Sandboxに、AIエージェントがHTTPリクエストを行う際にクレデンシャルを安全に注入できる新機能が追加されました。これにより、シークレット情報をコードや環境変数で管理する必要がなくなり、セキュリティリスクが低減します。

エージェントアーキテクチャにおける認証の安全な管理は複雑な課題でしたが、この機能により開発者セキュリティに配慮したエージェントをより簡単に構築できるようになります。

Vercelがチャット統合SDKを公開

Chat SDKの特徴

npm install chatの一行で導入完了
主要チャットプラットフォームすべてに対応
AIバックエンドの切り替えが容易

開発者への恩恵

ボイラープレートコードが大幅削減
Vercel AI SDKとの統合で開発を加速
プロダクション対応の設計

Vercelnpm i chatという一行のコマンドで導入できる新しいチャットSDKを公開しました。このSDKは一つのコードベースで複数のチャットプラットフォームに対応しており、開発者は実装コストを大幅に削減できます。

AIバックエンドの切り替えが容易な設計で、OpenAIAnthropicGoogleなど複数のプロバイダーを柔軟に利用できます。Vercel AI SDKとの緊密な統合によりデプロイも簡略化されています。

now.json廃止が3月末に迫る

廃止の詳細

now.jsonのサポートが3月31日終了
vercel.jsonへの移行が必要
移行猶予期間は数週間のみ

対応の優先度

既存デプロイメントへの影響を確認
CI/CDパイプラインの更新が必要な場合も
公式ドキュメントで移行手順を確認推奨

Vercelは旧来のnow.json設定ファイル形式のサポートを2026年3月31日をもって終了すると発表しました。現在も使用しているプロジェクトはvercel.jsonへの移行が必要です。

移行作業は比較的シンプルですが、大規模なプロジェクトや多数のデプロイメントを持つチームは早めの対応が推奨されます。CI/CDパイプラインの設定も確認が必要な場合があります。

エージェント基盤が急拡充、本番展開の基準整う

Vercel skills.shエコシステムの拡大

skills.shオープンスキルエコシステムが69,000以上のスキルを提供
AIエージェント外部ツール・APIを呼び出す能力が急拡大
SF開催のSkills Nightイベントで開発者コミュニティが集結
エージェントプラグイン型拡張が標準的アーキテクチャに
VercelがAIエージェントインフラ層のポジションを確立

Runlayer/OpenClawのエンタープライズ展開

OpenClawがRunlayer経由で大企業向けにセキュア提供
メッセージングアプリから自律エージェントを起動可能
2025年11月のローンチから急成長した人気ツール
エンタープライズのセキュリティ要件に対応した隔離環境
コンピュータ自律操作エージェントの本番展開が始まる

AIエージェントエコシステムが急速に成熟しつつあります。Vercelはskills.shプラットフォームを通じて6万9千以上のAIエージェントスキルを提供するエコシステムを構築し、サンフランシスコでSkills Nightイベントを開催して開発者コミュニティの支持を確認しました。

Vercelのアプローチは、エージェントが「何でも自分でやろうとする」のではなく、人間が事前に定義・審査した専門化されたスキルを組み合わせることで、信頼性と安全性を確保するものです。このプラグイン型アーキテクチャはエンタープライズ環境での採用に適しています。

一方、Runlayerは2025年11月に登場して急速に普及したオープンソースのAIエージェントOpenClawを、大企業向けにセキュアな形で提供するサービスを発表しました。OpenClawはメッセージングアプリを通じてコンピュータを自律的に操作できるエージェントで、Runlayerの隔離環境により企業のセキュリティ要件に対応します。

エンタープライズAIエージェントの本番展開は、2026年の最重要トレンドの一つです。単なるデモから実際のビジネスプロセスへの統合が始まる中、セキュリティ・監査可能性・権限管理エージェントプラットフォームの差別化要素として浮上しています。

VercelとRunlayerのアプローチは異なる層のニーズに応えています。Vercelエージェントの能力拡張(何ができるか)に、RunlayerはエンタープライズがAIエージェントを安全に本番環境で運用するためのインフラに注力しています。両者が補完し合うエコシステムが形成されつつあります。

Vercel GatewayにGrok・Veo追加

動画生成APIの統合

4つの動画モデルをGatewayに追加
Grok Imagine Video・Kling・Veo・Wan
統一APIで動画生成を簡素化

VercelAI Gatewayに、Grok Imagine Video、Kling、Google Veo、Wan(Alibaba)の4つの動画生成モデルが一斉に追加されました。

一つのAPIエンドポイントから複数の動画生成モデルを呼び出せるようになり、動画AI開発のハードルが大幅に低下します。

Vercelエージェントが永続メモリ対応

エージェントメモリの強化

永続メモリの会話間継続
Agent Builderの重要アップデート
コンテキストの長期保持

VercelAgent Builderが会話セッションをまたいで情報を記憶できる永続メモリ機能をサポートしました。

これにより、ユーザーの過去の対話履歴・設定・好みをエージェントが記憶し、よりパーソナライズされた継続的なエージェント体験を提供できます。

VercelがBilling APIとBlob追加

プラットフォーム機能拡張

課金APIで使用状況を外部連携
プライベートBlobストレージ公開ベータ
Streamdown 2.3でUIを刷新

Vercelは課金・使用量データをAPIで取得できる新機能、プライベートBlob(オブジェクトストレージ)のパブリックベータ開始、Streamdownコンポーネント2.3のUI刷新を一括発表しました。

課金APIによりコスト管理の自動化や外部ダッシュボードへの連携が可能になります。

Gemini 3.1 Proが推論2倍で最高性能

性能の大幅向上

推論速度が2倍に高速化
ベンチマークで最高記録達成
Deep Think Miniモードを搭載

実用的な特徴

複雑なタスクでの性能が飛躍
調整可能な思考深度
AI Gatewayでも提供開始

GoogleGemini 3.1 Proを正式リリースしました。前モデル比で推論速度が2倍に向上し、主要なAIベンチマーク全てで最高記録を更新したと発表しています。

新機能「Deep Think Mini」モードにより、ユーザーは思考の深さを調整できるようになりました。複雑な数学・科学・コーディング問題での大幅な性能向上が実証されています。

OpenAIのo3やAnthropicClaude Sonnet 4.6と真っ向から競合する位置づけで、Googleがトップモデルの座を奪還しようとしています。

VercelAI Gatewayでも同日提供が開始されており、開発者はすぐに本番環境での活用を開始できます。

AIモデル性能競争が激化する中、推論コストの削減と高性能化を同時に実現するGemini 3.1 Proは、エンタープライズ採用の加速が見込まれます。

Vercelがランタイムログの検索UIを全面刷新

ログ操作性の改善

検索とフィルタリングを全面刷新
より直感的なログUI
デバッグ効率の向上

Vercelはランタイムログの検索・フィルタリング機能を全面的に刷新しました。より直感的なUIにより、開発者がログからの情報取得と問題解決を迅速に行えるようになります。

AIアプリケーションの可観測性向上に寄与する改善で、デバッグサイクルの短縮が期待されます。

VercelがWebStreams処理を10倍速化

パフォーマンス最適化の実例

WebStreamsを10倍高速化
ストリーミングレイテンシの大幅削減
オープンソースへの貢献

VercelエンジニアがWebStreamsの実装を根本から見直し、10倍のパフォーマンス向上を達成したことを技術ブログで報告しました。

リアルタイムAI応答のストリーミング配信において重要なレイテンシ削減が実現され、ユーザー体験の大幅な向上が期待されます。

Vercel Agent BuilderにUI刷新

Agent Builder機能拡張

新しいエージェントチャットUI
ファイルアップロード機能の追加
ツールレジストリの導入

VercelはAgent Builderに大規模なアップデートを実施しました。全面刷新されたエージェントチャットインターフェース、ファイルアップロード機能、およびツールレジストリが新たに追加されています。

ツールレジストリにより、エージェントが使用できるツールやAPIを一元管理・共有できるようになりました。マルチエージェントワークフローの構築がより容易になります。

Vercelがプラットフォームを複数アップデート

主要アップデート内容

セキュリティ監査の自動化
AIによるビルドエラー修正提案
Recraft V4画像モデル提供開始

Vercelは複数のプラットフォームアップデートを発表しました。skills.shのセキュリティ監査自動化、Vercel AgentによるPRレビューへのビルド修正提案機能が追加されました。

ランタイムログのストリーミングエクスポート改善、Recraft V4テキスト→画像モデルのAI Gateway追加、Sandboxスナップショットのカスタム保持期間設定も提供開始されました。

StablyでVercel上のAI開発加速

スピード向上の秘訣

インフラ構築不要で即開発
6人チーム生産性革命
AIテストエージェントの高速デプロイ

6人の小規模スタートアップStablyは、Vercelプラットフォームを採用することでAIテストエージェントデプロイ期間を数週間から数時間に短縮しました。ボトルネックはAI技術ではなく、インフラ管理の不安だったと同社は語ります。

VercelAI Acceleratorプログラムで採択されたStablyは、インフラへの懸念を排除することで、プロダクト開発本来の価値創造に集中できるようになりました。

Sonnet 4.6が低コストで旗艦性能

モデル性能と価格破壊

Sonnet 4.6、フラッグシップ級の知能
コストは5分の1に削減

Infosysとの戦略提携

Infosysと通信・金融向けAIエージェント開発
規制産業へのエンタープライズ展開

Anthropicは2月17日、Claude Sonnet 4.6を正式リリースしました。フラッグシップモデルに匹敵する性能を約5分の1のコストで提供し、エンタープライズ向けAI導入を大幅に加速させる可能性があります。

新モデルはコーディング、長文推論エージェント計画、コンピューター操作の全領域で前バージョンを上回ります。100万トークンコンテキストウィンドウにより、大規模ドキュメント処理が可能になりました。

同日、AnthropicインドのIT大手Infosysは、通信・金融・製造・ソフトウェア開発分野向けのエンタープライズAIエージェント共同開発を発表しました。InfosysのTopaz AIプラットフォームへのClaude統合が核となります。

AIによる自動化がITサービス業界を再編する中、Infosysはこの提携でAI時代への適応を図っています。インド株式市場ではAI不安からIT株が売られており、提携発表は同社の株価回復を狙う側面もあります。

Vercelも同日、AI GatewaySonnet 4.6の提供を開始。100万トークンのコンテキストウィンドウを活用した高度なエージェントシステム構築が可能になります。

Qwen 3.5 PlusがVercel AI Gatewayで提供開始、100万トークン対応

モデル性能の特徴

100万トークンコンテキストウィンドウ
アダプティブツール使用を内蔵
エージェントマルチモーダルタスク対応
Web開発・フロントエンドに最適化

開発者体験

Vercel AI Gatewayで即時利用可能
One APIで複数モデルへのアクセス
ウェブ開発者の選択肢が拡大
オープンソース系モデルの商用力向上

AlibabaのQwen 3.5 PlusVercelのAI Gatewayで提供開始されました。100万トークンのコンテキストウィンドウと内蔵のアダプティブツール使用機能を持ち、エージェントワークフロー、思考、検索、マルチモーダルコンテキストでのツール使用に優れています。

Vercel AI Gatewayは開発者が単一のAPIエンドポイントから複数のAIモデルにアクセスできる基盤です。Qwen 3.5 Plusの追加により、中国発の高性能モデルVercelエコシステムで直接利用できるようになりました。

アダプティブツール使用はモデルが状況に応じて自動的に適切なツールを選択・使用する機能であり、エージェント型アプリケーションの開発効率を大幅に高めます。

Qwen系モデルは中国のAlibabaが開発しており、オープンソースとして公開されているバージョンもあります。商用利用向けのQwen 3.5 Plusの主要プラットフォームへの展開は、グローバルLLM市場でのQwen存在感を高めます。

Web開発・フロントエンドタスクでの最適化という定位置は、Next.js・Reactエコシステムを中心とするVercelのユーザー層との相性が良く、実用的なユースケースに直結した展開です。

Vercelがstale-if-errorキャッシュディレクティブの全レスポンス対応を追加

キャッシュ機能の強化

stale-if-errorディレクティブが全レスポンスに対応
エラー時のキャッシュフォールバックが安定化
サイト可用性の向上につながる機能強化

VercelはHTTPキャッシュの「stale-if-error」ディレクティブを全レスポンスタイプに対して対応するアップデートを発表しました。オリジンサーバーがエラーを返した場合にキャッシュの古いコンテンツを提供することでサービスの可用性を維持する機能です。

この機能は一時的なサーバー障害やバックエンドのエラー時に、ユーザーにエラーページではなく最新のキャッシュを見せることができます。本番環境での安定性が向上します。

VercelがBrowserbase追加と脆弱パッケージブロックで開発者保護

Vercelのアップデート

Browserbaseエージェントマーケットプレイスに追加
脆弱バージョンのnext-mdx-remoteを自動ブロック
開発者セキュリティを積極的に保護

Vercelは2つのプラットフォームアップデートを発表しました。一つはBrowserbaseというブラウザ自動化ツールをVercel Agent Marketplaceに追加したこと、もう一つは脆弱なバージョンのnext-mdx-remoteパッケージの新規デプロイをブロックすることです。

Browserbaseの追加により、Vercel上のAIエージェントがブラウザ操作を行う機能を簡単に組み込めるようになります。ウェブスクレイピングや自動化タスクのエージェント実装が容易になります。

脆弱パッケージの自動ブロックは、開発者が気づかないうちにセキュリティリスクのあるコードをデプロイするのを防ぐ積極的な保護措置として評価されます。

MiniMax M2.5がClaude Opusの20分の1コストで最前線に迫る

M2.5の競争力

Claude Opus比20分の1のコストで同等性能
Vercel AI Gatewayで即時利用可能
オープンモデルのコスト競争が一段と激化

MiniMaxが公開した新モデルM2.5とその高速版M2.5 Lightningは、Claude OpusGPT-4oに近い性能を持ちながら、コストが約20分の1という驚異的なコスト効率を実現していると報告されています。

VercelはすぐにM2.5をAI Gatewayに追加し、開発者が別途プロバイダーアカウントを持たずに利用できるようにしました。開発者エコシステムへの素早い統合が採用を加速させます。

MiniMaxの登場はDeepSeekに続く中国発高性能低コストモデルの流れを継続させています。欧米のプロプライエタリモデルの価格競争力が問われる状況が続いています。

日本企業のAI調達担当者にとって、M2.5の実際の性能評価と利用条件(データ管理ポリシー含む)の確認が重要な検討事項となります。コスト削減の魅力と中国製モデル利用のリスク管理のバランスを考慮する必要があります。

z.aiのGLM-5が幻覚率最低記録、新強化学習技術「slime」も採用

GLM-5の性能

業界最低水準の幻覚率を達成した新LLM
独自強化学習手法「slime」で推論精度向上
Vercel AI Gatewayでも即座に利用可能

中国AI勢力の台頭

中国スタートアップz.aiがフロンティアモデルに肉薄
オープンソースモデルとして幅広い活用可能
GLM-4比で大幅な性能向上を実現

中国AI新興企業z.ai(Zhupai)がGLM-5を発表しました。このモデルは業界で最も低い幻覚率(hallucination rate)を達成したと報告されており、AIの信頼性向上において重要な技術的進歩です。

GLM-5は「slime」と呼ばれる新しい強化学習技術を採用しており、推論能力と事実確認の精度を大幅に改善しています。思考連鎖(Chain-of-Thought)推論においても改善が見られます。

Vercel AI GatewayでGLM-5が即座に利用可能になったことで、開発者は別途プロバイダーアカウントを作成することなくGLM-5にアクセスできます。これは中国産モデルの国際的普及を後押しする動きです。

GLM-5のリリースは、中国のAI開発が単なるキャッチアップを超え、特定の指標では最前線に立ちつつあることを示しています。幻覚率の低さは医療・法務・金融などの高信頼性が求められる分野での採用可能性を高めます。

オープンソースでのリリースは、コスト意識の高い企業や研究機関にとって魅力的な選択肢となります。GPT-4oやClaudeとの比較での実際の実務利用はこれから評価が進む段階です。

Vercelがファイアウォール強化・フラグ管理・GLM-5対応を一斉提供

Vercel製品アップデート

Sandboxの出力ファイアウォールセキュリティ強化
Flags機能がパブリックベータとして公開
AI Gatewayが中国GLM-5モデルに対応

Vercelは複数の製品アップデートを同時にリリースしました。Vercel SandboxへのSNIフィルタリングとCIDRブロックによる出力ネットワークポリシー機能、フィーチャーフラグ管理のFlags機能のパブリックベータ、そしてAI GatewayへのGLM-5モデルの追加です。

これらのアップデートは、開発プラットフォームとしてセキュリティ開発者体験・AIモデルアクセスの3軸でVercelが強化を続けていることを示しています。

特にAI GatewayへのGLM-5追加は、Vercelがどのモデルプロバイダーも中立的にサポートするマルチモデル戦略を推進していることを示しており、開発者にとって利便性が高まります。

Vercel、エージェント向けMCPツール群を拡充

開発者向け新機能

MCPでランタイムログ取得
CLIの履歴ログ検索対応
PostHogが参加

プラットフォーム強化

Appleサインイン対応
デプロイ監視の効率化

VercelMCPサーバーに新しいget_runtime_logsツールを追加し、エージェントがランタイムログに直接アクセスできるようになりました。

CLIのvercel logsコマンドも刷新され、プロジェクトやデプロイメントIDでの履歴検索が可能になりました。エージェントワークフローを意識した設計です。

PostHogVercelマーケットプレイスに参加し、分析ツールの導入が簡素化されました。Apple IDでのサインインにも対応しています。

これらの更新はAIエージェントデプロイメントの監視やデバッグを自律的に行える環境を整備するものです。開発者体験の向上が期待されます。

Vercelフロントエンドプラットフォームとしてエージェント対応を積極的に進めており、MCP統合はその中核を担う戦略です。

AIエージェント本番運用には専用プラットフォームが不可欠

プロダクション展開の課題

誰でもAIエージェントを構築できるがプロダクション展開は別問題
AIが月5000ドル相当のDevOpsを推奨する例も
ビルド vs バイの方程式がAI時代に一変
Vercelが信頼性・可観測性・コスト最適化基盤を提供
AEOエージェントエンジン最適化)という新概念が登場

エージェント連携の欠落した層

AIエージェントは会話できても協調思考ができない
MCP・A2Aが接続性を提供するが意味的整合は別問題
エージェント間の文脈・記憶・ロール管理が未解決
真の協調には専用ミドルウェア層が必要
Vercelが新トークン形式とシークレットスキャンも提供

AIモデルが開発を民主化した一方で、本番環境でのAIエージェント展開には全く別次元の課題があります。Vercelはブログ記事で、AIが簡単に月5000ドルのクラウドインフラを設計してしまう一方、適切なプラットフォームなら500ドルで同じことができると指摘しています。

競争優位はもはや「作れるかどうか」ではなく「実際のビジネス問題を解決するAIを素早く反復して信頼性高く動かせるかどうか」にあります。Vercelはこの観点からエージェント展開のためのプラットフォームインフラを構築しています。

AEO(エージェントエンジン最適化)は、SEOのAI版とも言うべき概念です。AIエージェントがどのようにAPIや外部サービスを検索・発見・活用するかを最適化することで、エージェント同士のエコシステムにおける可視性を高めます。

VentureBeatの記事は「AIエージェントは会話できても本当に協調できない」という問題を指摘しています。MCPやA2Aなどのプロトコルが接続性は提供するものの、エージェント間の文脈・記憶・役割の共有という意味的整合は未解決のままです。

Vercelはこの文脈で新しいトークン形式とシークレットスキャン機能もリリースしており、エージェントプラットフォームとしてのセキュリティ基盤整備も進めています。

VercelがGeist Pixelフォント公開とSanityマーケットプレイス統合を発表

プロダクトアップデート

Geist Pixelフォントを公開
Sanity CMSVercelマーケットプレイスに
Sandboxファイル取得を簡素化
開発者体験(DX)の継続改善
Vercel公式ブログで複数発表
AIアプリ開発向けツール充実

フロントエンド開発への影響

デザインシステムの選択肢拡大
CMS統合のサーバーレス化
開発速度向上への貢献

Vercelは2026年2月6日、複数のプロダクトアップデートを発表した。新しいGeist Pixelフォントピクセルアート風のデザインを活かしたウェブフォントで、ユニークなビジュアルアイデンティティを求める開発者向けだ。

ヘッドレスCMSの「Sanity」がVercel Marketplaceに登場し、Vercelプロジェクトと即座に連携できる体制が整った。コンテンツ管理とデプロイの統合が容易になる。

Vercel Sandboxのファイル取得APIの簡素化により、AI開発環境でのファイル操作が効率化され、エージェント型アプリのデバッグが容易になった。

Vercelの継続的なアップデートはフロントエンド開発のワンストップ化戦略を反映しており、デプロイ・CMS・AI・フォント・マーケットプレイスを統合する構想が鮮明だ。

次世代Webアプリ開発におけるプラットフォーム戦争Vercel、Netlify、AWS Amplifyなどの間で激化しており、エコシステムの豊かさが選定の鍵となっている。

VercelがClaude Opus 4.6対応とAIアクセラレータ、HuggingFaceがSyGra Studio公開

各プラットフォームのアップデート

Vercel AI GatewayでOpus 4.6が即日対応
600万ドル分のクレジットを付与する加速プログラム
SyGra StudioHuggingFaceが公開
AI開発者向けツールが一斉拡充
Vercel Acceleratorの第2弾開始
アプリ開発速度の大幅短縮

開発者エコシステム

スタートアップ支援の資金提供競争
AI開発の参入障壁をさらに低下
エコシステム囲い込み戦略

Vercelは2026年2月5日、AI GatewayがClaude Opus 4.6を即日サポートしたと発表し、新モデルを素早く開発環境に組み込める体制を示した。

同社はまた「Vercel AI Accelerator」の第2弾として、スタートアップに総計600万ドル分のインフラクレジットを提供するプログラムを開始した。

HuggingFaceも同日、AI開発のためのビジュアルプラットフォーム「SyGra Studio」を発表し、グラフィカルなAIワークフロー構築ツールを開発者に提供した。

これらの動きは開発者エコシステム獲得競争の一環で、スタートアップを早期に自社プラットフォームに取り込む戦略を反映している。

特にVercelのacceleratorプログラムはNext.js/Reactエコシステムの中心にいる同社がAIスタートアップの出口として選ばれることを狙ったものだ。

Vercelがビルドログ改善とエージェントマーケットプレイス統合を公開

アップデートの内容

ビルドログにインタラクティブリンク追加
ParallelVercelマーケットプレイスに参入
WebサーチツールをParallelが提供開始
デプロイ体験の視認性向上
AIエージェント連携の簡素化
開発者デバッグ効率が向上

Vercelエコシステムの方向性

エージェントマーケットプレイス戦略を加速
フロントエンド開発者向けAI統合
ワンストップ開発プラットフォーム化

Vercelは2026年2月4日、複数のプロダクトアップデートを発表した。ビルドログへのインタラクティブリンク追加により、デプロイプロセスの視認性とデバッグ体験が向上した。

また「Parallel」がVercel Agent Marketplaceに参入し、Webサーチ機能を含むツール群が開発者向けに提供開始された。

VercelはAIエージェントと既存の開発ワークフローシームレスに統合するプラットフォームとしての地位確立を目指しており、マーケットプレイス拡充がその中核戦略だ。

開発者はMarketplace経由でAIエージェントの機能をプラグイン形式で追加でき、Next.jsやSvelteKitなどのフロントエンドプロジェクトにAI機能を容易に組み込める。

Vercelの連続的なアップデートは開発者体験(DX)への注力を示しており、Netlifyや他のデプロイプラットフォームとの差別化を加速させている。

Vercelがv0を全面刷新しAIコード生成の「90%問題」に対処

新v0の特徴

既存インフラとの接続強化
プロトタイプ→本番の壁を突破
エージェントフレンドリーなページ設計

関連プラットフォーム更新

Toolbarからの視覚コンテキスト送信
コンテンツネゴシエーションエージェント対応
イベントソースワークフロー4.1

Vercelv0を全面刷新し、AIが生成したコードを既存の本番インフラに接続する「90%問題」に正面から取り組みました。400万人以上のユーザーが使う同サービスは、プロトタイプ止まりになりがちな問題を解決します。

新v0ではビジュアルコンテキストVercel Toolbarからエージェントに直接コピーする機能や、エージェントがウェブページを効率よく読み取れるコンテンツネゴシエーション対応も追加されました。

Workflow 4.1 Betaのイベントソース型アーキテクチャ、Koa対応のゼロコンフィグサポート、Turboビルドマシンのデフォルト化など、開発者体験の向上が多角的に行われています。

バイブコーディングツールとしてのv0は、アイデアを数分でアプリ化する体験を提供してきましたが、今回の更新でより実務に耐える品質のコードを既存システムに統合できるようになります。

Vercelのこれらの更新は、AI開発ツールが「デモレベル」から「エンタープライズ品質」への進化を目指す業界トレンドを象徴しています。

VercelがByteDanceのTRAEにAIゲートウェイとワンクリックデプロイを統合

統合内容の詳細

AI Gatewayで百以上のモデルへアクセス
ワンクリック本番デプロイの実現
月間160万人のTRAE開発者が対象

開発者への意味

モデル切替の簡素化
デプロイまでの時間短縮

ByteDanceコーディングエージェントTRAEが、VercelのAI GatewayとVercelへの直接デプロイ機能を統合しました。月間160万人超の開発者が、コード生成から本番環境デプロイまでを一貫して行えるようになります。

Vercel AI Gatewayにより、TRAEユーザーはOpenAIAnthropicGeminiなど数百のモデルに単一のAPIで接続でき、コスト最適化とモデル切替が容易になります。

ワンクリックでのVercelデプロイ統合は、コードを書いてすぐ世界に公開するというバイブコーディングの流れを加速し、プロトタイプから本番への障壁を大幅に下げます。

ByteDanceによるTRAEの開発は、中国テック企業が西側開発者ツール市場に進出する一例であり、コーディングエージェント競争のグローバル化を示しています。

この統合は、AI開発ツールクラウドプラットフォームの境界が溶け合うフルスタック開発体験の実現に向けた重要な一歩です。

VercelがPython 3.13・3.14のサポートを開始

対応範囲

Python 3.13と3.14が利用可能
Vercelのサーバーレス環境で即時使用
新機能の本番活用が可能に

開発者へのメリット

最新のパフォーマンス向上を享受
型チェック強化の恩恵
移行手順不要の即日対応

VercelPython 3.13と3.14のサポートを本番環境で開始しました。開発者Vercel上のサーバーレス関数やAPIルートで最新のPythonランタイムを即座に利用できます。

Python 3.14では型アノテーションの強化やパフォーマンス最適化が含まれており、AI/MLパイプラインを含む本番アプリケーションの開発効率・性能向上に寄与します。

Vercelのプラットフォームアップデートとしては小規模ながら、Python開発者が最新ランタイムを本番で安心して使えるエコシステムの充実は重要です。

特にAI推論エンドポイントや機械学習モデルAPIをVercel上で動かす開発者にとって、最新Python対応は実用的なメリットがあります。

Vercelの継続的なランタイム更新は、プラットフォームとしての成熟度と開発者体験への投資を示しています。

VercelがSandboxのGA提供を開始、エージェントマーケットプレイスも拡充

Sandbox GAの概要

信頼できないコードの安全実行
本番環境でのGA提供
エージェントマーケットプレイス拡充

開発者への価値

セキュアなサンドボックス環境
AIエージェント安全実行
マーケットプレイス統合

Vercelは信頼できないコードを安全に実行できるSandbox機能を一般提供(GA)開始しました。AIエージェントが生成したコードの安全な実行環境として重要な機能です。

AssistLoopやCubicなどの新しいエージェントVercel Agents Marketplaceに追加され、エージェントエコシステムがさらに拡充されました。

VercelがSlack連携調査とSkew Protectionなど複数のプラットフォームアップデートを発表

新機能一覧

Skew Protectionのプリビルド対応
タグベースキャッシュ無効化

開発者体験

デプロイ安定性向上
キャッシュ管理の精度向上

VercelSlackエージェントの調査を確認できる新機能、Skew Protectionのプリビルド対応、タグベースのキャッシュ無効化など複数のプラットフォームアップデートを発表しました。

これらの更新によりVercelプラットフォーム上でのAIエージェントデプロイデバッグが大幅に改善され、エンタープライズ対応力が強化されます。

VercelがAGENTS.mdのエージェント評価での優位性と新CLIコマンドを公開

技術的アップデート

AGENTS.mdがスキルより評価優位
新しいCLIコマンド追加
開発者体験の改善

エコシステムへの影響

エージェントテスト手法の確立
Vercelプラットフォームの成熟
AI開発の標準化

Vercelの調査でAGENTS.mdがスキルベースのアプローチよりエージェント評価において優れた性能を示すことが明らかになり、新しいCLIコマンドも追加されました。

エージェント評価基準の確立はAI開発の標準化に寄与し、開発者が信頼できるエージェントを構築するための指針となります。

VercelがClaude Code Max対応やKimi K2.5など複数のAI Gatewayアップデートを発表

新機能一覧

Claude Code MaxがAI Gatewayで利用可能
Kimi K2.5とQwen3-Maxが追加
Trinity Large Previewの公開
リアルタイムモデル性能指標
スキルv1.1.1リリース

開発者エコシステム

インタラクティブ発見機能の強化
エージェントサポートの拡充
オープンソース公開

VercelはAI Gatewayに複数の重要なアップデートを加えました。Claude Code Maxの対応、Kimi K2.5とQwen3-Maxの追加が含まれます。

スキルv1.1.1ではインタラクティブな発見機能とエージェントサポートが強化され、オープンソースとして公開されました。開発者エコシステムの拡大が続いています。

VercelがAgent Skillsの詳細をFAQで解説

Agent Skillsの仕組み

エージェントスキルのインストール方法
エージェント間の連携メカニズム
開発者向け実装ガイド

活用方法

カスタムスキル作成の手順
マーケットプレイスでの公開
実用的なユースケース

VercelはAgent Skillsの詳細なFAQを公開し、スキルのインストール、エージェント間の連携、カスタムスキルの作成方法を解説しました。

Agent SkillsはAIエージェントの機能拡張を容易にする仕組みで、開発者がモジュール方式でエージェントの能力を追加できます。

Qwen3-MaxがHumanity's Last Examで首位、AI Gatewayでも利用可能に

ベンチマーク結果

Humanity's Last Examで首位
Gemini 3 ProとGPT-5.2を上回る
思考推論モードの威力

利用可能性

Vercel AI Gatewayで即時利用可能
思考モデルの実用性証明
オープンソースモデルの台頭

Alibaba CloudのQwen3-Max ThinkingモデルがHumanity's Last Examベンチマークでトップスコアを記録し、Gemini 3 ProやGPT-5.2を超えました。

このモデルはVercel AI Gatewayを通じて即座に利用でき、思考推論(Thinking)機能が複雑な問題解決において大きな効果を発揮することが示されました。

VercelがAI GatewayとClawdbotの統合を追加

機能の詳細

AI Gateway経由でLLM管理
Clawdbot AIとの統合
レート制限・認証の一元管理
マルチモデルルーティング

開発者への価値

AI APIコストの可視化
複数LLMの一元管理
プロダクション向け信頼性

VercelはAI Gatewayを通じてClawdbotとの統合を追加した。AI Gatewayは複数のLLM APIへのアクセスを一元管理し、レート制限・認証・コスト管理を提供するプロキシレイヤーだ。

開発者Vercelプラットフォームの中でAI APIのコスト可視化とセキュリティ管理を行えるようになる。マルチモデル戦略を取る企業に特に有用だ。

このようなAI管理基盤の整備は、本番AIアプリケーションの運用コストと信頼性管理に不可欠であり、LLMOpsの成熟を示している。

Vercelがビルドマシン設定・高速デプロイ・エラーページをアップデート

新機能一覧

ビルドマシン設定のプロジェクト横断管理
関数キャッシュによるデプロイ高速化
カスタムプラットフォームエラーページ
全体的なパフォーマンス改善

開発体験への影響

CI/CDパイプラインの最適化
ユーザー体験のカスタマイズ
デプロイ待ち時間の削減
運用コストの最適化

Vercelは複数のプラットフォームアップデートを発表した。ビルドマシン設定を全プロジェクトに一括適用できる機能により、大規模チームの管理効率が向上する。

改善された関数キャッシュによりデプロイ速度が大幅に向上し、開発サイクルが短縮される。CI/CDのボトルネック解消に直結する。

カスタムプラットフォームエラーページはブランド一貫性の確保とユーザー体験の向上に寄与する。本番品質デプロイ管理機能が充実してきた。

Vercelがサンドボックスのスナップショットと新ダッシュボードを追加

新機能一覧

Sandboxesでファイルシステムスナップショット
新ダッシュボードナビゲーション
bash-isで機能テスト
開発体験の全体的改善

プラットフォーム戦略

AI開発向け機能の拡充
エージェント開発を支援
フロントエンドを超えた展開
競合との差別化継続

Vercelは複数のプラットフォームアップデートを発表した。Vercel Sandboxesへのファイルシステムスナップショット機能追加により、開発状態の保存と復元が可能になった。

新しいダッシュボードナビゲーションはUIを整理し、プロジェクト管理の効率を高める。開発者体験(DX)の継続的改善がVercelの競争優位の源泉だ。

これらの更新はVercelがフロントエンドデプロイツールからAI時代のフルスタック開発プラットフォームへと進化していることを示している。

Railwayが1億ドルを調達しAIネイティブクラウドでAWSに挑む

Railwayの事業

AIネイティブクラウドインフラ
デプロイ・スケールが最小限の設定
開発者フレンドリーな設計
AWSの複雑さを排除

市場への影響

Vercel・Renderとの競合
AI時代のインフラ再設計

クラウドインフラスタートアップのRailwayがシリーズB(1億ドル)を完了した。AWSなどの複雑な従来型クラウドに対し、シンプルさとAIネイティブな設計を強みとする。

Railwayのプラットフォームはデプロイから自動スケールまでを最小限の設定で実現でき、AIアプリを構築するスタートアップや個人開発者に適している。DX(デプロイ体験)の根本的改善が差別化点だ。

VercelやRenderとの競合が予想されるが、より広いバックエンド・データベース領域をカバーする点で差別化を図る。AI時代のインフラ再設計というトレンドに乗る。

VercelがAIコード要素・エージェント提案・Cron可視化を追加

主な新機能

AI Code Elementsの提供開始
Vercel Agentのコード提案ワンクリック適用
Cronジョブのデプロイ可視化
bash-toolでスキル活用

開発者体験の向上

AIネイティブな開発環境
デプロイフローの簡略化
エージェント統合の容易化
プラットフォーム一体型AI開発

Vercelは複数のプラットフォームアップデートを発表した。AIエージェントが提案したコードをワンクリックで適用できる機能と、AI Code Elementsという新しいUIコンポーネント生成機能が主な追加要素だ。

Cronジョブの実行状況がデプロイサマリーで可視化されるようになり、定期タスク管理が容易になった。bash-toolによるAI SDKエージェントのスキル活用も可能になった。

これらの更新は、VercelがフロントエンドデプロイプラットフォームからAIネイティブ開発プラットフォームへと進化していることを示している。

Vercelがオープンなエージェントスキルエコシステムを立ち上げ

スキルエコシステムの概要

オープンスタンダードで設計
再利用可能なエージェントスキル
コミュニティが作成・共有
Vercel AI SDKと統合
プラグインのように機能

開発者への価値

共通機能の再実装が不要に
エコシステムの拡張が容易
品質保証されたスキルが揃う
モデル非依存で活用できる
マーケットプレイス化への足掛かり

VercelはAIエージェントが使用できる「スキル」を共有するオープンエコシステムを発表しました。開発者がコミュニティとスキルを共有・再利用できる基盤を整備します。

AIエージェント開発では、特定のアクション(メール送信、データ検索、API呼び出しなど)を実装するたびに同様のコードを書く必要があります。スキルエコシステムはこれを解消します。

オープンスタンダードとして設計されており、特定のAIモデルやフレームワークに縛られずに活用できます。インターオペラビリティがキーコンセプトです。

Vercelエコシステム戦略の一環として、開発者コミュニティへのプラットフォームロイヤリティを高める取り組みとも読めます。

Vercelがカナダ・モントリオールに新リージョンを開設

新リージョンの概要

カナダyul1リージョン追加
北米東部のレイテンシー改善
カナダ規制への対応が容易に
データ主権ニーズに対応
PIPEDA準拠のデータ保管

Vercelはカナダのモントリオール(yul1)に新しいリージョンを追加しました。カナダの企業や政府機関が同国内でのデータ処理を求める際の選択肢が広がります。

カナダには独自のデータプライバシー法(PIPEDA)があり、データを国内に保管する必要があるユースケースではリージョン選択が重要です。

新リージョンの追加はVercelのグローバルインフラ拡充戦略の一環です。北米東部のユーザーにとってもより低レイテンシーでのサービス提供が可能になります。

Vercelが全プランでプロジェクトあたり100件のCronジョブをサポート

機能変更の概要

全プランで100件のCronジョブ
スケジュール実行の上限が拡大
バックグラウンド処理が柔軟に
無料プランでも恩恵あり
デプロイ不要の自動化が可能

開発者への実用的価値

データ同期タスクが増やせる
定期レポート生成が容易に
キャッシュ更新の自動化
メンテナンス作業の自動スケジュール
コスト節約にも貢献

Vercelは全プランでプロジェクトあたり最大100件のCronジョブをサポートするよう上限を引き上げました。スケジュール実行のニーズが高まる中での機能強化です。

Cronジョブを多く使うユースケースとして、定期的なデータ処理・レポート生成・キャッシュ更新などがあります。上限拡大により複雑なアプリケーションの構築がしやすくなります。

Vercelは継続的にフリーミアムプランの提供価値を高めており、開発者の囲い込みと有料転換の両立を図っています。

ソフトウェアのYouTubeモーメントが今訪れている、a16zが大波を予言

YouTubeモーメントとは何か

ユーザー生成ソフトの時代が来た
AIで誰でもアプリが作れる
プロ開発者の役割が変わる
コンテンツ経済に似た構造
ロングテールのアプリが溢れる

ビジネスと社会への影響

SaaS企業のビジネスモデルが変容
開発プラットフォームが主戦場に
マネタイズの新モデルが必要
品質vs量の問題が表面化
発見可能性の課題が生まれる

a16zの分析によると、AIによる誰でもソフトウェアを作れる時代の到来は、YouTube登場時に素人が動画コンテンツを爆発的に生み出したことに匹敵する変革だとしています。「ソフトウェアのYouTubeモーメント」がまさに今起きているという主張です。

YouTubeが登場する前はプロ制作の動画が主流でしたが、誰でも投稿できる環境が整ったことで膨大なコンテンツが生まれました。同様にAIコーディングツールが非エンジニアによるアプリ開発を可能にしています。

この変化はSaaS企業に大きな脅威をもたらす可能性があります。特にニッチな問題を解決するアプリは、ユーザー自身が自作するようになるかもしれません。

一方でプラットフォーム事業者VercelReplitGitHub)にとっては大きな機会であり、ユーザー生成コンテンツ・アプリの配布と発見を支えるインフラへの投資が重要になります。

VercelのAI GatewayにRecraft画像モデルが追加

機能追加の概要

RecraftモデルがAI Gatewayに対応
高品質なベクター・ラスター画像生成
API統一インターフェースで利用可能
開発者の統合コストが削減

開発者への影響

複数モデルの切り替えが容易
画像生成のバックエンドを統合
コスト管理もGateway側で一元化
Flux・DALL-Eとの比較選択が可能
本番運用での信頼性が向上

Vercel AI GatewayにRecraft社の画像生成モデルが追加されました。RecraftはSVGなどのベクターグラフィックスやスタイル一貫性に優れた画像生成が特徴です。

AI Gatewayは複数のAIプロバイダーへの単一エントリーポイントとして機能し、モデルの切り替えやフォールバック設定が容易になります。開発コストの削減に直結します。

Recraft追加により、Vercelエコシステムで利用できる画像生成モデルの選択肢が広がりました。用途に応じた最適なモデル選択が開発者にとって重要になっています。

Vercelが環境変数UIを改善、開発者体験を向上

改善内容

環境変数の管理UIを刷新
設定の視認性が向上
操作性が改善された
開発ワークフローがスムーズに

開発者への恩恵

設定ミスリスクが低減
チーム協業がしやすくなる
本番環境管理の効率化
デプロイ速度の向上につながる

Vercelは環境変数の管理UIを改善しました。開発者が本番・ステージング・開発環境の設定をより分かりやすく管理できるようになっています。

この改善により、環境設定に関するミスやデプロイ時のトラブルが減少することが期待されます。チーム開発での協業もしやすくなります。

Vercelは継続的にプラットフォームの開発者体験(DX)を向上させており、Next.jsエコシステムのデファクトプラットフォームとしての地位を強化しています。

Vercel・Replit・Google・Nvidiaが1月15日の開発者向けプラットフォームアップデートを発表

主な更新

VercelAWSデータベースが利用可能に
Vercel SandboxesへのSSH接続が可能に
Replit Agentが意思決定段階でガイダンスを使用
Replit Mobileアプリでアプリストアへの直接公開
NvidiaGeForce NOWに新ゲームを追加

VercelAWSデータベースのMarketplace対応、VercelエージェントによるコードレビューのオンデマンドAI対応、Sandboxes環境へのSSHアクセス機能などを追加しました。ReployはMobileアプリストアへの直接公開ワークフローを簡素化しています。

これらの更新は開発者がAIを組み込んだアプリケーションをより簡単に構築・デプロイできるフルスタックAI開発環境の整備を示しています。

OpenAIがOpen Responses APIで透明性と拡張性を向上

機能の詳細

レスポンスプロセスの可視化を実現
ストリーミング推論ステップを公開
デバッグとユーザー体験向上に活用
Vercel AI Gatewayでもサポート
思考過程の透明性がAI信頼向上に

OpenAIはAIのレスポンス生成プロセスをより透明に、かつカスタマイズ可能にするOpen Responses APIを発表しました。推論ステップをストリーミングで公開することで、開発者はより制御可能なAIアプリケーションを構築できます。

ユーザーがAIの思考過程を確認できることはAI信頼性の向上に貢献します。特に医療、法律、財務など重要な判断を支援するアプリケーションでは、推論の透明性が採用の障壁を下げる重要な要素となります。

VercelとGoogleが1月14日の開発者向けプラットフォームアップデートを発表

主要なアップデート

Perplexity Web SearchがVercel AI Gatewayで利用可能
OpenResponses APIVercelでサポート開始
React Best Practicesガイドの公開
AI Voice Elementsコンポーネントの追加
Gemini可能性拡張とNode.js 24がデフォルト

Vercelは複数の開発者向け機能を1月14日に更新しました。特筆すべきはPerplexity Web SearchVercel AI Gateway経由でどのモデルからでも利用できるようになったことです。またOpenAIのOpenResponses APIのサポート追加、React Best Practicesガイドの公開なども含まれています。

AI Voice ElementsコンポーネントとNode.js 24のデフォルト化は、AI対応アプリケーション開発の標準的なツールセットが整備されつつあることを示しています。

Vercel・Replit・Googleが1月13日の開発者向けプラットフォームアップデートを発表

主な更新内容

Vercelがプロジェクト単位のデプロイサフィックス追加
自動化保護で複数シークレット対応
ReplitがChatPRDとの連携機能追加
チーム全体のデプロイ設定デフォルト化
Labs機能の段階的ロールアウト

VercelReplitGoogleのいくつかのプラットフォームで1月13日に複数の開発者向けアップデートが公開されました。Vercelではプロジェクト単位のデプロイサフィックスや自動化保護の複数シークレット対応が追加されています。ReplitはChatPRDとの連携により、製品仕様書からそのままアプリを生成できるワークフローを実現しています。

これらの更新は単体では小規模ながら、AI支援開発ツールエコシステムが継続的に改善されていることを示しています。

Vercelが1月プラットフォームアップデートを公開、ビルドキャッシュ拡大等

主な更新内容

大型ビルドマシン向けキャッシュ拡大
Streamdown v2でバンドルサイズ削減
エージェントコマンドとして利用可能なWeb Interface Guidelines
Mux AI SDKとの統合事例を公開
次世代開発ワークフロー対応

Vercelは2026年1月に複数の開発者向けプラットフォームアップデートを公開しました。大型ビルドマシン向けのビルドキャッシュ容量拡大により、大規模プロジェクトのビルド時間が短縮されます。Streamdown v2はバンドルサイズの削減と新しいRemendオプションを提供し、フロントエンドパフォーマンスの改善に貢献します。

Web Interface Guidelinesがエージェントコマンドとして利用可能になったことで、AIエージェント主導の開発ワークフローとの親和性が高まります。これらの更新はVercelが次世代のAI支援開発環境としてのポジションを強化する取り組みの一部です。

VercelがファイルシステムAIエージェント構築ガイドとビルド制御を強化

Vercelエージェント開発の新機能

Vercelがファイルシステムとbash連携のエージェント構築ガイドを公開
エージェントがリポジトリのファイルを直接操作できる手法を解説
ブランチごとの同時ビルド数を1に制限する新機能も追加
リソース効率の向上とビルドパイプラインの安定化
エージェントが安全にコードを変更・テストできる環境を整備
開発者がAIエージェントを本番ワークフローに統合しやすくなる

Vercelは2つの関連するアップデートを公開しました。まず「ファイルシステムとbashを使ったエージェント構築方法」というガイドを公開し、ファイルシステムを通じたコード操作エージェントが行う実装パターンを示しました。エージェントがbashコマンドでファイルを読み書きする際の安全な設計原則が解説されています。

もう一つのアップデートは、同一ブランチで同時に実行できるビルド数を1に制限する機能です。並列ビルドの競合によるリソース無駄遣いとデプロイの予測不可能性を解消します。

これらのアップデートはVercelがAIエージェントによる開発ワークフロー自動化を支援するプラットフォームとして進化していることを示しています。CI/CDとAIエージェントの統合に関心を持つ開発者に直接的な価値を提供します。

Vercelがドメインブックマーク機能でDX向上

開発者ワークフローの改善

Vercelドメインブックマーク機能を新たに追加
よく使うドメインをダッシュボードで素早くアクセス
DNS設定・デプロイ管理作業の効率化
複数プロジェクトを管理する開発者の作業時間を削減
フロントエンド開発者向けのQOL改善機能
Vercelプラットフォームの継続的な機能拡充の一環

VercelはDomains(ドメイン管理)機能にブックマーク機能を追加しました。複数のドメインとプロジェクトを管理する開発者が、よく使うドメインに素早くアクセスできるようになります。

小さな改善に見えますが、日常的に多数のプロジェクトとドメインを管理するフロントエンド開発者にとってはワークフローの効率化に直結する機能です。Vercelは継続的に開発者体験(DX)を改善するアップデートを提供しています。

この機能追加はVercel開発者プラットフォームとしての進化の一部であり、フロントエンド開発・デプロイメントのデファクトスタンダードとしての地位を強化する取り組みの一環です。

Vercelがv0コーディングエージェント・bashツール・Secure Computeを公開

Vercelの開発者インフラ強化

v0コーディングエージェントのアーキテクチャを詳細公開
ファイルシステムベースのコンテキスト取得bash-toolを追加
Secure Computeをセルフサービスで利用可能に
エージェントが安全に外部リソースにアクセス可能
開発ワークフロー全体のAI化が一段と進む
v0は単純なチャットから完全な開発エージェントへ進化

エージェント開発の新標準

ファイルシステム統合でコード操作の精度が向上
Secure Computeで機密データの処理を安全に実現
エージェントの実行環境のセキュリティが向上
開発エージェントの産業化に向けた重要なインフラ
他のAIコーディング環境との差別化を強化
VercelエコシステムにおけるAI開発者体験の最前線

Vercelは複数の開発者向けAIインフラ更新を一括して発表しました。v0コーディングエージェントの内部アーキテクチャを詳しく解説したブログ記事では、どのようにして効果的なコーディングエージェントを構築したかが公開されています。

bash-toolは、エージェントがファイルシステムを通じてプロジェクトのコンテキストを取得できる新しいツールです。コードベース全体のファイル構造コンテンツを参照しながら精度の高い変更を行えるようになります。Secure Computeのセルフサービス化により、機密性の高い計算処理を安全な隔離環境で実行できます。

Vercelはフロントエンドデプロイメントプラットフォームから、フルスタックのAI開発プラットフォームへと急速に進化しています。これらの機能強化は、AIエージェントによる開発ワークフロー自動化を本格的に支援する基盤として位置づけられています。

Vercelエージェントがカスタムコードガイドラインに準拠したレビューを実現

開発ワークフローへの統合

Vercel AgentがリポジトリのAIコードレビューを自動化
チームのコーディング規約に従ったレビューが可能に
開発者ガイドラインをエージェントに読み込む仕組み
プルリクエストの品質チェックを自動化
既存のCI/CDパイプラインとシームレスに統合
チームごとのルールに基づいた一貫性のある指摘

VercelはAIエージェントによるコードレビュー機能が、チーム独自のコーディングガイドラインに従ったレビューを行えるようになったと発表しました。プロジェクトに定義された規約・スタイル・ベストプラクティスをエージェントが学習し、プルリクエスト審査に反映します。

この機能によって、コードレビューの一貫性が保たれるだけでなく、チームの規約や設計原則が自動的に施行される仕組みが実現します。新しいメンバーのオンボーディングにも有効です。

開発者体験(DX)を重視するVercelの戦略の一環として、エージェントによる開発支援の精度を高める取り組みが継続的に行われています。AIコードレビューの活用が一般化する中、カスタマイズ性と実用性の向上が差別化の鍵となっています。

VercelがClaude CodeのAI Gateway経由サポートを追加

Claude CodeとVercel AI Gatewayの統合

Claude CodeリクエストをAI Gateway経由でルーティング
Anthropic互換APIエンドポイントで一元管理
コスト・使用量・レイテンシーの可視化が可能
複数のAIプロバイダーを一つのゲートウェイで管理
チームでのClaude Code利用の集中管理を実現
API Rate Limitの最適化とフォールバック設定

開発者ツールとしての意義

AI GatewayがLLMOpsの中核インフラ
複数モデルの切り替え・ABテストが容易に
コスト最適化のための使用分析が可能
Vercelエコシステムとのシームレス統合
Claude Codeの企業利用拡大を促進

Vercel開発者Claude CodeVercel AI Gatewayを通じて利用できるようになったと発表した。AI GatewayはAnthropicのAPIに互換するエンドポイントを提供し、Claude Codeのリクエストをゲートウェイ経由でルーティングすることで一元管理が可能になる。

主なメリットはAIコーディングツールの使用量・コスト・レイテンシーの可視化だ。チームや企業でClaude Codeを利用する場合、個別のAPIキー管理から解放され、組織全体での利用状況を一カ所で把握できる。

Vercel AI Gatewayはマルチモデル対応で、OpenAIAnthropicGoogle・その他のプロバイダーを統一されたインターフェースで管理できる。これにより、Claude CodeGPT-4o・Geminiなどを同時利用しながらコストと性能を比較することが可能だ。

コンプライアンスセキュリティの面では、すべてのAIリクエストが監査ログに記録され、プロンプトや出力の中身を把握できる。データリテンションポリシーの遵守・機密情報の漏洩防止に対応した設計となっている。

Claude Codeの急速な普及に伴い、エンタープライズでの統制が重要な課題となっている。AI Gatewayのようなインフラ層が整備されることで、個人の生産性ツールから組織全体のAI資産へとClaude Codeの位置づけが変わる。

社内ツールの死を防ぐ——AI活用で内製開発を再定義

社内ツール問題の本質

企業は社内ツールに数百万ドルを投入
大半は未完成・放置で終わる現実
非技術者がノーコードで作ると維持不能に
技術者が作ると本来業務に支障が出る
専任エンジニアを置く余裕がない企業が大多数
AI登場前は選択肢のない問題だった

AIによる解決策

AIコーディングエージェントが自動保守を担う
Vercel v0などが設計から実装まで一貫対応
要件変更にも即座にコード更新が可能
メンテナンス負担が大幅に軽減される
非技術者でも高品質な社内ツールを持てる
内製コストが外注並みまで低下する見通し

企業が社内ツール開発に費やす時間とコストは膨大ですが、大半のツールは完成前に放棄されるか、完成してもメンテナンス地獄に陥るという問題があります。Vercelはこの問題をAIで解決する方向を示しています。

従来のジレンマは明確でした。非技術者がノーコードツールを使えば維持が難しくなり、技術者が作れば本来のプロダクト開発の時間が削られます。専任の社内ツールチームを持てる企業は限られていました。

AIコーディングエージェントはこの状況を変えます。要件定義さえできれば、実装から継続的なメンテナンスまでエージェントが担えます。仕様変更も自然言語で指示するだけでコードに反映されます。

社内ツール問題の解消は、エンジニアリング生産性の大幅な向上につながります。ERP連携や承認フロー、ダッシュボードなど、これまで「後回し」だったツール群を低コストで整備できる時代が到来しつつあります。

2026年に向けた開発者リソース:Vercel AIガイドやNano Banana Pro活用法

Vercelのピクセルトレーディングカード

Vercel AI GatewayとAI SDKでピクセル画アートを生成
Next.js Confの参加者向け登録体験として企画
AIと遊び心あるノスタルジーを融合した開発事例
イベント登録体験をAI生成トレーディングカードで差別化
実際のカンファレンス会場でも展示・配布
チュートリアル形式で実装手順を公開

Nano Banana Proと2026への準備

Googleの最新画像生成モデルNano Banana Proの利用可能場所を紹介
画像生成・編集の両方に対応した最新モデル
年末に振り返りと新年への準備を促す5つのポッドキャストを紹介
AI・OSSサステナビリティ・ビルダー向けコンテンツを厳選
ブラウザタブに積み上がった学習コンテンツを整理する機会
2026年への自信を持って臨むための知識補強

Vercelは最近のNext.js ConfとShip AIイベントのために、AI GatewayとAI SDKを使ってピクセルアート風のトレーディングカードを生成するシステムを構築しました。参加者は登録体験の一部として自分だけのカードを生成できる仕組みです。

GoogleNano Banana Proの利用可能なプラットフォームと用途を紹介する記事を公開しました。宇宙飛行士やキツネなどの多彩な画像生成が可能な最新のモデルです。

年末という特別な時期に振り返りと学習を促す開発者向けコンテンツも提供されています。AIビルダーとして2026年に向けた知識・スキル強化の機会として、ポッドキャストやチュートリアルの活用が推奨されています。

Vercel AI SDK 6がエージェント対応とMCP統合で開発者体験を刷新

AI SDK 6の主要新機能

エージェント機能とツール実行承認フローを新設
Model Context Protocol(MCP)の完全サポートを実現
DevToolsとリランキング機能を新たに統合
月間2000万ダウンロードを誇るTypeScriptツールキット
画像編集APIとAIプロバイダー統一インターフェース
Fortune 500からスタートアップまで幅広く採用

AIゲートウェイの拡張

GLM-4.7モデルをAI Gatewayから直接利用可能
Z.aiの最新モデルへのアクセスを簡略化
コーディング・ツール使用・多段階推論を強化
Runtime Logsに関数起動タイプの表示機能を追加
プロバイダー登録不要でモデルを呼び出し
会話品質と美的出力の向上を実現

VercelはAI SDK 6をリリースし、エージェントの構築・ツール実行の承認フロー・完全なMCPサポートなど、AIエージェント開発に特化した機能群を一挙追加しました。月間2000万ダウンロードを誇る同ツールキットはFortune 500企業からスタートアップまで採用しています。

AI Gatewayには中国のZ.aiが開発したGLM-4.7モデルが追加されました。コーディング・ツール使用・複雑なエージェントタスクにおける多段階推論を大幅に改善しており、別途プロバイダーアカウントなしで利用できます。

Runtime Logsへの関数起動タイプ表示の追加など、開発者デバッグ体験向上に向けた細かな改善も含まれています。VercelはAIアプリ開発の統合基盤としての地位をさらに強固にしています。

VercelがReact脆弱性に100万ドルで対処し公開

vercel.tsの機能

TypeScriptで型安全設定が可能
ルーティング・cron・動的ロジック対応
既存vercel.jsonから移行容易
環境変数も設定コード内で参照

React2Shell脆弱性対応

CVSS10.0の最高危険度RCE
116人の研究者に100万ドル支払い
6時間でバウンティ公開という異例の速さ
ランタイム防御でコード実行を遮断

Vercelはプロジェクト設定ファイルの新形式「vercel.ts」を発表しました。TypeScriptベースのこのファイルにより、型安全性・動的ロジック・環境変数へのアクセスを活用した設定が可能です。従来の静的JSONでは表現できなかった複雑なルーティングやキャッシュルールも記述できます。

vercel.tsは既存のvercel.jsonと同じプロパティ定義を使用しており、新しい@vercel/configパッケージを通じて移行が容易に行えます。.js・.mjs・.cjs・.mtsなど複数の形式もサポートされています。

一方でVercelは、React Server ComponentsのCVSSスコア10.0という最高危険度の脆弱性「React2Shell」への対応詳細を公開しました。公開開示後、600万件以上の悪用試みをファイアウォールがブロックし、ピーク時の24時間では230万件に達しました。

対応としてHackerOneのバグバウンティプログラムを6時間以内に立ち上げるという異例の速さで、116名の研究者が参加。20種類のWAFバイパス技術が発見され、100万ドル超のバウンティが支払われました。

さらにVercelはWAFに加えランタイムレイヤーでの防御も導入しました。JavaScriptのconstructorプロパティへのアクセスをReactレンダリング中に遮断することで攻撃ベクターを根絶しています。この対策はトラフィックの96%をカバーし、今後の脆弱性対応のテンプレートとなりました。

VercelとNotebookLMが開発機能を強化

Vercelの新機能群

VercelMCP操作可能
Neon・Supabase等に対応
バルクリダイレクト100万URL対応
主要ドメイン7種が値下げ

NotebookLMの新機能

複数ソースをテーブルに変換
Sheetsへエクスポート可能
Pro/Ultraから先行提供

VercelMCPを活用した「Vercel Agent」を正式GA化し、Neon・Supabase・Stripeなどのサービスをダッシュボードのチャット画面から直接操作できる統合環境を整えました。

認証や初期設定の処理をVercelが一括して担うため、ユーザーがAPIキーを個別に設定する手間が不要となり、Pro・Enterpriseプランのユーザーには追加費用なく無料で提供されます。

バルクリダイレクト機能もGAとなり、最大100万件ものURLをWebのUI・REST API・CLIのいずれの方法でも柔軟に管理でき、CSVファイルによる一括設定アップロードにも対応しています。

ドメイン7種類が一斉に値下げされ、.siteは2.99ドルから1.99ドル、.techは13.99ドルから7.99ドルへと大幅に引き下げられ、個人開発者のコスト負担が軽減されています。

GoogleNotebookLMには新たに「データテーブル」機能が追加され、複数のソースドキュメントの情報を自動的に構造化されたテーブル形式に変換してGoogle Sheetsへ直接出力できます。

会議メモのアクション項目整理・研究論文の比較分析・旅行計画など幅広い実用的な用途に対応しており、まずはProとUltraの上位プランのユーザーから優先的に先行提供されています。

VercelがAWS DBとプレビューURLを強化

AWS DB統合の詳細

Aurora PostgreSQL・Aurora DSQL・DynamoDBをダッシュボードから直接プロビジョニング
ワンクリックでAWSアカウント作成と接続が完結
環境変数が自動設定されセキュアに管理
新規AWSユーザーに100ドルクレジットの無料枠

マルチテナントURL改善

動的URLプレフィックスでテナントごとの一意なURLを生成
バイブコーディングWebサイトビルダー等に最適
Pro・Enterprise向けプレビュー展開サフィックスのアドオン

Vercelは2つの新機能を発表しました。VercelマーケットプレイスへのAWSデータベース統合と、マルチテナントプラットフォーム向けのプレビューURL改善です。

AWS統合では、Amazon Aurora PostgreSQL、Amazon Aurora DSQL(新しい分散SQLサービス)、Amazon DynamoDBをVercelダッシュボードから直接プロビジョニングできるようになりました。新しいAWSアカウントの作成、データベースのプロビジョニング、Vercelプロジェクトへの接続が手動設定不要でワンクリックで完結します。

接続文字列や認証情報の環境変数は自動的に設定され、Vercelプロジェクト内で安全に管理されます。新規AWSユーザーには100ドルのクレジットを含む無料スタータープランが提供されます。今後は既存のAWSアカウントへの接続やv0でのAWSデータベースアクセスも予定されています。

マルチテナントプレビューURLの機能では、動的URLプレフィックスにより、単一プロジェクトが数万のドメインをサポートするバイブコーディングプラットフォームやWebサイトビルダー、Eコマース等でテナントごとの一意なプレビューURLを生成できます。

具体的には「tenant-123---project-name-git-branch.yourdomain.dev」のような形式でURLが生成され、アプリがURLからテナント情報を抽出してルーティングできます。この機能はProおよびEnterpriseチーム向けで、プレビュー展開サフィックスのアドオンが必要です。

Gemini 3 Flash、新デフォルトモデルに

性能と展開範囲

前世代比3倍の高速化と30%のトークン削減
Gemini 3 Proに匹敵するPhD水準の推論能力
画像音声動画へのマルチモーダル対応強化
コード実行機能で視覚入力の編集・解析が可能

展開範囲と開発者向け提供

Geminiアプリのデフォルトモデルに採用
Google SearchのAIモードでグローバル展開開始
Gemini API・Vertex AI・AI Studio経由で即日提供
Vercel AI Gatewayからもアクセス可能に

GoogleGemini 3 Flashを正式リリースし、Geminiアプリのデフォルトモデルとして採用しました。先月公開したGemini 3 Proをベースに速度と効率を大幅に向上させたモデルです。

性能面では、Gemini 3 Flashは前世代の2.5 Flashと比較して多くのベンチマークGemini 3 Proを上回る結果を示しています。処理速度は3倍速く、トークン消費は30%削減されており、コストもProの4分の1以下となっています。

マルチモーダル機能が特に強化されており、画像音声動画・テキストにまたがる質問への対応が向上しました。コード実行機能も追加され、画像のズームや編集などの視覚的操作も可能になっています。

開発者向けには、Gemini API、Vertex AI、AI Studio、Antigravityを通じてリリース当日から利用できます。また、Vercel AI Gatewayとの統合により、別途プロバイダーアカウント不要でアクセスが可能になりました。

エンタープライズ用途では、高頻度ワークフローや応答速度が求められるエージェント型アプリケーションに最適化されています。Gemini Enterpriseや各クラウドプラットフォームでも提供が開始されています。

Google SearchのAIモードにおいては、Gemini 3 Flashがグローバルでデフォルトモデルとして展開され、AIモードの推論・ツール使用・マルチモーダル能力が向上しています。

VercelがAIゲートウェイとオブザーバビリティ機能を強化

ClineがVercel AIゲートウェイに移行

オープンソースのAIコーディングエージェント「Cline」がVercel AIゲートウェイを採用
100以上のPoP経由でグローバルに低遅延ルーティングを実現
1週間のA/Bテストでストリーミング遅延(P99)が10〜14%改善
APIエラー率が43.8%減少し、生成の安定性が向上
Grok Code Fast 1のP99遅延が13.7%、Minimax M2のP99遅延が14.4%高速化
マークアップなしの透明な料金体系と詳細なテレメトリを提供

オブザーバビリティとナレッジベースの新機能

Observabilityクエリ結果をCSVまたはJSONでエクスポート可能に
ダウンロードアイコンワンクリックでデータを即時エクスポート
Observability Plusプランの全チームに提供開始
Vercel Knowledge Base」が新設され、ガイドやチュートリアルを集約
セマンティックAI検索・AIチャット・フィルターで目的のガイドを検索可能

VercelはAIコーディングエージェントのClineとのインテグレーションを通じて、AIゲートウェイの活用事例を公開しました。100万人以上の開発者が利用するClineは、Vercelのグローバルインフラを介してリクエストをルーティングすることで、パフォーマンスの大幅な向上を実現しました。

Vercel AIゲートウェイは世界100か所以上のPoP(接続拠点)でTCP接続を終端し、Vercelのプライベートバックボーン経由でリクエストを最寄りのリージョンに転送します。この仕組みにより、モデルへの接続オーバーヘッドを20ms未満に抑えることができます。

1週間の本番A/Bテストでは、P99ストリーミング遅延が最大14%改善し、APIエラー率が43.8%減少しました。特にGrok Code Fast 1ではP99遅延が13.7%、Minimax M2ではP99遅延が14.4%高速化したほかコスト削減効果も確認されました。

料金面ではモデルプロバイダーの定価をそのまま適用し、マークアップなしの透明な価格体系を採用しています。BYOKでも追加料金は発生せず、テレメトリや健全性チェックなど詳細な運用可視性もあわせて提供されます。

また、ObservabilityのクエリデータをCSVまたはJSONとしてエクスポートできる新機能が追加されました。Vercelダッシュボード外でのデータ分析や共有が容易になり、Observability Plusプランの全チームが利用できます。

さらにVercel Knowledge Baseが新たに開設され、ガイド・チュートリアル・ベストプラクティスを一元的に提供します。セマンティックAI検索やAIチャット機能を通じて、開発者が必要なガイドを効率よく見つけられるよう設計されています。

Vercel v0を使いこなすプロンプト術とNotion連携

効果的なプロンプトの3要素

プロダクト表面・利用文脈・制約の3要素が高品質な出力の鍵
具体的な指定で生成時間を30〜40%短縮
曖昧なプロンプトは余計なコードと修正コストを招く
「誰が・いつ・何を決めるために使うか」を明示することが重要
制約を詳しく書くほどコードがクリーンになる傾向
テスト比較でコンテキストあり版はコード行数を最大152行削減

NotionとのMCP連携で実現するチームワークフロー

NotionMCPツールとしてv0に接続し、既存ドキュメントを活用
PRDや仕様書からプロトタイプをワンプロンプトで生成可能
Notionデータベースを元にしたダッシュボード・内部ツールを即座に構築
書き込みアクセスにより週次サマリーをNotionページへ直接反映
複数ツール間の断片化した作業を単一ワークフローに統合
スターターテンプレートを活用して即日導入が可能

VercelのAI UI生成ツール「v0」は、プロンプトの書き方次第で出力品質が大きく変わります。同社が公開したガイドによれば、良いプロンプトには「プロダクト表面」「利用文脈」「制約とテイスト」という3つの要素が必要です。

プロダクト表面とは、構築するコンポーネントや機能の具体的な列挙を指します。「ダッシュボード」と書くだけでなく、表示データや操作内容を詳細に記述することで、v0が不要な機能を推測せず必要な機能を省かないようになります。

利用文脈では、誰がいつどんな目的でそのUIを使うかを明示します。ユーザーの役職、技術習熟度、使用デバイス、確認頻度などを書くことで、v0はUXを自動的に最適化します。

制約とテイストはv0の「デフォルトの良さ」をさらに引き上げる要素です。スタイル好み、デバイス想定、カラーコード規則などを記述すると、生成コードの行数が減り保守性が上がります。

同社の比較テストでは、コンテキストを付与したプロンプトが19秒速く、152行少ないコードを生成し、機能も完全に動作したと報告されています。文脈なし版は検索カートが未実装でレスポンシブにも対応していませんでした。

一方、NotionとのMCP統合では、チームのワークスペースをv0に安全に接続し、既存のPRDやデータベースを根拠として出力を生成できます。NotionデータベースからイベントKPIダッシュボードを数秒で構築した実例も紹介されています。

書き込みアクセスにより、v0が生成したサマリーや指標をNotionページへ直接書き戻すことも可能です。これにより、複数ツールを往復する非効率な作業が一連のプロンプト操作に集約されます。

統合の開始はv0プロジェクト内でNotion MCPを有効化してワークスペースを接続するだけです。公式スターターテンプレートも提供されており、自分のページやデータベースに合わせてカスタマイズできます。

Vercel、プッシュ通知やキャッシュタグなど新機能を一斉公開

通知・ログ機能の強化

デスクトップ・モバイル両対応のプッシュ通知が全通知タイプで利用可能に
ダッシュボードの通知設定からプッシュチャネルを有効化するだけで即利用開始
モバイルブラウザでVercelダッシュボードを開きオプトインするとスマートフォンにも通知
ランタイムログの詳細パネルにリファラー情報が追加され、リクエスト発生元の把握が容易に

キャッシュ管理の高度化

@vercel/functionsパッケージの`addCacheTag`関数でFunctionレスポンスにキャッシュタグを付与
タグ単位でのキャッシュ無効化により、細粒度なコンテンツ更新が実現
オリジンが不在の場合は`dangerously delete by tag`で強制削除も可能(レイテンシ増加に注意)
全プラン・全フレームワークで追加費用なしに利用可能

Vercelは2024年12月12日、プラットフォームの複数機能を同時にアップデートしました。開発者の通知体験、デバッグ効率、キャッシュ制御の三領域にわたる改善です。

プッシュ通知機能では、デプロイ完了やエラーなどすべての通知タイプについて、デスクトップブラウザとモバイルブラウザの双方からプッシュ通知を受け取れるようになりました。設定はVercelダッシュボードの通知設定ページから数クリックで完了します。

ランタイムログの改善として、リクエスト詳細パネルにリファラー情報が表示されるようになりました。どのページやサービスからリクエストが発生したかを即座に確認でき、不審なトラフィックの調査や障害原因の特定が効率化されます。

キャッシュタグ機能は、`@vercel/functions`パッケージからインポートした`addCacheTag`関数を使い、Functionレスポンスに任意のタグを付与するものです。同タグが付いたキャッシュエントリをまとめて無効化することで、特定コンテンツだけをピンポイントで更新できます。

これらの機能はいずれもGA(一般提供)段階で、Vercelのすべてのプランで利用可能です。追加コストや特定フレームワークへの依存もなく、既存プロジェクトにすぐ導入できます。

React Server Components、DoSと情報漏洩の脆弱性

脆弱性の概要

高深刻度DoS攻撃(CVE-2025-55184)
中深刻度のソースコード露出
リモートコード実行の危険性はなし

影響と対応

React 19.0.0〜19.2.1が対象
Next.js 13.x〜16.xにも影響
Vercel WAFで全プロジェクトを保護
パッチ適用の即座の更新を推奨

Vercelが、React Server Componentsに新たに発見された2件の脆弱性を公表しました。CVE-2025-55184は、不正なHTTPリクエストによりサーバープロセスがハングしCPUを消費するDoS脆弱性です。CVE-2025-55183は、Server Actionのコンパイル済みソースコードが漏洩する可能性があります。

影響を受けるのはReact 19.0.0から19.2.1のreact-server-dom関連パッケージで、Next.js 13.x〜16.xをはじめ、Vite、Parcel、React Routerなどにも波及します。いずれもリモートコード実行は不可能です。

Vercelは全ホスティングプロジェクトにWAFルールを無償展開しましたが、WAFだけでは不十分としてパッチ適用を強く推奨しています。React 19.0.2、19.1.3、19.2.2で修正されています。

OpenAI、GPT-5.2を3モデル構成で発表

GPT-5.2の3モデル構成

Instant・Thinking・Proの3種類
推論コーディング数学で大幅改善
ChatGPTとAPIの両方で提供開始
企業ユーザーの日常業務を40〜60分短縮
科学研究の加速を重点目標に設定
NVIDIAインフラで学習・運用

激化するGoogle競争

Altman CEOが社内で「コードレッド」宣言
Googleの急速な進歩に対抗する位置づけ
発表直後にVercelなどパートナーが対応
10周年記念の振り返りも同時公開
安全性評価のシステムカードも更新
フロンティアモデル競争の新局面

OpenAIは木曜日にGPT-5.2を発表しました。プロフェッショナルな知的作業に最適化された最も高性能なモデルシリーズと位置づけています。Instant、Thinking、Proの3種類が用意され、日常的なタスクから高度な推論まで幅広く対応します。ChatGPT Enterpriseユーザーは平均で1日40〜60分の時間節約を報告しています。

今回の発表は、サム・アルトマンCEOが社内で「コードレッド」を宣言した直後のタイミングです。Googleの急速な技術進歩に対する全社的な対応策として開発が加速されました。ライティング、コーディング推論ベンチマークで前モデルから大幅な性能向上を達成しています。

GPT-5.2は数学と科学分野で特に高い性能を示しており、OpenAIは科学研究の加速を重要な使命として強調しています。NVIDIAのHopperインフラ上で学習・デプロイされ、安全性に関するシステムカードも同時に更新されました。Vercelなどのサードパーティも即座に対応を開始しています。

Vercel SandboxがNode.js 24に正式対応

最新ランタイムのサポート

Vercel SandboxでNode.js 24対応
最新のLTS機能を検証可能
安全な隔離環境での実行

利用開始の手順

@vercel/sandboxを更新
バージョン1.1.0以上が必要
runtimeにnode24を指定

Vercelは2025年12月10日、コード実行環境であるSandboxにおいて、最新のNode.js 24のサポートを開始しました。これにより、エンジニアは安全な隔離環境下で、最新ランタイムの機能を即座に検証できるようになります。

利用を開始するには、npmパッケージである@vercel/sandboxをバージョン1.1.0以降にアップグレードする必要があります。その上で、Sandbox作成時のオプションとしてランタイムプロパティにnode24を指定することで、新しい環境が適用されます。

このアップデートにより、開発チームは最新のLTS(長期サポート)版Node.jsをいち早くプロジェクトに導入する準備が整います。最新技術への適応速度を高め、開発の生産性を向上させるための重要なステップです。

Vercelが認定パートナー制度開始、AI実装と開発品質を保証

信頼できる開発チームの可視化

顧客は専門知識を持つチームを即座に選定可能
Next.jsやAI Cloudの実装力を公式に保証
AKQAなど世界的な11社が初期認定を取得

厳格な技術要件と顧客メリット

インフラ・開発・AIの3分野で認定が必要
再認定制度により最新技術への追随を義務化
リスクを低減しプロジェクト成功率を向上

フロントエンドクラウド大手の米Vercelは2025年12月10日、初の公式認定制度「Vercel Certified Solution Partners」を開始しました。本プログラムは、Next.jsやVercelプラットフォームにおける高度な専門知識を持つ開発パートナーを厳選し、顧客企業が安心してプロジェクトを任せられる体制を構築するものです。初期コホートとしてAKQAなど世界的な11社が認定されました。

この制度の核心は、顧客に対する技術力の信頼性担保にあります。認定パートナーを選定することで、企業はWebサイトの高速化や複雑なシステム移行、さらにはAI機能の実装といった高度なプロジェクトにおいて、リスクを最小限に抑えつつ成功率を高めることが可能になります。Vercelエンジニアリングチームによって検証された手法を用いるため、開発の初期段階から成果創出までの期間を大幅に短縮できる点が大きなメリットです。

認定の基準は極めて厳格に設定されています。パートナー企業は、Vercelインフラ管理、Next.jsの高度な開発パターン、そしてAI Cloudの活用技術という3つの領域で専門性を示す必要があります。さらに、主要なアップデートに合わせて再認定が義務付けられており、常に最新のWeb標準とベストプラクティスに精通していることが求められます。これにより、技術進歩の速いフロントエンド領域において、陳腐化しない開発品質が維持されます。

既にMinnesota Star Tribuneなどの大手企業が、認定パートナーとの協業によりミッションクリティカルなプロジェクトを成功させています。Vercelは本制度を通じてプロフェッショナルサービス部門との連携を深め、エコシステム全体の品質向上を図る構えです。AIを活用した次世代のユーザー体験構築が急務となる中、信頼できる技術パートナーの存在は、企業のデジタル競争力を左右する重要な要素となるでしょう。

Vercel WDK:あらゆるFWで耐久性処理を実現する統合の仕組み

共通する統合の構造

ビルドと実行の2段階プロセスを採用
SWCがコードを3つのモードで変換
インフラ不要でHTTPエンドポイント

環境ごとの最適化

Vite系はファイル構造を利用し自動化
HTTPサーバー系はNitroで機能拡張
HMR完備で開発サイクルを高速化

Vercelは、あらゆるWebフレームワークで耐久性のあるワークフローを構築可能にする「Workflow DevKit(WDK)」の内部構造を公開しました。開発者は既存の技術スタックを変更することなく、インフラ管理不要で堅牢なバックエンド処理を導入できます。

この汎用性の鍵は、すべての統合に共通する「ビルド時」と「ランタイム」の2フェーズ処理です。SWCコンパイラが1つのソースコードをクライアント、ステップ実行、オーケストレーターという3つの異なる出力へ自動変換し、複雑な配線を隠蔽します。

SvelteKitやAstroのようなViteベースの環境では、ファイルベースルーティングを巧みに活用します。プラグインがコンパイル時にハンドラファイルを生成・配置し、それらをフレームワークが自動的にAPIエンドポイントとして認識する仕組みです。

一方、ExpressやHonoといったバンドラーを持たないHTTPサーバー環境では、サーバーツールキット「Nitro」が活躍します。Nitroが仮想ハンドラとしてWDKの機能をラップし、ベアメタルなサーバー上でも同様のワークフロー機能を提供します。

開発者体験(DX)への配慮も徹底されており、HMR(ホットモジュール交換)を標準装備しています。「use workflow」等のディレクティブを検知して即座にリビルドを行うため、サーバー再起動なしで高速なイテレーションが可能です。

結論として、このアーキテクチャはフレームワーク選定による機能格差を解消します。エンジニアは新たなインフラや言語を学ぶコストを払うことなく、使い慣れた環境へたった数行の設定を追加するだけで、生産性と信頼性を高めることができます。

Vercel、FastAPIのLifespan対応でDB管理が効率化

Lifespan Eventsへの対応

VercelFastAPIに正式対応
アプリの起動・終了時処理が可能
DB接続の確立と切断を管理

開発プロセスの最適化

ログなどのクリーンアップを実行
非同期コンテキストで記述容易
サーバーレスでのライフサイクル制御

Vercelは2025年12月9日、FastAPIアプリケーションにおける「Lifespan Events」のサポートを開始しました。これにより、開発者はアプリの起動時および終了時に、任意の初期化・終了ロジックを実行することが可能になります。

この機能追加により、データベース接続の確立や外部ログのフラッシュなど、重要なリソース管理が容易になります。サーバーレス環境においても、アプリケーションのライフサイクルを適切かつ安全に制御できる点が大きなメリットです。

実装にはPythonの標準的な@asynccontextmanagerデコレータを使用します。起動時のセットアップと終了時のクリーンアップ処理を一つの関数内で簡潔に記述でき、コードの可読性と保守性が大幅に向上します。

これまでVercel上でPythonバックエンドを運用する際に課題だった初期化・終了処理が解決されます。AI開発等でFastAPIの採用が進む中、Vercelのプラットフォームとしての実用性と魅力がさらに高まりました。

React2Shell脆弱性、Next.js等は即時更新を

深刻なリモートコード実行の危機

React Server Componentsに致命的欠陥
React 19およびNext.js等が影響
遠隔から任意コード実行される恐れ

対象バージョンと緊急対応手順

Next.js 15.0.0〜16.0.6が対象
パッチ適用版へ即時アップグレード
更新後に環境変数の変更を推奨

2025年12月、React Server Componentsに起因する深刻な脆弱性「React2Shell」のエクスプロイトが確認されました。この欠陥はReact 19およびNext.js等のフレームワークに影響し、攻撃者によるリモートコード実行(RCE)を許す可能性があります。該当技術を利用する企業や開発チームは、直ちにセキュリティ状況を確認し、対策を講じる必要があります。

影響を受けるのは、Next.jsのバージョン15.0.0から16.0.6、および特定のCanaryビルドです。React Server Componentsを採用している場合、他のフレームワークでもリスクが存在します。Vercelダッシュボードの警告や、ブラウザコンソールでの`next.version`実行により、現在利用中のバージョンを速やかに特定してください。

対策として、修正パッチが適用されたバージョンへのアップグレードが必須です。自動修復ツール`npx fix-react2shell-next`を利用するか、`package.json`を更新して再デプロイを行ってください。WAFによる遮断はあくまで緩和策であり、アプリケーション自体の更新以外に完全な保護手段はありません。

脆弱な状態で稼働していたシステムは、すでに侵害されているリスクを否定できません。フレームワークのアップデート完了後、APIキーやデータベース接続情報など、アプリケーションに関連するすべての環境変数(Secrets)をローテーションすることを強く推奨します。Vercel Agent等の自動検知機能も活用し、継続的な監視体制を維持してください。

Vercel、Rustランタイムの公式ベータ版を提供開始

Rust公式サポートの概要

Vercel FunctionsでRustを公式サポート
コミュニティ版からネイティブ機能へ進化
パブリックベータとして即日提供開始

導入のメリットと機能

ログや監視システムと自動統合を実現
HTTP応答のストリーミングに対応
環境変数制限を64KBへ大幅拡張
Active CPU課金でコスト最適化

Vercelは2025年12月8日、サーバーレス基盤「Vercel Functions」において、Rustランタイムのパブリックベータ版を提供開始しました。これまでコミュニティ主導だったサポートが公式化され、信頼性と機能性が大幅に向上しています。

このネイティブサポートへの移行により、開発者は「Fluid compute」の全機能を活用できます。具体的には、HTTPレスポンスのストリーミング送信が可能になるほか、Active CPU課金モデルによるコスト効率の改善が期待できます。

運用面の利便性も大きく向上しました。Rustでデプロイされた関数は、Vercelのログ、可観測性、監視システムと自動的に統合されます。また、環境変数の上限が6KBから64KBへと緩和され、より柔軟な構成が可能になりました。

導入もスムーズに行えるよう配慮されています。「Rust Hello World」などのスターターテンプレートが用意されており、Cargo.tomlとハンドラー関数を設定するだけで、即座に高性能なRustアプリケーションを構築できます。

Vercel、脆弱性対応を一元化する新ダッシュボードを公開

介入が必要な問題を即座に特定

重大な脆弱性を自動検出
影響あるプロジェクトを集約
バナー通知リスクを可視化

自動・手動の両面から修正を支援

AIエージェントによる自動修正
手動対応用のコマンド提示
調査コストの大幅な削減

Vercelは2025年12月8日、ユーザーの介入が必要なセキュリティ問題を一元管理できる「Unified security actions dashboard」を公開しました。WAF等で自動防御できない脆弱性が検出された際、影響範囲と対応策を即座に提示し、開発チームの迅速な意思決定と対処を支援します。

新機能は、未パッチの依存関係や保護されていないプレビュー環境など、アクションが必要な項目をプロジェクト単位で自動的にグループ化します。ダッシュボード上にバナーとして通知されるため、重大なリスクを見逃すことなく、優先順位をつけて対応にあたることが可能です。

具体的な修正手段もシームレスに提供されます。可能な場合はVercel Agentを通じてワンクリックでの自動修正やプルリクエスト作成が行えるほか、手動対応が必要なケースでも実行すべきコマンドが明示されるため、エンジニアの調査コストを大幅に削減できます。

このダッシュボードにより、複数のプロジェクトを抱えるチームでもセキュリティ体制を効率的に維持できます。自律的な防御システムと人間による判断が必要な領域を明確に分けることで、開発者はより本質的な開発業務に集中できるようになるでしょう。

Vercel、React2Shell脆弱性の自動修正を無償提供

自動修正機能の概要

脆弱なパッケージを自動検出
検証済みPRを自動作成
隔離環境での安全確認

脆弱性の深刻度と対象

React 19やNext.jsが影響
遠隔コード実行の危険性
直ちに対策が必要な緊急度

Vercelは2025年12月8日、React Server Componentsの深刻な脆弱性「React2Shell」に対応する自動修正機能の提供を開始しました。React 19やNext.jsを利用する全プロジェクトに対し、迅速なセキュリティ対策を無償で提供します。

本機能では、Vercel Agentが脆弱なパッケージを検知し、修正済みのプルリクエストを自動生成します。更新は隔離環境で検証され、プレビューリンクで安全性を確認できるため、開発者の負担を大幅に軽減します。

React2Shellは、攻撃者が意図しないコードを実行できる遠隔コード実行脆弱性です。該当バージョン使用時は即時更新が必要ですが、Vercelの自動化技術により、エンジニアは最小限の労力で重大なリスクを回避し、安全性を維持できます。

VercelがSaaS開発基盤「Vercel for Platforms」を発表

プラットフォーム構築を支援

SaaS開発向けVercel for Platforms
マルチテナントマルチプロジェクトに対応
単一コードで多数の顧客への提供が可能

UI部品で実装を効率化

専用UIライブラリPlatform Elementsを提供
ドメイン管理等のUI部品を即座に導入可能
shadcn/uiベースで即戦力の品質

顧客管理とインフラの分離

顧客ごとのビルド環境や設定を完全分離
SDKによるプログラム的な制御を実現

Vercelは2025年12月5日、SaaSやプラットフォームビジネスを効率的に構築するための新製品「Vercel for Platforms」を発表しました。これにより、エンジニアは複雑なインフラ構築の手間を大幅に削減し、顧客向けの価値提供に集中できるようになります。

提供形態として、単一コードで多数の顧客を管理する「Multi-Tenant」と、顧客ごとに環境を完全に分離する「Multi-Project」の2種類を用意しました。これにより、ビジネスモデルやセキュリティ要件に応じた柔軟なアーキテクチャ設計が可能です。

特にMulti-Tenantモードでは、ワイルドカードドメインやエッジでのルーティング、SSL証明書の自動管理を提供します。数千規模の顧客サイトを単一デプロイで効率的に管理でき、運用の複雑さを劇的に低減します。

Multi-Projectモードでは、顧客ごとに異なるフレームワークや環境変数を設定可能です。Vercel SDKを用いてプログラム的にプロジェクトを生成することで、高度な分離要件に対応しつつ、自動化されたプロビジョニングを実現します。

同時に発表された「Platform Elements」は、ドメイン設定やDNSレコード表示などの一般的なSaaS機能を、事前構築済みのUIコンポーネントとして提供するライブラリです。shadcn/uiベースで設計されています。

これにより、開発者は複雑なドメイン管理UIなどをゼロから作る必要がなくなります。CLIコマンド一つでプロダクション品質の機能を実装でき、開発スピードを飛躍的に向上させることができます。

今回の発表は、SaaS開発における「差別化につながらない重労働」を徹底的に排除するものです。エンジニア経営者は、より市場価値の高いコア機能の開発にリソースを集中させることが可能になるでしょう。

Vercel、OpenAI最新「GPT-5.1 Codex Max」対応

長時間開発に特化した進化

現実の開発タスクで学習
長時間の文脈維持が可能
従来より高速・高効率

導入と運用のメリット

統一APIで即座に利用
詳細なオブザーバビリティ
自動リトライで障害対策

Vercelは2025年12月5日、同社のAI GatewayにおいてOpenAIの最新モデル「GPT-5.1 Codex Max」が利用可能になったと発表しました。開発者は個別のプロバイダー契約を結ぶことなく、即座にこの強力なモデルをアプリケーションに統合できます。

特筆すべきは「Compaction」技術による最適化です。現実世界の開発タスクで学習されたこのモデルは、複数の文脈にまたがる長時間のコーディング作業でも、セッションを中断することなく推論と文脈を維持し続けることができます。

性能面でも進化を遂げており、従来のCodexモデルと比較して処理速度とトークン効率が向上しました。AI SDKでモデル名を指定するだけで利用でき、複雑なエンジニアリングタスクの自動化において威力を発揮します。

AI Gatewayを経由することで、開発者は単なるモデル利用にとどまらず、使用量やコストの追跡、自動リトライによる安定性向上といった恩恵を受けられます。企業レベルの信頼性が求められる開発現場にとって、強力な選択肢となるでしょう。

Vercel、ログ機能でリダイレクト経路を可視化

ログ機能のアップデート

リライト・リダイレクトをログ表示
全ユーザーが即時利用可能
ダッシュボードで直接確認

利用方法とメリット

Resourceメニューで絞り込み
転送先やステータスを可視化
複雑な経路設定のデバッグ

Vercelは2025年12月5日、ランタイムログ機能を強化し、リライトとリダイレクトの処理状況をダッシュボード上で確認できる機能を追加しました。この新機能は即日、すべてのVercelユーザーに対して提供が開始されています。

従来のログ画面では初期設定で除外されていたこれらのリクエストが、「Resource」ドロップダウンメニューから選択することで簡単に表示可能になります。アプリ内でのページ遷移やURL書き換えの挙動を、詳細に追跡できるようになりました。

具体的には、リライト時は転送先のパスが、リダイレクト時はステータスコードと移動先が明示されます。複雑なルーティング設定を行うプロジェクトにおいて、予期せぬ挙動の原因特定やデバッグ作業の生産性を高める重要な改善です。

Vercel、脆弱なNext.jsデプロイを強制ブロック

脆弱性対策でデプロイ制限

React2Shellへの防御措置
脆弱なバージョンのデプロイを遮断
v15〜16系の一部がブロック対象

多層防御と報奨金制度

WAFルールで攻撃パターンを遮断
HackerOneと連携し報奨金を開始
最大5万ドルの報酬を用意

推奨されるアクション

修正済み版への即時更新が不可欠
コンソール等でバージョン確認

Vercelは2025年12月5日、脆弱性「React2Shell」対策として、脆弱なNext.jsを含むアプリの新規デプロイをブロックする措置を開始しました。攻撃の活発化を受け、エンジニアやリーダーは直ちに対応が必要です。

今回の措置により、修正パッチが適用されていないNext.js(バージョン15.0.0から16.0.6)を使用するプロジェクトは、デプロイが自動的に失敗します。これはWAFによるフィルタリングに加え、根本的なリスク排除を目的とした強力な強制措置といえます。

経営者エンジニアが最優先すべきは、影響を受けるNext.jsを直ちに修正済みバージョンへアップグレードすることです。VercelはWAFルールで既知の攻撃を防御していますが、完全な保護を保証するものではなく、アップデートこそが唯一の恒久的な解決策となります。

またVercelは、セキュリティ企業のHackerOneと提携し、WAFの回避策を発見した場合に最大5万ドルを支払うバグ報奨金プログラムを開始しました。外部の研究者の知見を取り入れ、プラットフォーム全体の防御能力を継続的に強化する姿勢を打ち出しています。

ご自身のプロジェクトが影響を受けるか確認するには、ブラウザコンソールで`next.version`を実行するか、`package.json`を点検してください。Vercelの管理画面にも警告バナーが表示されるため、見逃さずに確実な対応を進めましょう。

Vercel、ドメイン管理をチーム単位へ移行必須化

管理体制変更の全容

ドメイン管理はチームレベルへ移行
アクセス権限と請求管理を一元化
アカウント単位の管理は廃止

既存ユーザーへの影響

現在の通信や更新に影響なし
設定変更時はチーム移行が必須
DNS記録などは移動後も維持

Vercelは2025年12月4日、ドメイン管理ポリシーを変更し、これまで個人アカウント単位で行えた管理機能を廃止しました。今後はチームレベルでの管理が必須となり、アクセス制御の簡素化や請求の一元化による効率化を図ります。

現在アカウントに紐づいているドメインは、これまで通りトラフィックを処理し、更新も自動で行われます。ただし、設定の変更を行う際には、対象ドメインをチームへ移行する必要があるため、エンジニアは運用フローの見直しが必要です。

管理画面でアカウントレベルのドメインを表示すると、移行先のチーム選択が促されます。移行後もプロジェクトドメインやDNSレコード、エイリアス設定は維持される設計となっており、開発者スムーズに新管理体制へ適応できます。

Vercel、AI生成Markdownの表示崩れを防ぐRemend公開

AI出力の表示崩れを解消

生成途中の不完全な構文を自動検知
リアルタイムで閉じタグを補完
レイアウト崩れを防ぎUX向上

手軽な導入と高い信頼性

npmパッケージとして単独利用可能
既存レンダラーの前処理として機能
複雑なエッジケースにも対応済み

Vercelは12月3日、AIによるストリーミング生成時のMarkdown表示崩れを自動修復するnpmパッケージ「Remend」を公開しました。トークン単位で生成されるAI出力が不完全でも、リアルタイムで構文を補完し、ユーザー体験を損なわない安定した表示を実現します。

AIモデルはテキストを少しずつ生成するため、太字やリンク、コードブロックなどの構文が「閉じられない」状態で画面に表示される瞬間があります。これによりレイアウトが崩れたり、生の記号が露出したりして、アプリケーションの完成度を下げてしまうのが課題でした。

Remendはこの問題を解決するツールです。入力された不完全なMarkdownを解析し、閉じられていないタグやブロックを自動的に検知して補完します。ストリームが進行し正式な閉じタグが到着するとシームレスに更新されるため、読み手には常に整った表示が提供されます。

本ライブラリは、もともと「Streamdown」の一部だった機能を独立させたものです。npm i remendでインストールでき、あらゆるMarkdownレンダラーの前処理として組み込めます。数式や複雑なネスト構造といったエッジケースにも対応しており、実戦での信頼性も確保されています。

ReactとNext.jsに重大な脆弱性、リモートコード実行の恐れ

影響範囲とリスク

React 19とNext.jsに及ぶ影響
リモートコード実行の危険性
不正な入力処理で意図せぬ動作

解決策と対応

VercelはWAFで自動防御済み
全環境でパッチ適用版へ更新必須
Reactは19.0.1以降へ更新
Next.jsは15.0.5以降へ

2025年12月3日、React Server Componentsに重大な脆弱性が公表されました。Next.jsを含む主要フレームワークに影響し、最悪の場合リモートコード実行(RCE)に至る危険性があります。エンジニアは即時の確認が必要です。

対象はReact 19系のサーバーコンポーネント機能を使用する環境で、Next.jsのバージョン15や16も含まれます。信頼できない入力を処理する際、攻撃者に任意のコードを実行される可能性があるため、早急な対策が求められます。

解決策として、React 19.0.1やNext.js 15.0.5などの修正版への更新を行ってください。VercelユーザーはWAFで一時的に保護されていますが、セキュリティを確実にするため、ホスティング環境に関わらずアップデートを推奨します。

Vercel、AIによる分析ツールの自動実装機能を公開

AIによる自動実装の仕組み

Web Analytics等の導入に対応
AIが設定からPR作成まで完遂

導入手順とメリット

ダッシュボードで機能を有効化
生成されたコードを確認しマージ
初期設定の工数を大幅削減
全チーム対象のパブリックベータ

Vercelは2025年12月2日、AIを活用して開発プロセスを支援する「Vercel Agent」の新機能を発表しました。Webサイトのパフォーマンス分析に必要な「Web Analytics」や「Speed Insights」の導入を、AIが自動で完遂します。これによりエンジニアの作業負担を大幅に削減し、開発全体の生産性を向上させることが可能です。

この機能では、AIがプロジェクトの構成を解析し、必要なパッケージのインストールからコード記述までを担います。最終的に変更内容をまとめたプルリクエスト(PR)を自動生成するため、開発者はゼロから設定を行う必要がなくなります。

利用手順は極めて簡潔です。Vercelのダッシュボードから機能を有効化し、ボタンを押すだけでAgentが起動します。あとは自動生成されたPRをレビューしてマージするだけで、即座にトラッキングを開始できます。

本機能は現在、パブリックベータとしてすべてのチーム向けに開放されています。煩雑な初期設定をAIに任せることで、開発チームはより創造的な業務やユーザー体験の改善にリソースを集中できるようになるでしょう。

VercelがPythonコア開発者獲得 AIクラウド基盤を強化

Python開発体制の強化

Gel Dataチームを買収Python人材を強化
AIクラウド構築に向けPython対応を拡充

有力開発者の参画

uvloop開発者Yury氏らがVercelに参加
JS/TSに加えPythonデプロイも高速化

OSSコミュニティ支援

PSFのスポンサーとなりコミュニティを支援
コアメンテナーへの資金提供を実施
Gel Dataは終了しDB市場には参入せず

Vercelは2025年12月2日、Gel Dataチームの買収を発表しました。Pythonコア開発者のYury Selivanov氏らを迎え入れ、Pythonエコシステムへの投資とAIクラウド機能の強化を加速させます。

今回の買収はデータベース市場への参入ではなく、Pythonの専門知識を取り込むことが目的です。AI開発の標準言語であるPythonのサポートを強化し、VercelをJavaScriptだけでなくAI時代のインフラへと進化させます。

参加するYury氏は、高速イベントループuvloopやPostgreSQLライブラリasyncpgの作成者として知られます。彼らの知見を活かし、Vercel上でのPythonデプロイをJavaScript同様に高速かつ簡潔なものにします。

また、VercelはPython Software Foundationのスポンサーとなり、OSSコミュニティへの貢献を約束しています。コアメンテナーへの資金提供やカンファレンス支援を通じ、エコシステム全体の発展を後押しします。

Vercel上でAWSデータベースが即時利用可能に

AWSとの提携拡大

12月15日よりMarketplaceで提供
AuroraやDynamoDBが対象
ダッシュボードから直接構築が可能

開発スピードの加速

環境変数や認証情報を自動管理
インフラ設定不要で開発に集中
数分で本番環境への展開を実現

生成AI「v0」との連携

要件定義だけでDBを自動生成
スキーマ作成からデータ投入まで完結

VercelAWSとの提携を強化し、2025年12月15日よりVercel MarketplaceにてAWSの主要データベースサービスを提供開始します。これにより、開発者インフラの複雑な設定を行うことなく、迅速にスケーラブルなアプリを構築できるようになります。

対象となるのはAurora PostgreSQL、Amazon DynamoDB、Aurora DSQLの3種です。Vercelのダッシュボードからワンクリックでデータベースを作成でき、面倒な接続設定や環境変数の管理はプラットフォームが自動的に行います。

生成AIツール「v0」との連携も目玉の一つです。自然言語でアプリを記述するだけで、v0が最適なAWSデータベースを自動的にプロビジョニングし、スキーマ設計や初期データの投入まで完了させるため、即座に開発に着手できます。

新規AWSユーザーには100ドルのクレジット付きの無料プランも用意されます。Vercelが掲げる「自動運転インフラ」のビジョンに基づき、世界クラスのAWSインフラを摩擦なく利用できる環境が整いました。

Vercel、ログ表示速度を最大6倍へ大幅高速化

表示速度とライブモードの刷新

ダッシュボード表示が最大6倍高速化
実行後5秒以内に90%を表示
ライブモードの応答性が向上

検索・フィルタリングの効率化

クエリ処理が最大30%高速化
80%の集計が1秒未満で完了
必要な情報へ即座にアクセス

Vercelは2025年12月1日、ログインフラの刷新により、ダッシュボード上のランタイムログ表示速度を最大6倍に高速化したと発表しました。これにより、エンジニアはアプリケーションの状況をよりリアルタイムに把握できるようになります。

具体的には、ログ実行から5秒以内に90%のエントリーが表示されるよう改善されました。このパフォーマンス向上により、特に「ライブモード」利用時の応答性が劇的に高まり、開発やデバッグ時のストレスが大幅に軽減されます。

また、ログのフィルタリングやクエリ処理も最大30%高速化されました。フィルター集計の80%が1秒未満で完了するため、障害調査時に必要な情報を素早く特定でき、エンジニア生産性と市場価値の向上に寄与します。

Vercel認証が一般提供開始、アプリへのログイン実装を簡素化

開発者の負担を大幅軽減

Vercelアカウントでログイン可能
ユーザー管理の自前構築が不要
ダッシュボードで簡単設定

標準技術で安全に連携

OAuth/OpenIDに準拠
ユーザー情報のセキュアな取得
トークン活用でAPI連携も容易

Vercelは11月26日、認証機能「Sign in with Vercel」の一般提供を開始しました。開発者は自作アプリに対し、Vercelアカウントを使用した安全なログイン機能を、追加の管理コストなしで即座に組み込めるようになります。

本機能の導入により、複雑な認証基盤やユーザー管理システムを自前で構築する必要がなくなります。ダッシュボード上でアプリを作成し、必要な権限範囲を設定するだけで済むため、本質的な機能開発に集中でき、開発効率が劇的に向上します。

技術的には業界標準のOAuth 2.0およびOpenID Connectに準拠しており、セキュリティ面も安心です。ユーザーの名前やメール情報の取得に加え、Vercelのリソースを操作するためのトークン発行もサポートしています。

GitHub上でサンプルアプリも公開されており、エンジニアはすぐに実装を開始できます。Vercelエコシステムを活用した周辺ツールの開発が加速し、開発者向け市場における新たなビジネス機会の創出にも繋がるでしょう。

106BモデルIntellect-3がVercelで即時利用可能に

高性能MoEモデルの特徴

106BパラメータのMoEモデル
数学やコード生成でSOTA達成
GLM 4.5 Airをベースに強化

手軽な実装と運用管理

他社契約不要で即座に導入可能
AI SDKでの記述はモデル名のみ
Gatewayによる統合管理に対応

Vercelは2025年11月26日、開発者向け基盤「AI Gateway」にて、Prime Intellect AIの最新モデルIntellect-3」の提供を開始しました。エンジニアは追加のプロバイダー契約を結ぶことなく、高度な推論能力を持つAIモデルを即座にアプリケーションへ統合できます。

Intellect-3は、GLM 4.5 Airを基盤とした106BパラメータのMoEモデルです。SFT(教師あり微調整)と強化学習による調整を経て、数学コーディング、科学的推論ベンチマークにおいて、同規模のモデルの中で最高水準の性能(SOTA)を記録しています。

実装はVercel AI SDKでモデル名を指定するのみで完結するため、非常にスムーズです。AI Gatewayの機能を活用することで、使用量やコストの追跡、障害時の自動リトライといった堅牢な運用環境も同時に手に入り、AI開発と運用の生産性が大幅に向上します。

VercelがNode.js 24に対応、最新エンジンで高速化

設定変更で即座に利用可能

ビルドと関数でNode.js 24が利用可能に
新規プロジェクトではデフォルトバージョンとして適用
プロジェクト設定から24.xを選択するだけ

V8更新と標準APIの強化

V8エンジン 13.6搭載で処理性能が向上
URLPattern APIでルーティングが簡素化
Undici v7によりFetch APIがさらに高速化
npm v11同梱でパッケージ管理も最新化

Vercelは2025年11月25日、同社のビルドおよびサーバーレス関数において、Node.js 24 LTSの一般提供を開始しました。最新のV8エンジンによるパフォーマンス向上や標準APIの強化により、開発者生産性とアプリケーションの実行速度を同時に高めます。

新規作成するプロジェクトでは、自動的にバージョン24.xがデフォルトとして適用されます。既存プロジェクトの場合も、管理画面の「Project Settings」内にある「Node.js Version」から24.xを選択するだけで、即座に最新環境への移行が可能です。

最大のハイライトは、V8 JavaScriptエンジンのバージョン13.6へのアップグレードです。これにより基礎的な実行速度が底上げされるほか、Float16Arrayなどの新機能が利用可能となり、データ処理やAI関連タスクにおけるメモリ効率の向上が期待できます。

Web標準への準拠も強化されました。グローバルなURLPattern APIの導入により、複雑な正規表現なしでURLマッチングが可能になります。また、HTTP/2やHTTP/3のサポートを改善したUndici v7により、Fetch APIの通信性能も大幅に向上しています。

Vercel Domainsが.toなど4つの新TLDに対応開始

新規サポート対象のTLD

.fast、.you、.talk、.toの4種
テック業界で人気の.toも利用可能
プロジェクトのブランディングを強化

Vercelでの一元管理

ダッシュボードから直接購入が可能
他社からのドメイン移管にも対応
デプロイ環境との統合が容易

Vercelは2025年11月25日、ドメイン管理サービス「Vercel Domains」において、新たに.fast.you.talk.toの4つのTLD(トップレベルドメイン)の取り扱いを開始しました。

これにより、エンジニアや企業はVercelの公式サイトからこれらのドメインを直接購入できるようになりました。特に「.to」はURL短縮や言葉遊びに使いやすく、テック業界での人気が高いドメインです。

すでに他社で取得している場合でも、Vercelプラットフォームへの移管が可能です。プロジェクトのデプロイメントとドメイン管理を統合することで、開発ワークフローの効率化と生産性向上が期待できます。

Vercelが自動化基盤を自作できるOSSツールを公開

独自の自動化基盤を構築

Next.js製のオープンソース
直感的なビジュアルエディタ搭載
自然言語からAIが自動生成

AIとコード生成で拡張

Slack等の主要ツールと統合済み
実行可能なTypeScriptへ変換
自社製品への組み込みも容易

Vercelは、独自のワークフロー自動化プラットフォームを構築できるオープンソーステンプレート「Workflow Builder」を公開しました。Next.jsをベースとし、企業は自社専用の自動化ツールやAIエージェントを迅速に開発・展開することが可能です。

最大の特徴は、ドラッグ&ドロップで操作できるビジュアルエディタと、自然言語の指示からワークフローを生成するAI機能です。SlackやPostgreSQLなど6つの統合モジュールが標準装備されており、即座に実用的な自動化プロセスを構築できます。

作成されたワークフローは「Workflow Development Kit」により、実行可能なTypeScriptコードに変換されます。開発者は複雑なステート管理やエラー処理の実装から解放され、ビジネスロジックの構築に集中できる点が大きなメリットです。

本ツールは社内業務の効率化に加え、自社SaaS製品にZapierのような連携機能を組み込む基盤としても最適です。AIエージェントによる自律的なタスク実行やデータ処理パイプラインなど、エンジニア生産性を高める多様な用途に対応します。

Vercel、Firewall刷新。高度な可視性と制御で防御強化

直感的なセキュリティ運用

複雑さを排除し開発速度を維持
全ユーザー向けの使いやすい設計
脅威を即座に特定し迅速に対応

機能強化のポイント

状況を一元管理するOverview
詳細分析が可能なTraffic
設定を集約したRulesタブ
画面遷移不要の高速イベント検査

Vercelは2025年11月、Firewall機能のユーザー体験を全面的に刷新したと発表しました。開発者やSREを対象に、セキュリティ可視性と制御性を大幅に強化。「使いやすさこそセキュリティ」という理念の下、開発速度を犠牲にせず堅牢な防御を実現します。

新たな「Overview」ページは、セキュリティ状況を俯瞰する管制塔です。直近のDDoS攻撃やルール適用状況、ブロックされたIPなどの重要指標を一画面に集約。異常検知から対応までの時間を短縮し、高解像度な監視を可能にしました。

トラフィック分析機能も進化しました。「Traffic」ページでは、トップIPやAS名、User Agentごとの詳細なフィルタリングが可能です。これにより、攻撃の予兆や異常なパターンを早期に発見し、プロアクティブな対策を講じることができます。

運用効率を高めるため、WAFルールやBot保護機能は専用の「Rules」タブに統合されました。また、アラートをクリックするとページ遷移なしで詳細が表示される設計に変更。コンテキストスイッチを最小限に抑え、エンジニアの負荷を軽減します。

Vercelがnpm攻撃「Shai-Hulud 2.0」への対応策を発表

攻撃手法と被害の実態

複数のnpmパッケージが侵害
開発者アカウントの乗っ取り
Bunランタイムを標的化
悪意あるスクリプトの隠密実行

Vercelの対応状況

Vercel環境への影響はなし
影響顧客への個別連絡を実施
対象プロジェクトのキャッシュリセット
実行有無の調査を継続中

Vercelは2025年11月24日、複数のnpmパッケージを標的としたサプライチェーン攻撃「Shai-Hulud 2.0」への対応を公表しました。同社環境への直接的な影響はないものの、脆弱なパッケージを利用した顧客ビルドが一部確認されています。Vercelは影響を受けた顧客へ個別に連絡し、被害拡大を防ぐための措置を講じました。

今回の攻撃は、開発者のアカウント乗っ取りを通じて行われました。攻撃者は正規のnpmパッケージ内の`package.json`にステルス性の高いローダーを混入させ、Bunランタイムを検出して悪意あるスクリプトを密かに実行する仕組みを構築していました。これにより、開発者のビルド環境が危険にさらされる可能性があります。

Vercelは顧客の安全を最優先し、即時の対応策を実施しました。具体的には、脆弱なパッケージを取り込んだプロジェクトのキャッシュをリセットし、ローダーが実際に実行されたかどうかの詳細な調査を継続しています。影響が懸念されるビルドを持つ顧客には、詳細な緩和策が直接案内されています。

Vercel流React Native開発:v0 iOSの技術的挑戦と全貌

ネイティブ品質と技術選定

React NativeとExpoで開発効率を最大化
Apple Design Award級の品質を追求

AIチャットUIの極致

Reanimatedで滑らかな表示を実現
キーボード開閉時のスクロール挙動を制御
動的なコンテンツサイズに即座に対応

共有戦略とOSS貢献

Webと型定義を共有しUIは個別最適化
OpenAPIで型安全な通信環境を構築
バグ修正をReact Native本体へ還元

Vercelが初のモバイルアプリ「v0 for iOS」をリリースしました。React NativeとExpoを駆使し、Apple純正アプリに匹敵するネイティブ品質を実現しています。本記事では、AIチャット特有の複雑なUI課題をどう解決し、Web主体の企業が高品質なモバイルアプリを構築したのか、その技術的裏側を解説します。

開発の目標は、Apple Design Awardに値する最高品質のアプリ構築でした。Web技術に精通した同社は、数週間の実験を経てReact NativeとExpoを選定。Appleの標準アプリのような自然な操作感を目指し、iMessageなどを参考にしながら、細部に至るまでネイティブらしい挙動を追求しました。

チャット体験の核となるのは、メッセージ表示の滑らかさです。React Native Reanimatedを駆使し、送信時のフェードインやAI回答のストリーミング表示を実装。動的に高さが変わるメッセージ要素に対しても、計算されたアニメーションを適用することで、心地よい対話フローを作り上げました。

モバイルチャット開発で最も困難なのがキーボード制御です。iOSの更新による挙動変化に対応するため、独自のフックuseKeyboardAwareMessageListを開発しました。メッセージの高さやキーボードの位置関係を精密に計算し、コンテンツが隠れることなくスムーズにスクロールされる仕組みを構築しています。

Web版とのコード共有においては、UIや状態管理を分離し、型定義やヘルパー関数のみを共有する戦略を採りました。ZodとOpenAPIを活用してバックエンドAPIの型安全性を確保し、モバイル側でクライアントコードを自動生成することで、開発効率と堅牢性を両立させています。

開発過程で直面したReact NativeやiOSのバグに対しては、単にパッチを当てるだけでなく、本家リポジトリへの修正提供も行いました。CallstackやMetaエンジニアと連携し、エコシステム全体の改善に貢献する姿勢は、技術リーダーとして参考になるアプローチです。

Streamdown 1.6公開 高速化とコード軽量化を実現

処理速度とコアの刷新

メモ化とキャッシュで処理を高速化
正規表現削除により効率向上
独自レンダラー採用でコアを軽量化

機能強化と柔軟性向上

コンポーネントの遅延読み込み対応
ブログ向きの静的モードを追加
図解ツールの操作性と機能を拡充

Vercelは2025年11月24日、マークダウン描画ライブラリ「Streamdown 1.6」を公開しました。パフォーマンスの大幅な向上とバンドルサイズの削減を実現し、開発者生産性とアプリケーションの実行速度を高める狙いです。

今回のアップデートでは、メモ化やLRUキャッシュの導入、正規表現の廃止により処理を高速化しました。また、従来のReact Markdownを独自のレンダラーに置き換えることで、コア部分の軽量化に成功しています。

機能面では、Code Blocksや数式コンポーネントの遅延読み込みに対応しました。必要なタイミングでのみコードを読み込むことで、初期表示の負荷を軽減し、ユーザー体験をスムーズにします。

新たに「Static Mode」が追加され、ストリーミングを必要としないブログ等の用途に最適化されました。このモードはストリーミングのオーバーヘッドを排除し、静的なコンテンツを効率的に描画することが可能です。

作図ツールMermaidの機能も強化され、SVGやPNG形式でのエクスポートが可能になりました。フルスクリーン表示時のズームやパン操作にも対応し、ドキュメント作成における視認性と操作性が向上しています。

Vercel、ログ転送のサンプリング強化でコスト管理を緻密化

環境ごとの柔軟な制御

環境やパス単位でサンプリング設定
ログとトレースの柔軟な制御
詳細な粒度で管理可能

コスト最適化と対象

不要なデータ転送を削減
外部監視ツールのコスト最適化
ProおよびEnterpriseが対象

Vercelは2025年11月24日、ログ転送機能「Vercel Drains」において、高度なサンプリングルールを設定可能にしたと発表しました。外部の可観測性ツールへデータをエクスポートする際、転送量をより細かく制御できるようになります。

今回の機能強化により、特定の環境やパスの接頭辞に基づいてサンプリングレートを個別に指定できます。すべてのログを一律に送るのではなく、重要度の高い箇所だけを重点的に取得するといった柔軟な運用が実現します。

これにより、サードパーティ製ツールへ送信するデータ総量を抑制し、コスト管理を徹底することが可能です。必要な情報を見逃すことなく、従量課金となる監視サービスの費用を最適化できる点が大きなメリットです。

本機能はProおよびEnterpriseチーム向けに提供されており、ログまたはトレースのエクスポート設定からすぐに利用可能です。可観測性の向上とコスト効率の両立を目指す開発チームにとって、見逃せないアップデートです。

Vercel CLI新機能、コマンド一発で管理画面へ

新コマンドの概要

vercel openコマンド追加
ターミナルから即座に遷移
ブラウザ操作の手間を削減

利用条件と更新

CLI版数48.10.0以上
npmで簡単に更新可能
開発フローの効率化

Vercelは2025年11月24日、CLIツールに新コマンド「vercel open」を追加しました。これにより、エンジニアは開発中のプロジェクトに関連するダッシュボードを、ターミナルから直接ブラウザで開くことが可能になります。

利用にはVercel CLIをバージョン48.10.0以降に更新する必要があります。「npm i -g vercel」を実行するだけで準備は完了。手動でブラウザを立ち上げ、プロジェクトを探す手間が不要になります。

この機能は、日々の開発業務における微細なコンテキストスイッチを減らすものです。コマンドライン中心に作業するエンジニアにとって、生産性を高める地味ながら強力な改善と言えるでしょう。

VercelとConvex連携、バックエンド構築を完全自動化

開発環境の統合が加速

Vercel MarketplaceにConvex追加
ダッシュボードから直接連携可能
面倒な手動設定が一切不要

運用と機能の最適化

アカウントと請求を一元化
高度なデータ同期とキャッシュ
数クリックで開発環境が完成

Vercelは2025年11月、バックエンドプラットフォームConvexをMarketplaceに追加しました。これにより、開発者Vercelダッシュボードから直接、リアルタイムバックエンドを備えたプロジェクトを数クリックで構築可能となります。

今回の統合最大の特徴は、手動セットアップの排除です。従来必要だった複雑な構成作業が不要となり、完全に設定済みのバックエンド環境を即座に入手できるため、エンジニアインフラ構築ではなくサービス開発に集中できます。

機能面では、リアルタイムデータ同期や強力なキャッシュ機能、データ整合性が標準で提供されます。Vercelの既存ワークフローとConvexのデータモデルがシームレスに連携し、アプリケーションのパフォーマンスを高めます。

運用面でも大きなメリットがあります。アカウント管理や請求処理Vercel上で一元化されるため、管理コストの削減が期待できます。迅速な市場投入を目指す開発チームにとって、強力なインフラ基盤となるでしょう。

Vercel、署名付きコミット必須化でデプロイ保護強化

デプロイ時のセキュリティ強化

GitHub連携でコミット署名を検証
暗号化署名未済ならデプロイ阻止
なりすましや改ざんリスクを低減

簡単な導入と高い効果

プロジェクト設定から即座に有効化
開発プロセスの信頼性を担保
コンプライアンス要件にも対応

Vercelは2025年11月24日、GitHub連携プロジェクトにおいて暗号化された署名付きコミットデプロイの必須条件にする機能を導入しました。これにより、検証されていないコミットが含まれるビルドを自動的に阻止することが可能になります。

この機能は、開発者なりすましやコード改ざんによるセキュリティリスクを大幅に低減するものです。GitHub上で正しく署名検証がなされていないコミットはデプロイパイプラインに乗らず、本番環境への不正コード混入を未然に防ぎます。

設定はプロジェクト管理画面のGit設定から容易に有効化できます。開発組織のリーダーやエンジニアにとって、サプライチェーンセキュリティを強化し、より堅牢なデリバリーフローを構築するための重要な一手となるでしょう。

Vercel、AIによる「自動運転インフラ」構想を発表

AIによる自律的な監視と対応

Vercel Agentが異常検知と分析を自動化
攻撃かアクセス増かを識別し対策を提案
デプロイ前にバグや脆弱性を早期発見

本番データでコードを進化

運用データから改善PRを自動生成
キャッシュや性能を継続的に最適化
Observability Plusに調査機能を統合

Vercelは2025年11月21日、AIがインフラ運用を自律的に行う「自動運転インフラ」構想を発表しました。開発者インフラ設定ではなくコードの意図に集中できる環境を目指し、AIエージェントVercel Agent」による監視・修正機能の提供を開始します。

中核となる「Vercel Agent」は、システムの健全性を常時監視し、異常発生時にはログ分析から根本原因の特定までを自動で行います。アクセス急増が正当なものか攻撃かを判別するほか、デプロイ前のコードを検証し、バグやセキュリティリスクを未然に防ぎます。

特筆すべきは、本番環境のデータをもとにコード自体を改善するフィードバックループです。実際のユーザー利用状況やパフォーマンスデータを分析し、安定性や処理速度を向上させるための修正コード(プルリクエスト)をエージェントが自動で提案します。

今回の更新により、有償プランの「Observability Plus」には、追加費用なしで月10回までの自動調査機能が含まれました。現在は人間の承認が必要な「副操縦士」的な立ち位置ですが、将来的には完全な自律運用への移行を見据えています。

Vercel、画像キャッシュ更新を効率化。遅延ゼロで再検証

ソース画像単位で一括更新

ソース画像指定で派生キャッシュを無効化
バックグラウンドで再検証を実行
ユーザーへの表示遅延を回避

安全な運用を支える仕組み

完全削除より無効化を推奨
オリジン停止時のダウンタイム防止
画像最適化プランで全利用可能

Vercelは2025年11月20日、CDN上の画像キャッシュを効率的に管理する新機能を追加しました。元となるソース画像を指定するだけで、そこから生成された異なるサイズや形式のすべての最適化画像を、一括で無効化(Invalidate)できるようになりました。

この機能の最大の特徴は、ユーザー体験を損なわない点です。キャッシュを即座に消去するのではなく、一旦「古い」とマークし、次のアクセス時にバックグラウンドで再検証を行います。これにより、画像の再生成を待つ間の表示遅延(レイテンシ)を完全に防ぐことができます。

従来の「キャッシュ削除」は、オリジンサーバーへの負荷増や、再生成中の待機時間発生というリスクがありました。Vercelはより安全な運用として今回の無効化機能を推奨しており、新しい画像最適化価格プランを利用するすべてのプランで即座に利用可能です。

VercelでxAI最新モデルGrok 4.1が利用可能に

xAI最新モデルの統合

Grok 4.1 Fast2種を追加
他社契約不要で即時利用可能
200万トークンの文脈に対応

用途に合わせた選択

推論重視のReasoning版
速度特化のNon-Reasoning版
エージェントツール呼出に最適

開発基盤としての強み

統一APIによる容易な実装
自動リトライや障害対策を完備

Vercelは2025年11月20日、同社のAI GatewayにおいてxAIの最新モデル「Grok 4.1 Fast」シリーズの提供を開始しました。開発者は追加のプロバイダー契約を結ぶことなく、エージェント開発に特化した高性能AIモデルを即座にアプリへ組み込めます。

今回追加されたのは、複雑な構造化推論に強い「Reasoning」と、処理速度を最優先した「Non-Reasoning」の2モデルです。いずれも200万トークンという広大なコンテキストウィンドウを備え、高度なツール操作や文脈理解を実現します。

Vercel AI SDKを用いれば、モデル名を指定するだけで実装が完了します。AI Gatewayは統一APIとして機能するため、複数のAIモデルを横断した管理や切り替えが容易になり、開発者生産性を大幅に向上させます。

さらに、AI Gatewayは自動リトライやフェイルオーバー機能を標準装備しており、プロバイダー側の障害時にもサービスの安定稼働を維持します。コスト管理や可観測性も確保されており、ビジネス用途で求められる高い信頼性を提供します。

Vercel Firewall分析刷新、脅威可視化と調査を効率化

セキュリティ監視の統合

分析UI刷新で監視・分析を効率化
セキュリティイベントを一元管理可能に
DDoSやルール活動を統合ビューで表示

詳細分析とUX向上

トラフィックの詳細ドリルダウンが可能
上位ソースやアクション別でフィルタリング
カスタムルール作成のUXを簡素化

Vercelは、Vercel Firewallのユーザーインターフェースを刷新し、分析体験を大幅に向上させたと発表しました。これにより、アプリケーションのセキュリティ監視と分析が簡素化され、すべてのセキュリティイベントを一箇所で効率的に調査できるようになります。

更新されたOverviewページでは、DDoS攻撃やシステムルール、IPブロックなどのアクティビティを統合ビューで確認可能です。セキュリティ状況の全体像を即座に把握し、脅威への迅速な意思決定を支援するよう設計されています。

新設されたTrafficページでは、IPアドレスやJA4ダイジェストといった上位ソースへの詳細なドリルダウンが可能です。許可や拒否といったアクションごとのフィルタリングも容易になり、インシデントの深掘り調査を強力にサポートします。

さらに、カスタムルールやクエリ作成のUXも簡素化され、摩擦のない分析とアクションが可能になりました。エンジニアはより直感的に防御設定を行えるようになり、セキュリティ運用の生産性が向上します。

Vercel、脱ベンダーロックインで開発者の自由を担保

脱ベンダーロックイン戦略

特定クラウドへの依存を回避
Vercelではなくフレームワークに準拠
コードのポータビリティを最大化

FDIがもたらす可搬性

Next.jsアプリの7割Vercel
ローカル開発は標準ツールで完結
主要クラウドがNext.jsをサポート

標準技術の積極採用

DBは標準プロトコル採用
AI GatewayはOpenAI API互換

Webフロントエンド開発プラットフォームを提供するVercelは11月10日、ベンダーロックインを回避する「アンチ・ベンダーロックイン・クラウド」としての戦略を公式ブログで発表しました。開発者が特定のクラウド事業者に縛られることなく、コードのポータビリティ(可搬性)を最大限に確保できる「Framework-Defined Infrastructure (FDI)」という概念を提唱し、技術選択の自由度を高める狙いです。

ベンダーロックインとは、AWS LambdaやCloudflare Workersのような特定ベンダー独自のサービスに依存することで、他プラットフォームへの移行が困難になる状態を指します。Vercelはこれに対し、開発者Vercel独自のAPIではなく、Next.jsなどのフレームワーク規約に準拠してコードを書けば、必要なインフラが自動構築されるFDIのアプローチを推進します。

このアプローチの大きな利点は、開発体験の向上です。ローカルでの開発時に、ベンダー固有の複雑なシミュレーターは必要ありません。Next.jsであれば「next dev」といった標準的な開発サーバーをそのまま利用でき、ローカル環境と本番環境の差異を最小限に抑えられます。これにより、開発の生産性が大きく向上します。

Vercelの主張を裏付けるように、同社が開発を主導するNext.jsのアプリケーションの約70%がVercel以外の環境で稼働しているというデータも公開されました。WalmartやNikeといった大企業も自社インフラ上でNext.jsを大規模に運用しており、そのポータビリティの高さが実証されています。

さらにVercelは、エコシステム全体のオープン性を担保するため、Next.jsとプラットフォーム間の連携仕様を「Build Adapters」APIとして標準化しています。これにより、NetlifyやAWS Amplifyといった競合プラットフォームもVercelと対等な条件でNext.jsをサポートでき、健全な競争環境を促進します。

Vercelの哲学は、データベースやAIサービスにも一貫しています。データベース接続にはPostgresやRedisといった標準プロトコルを、AI GatewayにはOpenAI API互換のインターフェースを採用。これにより、開発者業界標準のツールを自由に組み合わせ、最適なシステムを構築できます。

Vercelは、オープンな技術とポータビリティを確保することで開発者の信頼を獲得し、エコシステム全体を拡大させることが自社の持続的な成長につながると考えています。ユーザーに「縛られるからではなく、選びたいから」使われ続けるプラットフォームを目指す姿勢を明確にしました。

AI不正利用、Vercelの新技術が3000%増の攻撃を阻止

LLM無料提供の落とし穴

LLM無料提供でボットが殺到
Captchaを突破し大量アカウント作成
推論コストと請求額が急増

Vercel BotIDによる防御

見えないCaptchaでUXを維持
ログインとチャットの多層防御
3000%増の組織的攻撃を阻止
推論リソースと可用性を確保

AI研究所Nous Researchが、自社のLLMサービスを狙った大規模な自動化攻撃を、Vercelのボット対策技術「BotID」を導入することで阻止しました。無料提供枠の再開時に発生したこの攻撃はトラフィックを3000%急増させましたが、サービスへの影響を未然に防ぎ、AIインフラの安全性を確保する貴重な事例となっています。

同社は以前、オープンソースLLM「Hermes」の無料提供中にボット攻撃の標的となりました。既存のCaptchaを突破したスクリプトが数千の偽アカウントを作成し、大量の推論リクエストを実行。これにより、計算リソースが無駄に消費され、IDプロバイダーへの請求額が膨れ上がる事態に陥っていました。

この問題に対処するため、Nous ResearchはVercelの高度なボット対策「BotID Deep Analysis」を採用しました。これは、ユーザー体験を妨げることなく人間とボットを正確に識別する「見えないCaptcha」として機能します。セキュリティと利便性の両立が採用の決め手となりました。

対策は、ユーザーのサインアップ・ログイン時と、チャット利用中の両方にBotIDを配置する多層防御体制で構築されました。これにより、不正アクセスの初期段階だけでなく、サービス利用中の不審な挙動も継続的に監視し、APIを直接悪用するような巧妙な攻撃も防ぐことが可能になりました。

BotID導入後に無料枠を再開したところ、数日内にトラフィックが3000%急増する組織的攻撃が発生。しかし、BotIDがこれを自動で検知・ブロックしました。攻撃者は推論を実行できないと悟り、約2時間で攻撃を断念。この間、正規ユーザーのサービス利用やパフォーマンスには全く影響がありませんでした。

この事例は、AIサービスを提供する企業にとってボット対策の重要性を示唆しています。VercelのBotIDのような高度な行動分析ツールは、インフラコストの浪費を防ぎ、サービスの可用性と信頼性を維持するために不可欠です。Nous Researchは今後も安全に無料LLMを提供し続けることができるでしょう。

Vercel、Edge Configを柔軟な従量課金制に

料金体系の変更点

パッケージ制からユニット単位へ変更
ProプランのEdge Configが対象
実質的な料金レートは不変

新料金体系のメリット

使用量に応じたコストの透明化
チーム規模に合わせた柔軟な拡張性
無料利用枠の効率的な活用が可能に

Web開発プラットフォームのVercelは、Proプランで提供する「Edge Config」の料金体系を、従来のパッケージベースからユニット単位の従量課金制に変更したと発表しました。この変更は、ユーザーの実際の使用量とコストを直接連動させ、透明性を高めることが目的です。

新料金は読み取りが1回0.000003ドル、書き込みが1回0.01ドルです。これは従来のパッケージ料金と実質的に同等のレートであり、価格水準は維持されます。課金単位を細分化することで、より利用実態に即した請求が可能になりました。

この変更により、多様なチーム規模や利用パターンに柔軟に対応し、スムーズなスケーリングが可能になります。また、Proプランの無料利用クレジットをすぐに消費してしまう事態を防ぎ、開発者はコストを気にせず機能を試しやすくなります。

Vercelは、今回の変更がユーザーのコスト管理最適化に繋がるとしています。Edge Configを利用中の開発チームは、公式ドキュメントで詳細を確認し、自社のユースケースに合わせた活用を進めることが重要です。

Vercel式AI活用術、反復作業の自動化で成果

AI導入の最適領域

認知的負荷が低い単純作業
反復性の高い手作業
データ入力や初期調査
従来の自動化が困難な領域

Vercelの社内実践例

見込み客対応を10人→1人
不正対策の時間を59%削減
従業員を高付加価値業務
人間による最終確認で品質担保

Web開発プラットフォームを提供するVercelが、社内で高い投資対効果(ROI)を生むAIエージェントを構築する手法を公開しました。同社によれば、成功の鍵はコーディングのような複雑なタスクではなく、人間の認知的負荷が低く反復性の高い業務にAIを適用することです。具体的には、見込み客の初期調査や不正行為の検知といった分野で、従業員の生産性を劇的に向上させることに成功しています。

現在のAIモデルは、あらゆる領域で完璧な信頼性と精度を持つわけではありません。そこでVercelが突き止めた「スイートスポット」が、単純な反復作業です。これらはデータ入力や初期調査、分類作業など、従来のルールベースの自動化では対応しきれなかった動的な業務でありながら、AIにとっては十分に予測可能で安定した成果を出せる領域なのです。

では、具体的にどのような業務を自動化すればよいのでしょうか。Vercelは「チームのメンバーに『最も嫌いな仕事』や『二度とやりたくない作業』は何かと尋ねることだ」と単純明快な答えを示します。人間が退屈でうんざりする仕事こそ、AIエージェントが価値を発揮する絶好の機会であり、大きな生産性向上につながる「宝の山」なのです。

この手法で生まれたのが「リード処理エージェント」です。以前は10人体制で行っていた見込み客の初期調査と分類作業を、トップ営業担当者のプロセスを学習させたAIで自動化。結果、1人で10人分の業務を処理できるようになり、残りの9人はより複雑で創造的な営業活動に専念できるようになりました。

セキュリティ分野でも成果は顕著です。フィッシング詐欺などの不正報告を処理する「不正対策エージェント」は、URLを自動で分析し、人間の担当者に対応策を提案します。この導入により、チケット解決までの時間が59%も短縮され、チームはより高度な判断が求められる例外的なケースに集中できる体制を構築しました。

Vercelは、これらの知見をもとに開発したAIエージェントのテンプレートをオープンソースで公開しており、誰もが自社の課題解決に応用できます。まずは身近な「退屈な作業」からAI導入を検討してみてはいかがでしょうか。それが、組織全体の生産性を飛躍させる第一歩となるかもしれません。

Vercel、デプロイ保護機能の期間制限を完全撤廃

保護期間の制限を撤廃

Skew Protectionの最大有効期間を延長
デプロイ全ライフタイムで保護可能に
より安定したシームレスな移行を実現

プラン別の旧制限

旧Proプランの12時間制限を撤廃
旧Enterpriseプランの7日間制限も撤廃
柔軟なデプロイ戦略が可能に

新しい設定方法

デプロイ保持期間内で任意に設定
プロジェクト設定から簡単に有効化

Web開発プラットフォームのVercelは2025年11月6日、デプロイ移行時の新旧バージョン間の非互換性を防ぐ「Skew Protection」機能のアップデートを発表しました。これまでProプランで12時間、Enterpriseプランで7日間だった最大有効期間の上限を撤廃。これにより、プロジェクトのデプロイ保持期間内であれば、その全期間にわたって保護を有効にでき、より安定したサービス提供が可能になります。

「Skew Protection」は、新しいコードがデプロイされた際に、ユーザーのブラウザに古いバージョンのアセットがキャッシュされていることで生じる表示崩れや機能不全を防ぐ重要な機能です。この保護により、移行期間中もユーザーは新旧どちらのバージョンにもシームレスにアクセスでき、開発者は安心してデプロイを進められます。

今回のアップデートで、従来のプランごとの固定的な制限がなくなりました。これにより、長期間にわたる段階的なロールアウトや、特定のユーザー層へのカナリアリリースなど、より柔軟で高度なデプロイ戦略を時間的な制約なく実行できるようになります。大規模でミッションクリティカルなアプリケーションを運用するチームには特に大きなメリットがあるでしょう。

新しい設定は、プロジェクトの「Deployment Retention」(デプロイ保持期間)ポリシーに連動します。この保持期間以下の任意の値で有効期間を設定できるため、開発者自社の運用ポリシーに合わせた保護が可能になります。この機能強化は、デプロイに伴うリスクを大幅に低減し、エンドユーザー体験の質を維持する上で大きな意味を持ちます。

Vercel、高度ボット対策を来年1月まで無料提供

無料提供の概要

高度ボット保護「BotID」
Pro/Enterpriseプラン対象
2026年1月15日まで無料
ダッシュボードから要申請

BotID Deep Analysisとは

巧妙なボットを阻止する技術
ユーザーに負担ない不可視認証
AI呼び出しや決済を保護
リアルタイムのクライアント監視

フロントエンド開発プラットフォームのVercelは、2025年11月5日から2026年1月15日までの期間限定で、ProおよびEnterpriseプランの顧客に対し、高度なボット保護システム「BotID Deep Analysis」を無料提供すると発表しました。対象ユーザーは追加費用なしで高度なセキュリティ対策を試せます。

「BotID」は、人間のような巧妙な動きをするボットを検知・ブロックする不可視のCAPTCHA技術です。特に、ユーザー登録やAIの呼び出し、決済処理といった価値の高いエンドポイントを狙った攻撃からサービスを保護します。今回の無料提供は、その最上位機能である「Deep Analysis」が対象です。

この無料特典を利用するには、VercelのFirewallダッシュボードにある「Bot Management」セクションからオプトイン(利用開始手続き)が必要です。期間中の利用料金は請求されませんが、2026年1月16日以降は通常の料金体系に戻るため、継続利用の際は注意が求められます。

悪意のあるボットによる攻撃は、サービスの信頼性や収益性に直結する深刻な問題です。今回のキャンペーンは、自社サービスのセキュリティレベルを手軽に引き上げる絶好の機会と言えるでしょう。経営者や開発リーダーは、この期間を活用して対策の有効性を検証してみてはいかがでしょうか。

VercelとSnowflake連携、AIで安全なデータアプリ開発

自然言語でアプリ開発

自然言語でSnowflakeにデータ問合せ
AIがNext.jsアプリを自動生成
ワンクリックでSnowflakeデプロイ

強固なセキュリティ体制

データはSnowflake内に常時保持
Vercelがアプリと認証を管理
既存のSnowflake権限を自動継承

非エンジニアでも活用

営業や財務部門でのツール内製化
リアルタイムダッシュボード構築も可能

Vercelは2025年11月4日、同社のAI UI生成ツール「v0」とデータクラウド大手Snowflakeの統合を発表しました。これにより、ユーザーは自然言語を使ってSnowflake上のデータを照会し、安全なデータ駆動型アプリケーションを迅速に構築・デプロイできるようになります。

この統合により、ユーザーはv0との対話を通じてSnowflakeのデータにアクセスできます。自然言語で質問すると、v0がデータベース構造を理解し、クエリを実行。その結果を基に、APIルートを含む完全なNext.jsアプリケーションを自動生成します。

最大の特長は、そのセキュアなアーキテクチャにあります。アプリケーションと認証層はVercelが管理しますが、コンピューティング処理はSnowflakeアカウント内で完結。これにより、機密データがSnowflake環境から外部に出ることは一切ありません。

さらに、アプリケーションはSnowflakeで設定済みの既存のアクセス権限を自動的に継承します。ユーザーは自身の権限範囲内でしかデータにアクセスできず、企業は新たなセキュリティレビューやインフラ管理の手間を大幅に削減できます。

この連携は、エンジニアだけでなく、営業、財務、製品チームなどの非技術者でもカスタムツールの開発を可能にします。リアルタイムの販売ダッシュボードや在庫監視ツールなどを自ら内製化でき、データ活用の民主化を大きく前進させる一手と言えるでしょう。

VercelSnowflakeの連携は、エンタープライズレベルのセキュリティを担保しつつ、AIを活用したアプリ開発のハードルを劇的に下げるものです。この機能は現在ウェイトリスト登録を受け付けており、テスト利用が可能になり次第、通知される予定です。

Vercel、ビルド通信の静的IPルーティング追加

ビルド通信のIP固定化

Vercelが新機能を追加
ビルド時の外部通信を静的IP経由
外部APIやCMSへの接続で利用

利用方法と注意点

プロジェクト設定から有効化
デフォルト設定は無効
ファンクション通信も対象
有料データ転送量として加算

Web開発プラットフォームのVercelは2025年11月4日、ビルドプロセス中のトラフィックを静的IPアドレス経由でルーティングする新機能を追加したと発表しました。これにより、外部APIやデータベースへの接続時に、IPアドレスに基づいた厳格なアクセス制御が可能となり、セキュリティが向上します。設定はプロジェクトごとに有効化できます。

この新機能は、アプリケーションのビルド時に外部のAPIやCMS(コンテンツ管理システム)からデータを取得する際の通信に適用されます。これまではビルド時のIPアドレスが動的でしたが、静ิ的IPに固定することで、アクセス元を制限している企業内データベースやサードパーティサービスへの接続が安全かつ容易になります。

本機能の有効化は、プロジェクト設定の「Connectivity」タブから「Use static IPs for builds」のトグルをオンにするだけで完了します。この設定はデフォルトでは無効になっているため、利用を希望するユーザーは手動で有効化する必要があります。一度有効にすると、ビルド時とファンクションの両方のトラフィックが静的IPを経由します。

注意点として、静的IPを経由したトラフィックはVercelの「Private Data Transfer」の使用量として課金対象になります。コストへの影響を考慮した上で利用を検討する必要があるでしょう。この機能は、すでに静的IP機能を利用しているすべてのチームが追加料金なしで利用可能です。

Vercel、大規模開発を加速する新機能を正式提供

大規模開発の効率化

巨大アプリを独立ユニットに分割
チーム毎に最適な技術スタックを選択
Vercelがシームレスな統合を実現
250社以上の導入実績

明確な料金体系

Pro/Enterpriseプランで提供
2プロジェクトまで無料
追加プロジェクトは月額250ドル
ルーティングは100万件あたり2ドル

Web開発プラットフォームを手掛けるVercelは2025年10月31日、大規模アプリケーションを独立した小さな単位に分割・開発できる「マイクロフロントエンド」機能の正式版を提供開始しました。これにより、開発チームはそれぞれ異なる技術やリリースサイクルで自律的に作業を進められ、生産性の向上が期待できます。すでにThe Weather Companyなど250以上のチームが導入し、1日あたり約10億件のリクエストを処理しています。

マイクロフロントエンドは、巨大化しがちなフロントエンド開発の課題を解決する手法です。アプリケーションを機能ごとに分割し、各チームが独立して開発とデプロイを担当します。これにより、チームは担当領域に最適なフレームワークを自由に選択でき、他のチームに依存しない迅速なリリースサイクルを確立できます。結果として、開発速度の向上と組織のスケーラビリティが実現します。

Vercelのプラットフォームは、分割された各ユニットをエッジで巧みに統合し、エンドユーザーには一つの統一されたアプリケーションとして表示します。複雑なルーティングやドメイン管理を自動化することで、開発者は本来の機能開発に集中できます。ベータ期間中には、ドメインルーティングのサポート強化や監視機能(Observability)への統合など、多くの機能改善が施されました。

本機能は、ProおよびEnterpriseプランの利用者が対象です。料金は、2つのマイクロフロントエンドプロジェクトまで無料で、3つ目以降は1プロジェクトあたり月額250ドルが課金されます。また、ルーティングリクエストに対しては100万件あたり2ドルの従量課金が適用されます。新規プロジェクトは即日、既存プロジェクトは2025年11月30日からこの料金体系が適用される予定です。

すでにCursorやA+E Global Mediaなどの企業が導入し、その効果を実証しています。Vercelは、開発者がより迅速かつ柔軟に価値を提供できる環境を整えることで、ビジネスの成長を支援します。公式ドキュメントやテンプレートも公開されており、すぐに導入を始めることが可能です。企業の開発リーダーやエンジニアにとって、注目の機能と言えるでしょう。

VercelのAI、巧妙なボット網を5分で検知・遮断

巧妙化するサイバー攻撃

人間の活動を模倣するボット
新規ブラウザプロファイルで偽装
従来型防御をすり抜ける脅威

AIによるリアルタイム防御

トラフィックの異常を即時検知
複数シグナルの相関関係を分析
プロキシ経由の同一指紋を特定
わずか5分で脅威を自動分類・遮断
人手を介さないハンズフリー防御

Webインフラ開発プラットフォームを提供するVercelは10月29日、同社のAIセキュリティ機能「BotID Deep Analysis」が、人間になりすました高度なボットネットワークをリアルタイムで検知し、わずか数分で自動的にブロックしたと発表しました。このインシデントは、機械学習を活用した適応型防御が、巧妙化するサイバー攻撃にいかに有効であるかを示す好例です。

観測されたのは、これまで見られなかった全く新しいブラウザプロファイルを利用した巧妙なボットでした。これらのボットは、本物の人間が操作しているかのようなテレメトリ(遠隔情報)データを生成し、従来のセキュリティ対策を回避するように設計されていました。トラフィックは通常時の500%に急増したものの、当初は正当なユーザーによるアクセスと見分けがつきませんでした。

しかし、VercelのAIモデルは、これらの新規プロファイルが複数のプロキシIPを横断して現れるという特異なパターンを発見しました。正規のユーザーが、同じブラウザ情報を保ったまま、プロキシネットワークを高速で切り替え続けることはありません。これが、組織的なボット活動であることの決定的な証拠となりました。

このパターンを特定後、システムは自動的に対象セッションを再検証。その結果、悪意のあるボットネットワークであると正しく再分類し、攻撃検知からわずか5分後には該当トラフィックを完全に遮断しました。この一連のプロセスにおいて、顧客側での手動介入や緊急のルール更新は一切不要でした。

この事例は、攻撃者が多大なリソースを投じる回避型の攻撃に対し、リアルタイムで学習・適応するAI防御がいかに重要であるかを物語っています。単一の危険信号ではなく、ブラウザの指紋情報やネットワークパターンといった複数シグナルの相関関係を捉える能力が、今後のセキュリティ対策の鍵となるでしょう。

Vercel、ランタイムログでキャッシュ詳細を可視化

新機能の概要

CDNのキャッシュ動作を可視化
ランタイムログ画面で詳細確認
全ユーザーに追加費用なしで提供

表示される詳細情報

固有IDであるキャッシュキー
関連データを示すキャッシュタグ
再検証が行われた理由

WebホスティングプラットフォームのVercelは2025年10月31日、開発者がランタイムログでキャッシュの詳細情報を確認できる新機能を発表しました。このアップデートにより、VercelのCDNがどのようにコンテンツをキャッシュし提供しているかを詳細に把握でき、パフォーマンスの最適化やデバッグが容易になります。全ユーザーが追加費用なしで利用可能です。

今回の機能強化で、ランタイムログ画面の右側パネルにキャッシュに関する新たな情報が表示されるようになります。これまで把握が難しかったキャッシュの挙動を具体的に追跡できるため、開発者はアプリケーションのパフォーマンスチューニングをより効率的に進めることができるでしょう。

新たに追加されたのは3つの情報です。キャッシュされたページの特定バージョンを示す固有IDである「キャッシュキー」、関連付けられたデータを示す「キャッシュタグ」、そしてコンテンツが再検証された場合の「再検証の理由」です。これらの情報が、なぜコンテンツがキャッシュから提供されたのかを解明する手がかりとなります。

特に「再検証の理由」は重要です。時間ベース、タグベース、あるいはデプロイベースといった理由が明示されるため、意図通りにキャッシュが更新されているか、あるいは意図せずキャッシュがヒットしていないかといった問題の切り分けが迅速に行えます。サイトの表示速度とコンテンツの最新性を両立させる上で、強力な武器となるでしょう。

Vercel、AIが障害原因を自動分析・報告

AIによるインシデント対応

AIが障害を自動検知
根本原因を数秒で分析
具体的な修正計画を提案

自動化の仕組みと利点

設定不要の異常検知アラート
複数データを横断しAIが相関分析
エンジニア調査工数を大幅削減
迅速な復旧でダウンタイム短縮

Vercelは2025年10月31日、AIがアプリケーションの障害を自動で検知・分析する新機能「Vercel Agent Investigations」をパブリックベータ版として公開しました。この機能はインシデント発生時に根本原因を特定し、具体的な修正計画を提案することで、開発チームの対応時間を大幅に短縮し、生産性向上を支援することを目的としています。

現代のWeb開発では、インシデント対応に多くの時間が費やされ、エンジニアの負担増大や開発速度の低下が課題となっています。膨大なログやメトリクスからの手動調査は困難を極め、誤検知によるアラート疲れも生産性を阻害する一因でした。このような背景から、対応プロセスの自動化が求められていました。

新機能は、Vercelプラットフォーム全体を監視し、関数の実行時間やエラー率などの異常を自動で検知します。検知後、Vercel Agentが即座に調査を開始。ビルド時のコード変更から実行時のトラフィックパターンまで、幅広いデータを活用してサードパーティーツールなしで根本原因を特定します。

Vercel Agentは、まるで経験豊富なシニアエンジニアのように多角的な分析を行います。複数のメトリクスの相関関係、過去のインシデント履歴、デプロイ直前のコード変更、外部サービスとの依存関係などを総合的に評価し、人間では時間のかかる分析をわずか数秒で完了させます。

分析後は、問題の根本原因を簡潔にまとめたサマリーが生成されます。さらに、ユーザーへの影響度を評価し、具体的な修正アクションを提案します。これにより、開発者は推測に頼ることなく、迅速かつ的確にインシデントを解決し、サービスのダウンタイムを最小限に抑えることが可能になります。

本機能は、Vercelの「Observability Plus」プラン契約チームが利用可能です。VercelダッシュボードのAgentタブから設定でき、エラーアラート発生時に自動で調査を実行します。新規ユーザーは、コードレビュー機能などにも利用できる100ドル分の無料クレジットを活用して試すことができます。

Vercel、高速フレームワークFastifyをゼロ設定でサポート

Fastifyゼロ設定対応

高速FW「Fastify」に正式対応
デプロイ作業の設定不要を実現
優れた開発者体験を提供
強力なプラグインアーキテクチャ

Vercelの自動最適化

Fluid computeを標準利用
トラフィックに応じた自動伸縮
Active CPU pricing採用
使用分のみの従量課金制

WebホスティングプラットフォームのVercelは2025年10月31日、人気のWebフレームワーク「Fastify」のゼロ設定サポートを発表しました。これにより開発者は、複雑な設定なしでFastifyアプリケーションをVercelデプロイ可能になり、生産性の向上が期待されます。

Fastifyは、オーバーヘッドを最小限に抑え、優れた開発者体験を提供することに重点を置いたWebフレームワークです。高いパフォーマンスと、強力なプラグインアーキテクチャによる拡張性の高さが大きな特徴と言えるでしょう。

Vercel上のバックエンドは、標準でFluid computeを利用します。この機能により、Fastifyアプリケーションはトラフィックの増減に応じて自動でスケールアップ・ダウンし、常に最適なパフォーマンスを維持します。

料金体系にはActive CPU pricingが採用されており、実際に使用したCPUリソースに対してのみ課金されます。この従量課金モデルは、特にトラフィックが変動するサービスにおいてコスト効率を大幅に高めることができます。

今回の対応は、生産性スケーラビリティを求める現代のWeb開発のニーズに応えるものです。開発者はテンプレートからすぐに試すことができ、多くのプロジェクトで採用が進むと見られます。

Vercel、独セキュリティ認証TISAX取得 自動車業界へ本格参入

独自動車業界の認証 TISAX

ドイツ自動車産業協会が開発
情報セキュリティ評価の国際標準
複雑なサプライチェーンで利用

Vercelのビジネス拡大

自動車業界の要件を充足
OEM・サプライヤーとの取引加速
調達プロセスの簡素化・迅速化
プラットフォームの信頼性向上

フロントエンド開発プラットフォームを手がけるVercelは29日、自動車業界で広く採用されている情報セキュリティ評価基準「TISAX」のレベル2(AL2)認証を取得したと発表しました。これにより、同社はセキュリティ要件が厳しい自動車メーカーやサプライヤーとの連携を強化し、同業界での事業拡大を加速させます。

TISAX(Trusted Information Security Assessment Exchange)は、ドイツ自動車産業協会(VDA)が開発した国際的な情報セキュリティ基準です。自動車業界の複雑なサプライチェーン全体で、パートナー企業のセキュリティレベルを統一されたフレームワークで評価するために利用されており、企業間の信頼性と効率性を高めることを目的としています。

今回の認証取得により、Vercelのプラットフォームは自動車業界のOEM(相手先ブランドによる生産)やサプライヤーが求める厳格なセキュリティ要件を満たすことが証明されました。顧客やパートナーは、Vercelの評価結果をENXポータルで直接確認でき、ベンダー選定や調達プロセスを大幅に簡素化・迅速化することが可能になります。

Vercelにとって、TISAX認証は広範なコンプライアンスプログラムの一環です。同社は既にSOC 2 Type II、PCI DSS、HIPAA、ISO/IEC 27001など複数の国際的な認証を取得しており、グローバルな顧客に対し、安全で信頼性の高いインフラを提供することに注力しています。

自動車業界での足場を固めたことで、Vercelは他の規制が厳しい業界への展開も視野に入れています。Vercelを利用する開発者や企業は、機密情報や規制対象データを扱うアプリケーションを、高いセキュリティ水準の上で構築・展開できるという確信を得られるでしょう。

Vercel、Bun対応でNext.jsが28%高速化

Bunランタイムの実力

CPU負荷の高い処理でレイテンシ28%削減
Node.jsとのランタイム選択が可能に
Zig言語による最適化された設計
高速なWeb Streams処理

簡単な導入とエコシステム

設定ファイルに1行追加で有効化
Next.jsなど主要フレームワーク対応
Vercel監視・ログ機能と自動連携
TypeScriptを設定不要でサポート

WebホスティングプラットフォームのVercelは10月28日、サーバーレス環境「Vercel Functions」で高速JavaScriptランタイム「Bun」のパブリックベータ版サポートを開始しました。CPU負荷の高いNext.jsのレンダリング処理において、従来のNode.jsと比較して平均28%のレイテンシ削減を達成。開発者はワークロードに応じて最適な実行環境を選択できるようになります。

この性能向上の背景には、Bunの優れたアーキテクチャがあります。システム言語Zigで構築され、I/Oやスケジューリングが高度に最適化されています。特に、Node.jsでボトルネックとなりがちだったWeb Streamsの実装やガベージコレクションのオーバーヘッドを大幅に削減したことが、今回の高速化に直結しました。

Bunの導入は驚くほど簡単です。プロジェクトの設定ファイル「vercel.json」に`"bunVersion": "1.x"`という1行を追加するだけ。Next.jsやHono、Expressといった主要フレームワークにすでに対応しており、Vercelが提供する既存の監視・ロギングシステムとも自動で統合されます。

あなたのプロジェクトにはどちらが最適でしょうか?Bunは圧倒的な実行速度を誇る一方、Node.jsには巨大なエコシステムと高い互換性という長年の実績があります。Vercelは両方をネイティブサポートするため、アプリケーションの特性に合わせて最適なツールを自由に選択できる柔軟性が手に入ります。

今回のサポートはまだパブリックベータ段階であり、本番環境への移行前には、依存関係の動作確認が推奨されます。VercelはBunチームと緊密に連携しており、今後も対応フレームワークの拡大やさらなる性能最適化を進める方針です。開発者コミュニティからのフィードバックにも期待が寄せられています。

Vercel、AIエージェント開発を本格化する新SDK発表

AIエージェント開発の新基盤

AI SDK 6によるエージェント抽象化
人間による承認フローの組み込み
エンドツーエンドの型安全性を確保
ゼロ設定でPythonフレームワーク対応

高信頼な実行環境とエコシステム

ワークフローキットで高信頼性を実現
マーケットプレイスでAIツールを導入
Vercel Agentによる開発支援
OSSの営業・分析エージェント提供

Vercelが先週開催したイベント「Ship AI 2025」で、AIエージェント開発を本格化させる新技術群を発表しました。中核となるのは、エージェント中心の設計を取り入れた「AI SDK 6」や、タスクの信頼性をコードで担保する「Workflow Development Kit」です。これにより、ウェブ開発のように直感的かつスケーラブルなAI開発環境の提供を目指します。

新たにベータ版として公開された「AI SDK 6」は、エージェントを一度定義すれば、あらゆるアプリで再利用できるアーキテクチャが特徴です。これにより、ユースケースごとにプロンプトやAPIを連携させる手間が不要になります。また、人間のレビューを必須とするアクションを制御できる承認機能も組み込まれ、安全な運用を支援します。

長時間実行されるタスクの信頼性を高めるのが「Workflow Development Kit」です。従来のメッセージキューやスケジューラの設定に代わり、TypeScriptの関数に数行のコードを追加するだけで、失敗した処理の自動リトライや状態保持を実現します。これにより、AIエージェントのループ処理やデータパイプラインを安定して実行できます。

エコシステムの拡充も進んでいます。Vercel Marketplaceでは、CodeRabbitなどのエージェントやAIサービスをプロジェクトに直接導入可能になりました。さらに、FastAPIやFlaskといったPythonフレームワークが設定不要でデプロイ可能となり、バックエンド開発者のAIクラウド活用を促進します。

Vercel自身も、開発者を支援するAIアシスタントVercel Agent」のベータ版を提供開始しました。このエージェントは、コードレビューパッチ提案、本番環境でのパフォーマンス異常の検知と原因分析を自動化します。開発チームの一員として、生産性向上に貢献することが期待されます。

Vercelの一連の発表は、AIエージェント開発を一部の専門家から全ての開発者へと解放するものです。SDKによる抽象化、ワークフローによる信頼性確保、マーケットプレイスによるエコシステムが一体となり、アイデアを迅速に本番稼働のエージェントへと昇華させる強力な基盤が整ったと言えるでしょう。

Vercel、AIチャットとFW機能で開発を加速

AIチャットで学習効率化

VercelドキュメントにAIチャット搭載
会話形式で即座に回答を取得
ページ内容を文脈として理解
会話履歴をMarkdownで保存可能

FW機能でセキュリティ向上

Next.jsのServer Actionsに対応
特定アクションにカスタムルールを設定
IPアドレス毎のレート制限などが可能
追加費用なしで全プランで利用できる

ウェブ開発プラットフォームのVercelは2025年10月24日、開発者体験とセキュリティを強化する2つの新機能を発表しました。公式ドキュメント内で対話的に質問できる「AIチャット」と、Next.jsのサーバーアクションをきめ細かく制御できる「Vercel Firewall」のアップデートです。開発者はより迅速に情報を得て、安全なアプリケーションを構築できます。

今回新たに導入された「AIチャット」は、Vercelの公式ドキュメントサイトに統合されました。開発者はドキュメントを読みながら、不明点をチャット形式で即座に質問できます。これにより、従来のように情報を探しまわる手間が省け、学習や問題解決の効率が飛躍的に向上することが期待されます。

このAIチャットは、閲覧中のページを文脈として読み込ませることも可能です。特定のトピックに絞った、より的確な回答を得られます。さらに、一連の会話をMarkdown形式でコピーできるため、チーム内での情報共有や自身のメモとして保存する際にも便利です。

セキュリティ面では、「Vercel Firewall」がNext.jsのServer Actionsに正式対応しました。Next.js 15.5以降、開発者は特定のサーバーアクション名をターゲットにしたカスタムセキュリティルールを設定できるようになります。これにより、アプリケーションのバックエンドロジックをよりきめ細かく保護できます。

具体的な例として、特定のサーバーアクションに対しIPアドレスごとに1分あたりのリクエスト数を制限する「レートリミット」設定が可能です。これにより、悪意のある大量アクセスからアプリケーションを保護できます。この機能は追加費用なしで、Vercelの全プランで利用可能です。

Vercelは今回のアップデートにより、情報アクセスの容易さと高度なセキュリティ制御を両立させました。AIを活用した開発者サポートと、モダンなフレームワークに対応したセキュリティ機能は、生産性と安全性の向上を求めるすべての開発者にとって強力な武器となるでしょう。

Vercel、AI開発基盤を大幅拡充 エージェント開発を加速

AI開発を加速する新機能

長時間処理を簡易化する「WDK
ゼロ設定で動くバックエンド

エコシステムを強化

ツール導入を容易にするAIマーケット
Python開発を支援する新SDK
統一された課金と監視体制

Web開発プラットフォームのVercelは2025年10月23日、AI開発基盤「AI Cloud」を大幅に機能拡張したと発表しました。開発者の新たな「AIチームメイト」となるVercel Agentや、長時間処理を簡素化するWorkflow Development Kit (WDK)、AIツールを簡単に導入できるマーケットプレイスなどを公開。AIエージェントや複雑なバックエンドの開発における複雑さを解消し、生産性向上を支援します。

新発表の目玉の一つが「Vercel Agent」です。これは開発チームの一員として機能するAIで、コードレビューや本番環境で発生した問題の調査を自動で行います。単なるコードの提案に留まらず、Vercelのサンドボックス環境で検証済みの修正案を提示するため、開発者は品質を犠牲にすることなく、開発速度を大幅に向上させることが可能です。

長時間にわたる非同期処理の信頼性も大きく向上します。オープンソースの「Workflow Development Kit (WDK)」を使えば、データ処理パイプラインやAIエージェントの思考プロセスなど、中断と再開を伴う複雑な処理を簡単なコードで記述できます。インフラを意識することなく、耐久性の高いアプリケーションを構築できるのが特徴です。

バックエンド開発の体験も刷新されました。これまでフロントエンドで培ってきた「ゼロコンフィグ」の思想をバックエンドにも適用。FastAPIやFlaskといった人気のPythonフレームワークや、ExpressなどのTypeScriptフレームワークを、設定ファイルなしでVercelに直接デプロイできるようになりました。

AI開発のエコシステムも強化されています。新たに開設された「AI Marketplace」では、コードレビューセキュリティチェックなど、様々なAIツールを数クリックで自分のプロジェクトに導入できます。同時に、PythonからVercelの機能を直接操作できる「Vercel Python SDK」もベータ版として公開され、開発の幅がさらに広がります。

Vercelは一連のアップデートを通じて、AI開発におけるインフラ管理の複雑さを徹底的に排除しようとしています。開発者はもはやキューやサーバー設定に頭を悩ませる必要はありません。ビジネスの価値創造に直結するアプリケーションロジックの開発に、より多くの時間を注げるようになるでしょう。

Vercel、30vCPU搭載の高速ビルド機導入

新Turboビルドマシンの概要

全有料プランで利用可能
30vCPUと60GBメモリ搭載
従量課金制でプロジェクト単位で有効化

主な用途と導入効果

Turbopackビルドに最適
大規模モノレポの並列処理
静的生成を高速化
依存関係の解決を高速化

WebホスティングプラットフォームのVercelは2025年10月22日、全有料プラン向けに「Turboビルドマシン」の提供を開始したと発表しました。この新マシンは30vCPUと60GBメモリを搭載し、過去最速のビルド性能を実現します。プロジェクト単位で有効化でき、従量課金制で利用可能です。

新たに提供されるTurboビルドマシンは、30vCPUと60GBメモリという強力なスペックを誇ります。この潤沢なリソースにより、特に大規模なプロジェクトのビルド時間を大幅に短縮することが期待されます。利用はプロジェクト単位で選択でき、コストは使用量に応じて発生します。

このマシンは、特にNext.jsで利用される高速バンドラー「Turbopack」でのビルドや、大規模なモノレポ(単一リポジトリでの複数プロジェクト管理)での並列タスク実行に最適化されています。複雑なプロジェクト構造を持つ開発チームの生産性を大きく向上させるでしょう。

具体的な効果として、静的サイト生成(SSG)や、プロジェクトが依存するライブラリの解決処理が高速化されます。これにより、開発者CI/CDパイプラインの待ち時間を削減し、より迅速なデプロイメントとイテレーション(反復開発)を実現できます。

開発者はプロジェクト設定からTurboビルドマシンを有効化するだけで、すぐに高速なビルド環境を手に入れることができます。Vercelは、エンタープライズ規模の複雑な開発ニーズに応えることで、フロントエンド開発の生産性向上を強力に支援する姿勢を明確にしました。

Vercel、長時間AIタスク向けタイムアウト延長機能

長時間タスクの課題を解決

連鎖的なAIエージェント実行
複数ステップのコード生成
予期せぬ実行時間の超過

新機能「extendTimeout」

実行中に動的に時間を延長
上限まで複数回呼び出し可
プラン毎に最大実行時間

プラン別最大実行時間

Pro/Enterprise: 最大5時間
Hobby: 最大45分

Web開発プラットフォームのVercelは2025年10月21日、サーバーレス環境「Sandbox」のタイムアウトを実行中に動的に延長できる新機能「extendTimeout」を発表しました。これにより、AIエージェントの連鎖タスクなど、従来は時間制限で中断されていた長時間処理の実行が容易になります。

これまで、AIによる複雑なコード生成や複数ステップにわたる処理は、予測不能な実行時間によりタイムアウト上限を超えるという課題がありました。特に自律的にタスクを連鎖実行するAIエージェントの開発では、この時間的制約が大きな障壁となっていました。

新導入の `extendTimeout` メソッドにより、開発者はサンドボックスの実行中にプログラムからタイムアウトを能動的に延長できます。これにより、処理が想定より長引いた場合でも、タスクを中断させることなく最後まで完了させることが可能になります。

タイムアウトの延長には、利用プランに応じた上限が設けられています。ProおよびEnterpriseプランでは最大5時間まで、無料のHobbyプランでは最大45分まで実行時間を延長可能です。プロジェクトの規模に応じた適切なプラン選択が重要です。

この機能強化は、Vercelプラットフォーム上で高度なAIアプリケーションを開発する際の柔軟性を大幅に向上させます。実行時間の制約緩和により、より複雑で強力なAIエージェントや、時間のかかるデータ処理タスクの実装が加速することが期待されます。

高品質AIデータで新星、Datacurveが22億円調達

独自の人材獲得戦略

専門家向け報奨金制度
データ収集を消費者製品と定義
金銭より優れたUXを重視

ポストScale AI時代の潮流

巨人Scale AIのCEO退任が好機
複雑な強化学習データ需要増
ソフトウェア開発から多分野へ展開

注目の資金調達

シリーズAで1500万ドルを確保
著名VCAI企業の従業員も出資

AI向け高品質データを提供するスタートアップ、Datacurveが10月9日、シリーズAで1500万ドル(約22.5億円)の資金調達を発表しました。Yコンビネータ出身の同社は、業界最大手Scale AIの牙城を崩すべく、熟練エンジニアを惹きつける独自の報奨金制度と優れたユーザー体験を武器に、複雑化するAIの学習データ需要に応えます。

同社の強みは、専門家を惹きつける「バウンティハンター」制度です。高度なスキルを持つソフトウェアエンジニアに報奨金を支払い、質の高いデータセットを収集します。共同創業者のセレナ・ゲ氏は「これは単なるデータラベリング作業ではない。消費者向け製品として捉え、最高の体験を提供することに注力している」と語ります。

この動きの背景には、AIデータ市場の大きな変化があります。最大手Scale AI創業者アレクサンダー・ワン氏がMetaへ移籍したことで、市場に好機が生まれたと投資家は見ています。また、AIモデルの高度化に伴い、単純なデータセットではなく、複雑な強化学習(RL)環境の構築に必要な、質・量ともに高いデータへの需要が急増しています。

今回の資金調達は、Chemistryが主導し、DeepMindVercelAnthropicOpenAIといった名だたる企業の従業員も参加しました。シードラウンドでは元Coinbase CTOのバラジ・スリニヴァサン氏も出資しており、技術と市場の両面から高い評価を得ていることが伺えます。

Datacurveはまずソフトウェアエンジニアリング分野で地位を確立し、将来的にはそのモデルを金融、マーケティング、医療などの専門分野へも展開する計画です。専門家自らのドメイン知識を活かせるインフラを構築することで、ポストトレーニングデータ収集の新たな標準を築くことを目指しています。

YC最注目株:AIエージェントとインフラが主戦場

AIインフラと業務特化

AI向けStripe統合基盤の開発(Autumn)
AIエージェント自動デプロイ基盤(Dedalus Labs)
本番環境のバグを修正するAIエンジニア(Keystone)
保険金請求を自動化する業務特化AI(Solva)

ニッチ市場と成長性

AI生成デザインクラウド評価(Design Arena)
会話に特化したAI言語家庭教師(Pingo AI)
女性向け友人マッチングAIの急成長(RealRoots)
コスト効率の高いドローン兵器(Perseus Defense)

先週開催されたYCサマー2025デモデイでは、160社超のスタートアップが登壇しました。今回の傾向は、従来の「AI搭載」製品から、AIエージェントとそれを開発・運用するための専門インフラへの明確なシフトです。投資家の間で特に注目を集めたのは、複雑な課金管理やインフラ自動化を担うB2Bソリューション群でした。

最も求められるスタートアップ9社からは、AI市場の成熟度が見て取れます。特に、複雑な従量課金モデルに対応する「Stripe for AI」や、エージェントの自動デプロイを可能にする「Vercel for AI agents」など、AI経済を足元から支えるツールが多数登場しました。これは市場が本格的な収益化フェーズに入ったことを示唆します。

B2B領域では、AutumnがAI特有の複合的な課金モデルを簡素化し、既に40社のYCスタートアップで採用されています。また、Dedalus Labsは、AIエージェントオートスケーリングや負荷分散を自動化し、数時間かかっていたデプロイ作業を数クリックで完了させます。インフラ効率化が成長の鍵です。

業務特化型AIも高い収益性を示しています。保険金請求プロセスを自動化するSolvaは、ローンチからわずか10週間で年間経常収益(ARR)24.5万ドルを達成。また、本番環境のバグをAIが自動修正するKeystoneも、多額の買収提案を断るほどの評価を受けています。

消費者向けサービスでは、AIを活用したニッチな社会的課題解決が成功事例となりました。女性の孤独解消を目的とした友人マッチングAI「RealRoots」は、月間収益78.2万ドルを稼ぎ出しています。また、会話に特化したAI家庭教師「Pingo AI」も月次70%成長と驚異的な伸びです。

異色な注目株としては、軍事・防衛分野のPerseus Defenseが挙げられます。同社は、安価なドローン群を迎撃するためのコスト効率の高いミニミサイルを開発しており、複数の米国軍関係機関からデモ実演に招かれるなど、国防技術の需要の高まりを反映しています。