SEO(産業・業界)に関するニュース一覧

Vercel、CLI・ビルド・ログなど開発者向け機能を一斉強化

プラットフォーム機能強化

CLIにアクティビティログ追加
Enterprise向けビルドマシン既定設定
ランタイムログにエラーコード表示
new.websiteがv0チームに合流

AI活用の実践事例

不動産SERHANT.がAI SDK採用
マルチモデル運用でコスト最適化
200名から900名超へ無停止拡張
AI Gatewayで利用状況を一元管理

Vercelは2026年3月、開発者向けプラットフォームの複数機能を同時にアップデートしました。CLIへのアクティビティログ追加、Enterpriseチーム向けビルドマシン既定設定、ランタイムログのエラーコード表示など、運用効率を高める改善が中心です。

vercel activityコマンドがCLIに追加され、チーム内の全操作履歴をターミナルから直接検索できるようになりました。イベント種別や日付範囲、プロジェクト単位でのフィルタリングにも対応しており、監査やトラブルシューティングの迅速化が期待されます。

Enterpriseプランでは、チームオーナーがデフォルトのビルドマシンをチーム単位で設定可能になりました。新規プロジェクトに自動適用される一方、既存プロジェクトは明示的に変更しない限り現行設定が維持される安全な設計です。

ランタイムログでは、HTTPステータスコードに加えて具体的なエラーコードがダッシュボードに表示されるようになりました。リクエスト失敗の原因特定がより迅速になり、アプリケーションのデバッグ効率が向上します。

AI活用の実例として、不動産企業SERHANT.VercelAI SDKとAI Gatewayを活用し、ClaudeOpenAIGeminiをタスク別に使い分ける事例が紹介されました。200名の内部試験から900名超への本番展開を、インフラ変更なしで達成しています。

さらにWebサイト構築ツールnew.websiteがv0チームに合流することが発表されました。フォームやSEOコンテンツ管理などの組み込みプリミティブをv0のエージェント機能に統合し、プロンプト不要でサイト基盤機能を提供する方針です。

WordPress.comがAIエージェントによる記事作成・公開機能を提供開始

新機能の概要

AIが記事の作成・編集・公開を代行
コメント管理やメタデータ修正も対応
自然言語の指示でサイト運営を自動化
テーマやデザインを理解したコンテンツ生成

仕組みと安全策

MCPプロトコルで外部AI連携
ClaudeChatGPT等の主要AIに対応
AI作成記事は下書き保存が既定
全変更をアクティビティログで追跡

業界への影響

全Webサイトの43%超WordPress基盤
月間200億PV規模のネットワーク

WordPress.comは2026年3月20日、AIエージェントがユーザーのWebサイト上で記事の作成・編集・公開を行える新機能を発表しました。コメント管理やメタデータの更新、タグ・カテゴリの整理も可能で、すべて自然言語による指示で操作できます。

この機能は2025年秋に導入されたMCPプロトコル対応を拡張したものです。MCPはアプリケーションが大規模言語モデルにコンテキストを提供する標準規格で、Claude Desktop、Cursor、VS Code、ChatGPTなど主要なAI対応ツールと接続して利用できます。

AIエージェントはランディングページやAboutページの作成に加え、コメントの承認・返信・整理、カテゴリやタグの再構成、SEO改善のためのalt属性やキャプションの修正など幅広い操作に対応します。サイトのテーマやデザインを事前に解析し、統一感のあるコンテンツを生成します。

安全対策として、すべての変更にはユーザーの承認が必要であり、AIが作成した投稿はデフォルトで下書きとして保存されます。変更履歴はアクティビティログで追跡でき、サイトオーナーはMCP設定画面から利用する機能を個別にトグルで制御できます。

WordPressは全Webサイトの43%以上を支えるプラットフォームであり、WordPress.comだけでも月間200億ページビュー・4億900万ユニークビジターを抱えます。AI主導のコンテンツ制作が広がることで、Web全体の質と性質に大きな変化をもたらす可能性が指摘されています。

Google検索がAIで見出しを無断書き換え、実験を開始

書き換えの実態

検索結果の見出しをAI生成に置換
元記事の意味が改変される事例
ニュース以外のサイトも対象
Discoverに続き通常検索にも拡大

報道への影響

編集権の侵害との批判
誤解を招く見出しで信頼性低下
正式機能化の前例あり
15年の編集経験でも前例なし

Google検索結果に表示されるニュース記事の見出しを、AIが生成したものに無断で置き換える実験を開始したことが明らかになりました。米メディアThe Vergeが自社記事の見出しが書き換えられている複数の事例を確認し、報じています。

The Vergeの記事「あらゆる不正に使えるAIツールを試した」という見出しは、わずか5語の「'Cheat on everything' AIツール」に短縮され、まるで製品を推奨しているかのような印象に変えられていました。Googleはこれを「小規模で限定的な実験」と説明しています。

Googleの広報担当者は、ユーザーの検索クエリに合致するタイトルを特定し、エンゲージメントを向上させることが目的だと説明しました。ニュースサイトに限らず、あらゆるウェブサイトを対象に水平的な改善を検討しているとしています。

しかしGoogleは以前、Google DiscoverでのAI見出し書き換えも当初「実験」と説明していましたが、1カ月後には「ユーザー満足度で好成績」として正式機能に格上げした前例があります。今回も同様に拡大される可能性が指摘されています。

見出しの改変は、ジャーナリズムの信頼性を損なう行為だとThe Vergeは批判しています。権力機関がメディアの信用を失墜させようとし、多くの報道機関が経営難に陥っている時期に、検索プラットフォームが記事の意味を変えることは深刻な問題です。従来のSEO対策では見出しの一部切り取りはあったものの、AI生成による完全な書き換えは前例がないとしています。

Durable、エンジニア6人で300万顧客のAI基盤をVercelに統合

Vercel移行の背景

マルチテナント運用の限界
SSL・複数リージョン管理が重荷に
6人体制でDevOps不在
セルフホスト比3〜4倍コスト削減

AI基盤の成果

年間3600億トークン処理
エージェント1日で本番投入
エンジニア1人あたり10倍生産性
コーディングエージェントで全面書き換え実現

Durableは、起業家が数分でビジネスを立ち上げられるAIビジネスビルダーです。SEOコンテンツ、業務運営をAIエージェントが代行し、現在300万以上の事業者にサービスを提供しています。わずか6人のエンジニアチームで、年間3600億トークンを処理する大規模プラットフォームを運営しています。

同社はもともとAWSでセルフホストしていましたが、マルチテナント環境の運用が深刻な課題となっていました。数百万の顧客サイトごとに異なるトラフィックパターンがあり、カスタムドメインのSSL管理、複数リージョンのクラスタ維持、DDoS対策、テナント別コスト計測など、インフラ管理だけで開発リソースが圧迫されていました。

CTOのKhan氏は「Vercelを自前で作るか、Vercel上に構築するかの二択だった」と語ります。移行はiframeで旧プロダクトをラップしてVercelデプロイし、その後セルフホスト基盤を完全に撤去するという大胆な手法で実行されました。コーディングエージェントを活用してコードベースの全面書き換えも同時に進めています。

AI機能においては、モデルの切り替え柔軟性、テナント間のコンテキスト漏洩防止、顧客単位のAIコスト可視化という3つの課題を解決しました。マルチエージェント・マルチモデル・マルチモーダルのプロダクトを安全に運用できる体制が整っています。

創業者のClift氏は「数年前の10倍のアウトプットをエンジニア・PM・デザイナー全員が出せるようになった」と述べています。インフラチーム不在で1日11億トークンを処理し、新しいエージェントを1日で顧客に届けられる体制は、今後のテック企業の標準になるとの見方を示しました。

Google AI検索、引用リンクの17%が自社サイトに回帰

自社優遇の実態

引用の17%が自社に回帰
前年比3倍の増加率
2位は傘下のYouTube
娯楽・旅行は約半数が自社リンク

業界への影響

パブリッシャー流入減加速
ゼロクリック化の構造的転換
OpenAI出版社提携で対照的
Google側は「探索用ショートカット」と反論

SE Rankingの調査により、GoogleのAI Mode検索で表示される引用リンクの約17%が自社サイトへの回帰リンクであることが判明しました。この比率は過去1年で3倍に増加しており、外部サイトへのトラフィック減少が深刻化しています。

AI Modeで最も多く引用されるサイトはGoogle自身であり、2位は同社傘下のYouTubeです。特にエンターテインメントや旅行分野では、引用リンクの約半数Google検索結果に戻る構造となっており、ユーザーがループに陥る事例が報告されています。

SEO専門家のモーディ・オバースタイン氏は「引用をクリックしても別のGoogle検索結果に飛ぶだけで、実質的な情報源にたどり着けない」と指摘しています。Search Engine Landの編集長も同様のループ体験を証言し、ユーザーとパブリッシャー双方にとって深刻な問題だと述べています。

Googleの広報担当者はこれらのリンクを「フォローアップ質問を探索するためのショートカット」と説明し、ウェブへのリンクを置き換える意図はないと反論しています。しかし業界からは、広告収益最大化のために自社トラフィックを優先する戦略だとの見方が強まっています。

SparkToro共同創業者のランド・フィッシュキン氏は「トラフィックを外部に送るウェブから、ゼロクリックでトラフィックを囲い込むウェブへの転換だ」と警鐘を鳴らしています。OpenAIパブリッシャー提携契約を結ぶ一方、Googleコンテンツ提供元への対価を支払っておらず、ウェブ生態系の持続可能性が問われています。

Wayfair、OpenAI活用で商品タグ250万件を自動修正

カタログ品質向上

250万件の商品タグ修正
タグ定義の自動生成で70倍に拡張加速
属性改善でSEO表示回数が有意に増加
3000万商品横断の分類システム構築

サプライヤー支援の自動化

4.1万件のチケット自動処理
一部業務で最大70%を自動化
コパイロットからオートパイロットへ段階移行
1200席ChatGPT Enterprise導入

米家具EC大手Wayfairは、OpenAIのモデルを社内基幹システムに統合し、約3000万点の商品カタログの品質管理とサプライヤー支援業務の効率化を実現しました。2024年の小規模検証から本番運用へと発展し、手作業の削減と意思決定の迅速化に成功しています。

カタログチームは従来、個別タグごとに専用AIモデルを構築していましたが、4万7000種類のタグへの対応は困難でした。そこでOpenAIモデルを基盤とするタグ横断型の統一システムを開発し、各タグの意味を自動定義する「定義エージェント」を導入しました。この結果、新規属性への対応速度は1年前の70倍に向上しています。

100万商品以上で本番稼働した結果、250万件の商品タグが修正されました。A/Bテストでは属性の充実により検索表示回数やクリック数、ページランクが有意に改善。信頼度が高い修正は自動適用し、リスクの高い変更はサプライヤー確認を経る二段階の品質管理体制を整えています。

サプライヤー支援では、AIエージェントWilma」を約1カ月で本番投入しました。受信チケットの意図を読み取り、不足情報を補完して適切なチームへ自動振り分けます。さらに12種類のエージェント型AIフローを展開し、複雑な対応履歴の要約や返信案の提示も行っています。

今後はマルチモーダルモデルの進化を活かし、視覚的・主観的な要素が多い家具領域での活用拡大を目指します。カタログ改善の効果は半年で4倍に拡大する見込みで、自然言語による商品検索など購買体験全体へのAI組み込みを推進する方針です。

GoogleのAI概要が詐欺サイトを表示、ユーザー保護策を解説

AIオーバービューのリスク

詐欺サイト情報をAI概要として表示
SEO操作によるAI回答汚染が深刻化
ユーザーが正確と思い込むリスク
従来リンク一覧より危険な可能性

対策と対応

AI概要を無効化する手順を紹介
ソース確認の習慣化を推奨
Google品質改善への取り組みを表明
批判的なAI利用リテラシーが重要

Wiredが報告したGoogleAI Overviews(AI概要機能)のリスクに関する記事では、同機能が詐欺的なウェブサイトの情報を正確な要約として表示してしまうケースが確認されています。

従来の検索結果ではリンクの一覧が表示されるため、ユーザーが複数のソースを比較して信頼性を判断できましたが、AI概要は単一の回答として提示されるため、誤情報への盲信リスクが高まります。

記事はSEOを悪用して意図的にAI概要を操作しようとする「AI答え汚染」の手口についても解説しています。GoogleのAIが学習・参照するウェブの品質劣化が根本的な課題です。

ユーザーへの対策として、AI概要を無効にする設定手順、情報ソースを必ず確認する習慣、特に金融・医療・法律情報でのAI回答の慎重な取り扱いが推奨されています。

この問題はGoogle固有ではなく、あらゆるAI検索エンジンが抱える構造的な課題であり、企業のAI導入担当者もツールの信頼性評価に組み込む必要があります。

AIエージェント本番運用には専用プラットフォームが不可欠

プロダクション展開の課題

誰でもAIエージェントを構築できるがプロダクション展開は別問題
AIが月5000ドル相当のDevOpsを推奨する例も
ビルド vs バイの方程式がAI時代に一変
Vercelが信頼性・可観測性・コスト最適化基盤を提供
AEOエージェントエンジン最適化)という新概念が登場

エージェント連携の欠落した層

AIエージェントは会話できても協調思考ができない
MCP・A2Aが接続性を提供するが意味的整合は別問題
エージェント間の文脈・記憶・ロール管理が未解決
真の協調には専用ミドルウェア層が必要
Vercelが新トークン形式とシークレットスキャンも提供

AIモデルが開発を民主化した一方で、本番環境でのAIエージェント展開には全く別次元の課題があります。Vercelはブログ記事で、AIが簡単に月5000ドルのクラウドインフラを設計してしまう一方、適切なプラットフォームなら500ドルで同じことができると指摘しています。

競争優位はもはや「作れるかどうか」ではなく「実際のビジネス問題を解決するAIを素早く反復して信頼性高く動かせるかどうか」にあります。Vercelはこの観点からエージェント展開のためのプラットフォームインフラを構築しています。

AEO(エージェントエンジン最適化)は、SEOのAI版とも言うべき概念です。AIエージェントがどのようにAPIや外部サービスを検索・発見・活用するかを最適化することで、エージェント同士のエコシステムにおける可視性を高めます。

VentureBeatの記事は「AIエージェントは会話できても本当に協調できない」という問題を指摘しています。MCPやA2Aなどのプロトコルが接続性は提供するものの、エージェント間の文脈・記憶・役割の共有という意味的整合は未解決のままです。

Vercelはこの文脈で新しいトークン形式とシークレットスキャン機能もリリースしており、エージェントプラットフォームとしてのセキュリティ基盤整備も進めています。

ClaudeがWordPressサイト管理をMCP経由でサポート開始

統合の詳細

ClaudeWordPressとMCP統合
サイト更新・記事投稿Claude経由で
プラグイン管理もAI対応
コード不要でサイト操作が可能
TechCrunchが機能詳細を紹介
CMS管理の自動化加速

Webコンテンツ管理の未来

ノンエンジニアのサイト運用を支援
SEOコンテンツ更新の自動化

TechCrunchは2026年2月6日、Anthropicのモデルコンテキストプロトコル(MCP)を通じて、ClaudeWordPressサイトの管理・更新作業を直接実行できるようになったと報じた。

この統合によりユーザーはClaude上のチャットインターフェースから、記事の作成・投稿、カテゴリ設定、メディアのアップロードなどのWordPress操作を自然言語で指示できる。

MCPは外部サービスとClaudeをつなぐ標準規格で、WordPressは世界中のWebサイトの約43%を支える最大のCMSだ。この統合の影響範囲は非常に大きい。

コーディングスキルのないコンテンツ担当者やマーケターが、AIに指示するだけでサイト更新やコンテンツ公開を行える環境が整いつつある。

MCPエコシステムWordPressを皮切りに対応サービスが急増しており、AIエージェントの行動範囲が加速的に広がっている。

RedditがAI検索を次の収益機会と位置づける戦略を明かす

Reddit AI戦略の詳細

AI検索が次のマネタイズ軸
ユーザー生成コンテンツの価値再評価
データライセンス収益が本格化
検索流入のAI化への対応
TechCrunchインタビューで詳細公開
広告以外の収益多角化

プラットフォーム戦略

AIとの共存で独自価値を確立
Q&A;データの排他的価値活用
SEO変化への対応戦略

TechCrunchは2026年2月5日、RedditがAI検索を次の大きな収益機会として位置づけていると報じた。

Redditはユーザーが実体験に基づく質問・回答を共有する独自のコンテンツで、AI検索エンジンが正確な情報源として参照する価値が高まっている。

同社は既にGoogleなどとのデータライセンス契約を結んでいるが、AI検索の台頭によりコンテンツの戦略的価値がさらに高まっていると分析する。

従来のSEOトラフィックがAI検索に代替される中、RedditAI引用元としての価値を収益化する新しいビジネスモデルを模索している。

コミュニティ由来の「人間らしいデータ」はAI学習データの希少資産として需要が高まっており、Redditの位置付けが今後ますます重要になっていく。

GoogleがAI検索機能のウェブサイト制御を導入

新しい制御機能

サイト側がAI検索を制御可能
robots.txtへのAI対応追加
コンテンツ保護の強化

業界への影響

パブリッシャー権利保護
AI検索との共存モデル
SEO戦略の変化

Googleはウェブサイト管理者がAI検索機能によるコンテンツ利用を制御できる新しい仕組みを導入しました。robots.txtに相当するAI検索向け制御オプションが追加されます。

この制御機能は、AI要約によるトラフィック減少を懸念するパブリッシャーからの要望に応えるものであり、AI検索コンテンツクリエイターの共存モデルを模索しています。

GoogleがLLM向けの「かみ砕いた」コンテンツ最適化を否定

GoogleのLLM向けコンテンツ戦略

GoogleがLLM向けにかみ砕いたコンテンツを作るとSEOに悪影響と警告
AIが学習するためのコンテンツ作成はユーザー向けコンテンツと異なる
コンテンツの深さと権威性を犠牲にしないことを推奨
「スニペット化」されたコンテンツ検索評価を下げるリスク
AIとSEOの最適化は両立しないトレードオフが存在
品質と深度を維持したコンテンツ戦略を堅持すべき

Googleの担当者は、LLMがより処理しやすい「かみ砕いた短い断片」コンテンツを作ることに対して、それが検索ランキングに悪影響を与える可能性があると警告しました。ユーザーが実際に役立つと感じるような深みのあるコンテンツが依然として検索品質評価の中心であり、AI向けに単純化したコンテンツは評価を下げかねません。

この発言は、コンテンツ担当者が直面する「AIのためのコンテンツ vs ユーザーのためのコンテンツ」というジレンマに対するGoogleの公式見解として重要です。検索エンジンとAIという二つの流通経路を持つコンテンツ戦略の設計が求められています。

日本のメディア・コンテンツ企業にとっても、記事の深さと権威性を維持しながらAIが理解しやすい構造を保つというバランスが重要な編集課題となります。

Anthropic、AIの「不都合な真実」を可視化し信頼獲得

9人で挑むAIの監視役

スタンフォード出身者が社会的リスクを調査
経済・選挙・差別など広範な影響を分析
報酬より安全なAI構築の使命を重視

独自ツールClioの衝撃

利用実態を可視化し社内共有
ポルノやスパムなど悪用事例も公表
プライバシー守りインサイトを抽出

新たな領域EQへの挑戦

AIへの精神的依存や感情影響を研究
透明性を武器に政策立案者と信頼醸成

Anthropicには、AIが社会に及ぼす負の影響を専門に調査する9人の精鋭部隊が存在します。彼らは数千人規模の組織の中で、経済への打撃や偏見といった「不都合な真実」をあえて可視化し、公表することで企業の信頼性を高めています。

リーダーのDeep Ganguli氏は元スタンフォード大の研究者で、学術界や非営利団体出身の多様なメンバーを率いています。彼らはテック業界の高額報酬よりも、AIを正しく導くというミッションを優先し、社内の開発競争に対する「監視役」として機能しています。

チームの最大の成果の一つが、Claudeの利用状況を分析するツール「Clio」です。プライバシーに配慮しつつユーザーの行動をトピック化し、ポルノ生成やSEOスパムなどの悪用を検知。このデータは社内全体で共有され、安全性向上のための改善に直結しています。

多くの企業がリスク情報の開示をためらう中、同チームは自社製品の弱点も含めて外部に論文を発表します。経営陣はこの透明性を支持しており、規制当局や政策立案者との信頼関係構築につなげていますが、企業価値向上に伴う圧力への懸念も残ります。

今後はAIのIQだけでなく、EQ(感情知能)が人間に与える影響に焦点を当てます。ユーザーがAIに精神的に依存する「AI精神病」などのリスク解明を目指しますが、チャット画面を超えた実社会での行動変容までは追跡しきれない技術的限界にも直面しています。

独JimdoがLangChain採用、個人事業主の注文数が40%増

課題と技術的アプローチ

人事業主の専門知識不足を解決
LangGraphで文脈認識AIを構築
10以上のデータを統合分析

導入効果と今後の展望

初成約の達成率が50%向上
注文や問い合わせが40%増加
提案から実行の自動化へ進化

ドイツのWebサイト作成サービスJimdoは、LangChainを活用したAI「Jimdo Companion」を開発しました。個人事業主が抱える集客や運営の課題に対し、10以上のデータソースを分析して最適な行動を提案します。このAI導入により、ユーザーの注文数が40%増加するなど顕著な成果を上げています。

多くの個人事業主はWebサイトを作成できても、SEOやマーケティングの専門知識が不足しています。その結果、トラフィックやコンバージョンを伸ばせず、効果的な施策を打てないという課題がありました。

開発チームはLangGraph.jsを採用し、状況に応じて動的に判断するAIを構築しました。ユーザーのビジネス状況や過去の行動履歴といった文脈を保持しつつ、複数の分析を並行して実行できる点が特徴です。

「Companion Assistant」はユーザーのブランドトーンを学習し、SEOや予約管理などを支援します。ダッシュボードでは、次に優先すべきアクションを具体的に提示し、意思決定をサポートします。

導入効果は明確で、AI利用者は利用しない層に比べて最初の顧客獲得率が50%高くなりました。単なる集客増だけでなく、提供価値の明確化や価格設定の最適化にも貢献しています。

AIの信頼性を担保するため、LangSmithを用いて回答精度や遅延を監視しています。評価プロセスを確立することで、継続的なプロンプトの改善やバグ修正の迅速化を実現しました。

今後は「アドバイス」から「実行」の自動化へ進化します。設定や最適化を自律的に行うエージェント群を強化し、個人事業主がビジネスの本質に集中できるプラットフォームを目指します。

AIが旅行計画を変革。検索不要の即答力と情報枯渇の懸念

検索エンジンを超えるAIの実力

複雑な条件も即座に回答
広告SEO記事を読む手間なし
天候や駐車条件も柔軟に考慮

利便性の裏にある課題と対策

元記事へのクリック減でWebが衰退
将来的な学習データ枯渇の恐れ
必ず一次情報で裏付け確認

The Vergeの記者が48日間の欧州バンライフを通じ、旅行計画における生成AIの圧倒的な有用性を実証しました。Google検索広告SEO記事で溢れる一方、GeminiChatGPTは複雑な条件を即座に理解し、的確な目的地を提案します。検索時間を短縮し、体験価値を最大化するAIの実力と、その裏にある課題を報告します。

AIの真価は、従来の検索エンジンでは手間取る「複合的な条件」への対応力です。「大型車が駐車できる魅力的な中世の村」といった問いに対し、AIは即座に正解を提示します。複数のサイトを巡回して情報を精査するプロセスを省略し、旅の計画を劇的に効率化しています。

しかし、この利便性はWebメディアの収益を脅かす「Google Zero」問題を加速させます。ユーザーが情報源のサイトを訪れなくなれば、将来的にAIが学習する「人間の体験談」自体が枯渇しかねません。著者はメディア関係者として、この技術革新に複雑な心境を抱いています。

信頼性の担保には注意が必要です。AIは誤情報を生成する可能性があるため、Google Maps等での裏付け確認が不可欠です。AIを「全知のアドバイザー」として活用しつつ、最終確認は人間が行う。このハイブリッドな運用こそが、生産性と正確性を両立させる現代の最適解です。

AdobeがSemrushを19億ドルで買収、AI検索対策へ

買収の概要と評価額

買収総額は約19億ドルの現金取引
1株12ドル、直近終値の約2倍を提示
マーケティング製品群の機能拡充が目的

狙いは「GEO」市場

SEOに加え生成AI検索最適化に注力
AI経由のサイト流入が1200%増
次世代の成長チャネルとして期待

Adobeは19日、SEOプラットフォーム大手のSemrushを約19億ドルで買収すると発表しました。生成AIの普及により急速に変化する検索行動に対応し、同社のデジタルマーケティング分野での競争力を高める狙いがあります。

買収は全額現金で行われ、1株あたり12ドルが支払われます。これは発表前の株価6.89ドルの約2倍にあたるプレミアム価格です。Semrushは従来のSEOに加え、生成AI検索向けの最適化(GEO)にも強みを持ちます。

消費者が情報収集にAIチャットボットを利用するケースが急増しています。Adobeのデータによれば、生成AI経由の小売サイトへの流入は前年比で1200%増加しており、企業にとって無視できない市場となっています。

Semrushはすでに、ChatGPTClaudeなどのAIエンジンに対する可視性を高めるツールを提供しています。Adobeはこの技術を取り込み、SEOとGEOの両面から企業のマーケティング支援を強化します。

AI検索でSEO25%減、次世代『GEO』が新常識に

AI検索が変える常識

従来検索25%減の予測
Google検索多様化・複雑化

新潮流「GEO」の要点

生成AIへの新最適化手法
簡潔で明瞭な回答が鍵
リンク無きブランド言及も重要

Geostar社の自動化戦略

AIエージェントによる自動最適化
学習内容を全顧客で共有・展開

調査会社ガートナーが、AIチャットボットの台頭により従来の検索エンジン利用量が2026年までに25%減少するとの予測を発表しました。企業のオンライン戦略が大きな転換点を迎える中、従来のSEO検索エンジン最適化)に代わる新手法「GEO(生成エンジン最適化)」が急速に注目を集めています。この新領域を先駆けるのが、スタートアップのGeostar社です。

なぜ今、GEOが重要なのでしょうか。ガートナーの予測に加え、プリンストン大学の研究では、AIシステム向けに最適化することで企業のオンラインでの可視性が最大40%向上する可能性が示唆されています。検索インターフェースは従来のGoogle検索だけでなく、AI OverviewChatGPTなどへと多様化・複雑化しており、それぞれ異なるアプローチが求められます。

SEOとGEOは根本的に異なります。従来のSEOがキーワードや被リンク数を重視したのに対し、GEOはAI(大規模言語モデル)がいかに情報を理解し、要約・生成するかに焦点を当てます。AIが求めるのは、冗長な説明ではなく、問いに対する簡潔で明確な回答であり、構造化されたデータ提供が鍵となります。

Geostar社はこの課題に対し、AIエージェントを顧客サイトに直接組み込むという画期的な解決策を提示します。このエージェントは、コンテンツや技術設定を継続的に自動で最適化し、ある顧客で得た知見をネットワーク全体で共有。まさに「代理店レベルの作業をソフトウェアのように拡張する」アプローチです。

GEOの時代では、評価指標も変わります。SEOで重視された「リンク」がなくとも、ニュース記事やSNSでの肯定的なブランド言及自体が、AIの評価に直接影響を与えるようになります。クリックされずとも、AIの回答内でいかに好意的に表示されるかという「インプレッション」が新たな成功指標となるでしょう。

この市場機会を捉えようと多くの企業がGEO分野に参入し、競争が激化しています。特に専門部署を持たない中小企業にとって、AI時代の変化への対応は死活問題です。オンラインで顧客に選ばれ続けるために、GEOへの取り組みはもはや選択肢ではなく、ビジネス存続のための必須戦略と言えるでしょう。

AI検索は人気薄サイトを参照、独研究で判明

AI検索の引用元、その実態

従来検索より人気が低いサイトを引用
検索トップ100圏外のサイトも多数参照
特にGemini無名ドメインを引用する傾向

従来検索との大きな乖離

AI概要の引用元の半数以上がトップ10圏外
同引用元の4割はトップ100圏外
長年のリンク評価とは異なる基準を示唆

ドイツの研究機関が、AI検索エンジンは従来型のGoogle検索などと比較して、人気が低いウェブサイトを情報源とする傾向が強いとの研究結果を発表しました。GoogleのAI概要やGPT-4oなどを調査したところ、引用元の多くが検索上位に表示されないサイトであることが判明。AIによる情報選別の仕組みに新たな論点を提示しています。

この研究は、ドイツのルール大学ボーフムとマックス・プランクソフトウェアシステム研究所が共同で実施しました。研究チームは、GoogleのAI概要やGeminiGPT-4oのウェブ検索モードなどを対象に、同じ検索クエリでの従来型検索結果と比較。情報源の人気度や検索順位との乖離を定量的に分析しました。

分析の結果、生成AIが引用する情報源は、ドメインの人気度を測る指標「Tranco」でランキングが低い傾向が明らかになりました。特にGeminiはその傾向が顕著で、引用したサイトの人気度の中央値は、Trancoのトップ1000圏外でした。従来の人気サイトへの依存度が低いことを示しています。

従来検索との乖離も顕著です。例えば、GoogleのAI概要が引用した情報源のうち53%は、同じクエリでのオーガニック検索結果トップ10に表示されませんでした。さらに、引用元の40%はトップ100にすら入らないサイトであり、AIが全く異なる情報空間を参照している可能性が浮き彫りになりました。

この発見は、AI検索が従来のSEO検索エンジン最適化)やサイトの権威性とは異なる論理で情報を評価していることを示唆します。経営者エンジニアは、AIが生成した情報の裏付けを取るプロセスをこれまで以上に重視する必要があるでしょう。安易な信頼は、ビジネス上の誤判断につながるリスクをはらんでいます。

AI検索時代の新常識、SEOからGEOへ

検索行動のパラダイムシフト

AI経由のトラフィック520%増予測
従来のキーワード検索から対話型AI
大手小売もAI企業と提携加速

GEOが求めるコンテンツ

長文より箇条書きやFAQ形式
具体的で詳細な情報が鍵
AIによるコンテンツ自動生成も活用

SEOとの決定的差異

検索上位とAI引用元の重複率20%未満
当面の目標はROIよりブランド認知

消費者の情報収集がGoogle検索からAIチャットボットへ移行する中、企業のマーケティング戦略が大きな転換点を迎えています。従来の検索エンジン最適化(SEO)に代わり、新たに「生成エンジン最適化(GEO)」が注目されています。これは、ChatGPTのような生成AIに自社製品やサービスを的確に認識・推奨させるための次世代戦略です。

アドビ社の最新レポートによると、今年のホリデーシーズンには、チャットボットやAI検索エンジンからのトラフィックが前年比で最大520%増加すると予測されています。この潮流を捉え、OpenAIは米ウォルマートと提携し、ChatGPT内で直接商品を購入できる仕組みを導入するなど、AIを起点とした商流が現実のものとなりつつあります。

GEOとは、Generative Engine Optimizationの略称です。人々がAIに問いかけるであろう質問を予測し、その回答に自社のコンテンツが引用されるよう最適化する手法を指します。多くの点でSEOの延長線上にありますが、AIが評価する情報の種類が異なるため、全く新しいアプローチが求められます。

GEO専門企業Brandlight社のCEO、イムリ・マーカス氏は、その違いをデータで示します。かつてはGoogle検索上位リンクとAIの引用元には約70%の重複が見られましたが、現在その相関関係は20%未満にまで低下していると指摘。これは、SEOの成功法則がAI時代には通用しにくくなっていることを明確に示唆します。

AIチャットボットは、SEOで評価されがちだった長大なブログ記事よりも、箇条書きやFAQページのようなシンプルで構造化された情報を好む傾向があります。また、ユーザーからの極めて具体的な質問に答えるため、企業は「シボレー・シルバラードとブレイザーではどちらが航続距離が長いか」といった問いに応える詳細で専門的なコンテンツを充実させる必要があります。

LGやエスティローダーといった大手企業もGEO戦略を取り入れています。エスティローダー社の最高技術責任者は「AIモデルは情報の消費の仕方が違う」と述べ、権威ある情報源としてAIに認識されることの重要性を強調します。現在の主な目標は、直接的な売上よりも、まずはブランド認知度を高めることにあります。

興味深いことに、こうしたAI向けに最適化されたコンテンツの作成には、AI自身が活用されています。当初、AIはAIが生成したコンテンツを学習データとして利用しないと推測されていましたが、実際にはその逆の現象が起きており、AIを活用したGEO対策が今後の主流となりそうです。

グーグルに学ぶ「ドットブランド」活用の3要点

セキュリティの抜本的強化

所有者限定でなりすましを防止
フィッシング詐欺対策に有効

SEO資産の安全な移行

検索順位を維持したサイト移行
事前のSEO監査とリダイレクト
ドメイン移管後のエラー監視

ブランドと商標の保護

信頼されるURLを構築
類似ドメインの悪用リスク回避
ブランド認知度の一貫性を確保

Googleが、自社ブランドのトップレベルドメイン(TLD)「.google」の運用から得た3つの重要な教訓を公開しました。2026年に14年ぶりとなる新規TLDの申請機会が訪れるのを前に、独自ドメイン(ドットブランド)の取得を検討する企業にとって、セキュリティSEO、商標保護の観点から貴重な指針となりそうです。

第一の教訓は、セキュリティの劇的な向上です。「.com」のような誰でも登録できるドメインとは異なり、「ドットブランド」は所有者しかドメインを登録できません。これにより、ブランドをかたるフィッシングサイトの作成を根本から防ぎます。Googleは実際に、外部機関が制作するマーケティングサイトを基幹ドメインから分離し、安全性を確保しました。

次に、多くの企業が懸念するSEOへの影響です。Googleは20年分のSEO資産が蓄積された企業情報ページを「google.com/about」から「about.google」へ移行させましたが、検索順位を一切損なうことなく成功させました。事前の監査、適切なリダイレクト設定、移行後の監視といった慎重な計画が成功の鍵となります。

三つ目は商標保護の観点です。「blog.google」のように自社ブランドをTLDとして使うことで、利用者に安全なドメイン構造を認知させることができます。もし「googleblog.com」のようなドメインを宣伝してしまうと、第三者が類似ドメインで利用者を騙す手口を助長しかねません。ブランドの一貫性と信頼性を守る上で極めて重要です。

2026年に迫る新規TLD申請は、企業が自社のデジタルプレゼンスを再定義するまたとない機会です。Googleが共有したこれらの教訓は、ドットブランドという強力な資産を最大限に活用し、競争優位性を築くための実践的なロードマップと言えるでしょう。

USA Todayが自社チャットボット導入、GoogleのAI概要に反撃

出版業界の危機感

Google AI Overviewでトラフィック激減
検索エンジン依存モデルの将来リスクを指摘
著作権侵害への数十億ドルの補償を要求

独自AI「DeeperDive」

Gannettが独自チャットボットDeeperDive発表
220紙以上の自社記事を回答ソースに限定
事実確認を重視し意見記事を除外

技術と収益戦略

開発はTaboolaと連携しOSSを活用
検索ボックスを代替し読者の関心を捕捉
将来的に購買支援エージェント化を目指す

米大手新聞社Gannett(USA Today Network)は、GoogleのAI概要(AI Overview)機能によるウェブトラフィック激減に対抗するため、独自AIチャットボット「DeeperDive」を導入しました。同社CEOのマイク・リード氏は、WIRED AI Power Summitにて発表し、AIがコンテンツを要約することで、出版社へのトラフィックフローが劇的に減少している現状を強く批判しました。この動きは、AIによるメディア業界の収益モデル破壊に対する具体的な反撃策として注目されています。

DeeperDiveは、USA Today Networkの220紙以上の出版物から得たジャーナリズム記事のみに基づいて読者の質問に答える、「AI回答エンジン」です。従来の検索ボックスを置き換え、ユーザーに直接的な回答と関連性の高い記事を提供します。これは、読者が外部のAI企業に行かずとも、信頼できる情報源内で完結させることを目的としています。

DeeperDiveの最大の特徴は、回答の事実正確性を重視している点です。同CEOは、意見記事は参照せず、「実際のジャーナリズム」のみを参照源とすることを強調しました。このツールは広告技術企業Taboolaと共同開発され、複数のオープンソースモデルファインチューニングして構築されています。

リードCEOは、GoogleAI Overviewが「10の青いリンク(従来の検索結果)」を経由するトラフィックを著しく妨害しているとの認識を示しました。この問題は業界全体に及び、SEO最適化に依存する従来のコンテンツ配信モデルに、将来的なリスクをもたらすと警鐘を鳴らしています。

メディア業界のリーダーたちは、AIがコンテンツを学習データとして使用することに対する数十億ドル規模の補償が必要だと主張しています。Condé Nastのロジャー・リンチCEOは、音楽業界がストリーミングサービスとライセンス契約を結んだ状況になぞらえ、AIモデルにとってコンテンツは最も重要なインプットであると訴えています。

GannettはDeeperDiveを通じて読者の関心や意図をより深く理解し、収益化に繋げることを期待しています。次のステップとして、読者の購買決定を支援するエージェント機能を探求する意向を示しています。同社の読者は元々購買意欲が高い層であり、新たな収益源としての可能性を見込んでいるとのことです。