
「ChatGPTで競合他社の名前は出てくるのに、自社の名前が出てこない」。このような状況に悩むWeb担当者が急増しています。原因は、コンテンツの質や情報量の問題ではなく、AIが自社サイトを「読み取れない状態」になっていることがほとんどです。
本記事では、ChatGPTやPerplexityに自社サイトが引用されない根本的な理由を3つに整理し、それぞれの診断方法と今日から着手できる具体的な改善策を解説します。まず現状を把握したい方は、以下の無料診断ツールで自社サイトのAI対応度を確認してみてください。
60秒でわかる
自社サイトがChatGPTに引用されない理由、診断できます
URLを入力するだけで、AIに引用されない原因をスコアで特定できます。無料ツール「AI対応スコア」で今すぐ確認しましょう。
理由①:AIクローラーをブロックしている
意図せずGPTBotをブロックしているケースが急増
ChatGPTに引用されるためには、まずOpenAI社のクローラー「GPTBot」がサイトにアクセスできる状態でなければなりません。しかし、多くの企業サイトでrob ots.txtに「全ボット拒否(User-agent: * Disallow: /)」の設定が残っており、GPTBotを含むすべてのAIクローラーをブロックしてしまっています。
特に多いのが、スパムボット対策として設定したrob ots.txtがAIクローラーにも影響しているケースです。ChatGPTのGPTBot、PerplexityのPerplexityBot、AnthropicのClaudeBotはすべて2023〜2024年に登場した比較的新しいクローラーであるため、以前に作成されたrob ots.txtでは考慮されていないことがほとんどです。
今日できる対策:robots.txtの確認と修正
まず「https://自社ドメイン/robots.txt」にアクセスして現在の設定を確認してください。「Disallow: /」という記述がGPTBotやPerplexityBotに適用されている場合は、以下のような許可設定を追加します。AI引用を意識するなら、主要なAIクローラーをまとめて許可することを推奨します。
理由②:構造化データが実装されていない
AIはページの「意味」を構造化データから読み取る
AIクローラーがサイトにアクセスできたとしても、次の関門があります。AIがページの内容を正確に「理解」できるかどうかです。ChatGPTなどのAIは、HTMLのテキストを読み取るだけでなく、JSON-LDと呼ばれる構造化データを優先的に解釈して、ページが何についての情報なのかを判断します。
構造化データが実装されていないページは、AIにとって「中身はわかるが、文脈がつかみにくい情報源」です。一方、適切なスキーマが実装されたページは、AI-Readyな状態となり、引用候補として選ばれやすくなります。特にOrganization・Article・FAQ・BreadcrumbListの各スキーマは、AI引用の観点から優先度が高い項目です。
今日できる対策:最優先スキーマの実装
WordPressサイトなら、「Schema & Structured Data for WP & AMP」などのプラグインを使えば、技術的な知識がなくても主要スキーマを実装できます。まずOrganizationスキーマ(組織情報)とArticleスキーマ(記事情報)から着手し、FAQページがあればFAQPageスキーマも追加します。実装後はGoogleのリッチリザルトテストツールで正しく認識されているかを確認してください。
理由③:信頼性シグナルが不足している
AIは「誰が発信しているか」を重要視する
AIは情報の引用先を選ぶ際、「発信者が信頼できるかどうか」を評価します。具体的には、著者プロフィールページが存在するか、Aboutページに組織の詳細情報が記載されているか、代表者の氏名や専門性が明記されているか、連絡先が公開されているかといった「実在性・専門性・透明性」に関わる要素です。
匿名の「編集部」という著者名や、会社概要が数行しかないAboutページでは、AIは信頼性シグナルを読み取れず、引用候補から外れるリスクが高まります。これはGoogleのE-E-A-T(経験・専門性・権威性・信頼性)の概念とも重なる部分であり、SEO施策と並行して整備することが推奨されます。
今日できる対策:著者情報とAboutページの整備
まず著者ページに、名前・顔写真・職歴・専門領域・保有資格・SNSプロフィールへのリンクを追加します。次にAboutページに、設立年・事業内容・代表者情報・所在地・主な実績・メディア掲載歴などを盛り込み、組織の信頼性を具体的に示します。これらをPersonスキーマ・Organizationスキーマと組み合わせることで、AIが読み取れる形式で信頼性情報を提供できます。
3つの対策を同時に進めるためのロードマップ
Week 1:クローラー解放と基盤整備
最初の1週間は、AIクローラーのアクセス環境を整えることに集中します。robots.txtの修正に加えて、HTTPSが適切に設定されているか、サイトマップがGoogleサーチコンソールに登録されているかも確認します。サイトマップはAIクローラーのクロール効率にも影響するため、この段階で整備しておくことを推奨します。
Week 2〜3:構造化データの段階的実装
2〜3週目は構造化データの実装に着手します。最優先はOrganizationスキーマ(サイト全体に適用)とArticleスキーマ(ブログ・コラム記事に適用)の2種類です。FAQページやQ&Aコンテンツがあれば、FAQPageスキーマも並行して追加します。実装後はGoogleのリッチリザルトテストで動作確認を行い、エラーがあれば修正してから次に進みます。
Month 2〜3:信頼性コンテンツの充実
信頼性シグナルの整備は継続的な作業になります。著者プロフィールページの作成・充実、Aboutページのリライト、代表者・スタッフの顔写真と経歴の追加、メディア掲載歴や受賞歴の記載などを順次進めます。これらはSEOのE-E-A-T強化にも直結するため、広報・コンテンツマーケティングの一環として位置づけると継続しやすくなります。
まとめ:「引用されない」は改善できる
ChatGPTに自社サイトが引用されない原因は、コンテンツの品質の問題よりも、AIがサイトを「読み取れない状態」になっていることがほとんどです。AIクローラーのブロック解除・構造化データの実装・信頼性シグナルの整備という3つの対策を優先度順に進めることで、AI引用獲得の可能性は大きく高まります。
まず自社サイトがどの原因に当てはまるかを無料ツールで確認し、改善計画を立てるところから始めましょう。各施策の詳細については、LLMOチェックリスト完全版も合わせてご参照ください。
あわせて読みたい
よくある質問
ChatGPTに引用されているかどうか、どうやって確認できますか?
最も直接的な方法は、自社の専門領域に関連する質問をChatGPTやPerplexityに実際に入力して、回答の中に自社サイトのURLや社名が登場するかを確認することです。ただし、AIの回答は毎回異なるためサンプル数を増やす必要があります。また、Perplexityは回答の出典リンクを明示する仕様のため、確認がしやすいツールです。並行して「AI対応スコア」でスコアを確認することで、引用される可能性を客観的に評価できます。
robots.txtを変更すると、Googleランキングに悪影響はありますか?
GPTBot・PerplexityBot・ClaudeBotの許可設定を追加しても、Googlebotのクロール設定には影響しません。robots.txtはUser-agentごとに個別に設定できるため、Googlebotへの指示はそのままで、AIクローラーのみ許可するような記述が可能です。既存のGooglebot関連の設定を変更しないように注意しながら、AIクローラーの許可行を追記するだけで対応できます。
構造化データはすべてのページに実装する必要がありますか?
理想的にはすべてのページに適切なスキーマを実装することが望ましいですが、優先順位をつけて段階的に対応することを推奨します。最初にOrganizationスキーマをサイト全体(トップページ)に適用し、次にブログ・コラム記事にArticleスキーマを追加します。その後、商品ページにProductスキーマ、FAQコンテンツにFAQPageスキーマという順序で拡張するのが効率的です。
競合他社がすでにChatGPTに引用されている場合、追いつけますか?
対応できます。AI引用においては「先行者利益」はGoogleランキングほど大きくありません。AIは常に最新情報を参照するため、構造化データと信頼性シグナルを整備したサイトは、対応完了後比較的早期に引用対象として認識されるようになります。ただし、コンテンツの専門性・具体性という面での品質差が大きい場合は、コンテンツのリライトや追加も並行して進める必要があります。
対応後、どれくらいでChatGPTに引用され始めますか?
robots.txt修正と構造化データ実装後、AIクローラーがサイトを再クロールするまでに数日〜2週間程度かかります。その後、ChatGPTのトレーニングデータへの反映には時間がかかることがありますが、Perplexityのようにリアルタイム検索を行うAIツールでは比較的早く変化が現れます。まずPerplexityでの引用状況を定点観測しながら、ChatGPTでの引用獲得を目指すというアプローチが現実的です。
自社でできない場合、どこに相談すればよいですか?
robots.txtの修正やWordPressプラグインによる構造化データの実装は、技術的な知識がある方なら自社で対応できます。難しい場合は、LLMO対策の実績があるWeb制作会社やSEOコンサルタントに依頼することを検討してください。構造化データの実装やAI対応施策を専門とする会社も増えているため、「LLMO対策」「AI検索対策」を対応可能としている会社に問い合わせると良いでしょう。
CONTACT
Web集客のお悩み、一緒に解決しませんか?
「何から手をつければいいか分からない」「施策を実行するリソースがない」——
外部Web責任者として、戦略立案から施策の実行・改善まで伴走します。
