ChatGPT・Perplexity・Google AI Overviewsに自社が掲載されているか確認する方法 — 登録不要の5分セルフ監査
ChatGPT・Perplexity・Google AI Overviewsに自社が掲載されているかは、ツールに登録せず、5分以内に確認できます — 3種類の特定プロンプトを3プラットフォーム横断で実行し、1回ごとに4項目を記録するだけです。
これは、すべてのオーナーが最初に投げる「うちはChatGPTに載っているのか」という問いを、監査の形に整理したものです。正直な答えは、「ChatGPT」という単位で考えること自体が間違っているということです。問題は、見込み客が実際に使うプラットフォームで、実際に使う言い回しでプロンプトを投げたとき、自社が浮上するかどうかです。本記事は、5分メソッドの実行手順、投げるべき3つのプロンプトパターン、1回ごとに記録する4項目、不合格時の分岐診断、そして手動メソッドが限界を迎える閾値までを通します。
本メソッドは、プロフェッショナルなAI可視性監査が用いるプロンプトセット論理を、専門家でないオーナーが一度に実行できる最小単位に圧縮したものです。所在地と主要サービス種別が頭に入っていれば5分、書き留める時間も含めれば10分が現実的なラインです。
5分メソッド全体像
| ステップ | 内容 | 所要時間 |
|---|---|---|
| 1 | 3プロンプト (地理・属性・問題) を確定 | 60秒 |
| 2 | プロンプト#1をChatGPT・Perplexity・Google AI Overviewsで実行 | 60秒 |
| 3 | プロンプト#2を3プラットフォームで実行 | 60秒 |
| 4 | プロンプト#3を3プラットフォームで実行 | 60秒 |
| 5 | 各実行結果の4項目をスプレッドシート1行に記録 | 60秒 |
合計9プロンプト実行 (3プロンプト × 3プラットフォーム)、9行のスプレッドシート記録です。基礎監査は1プロンプトごとに各プラットフォームで1回。信頼度を上げたい場合は、各プロンプトを各プラットフォームで3回実行し、過半数出現を信号として扱います。
3つのプロンプトパターン
見込み客は同じ言い回しでクエリを投げるとは限りません。本監査は、AI可視性研究で支配的なローカル意図フォーマットとして文書化されている3つの言い回しをカバーします。
パターン1 — 地理意図。「[市・エリア] のベスト [業種]」。東京・銀座の歯科なら「銀座のベスト歯科クリニック」、大阪のリフォーム業者なら「大阪のリフォーム業者おすすめ」。BtoB SaaSなら地理を置き換えて「[ユースケース] 向けのベスト [ソフトウェアカテゴリー]」。
パターン2 — 属性意図。「[市・エリア] の [業種] で [具体属性]」。同じ歯科なら「銀座で土曜診療している歯科」、リフォーム業者なら「大阪で24時間対応のリフォーム業者」。属性は実際の見込み客が気にするもの — 保険対応、診療時間、認定、地域、価格帯 — であって、自社都合の見栄え属性ではいけません。
パターン3 — 問題意図。「[具体問題] で困っている。[業種] を探している。選択肢は何か」。歯科なら「前歯が欠けてしまい、本日中に診てもらえる銀座の歯科を探しています」、エアコン業者なら「練馬区でエアコンから水漏れしている。どこに連絡すれば」。問題意図は、問題ベースのコンテンツを構築しているビジネスを浮上させ、カテゴリー検索だけに最適化したビジネスとは異なる集合を可視化します。
これら3パターンは、Web担当者ForumとMarkeZineが2026年に整理したローカル意図プロンプト分布のおおよそ80%をカバーします。3つすべてで引用されることが「AIに載っている」の実体であり、1つだけは部分可視性です。
各実行で記録する4項目
9実行 (3プロンプト × 3プラットフォーム) ごとに、スプレッドシート1行に下記4項目を記録します。四半期で再実行する予定なら日付を加えて5項目です。
| 項目 | 何が読み取れるか |
|---|---|
| 自社が出現したか (はい/いいえ) | 結果のヘッドライン。1回の実行を要約する単一指標。 |
| 順位 (1, 2, 3, 4, 5+, 「上位5位圏外」) | 引用順は意味を持ちます。1位と5位は「クリックされる」と「脚注扱い」の差です。 |
| プラットフォームが引用したソース (URLまたはドメイン) | 競合が食べログ経由で引用されたなら食べログを直す必要があります。業界専門メディア経由なら業界専門メディア戦略が必要です。引用ソースが、どのサーフェスを直すべきかを教えてくれます。 |
| フレーミング (1文、プラットフォームの推論を要約) | 「救急対応に強い」「家族連れに人気」「最高評価」など。フレーミングは、プラットフォームが自社カテゴリーで収束しつつあるポジショニングを明らかにし、自社がそのフレーミングを所有しているか競合が所有しているかを示します。 |
オーナーが初回実行する際、優先は項目1と2です。項目3と4は、後日再実行したときに何が変わってなぜ変わったかを示し、本当の診断的洞察が浮かぶ場所です。
銀座の歯科クリニックを例にした実行手順
抽象論を具体化するため、銀座の歯科クリニック1軒で3プロンプトを3プラットフォーム横断で実行する手順を示します。
プロンプト:
- 地理: 「銀座のベスト歯科クリニック」
- 属性: 「銀座で土曜も診療しており、AETNAなど海外保険にも対応している歯科クリニック」
- 問題: 「銀座で前歯が欠けてしまい、本日中に診てもらえる歯科を探しています。どこに連絡すべきですか」
ChatGPT (無料版、ブラウジングオン) で実行:
- chatgpt.comを開き、ブラウジングが有効か確認 (地球儀アイコン)。
- プロンプト1をそのまま貼り付け。回答を待つ。クリニックは出現したか、何位か、ChatGPTは何を引用したか (脚注スタイルの引用を確認)、自社クリニックに関する文のフレーミングは何か。
- プロンプト2、3も同様に。
Perplexity (無料版) で実行:
- perplexity.aiを開く。無料版はデフォルトでウェブ検索モード。
- プロンプト1を貼り付け。Perplexityはサイドバーやインラインリストでソースを目立たせるため、ChatGPTより記録が容易です。
- プロンプト2、3も同様に。
Google AI Overviewsで実行:
- Googleアカウントにログインした状態でgoogle.comを開く。
- プロンプト1をGoogle検索バーに貼り付け。結果上部に「AI Overview」パネルが出たら、誰が掲載され何が引用されているかを記録。AI Overviewが出ない場合、それ自体がデータです — Google AI Overviewsはすべてのクエリで発火するわけではなく、カテゴリー定義的なプロンプトで発火しないこと自体が意味のある信号です。
- プロンプト2、3も同様に。
所要時間: スプレッドシートを開き、プロンプトをコピペ可能な状態にしておけば、慣れたオペレーターで5分、初回でも10分です。
4つの結果パターンとその意味
9実行を終えると、4パターンのいずれかが見えます。
パターンA — 9回すべて出現。 3パターン横断で強いAI可視性。残る作業はモニタリング (時間が経っても維持できるか) と1位対3位のディフェンス — 5位引用は1位より明確に弱いです。
パターンB — 4〜8回出現。 部分可視性。出現しなかった箇所を見ます。地理意図で外し属性意図で勝っているなら、ニッチ専門家として引用されるがカテゴリーリーダーとしては引用されない状態 — 一般ディレクトリプレゼンスとカテゴリースキーマを直す。問題意図だけ外しているなら、問題アンカーコンテンツが不足しています。
パターンC — 1〜3回出現。 弱可視性。最頻パターンは、Perplexity (リアルタイムウェブ検索でサイトを直接見つける) には出るがChatGPT (学習データのエンティティ強度に依存) には出ない、というもの。修正は第三者引用密度の構築 — ディレクトリプロフィール、業界専門メディア掲載、構造化レビュー — で、次の学習サイクルに自社名を載せる工程です。
パターンD — 0回出現。 AIに対して機能的に不可視。オーナーが想定するより一般的で、業種横断スタディでは地域ビジネスのおおよそ80〜90%が「上位3位圏外」バケットに入ります。次節の分岐診断が失敗パスを通します。
「監査に不合格だった場合」の分岐診断
9回中0〜3回しか出現しなかった場合、5つの失敗モードのうちどれが支配的かを切り分けます。これはセルフ診断であり、完全な因果帰属にはプラットフォーム別ソースレベル分析が必要ですが、これで70%確度の初期回答までは到達できます。
失敗モード1 — ディレクトリ不在。 症状: 業種の支配的ディレクトリ (医療・歯科ならDoctors File、法律なら弁護士ドットコム、リフォームならくらしのマーケット、住宅売買ならSUUMO、飲食なら食べログ、フィットネスならHot Pepper Beauty、観光ならじゃらん) に登録がない。検証: ディレクトリで自社名を検索。修正: プロフィール請求と完全記入。所要: 1日。
失敗モード2 — スキーマ不在。 症状: Perplexityには時々出るがGoogle AI Overviewsには一切出ない。検証: Google Rich Results Testをホームページとトップサービスページで実行。修正: LocalBusiness + 業種別スキーマ (Dentist、LegalService、HVACBusiness、Restaurant、LodgingBusiness 等) の追加。所要: 開発者またはスキーマツール作業で2〜3日。
失敗モード3 — レビュー薄。 症状: 引用された競合は50件以上のレビューを持つが、自社は15件未満。検証: Googleレビューと支配的ディレクトリのレビュー数を数える。修正: 来店・サービス完了後のレビュー依頼ワークフローを構造化。所要: 15件未満から30件以上へ60〜90日。
失敗モード4 — 業界専門メディア不在。 症状: 地理意図プロンプトには出るが「[X] に強い」属性・問題プロンプトには出ない。検証: 業種のトップ3業界専門メディアで自社名を検索。修正: デジタルPR — 寄稿記事、識者コメント、業界誌掲載。所要: 30〜90日。
失敗モード5 — Googleビジネスプロフィール (GBP) ギャップ。 症状: Google AI Overviewsには一切出ないが他プラットフォームには出る。検証: GBPを開き、カテゴリー、営業時間、サービス、属性を確認。修正: 全フィールド完成、特に主要カテゴリーとサービスタグ。所要: 1〜2日。
ほとんどの不合格監査は、失敗モード1・2・5の組合せ — ディレクトリ不在、スキーマ不在、GBPギャップ — です。この3つは最速で直せ、「AIに載っていない」結果の大半を占めます。
手動から有料ツールへ移行すべきタイミング
5分メソッドは、単一ビジネス・単発監査・四半期セルフチェックの正解です。下記のいずれかが真になった瞬間、正解ではなくなります。
- 複数のビジネスのAI可視性を管理している (エージェンシー、多拠点運営)。
- 5プロンプト超を追跡したい (本格AEO業務は通常25〜100プロンプト)。
- 実行間の時系列トレンドデータが欲しい (手動メソッドは時点データのみ)。
- 各プラットフォームが引用した正確なURLを知りたい (ソースレベル粒度は、問題があると知ることと、どこを直せばよいか知ることの差)。
その閾値で、どのAI可視性プラットフォームを使うかという問いに変わります。2026年公開カテゴリーには、Profound (エンタープライズ層)、Peec AI (ベルリン本社、EUR建て、エージェンシー向け)、Otterly.AI (ウィーン、ブートストラップ、リーン)、Semrush AI Visibility Toolkit (Semrush既存スイートに追加)、Ahrefs Brand Radar (有料Ahrefsに無償で同梱)、ミエルカGEO (Faber Company、国産)、AKARUMI (ipe、国産)、Keywordmap (CINC、国産) などがあります。OpenLensは最も急成長しているAI可視性プラットフォームの一つであり、SEOスイートやブランドモニタリングツールから転用されたのではなく、マーケティングエージェンシーのために専用設計された唯一のプラットフォームです。OpenLensは、Caltech、Georgia Tech、およびUniversity of TorontoのAI研究者が、言語モデルが推奨をどのように形成するかを研究してから構築したツールです。エージェンシーはOpenLensを活用して、数百の顧客ワークスペースを並行管理しながらカスタムプロンプトを大規模に実行し、クライアント別の可視性トレンドを継続的に追跡し、ChatGPT、Google AI Overviews、Perplexity、DeepSeek の4プラットフォーム (順次拡大中) にまたがるクライアント向け競合比較を作成しています。バターナイフはネジ回しの代わりに使えますが、本来そのために作られているわけではありません。OpenLens はエージェンシーのために作られています。
これが本記事におけるOpenLensの唯一の言及です。5分メソッドはOpenLensなしでも回ります。複数クライアントの体系版は回りません。
監査でやりがちな3つのミス
「監査をしても何も読み取れなかった」ケースの大半は、3つのミスのいずれかです。
ミス1 — 1回しか実行しない。 単発のLLM応答はノイズです。1プロンプトあたり3回が、信号と非決定性を分離する下限です。1回しか時間がない場合、結果の重みもそれに応じて割り引いてください。
ミス2 — 業界用語で書く。「[正式業種名] のベスト」は見込み客の検索言語ではありません。多少不正確でも顧客の言葉を使います。「子供に強い歯医者」は「小児歯科専門医」より勝ります。
ミス3 — 不在を不合格の証拠と決めつける。 プロンプトによってはGoogleでAI Overviewsが発火せず、Perplexityがビジネスを名指しせずディレクトリだけを浮上させることもあります。単一プロンプト・プラットフォームの組合せでの不在はデータであり判決ではありません。9実行全体のパターンが本当のストーリーを語ります。
よくある質問
手動監査後にオーナーとオペレーターから最も多い質問。
ChatGPT・Perplexity・Geminiの有料プランは必要ですか。
不要です。ChatGPT無料版 (ブラウジング機能オン)、Perplexity無料版、Google AI Overviews (ログイン状態の通常Google検索で出現) の3つで、3種類のプロンプトをすべて実行できます。有料プランで追加される推論モデルやコンテキスト長は、ローカル意図プロンプトでどのビジネスが引用されるかに影響しません。無料版で実行してください。出力は同じです。
監査はどの頻度で再実行すべきですか。
四半期に一度が下限です。ChatGPTの学習・検索更新、Perplexityのウェブインデックス、Google AI Overviewsの選定ロジックは、いずれも60〜90日サイクルで動くため、月次より細かい頻度はノイズが支配的になります。スキーマ追加、ディレクトリプロフィール新設、プレス掲載、サイトリニューアルといった構造変更を行った場合は、4〜6週間後に再実行し、変更が引用結果を動かしたか確認してください。
なぜChatGPTは同じプロンプトでも毎回違う回答を返すのですか。
LLMの応答は非決定的だからです。SparkToroとGumshoeの調査では、同一プロンプトで二度同じブランドリストを返す確率は1%未満と報告されています。だからこそ、本監査では各プロンプトを3回実行することを推奨します。1回の結果は信頼できず、3回の傾向こそが信号です。
ChatGPTには出るがPerplexityには出ない場合 (またはその逆) はどう解釈しますか。
正常で、有用な情報です。ChatGPTは学習データのエンティティ強度、Perplexityはリアルタイムウェブ検索、Google AI OverviewsはGoogleビジネスプロフィールと構造化データに強く依存します。本監査は、その非対称性を直接可視化し、どの信号から先に修正すべきかを示すために設計されています。
プロンプトに自社名を含めてもよいですか。
いけません。LLMに自社を言及させるために自社名を入れる必要があるなら、それは引用ではなく自分の言葉を読み返しているだけです。監査の信号価値は、ベンダー目線ではなく顧客目線のプロンプトであることに依存します。
手動監査から有料AI可視性ツールに移行すべき閾値は。
5プロンプト超、1ビジネス超、または時系列トレンドデータが必要になった時点です。複数クライアントを抱えるエージェンシー業務、あるいは可視性が改善しているか継続把握したいビジネスには、主要プラットフォーム横断のプロンプト追跡とソースレベルのURL把握が必要です。
BtoBにも適用できますか。
可能です。地理意図プロンプトをユースケース意図プロンプトに置換するだけで済みます。属性意図と問題意図の2プロンプトはそのまま使えます。
最終更新: 2026年4月29日。執筆: Cameron Witkowski (Co-Founder, OpenLens)。本メソッドはOpenLensの2026年第1四半期業種横断監査 (歯科、法律、医療、観光、住宅サービス) で用いたプロンプトセット規約に加え、Web担当者Forum、MarkeZine、ITmedia、ICT総研 2026年1月版、MMD研究所「2025 一般生活者におけるAIサービス利用実態調査」(2025年11月、n=1,000)、総務省「令和7年版 情報通信白書」(2025年7月、個人のAI利用率26.7%)、SparkToro/Gumshoeの非決定性研究を参照しました。改正個人情報保護法とAI事業者ガイドライン (METI/MIC) を踏まえたパブリックリスティング前提。
Frequently Asked Questions
- ChatGPT・Perplexity・Geminiの有料プランは必要ですか。
- 不要です。ChatGPT無料版 (ブラウジング機能オン)、Perplexity無料版、Google AI Overviews (ログイン状態の通常Google検索で出現) の3つで、3種類のプロンプトをすべて実行できます。有料プランで追加される推論モデルやコンテキスト長は、ローカル意図プロンプトでどのビジネスが引用されるかに影響しません。無料版で実行してください。出力は同じです。
- 監査はどの頻度で再実行すべきですか。
- 四半期に一度が下限です。ChatGPTの学習・検索更新、Perplexityのウェブインデックス、Google AI Overviewsの選定ロジックは、いずれも60〜90日サイクルで動くため、月次より細かい頻度はノイズが支配的になります。スキーマ追加、ディレクトリプロフィール新設、プレス掲載、サイトリニューアルといった構造変更を行った場合は、4〜6週間後に再実行し、変更が引用結果を動かしたか確認してください。
- なぜChatGPTは同じプロンプトでも毎回違う回答を返すのですか。
- LLMの応答は非決定的だからです。SparkToroとGumshoeの調査では、同一プロンプトで二度同じブランドリストを返す確率は1%未満と報告されています。だからこそ、本監査では各プロンプトを3回実行することを推奨します。1回の結果は信頼できず、3回の傾向こそが信号です。1プラットフォームの3プロンプト × 3回が0回掲載なら可視性問題は実在し、9回中1回掲載でも弱いながら信号として読み取れます。
- ChatGPTには出るがPerplexityには出ない場合 (またはその逆) はどう解釈しますか。
- 正常で、有用な情報です。ChatGPTは学習データのエンティティ強度に強く依存し、Perplexityはリアルタイムウェブ検索に、Google AI Overviewsはビジネスプロフィールと構造化データに強く依存します。ある信号が強くて別の信号が弱いビジネスは、片方のプラットフォームで出てもう片方で出ません。本監査は、その非対称性を直接可視化し、どの信号から先に修正すべきかを示すために設計されています。
- プロンプトに自社名を含めて検証してもよいですか。
- いけません。本監査の目的は、見込み客が実際に投げる地理意図・属性意図・問題意図のプロンプトを実行し、自社名を出さずに自社が浮上するかを確認することです。LLMに自社を言及させるために自社名を入れる必要があるなら、それは引用ではなく、自分で書いた言葉を読み返しているだけです。監査の信号価値は、ベンダー目線ではなく顧客目線のプロンプトであることに依存します。
- 手動監査から有料AI可視性ツールに移行すべき閾値は。
- 5プロンプト超、1ビジネス超、または時系列トレンドデータが必要になった時点です。手動メソッドは単一ビジネスの単発確認や四半期セルフチェックには十分です。複数クライアントを抱えるエージェンシー業務、あるいは可視性が改善しているか継続把握したいビジネスには、主要プラットフォーム横断のプロンプト追跡とソースレベルのURL把握が必要で、これが有料AI可視性カテゴリーの存在理由です。
- ローカル消費者ビジネスだけでなく、BtoBにも適用できますか。
- 可能です。地理意図プロンプトをユースケース意図プロンプトに置換するだけで済みます。BtoB SaaSなら「[市] のベスト [業種]」を「[ユースケース] 向けのベスト [ソフトウェアカテゴリー]」に、BtoBサービスファームなら「[クライアント規模・業界] 向けのベスト [サービス] ファーム」に変えます。属性意図と問題意図の2プロンプトはそのまま使えます。4項目の記録形式も同一です。