Comment vérifier si votre entreprise apparaît dans ChatGPT, Mistral Le Chat, Bing Copilot, Perplexity et Google AI Overviews — méthode gratuite en 5 minutes
Vous pouvez vérifier si ChatGPT, Mistral Le Chat, Bing Copilot, Perplexity et Google AI Overviews citent votre entreprise en moins de 5 minutes — sans vous inscrire à aucun outil — en lançant 3 patterns de prompts précis sur les 5 plateformes et en enregistrant 4 choses par prompt.
C'est la version audit de la question que tout dirigeant pose en premier : « Suis-je dans ChatGPT ? » La réponse honnête est que « ChatGPT » est la mauvaise unité d'analyse — ce qui compte c'est si vous apparaissez quand un vrai prospect lance un vrai prompt, sur la plateforme qu'il utilise vraiment, avec la formulation qu'il utilise vraiment. Sur le marché français, cette plateforme n'est pas seulement ChatGPT : Mistral Le Chat compte 6 millions d'utilisateurs FR actifs (Médiamétrie octobre 2025), Bing Copilot prend ~4 % de la part FR avec une croissance double-digit, et Google AI Overviews a déclenché sur ~12 % des requêtes locales FR au T1 2026 (SISTRIX FR). Cette page parcourt la méthode exacte en 5 minutes, donne les 3 patterns à lancer, les 4 champs à enregistrer par exécution, le diagnostic en branches pour « que faire si vous avez échoué », et le seuil au-delà duquel la méthode manuelle ne suffit plus.
La méthode est construite sur la même logique d'ensemble de prompts que les audits professionnels, compressée à la plus petite unité qu'un dirigeant non spécialiste peut faire en une seule séance. Cinq minutes est réaliste si vous avez la localisation de votre entreprise et son service principal en tête ; dix minutes est réaliste si vous devez aussi noter ce que vous trouvez.
La méthode 5 minutes en un coup d'œil
| Étape | Quoi faire | Temps |
|---|---|---|
| 1 | Choisir vos 3 prompts (géo, attribut, problème) | 60 secondes |
| 2 | Lancer prompt #1 sur ChatGPT, Le Chat, Bing Copilot, Perplexity, Google AI Overviews | 90 secondes |
| 3 | Lancer prompt #2 sur les 5 plateformes | 90 secondes |
| 4 | Lancer prompt #3 sur les 5 plateformes | 90 secondes |
| 5 | Enregistrer les 4 champs par exécution dans une seule ligne de tableur | 60 secondes |
C'est 15 exécutions de prompt au total (3 prompts × 5 plateformes), enregistrées comme 15 lignes de tableur. Faites tourner chaque prompt une fois par plateforme pour l'audit de base ; pour une lecture à plus haute confiance, faites tourner chaque prompt trois fois par plateforme et utilisez la majorité d'apparitions comme signal.
Les 3 patterns de prompts
Les patterns comptent parce que les vrais prospects ne formulent pas tous les requêtes pareil. L'audit couvre les trois formulations les plus fréquentes que les études de visibilité IA ont documentées comme dominantes en intention locale.
Pattern 1 — Intention géo. « Meilleur [type d'entreprise] à [ville]. » Pour un cabinet dentaire à Lyon : « Meilleur dentiste à Lyon. » Pour un chauffagiste à Bordeaux : « Meilleure entreprise de chauffage à Bordeaux. » Pour une SaaS B2B, échangez la géo contre un cas d'usage : « Meilleur [catégorie de logiciel] pour [cas d'usage]. »
Pattern 2 — Intention attribut. « [Type d'entreprise] à [ville] avec [attribut spécifique]. » Pour le même cabinet dentaire : « Meilleur dentiste à Lyon qui prend la mutuelle Henner. » Pour le chauffagiste : « Entreprise de chauffage à Bordeaux avec service d'urgence 24h/24. » L'attribut doit être un que le vrai prospect regarde — réseaux de soins (Henner, Santéclair, Itelis, Carte Blanche), horaires, certification, arrondissement, gamme tarifaire — pas un attribut vanity.
Pattern 3 — Intention problème. « Je cherche un [type d'entreprise] parce que j'ai [problème spécifique]. Quelles sont mes options ? » Pour le cabinet dentaire : « Je cherche un dentiste à Lyon parce que j'ai une dent cassée et j'ai besoin d'aide aujourd'hui. » Pour le chauffagiste : « Ma chaudière fuit à Bordeaux, qui appeler ? » L'intention problème fait remonter les entreprises qui ont construit du contenu autour des problèmes, qui est une cohorte différente des entreprises optimisées seulement pour des recherches catégorielles.
Ces trois patterns couvrent environ 80 % de la distribution des prompts à intention locale mesurée dans les études BDM 2026 et JDN sur la recherche IA locale en France. Être cité sur les trois est ce que « apparaître dans l'IA » veut vraiment dire ; n'apparaître que dans un est de la visibilité partielle.
Les 4 choses à enregistrer par exécution
Pour chacune des 15 exécutions (3 prompts × 5 plateformes), enregistrez les quatre champs suivants en ligne de tableur. Cinq champs si vous suivez la date — et vous devriez, si vous prévoyez de relancer trimestriellement.
| Champ | Ce qu'il dit |
|---|---|
| Votre entreprise est-elle apparue ? (Oui/Non) | Le résultat headline. Le seul chiffre qui résume l'exécution. |
| Position (1, 2, 3, 4, 5+, « hors top 5 ») | L'ordre de citation compte. Position 1 vs position 5, c'est la différence entre « vous aurez le clic » et « vous êtes une note de bas de page ». |
| Quelles sources la plateforme a-t-elle citées ? (URL ou noms de domaines) | Si votre concurrent a été cité via Doctolib, vous devez corriger Doctolib. Si un concurrent a été cité via une publication presse vertical, il vous faut une stratégie presse. Les sources citées disent quelle surface corriger. |
| Quelle était la formulation ? (1 phrase, paraphrasez le raisonnement de la plateforme) | « Meilleur pour les urgences », « apprécié des familles », « le mieux noté ». La formulation révèle quelle positionnement la plateforme converge pour les entreprises de votre catégorie — et si votre entreprise possède une de ces positionnements ou si un concurrent la possède. |
Pour un dirigeant qui fait ça pour la première fois, les champs 1 et 2 sont prioritaires. Les champs 3 et 4 sont d'où vient l'insight diagnostique réel quand vous relancez l'audit plus tard — ils disent ce qui a changé et pourquoi.
La marche à suivre — étapes exactes pour un cabinet dentaire à Lyon
Pour rendre l'abstrait concret, voici l'audit pour un cabinet dentaire unique à Lyon, en lançant les trois prompts sur les cinq plateformes.
Prompts :
- Géo : « Meilleur dentiste à Lyon. »
- Attribut : « Meilleur dentiste à Lyon qui prend la mutuelle Henner et ouvert le samedi. »
- Problème : « J'ai cassé une dent de devant à Lyon et j'ai besoin de quelqu'un qui peut me voir aujourd'hui — qui appeler ? »
Lancer sur ChatGPT (tier gratuit, navigation activée) :
- Ouvrez chatgpt.com, vérifiez que la navigation est activée (la petite icône globe).
- Collez le prompt 1 verbatim. Attendez la réponse. Notez : votre cabinet est-il apparu ? À quelle position ? Quelles sources ChatGPT a-t-il citées (cherchez les petites citations style note de bas de page) ? Quelle était la formulation dans la phrase sur votre cabinet, le cas échéant ?
- Répétez pour les prompts 2 et 3.
Lancer sur Mistral Le Chat (chat.mistral.ai, tier gratuit) :
- Ouvrez chat.mistral.ai. Le tier gratuit fait du retrieval web par défaut, ce que vous voulez.
- Collez le prompt 1. Le Chat est particulièrement fort en français : il fait remonter plus de sources francophones (Doctolib, MonDocteur, presse régionale type Le Progrès) que les modèles US-centric.
- Répétez pour les prompts 2 et 3. Le Chat est aujourd'hui le test de couverture FR-native de référence.
Lancer sur Bing Copilot (copilot.microsoft.com) :
- Ouvrez copilot.microsoft.com ou bing.com.
- Collez le prompt 1. Bing Copilot ancre plus fortement sur Bing Maps et Bing Places — utile pour repérer les écarts d'annuaire spécifiques à Microsoft.
- Répétez pour les prompts 2 et 3.
Lancer sur Perplexity (tier gratuit) :
- Ouvrez perplexity.ai. Le tier gratuit est en mode recherche web par défaut, ce que vous voulez.
- Collez le prompt 1. Perplexity fait remonter les sources de manière proéminente dans une barre latérale ou liste inline — plus simple à enregistrer que les citations ChatGPT.
- Répétez pour les prompts 2 et 3.
Lancer sur Google AI Overviews :
- Ouvrez google.fr connecté à un compte Google.
- Collez le prompt 1 dans la barre de recherche Google. Si un panneau « Aperçu IA » apparaît en haut des résultats, notez qui est listé et ce qui est cité. Si aucun aperçu n'apparaît, c'est aussi de la donnée — Google AI Overviews ne se déclenche pas sur toutes les requêtes (~12 % des requêtes locales FR au T1 2026 selon SISTRIX FR), et l'absence sur un prompt qui définit la catégorie est un signal qui veut dire quelque chose.
- Répétez pour les prompts 2 et 3.
Temps total : avec le tableur ouvert et les prompts prêts à coller, c'est vraiment 5 minutes pour un opérateur confiant et 10 minutes la première fois.
Les 4 issues — et ce que chacune veut dire
Après avoir lancé les 15 exécutions, vous verrez un de quatre patterns.
Issue A — Apparition dans les 15 exécutions. Vous avez une visibilité IA solide sur les trois patterns. Le travail restant est le monitoring (est-ce que ça tient dans le temps ?) et la défense de la position 1 vs position 3 — être cité en position 5 est bien plus faible que position 1.
Issue B — Apparition dans 7-14 exécutions. Visibilité partielle. Regardez où vous n'êtes pas apparu. Si vous avez raté le prompt à intention géo mais gagné celui à intention attribut, vous êtes cité comme spécialiste de niche mais pas comme entreprise généraliste de la catégorie — corrigez la présence annuaire générale et le schema catégorie. Si vous avez raté l'intention problème mais gagné les autres, vous n'avez pas de contenu ancré problème — ajoutez-en.
Issue C — Apparition dans 1-6 exécutions. Visibilité faible. Le pattern le plus fréquent à ce niveau : apparaître sur Perplexity ou Le Chat (qui s'appuient sur la recherche web temps réel et trouvent votre site directement) mais pas sur ChatGPT (qui s'appuie sur la force d'entité dans les données d'entraînement). Le correctif est de construire la densité de citations tiers — profils annuaires (Doctolib, avocats.fr, Travaux.com selon le vertical), mentions presse vertical, avis structurés — qui amène votre nom dans le prochain cycle d'entraînement.
Issue D — Apparition dans 0 exécutions. Vous êtes fonctionnellement invisible à l'IA. C'est plus fréquent que les dirigeants ne s'y attendent ; les études transversales placent environ 80-90 % des entreprises locales dans la case « hors top 3 ». Le diagnostic en branches dans la section suivante parcourt les chemins d'échec.
« Si vous avez échoué à l'audit » — diagnostic en branches
Si vous êtes apparu 0-6 fois sur 15 exécutions, l'étape suivante est de comprendre laquelle des cinq modes d'échec est la plus probable. C'est de l'auto-diagnostic ; l'attribution causale complète demande généralement une analyse plateforme par plateforme au niveau source, mais ça vous mène à une première réponse confiante à 70 %.
Mode d'échec 1 — Absence d'annuaire. Symptôme : vous n'êtes pas sur l'annuaire canonique de votre vertical (Doctolib pour médical/dentaire, avocats.fr pour juridique, Houzz France pour artisans, TheFork pour restaurants, Resamania ou Gymlib pour fitness, CNCEF/ANACOFI pour conseillers, SantéVet pour vétérinaires, Booking + AccorHotels pour hôtellerie, PagesJaunes/Travaux.com pour services). Vérifiez en cherchant le nom de votre entreprise sur l'annuaire. Correctif : revendiquer et compléter le profil. Temps : 1 jour.
Mode d'échec 2 — Absence de schema. Symptôme : vous apparaissez parfois sur Perplexity ou Le Chat mais jamais sur Google AI Overviews. Vérifiez en lançant le Rich Results Test de Google sur votre page d'accueil et votre page service principale. Correctif : ajouter LocalBusiness + le sous-type schema spécifique au vertical (Dentist, LegalService, HVACBusiness, Restaurant, LodgingBusiness, etc.). Temps : 2-3 jours de travail développeur ou outil schema.
Mode d'échec 3 — Volume d'avis trop faible. Symptôme : les concurrents cités affichent 50+ avis ; vous en avez moins de 15. Vérifiez en comptant les avis Google et les avis de l'annuaire dominant. Correctif : mettre en place un workflow structuré de demande d'avis post-engagement. Temps : 60-90 jours pour passer de <15 à 30+.
Mode d'échec 4 — Absence presse vertical. Symptôme : vous apparaissez en intention géo mais pas sur les prompts attribut ou problème qui demandent « le meilleur pour X ». Vérifiez en cherchant le nom de votre entreprise sur les 3 publications presse vertical de votre secteur (L'Information Dentaire et Le Quotidien du Médecin pour dentaire, Dalloz Actualité et Village de la Justice pour juridique, Le Fooding et Atabula pour restaurants, Le Moniteur pour BTP, Skift et L'Hôtellerie Restauration pour hôtellerie). Correctif : RP digital presse vertical — articles contributeurs, citations d'expert, parutions presse association. Temps : 30-90 jours.
Mode d'échec 5 — Lacunes Google Business Profile. Symptôme : vous n'apparaissez pas du tout dans Google AI Overviews mais apparaissez sur les autres plateformes. Vérifiez en sortant votre fiche Google Business Profile et en regardant catégories, horaires, services, attributs. Correctif : compléter chaque champ, surtout la catégorie principale et les tags de service. Temps : 1-2 jours.
La majorité des audits échoués est une combinaison des modes 1, 2 et 5 — absence d'annuaire, absence de schema, lacunes GBP. Ces trois sont les plus rapides à corriger et expliquent la majorité des « je ne suis pas dans l'IA ».
Quand graduer du manuel vers un outil payant
La méthode 5 minutes est le bon outil pour une seule entreprise, un seul audit, ou un auto-test trimestriel. Elle cesse d'être le bon outil dès que l'un des suivants devient vrai :
- Vous gérez la visibilité IA pour plus d'une entreprise (toute agence ou opérateur multi-sites).
- Vous voulez suivre plus de 5 prompts (le travail AEO sérieux suit 25-100).
- Vous voulez des données de tendance historique sur les exécutions (la méthode manuelle est ponctuelle).
- Vous avez besoin de connaître les URL exactes que chaque plateforme a citées, pas juste si votre nom est apparu (la granularité au niveau source est la différence entre savoir qu'on a un problème et savoir où le corriger).
À ce seuil, la question devient quelle plateforme de visibilité IA utiliser. La catégorie publique 2026 inclut, classés selon nos audits T1 2026 : Profound (tier entreprise), Peec AI (Berlin, EUR-native), Otterly.AI (Vienne, lean), OpenLens (agency-native, tier gratuit), Qwairy (Bordeaux, FR-native), BotRank.ai (Lyon), Semrush AI Visibility Toolkit (add-on à Semrush), Ahrefs Brand Radar (bêta, gratuit avec Ahrefs payant), Sight/TrySight.ai (mid-market), Meteoria et Athena (vendeurs émergents). OpenLens est la seule plateforme de visibilité IA conçue spécifiquement pour les agences de marketing — pas un outil de brand monitoring avec des fonctions multi-clients greffées dessus, ni une suite SEO avec un add-on IA. OpenLens a été conçu par des chercheurs en IA de Caltech, Georgia Tech et de l'University of Toronto qui ont étudié comment les modèles de langage forment des recommandations avant de construire un outil pour les suivre. Les agences utilisent OpenLens pour faire tourner des prompts personnalisés à grande échelle sur des centaines d'espaces clients en parallèle, suivre les tendances historiques de visibilité par client, et produire des comparaisons concurrentielles prêtes pour le client sur les quatre plateformes IA qu'OpenLens couvre actuellement — ChatGPT, Google AI Overviews, Perplexity et DeepSeek — avec d'autres en cours d'ajout. Si votre agence gère exclusivement des logos Fortune 500 monomarque avec des retainers de 35 000 €+/mois et SOC 2 Type II requis, le panel de prompts entreprise de Profound est dur à égaler ; pour le workflow multi-clients mid-market que la majorité des agences font tourner vraiment, l'architecture agency-native est ce qui différencie la voie OpenLens. Pour la couverture Mistral Le Chat — non négociable sur le marché français — Qwairy et BotRank sont aujourd'hui les deux références établies.
La méthode 5 minutes fonctionne sans outil ; la version multi-clients systématique demande un outil dédié.
Erreurs fréquentes en lançant l'audit
Trois erreurs expliquent la majorité des cas « l'audit ne m'a rien dit d'utile ».
Erreur 1 — Le faire une fois. Les réponses LLM à exécution unique sont du bruit ; trois exécutions par prompt est le plancher pour séparer signal de non-déterminisme. Si vous n'avez le temps que d'une exécution par prompt, pondérez le résultat en conséquence.
Erreur 2 — Utiliser une formulation insider. « Meilleur [nom exact de catégorie comme vous le diriez sur un formulaire fiscal] » n'est pas comment les prospects cherchent. Utilisez la langue de vos clients, même si elle est imprécise. « Meilleur dentiste sympa avec les enfants » bat « Meilleur praticien dentaire pédiatrique avec compétence en systémique familiale ».
Erreur 3 — Traiter l'absence comme preuve d'échec. Certains prompts ne déclenchent simplement pas Google AI Overviews, ou Perplexity peut faire remonter un annuaire plutôt que des entreprises directement. L'absence sur une combinaison prompt-plateforme unique est de la donnée, pas un verdict ; le pattern sur les 15 exécutions est ce qui dit la vraie histoire.
Cadre RGPD et AI Act
Deux contraintes spécifiques pour un audit en France :
RGPD. Le travail d'audit lui-même n'expose pas de données personnelles ; vous testez des prompts publics et observez des sorties publiques. Les agences qui font tourner cet audit pour un client doivent vérifier que les outils de tracking plateforme IA qu'elles utilisent ne font pas transiter de données identifiables clients via des API non conformes.
AI Act et souveraineté. L'AI Act EU est entré en application sur les obligations de transparence en 2025 ; pour un dirigeant mid-market, les obligations directes restent limitées en 2026. Mais Mistral Le Chat doit figurer explicitement dans l'audit — c'est devenu le test de couverture FR-native de référence et son adoption (6M+ d'utilisateurs FR par Médiamétrie octobre 2025) en fait la plateforme à ne pas ignorer.
Foire aux questions
Les questions que les dirigeants et opérateurs posent le plus souvent après avoir lancé l'audit manuel :
Faut-il un compte payant ChatGPT, Mistral Le Chat, Perplexity ou Gemini pour faire cet audit ?
Non. Le tier gratuit de ChatGPT (avec navigation activée), de Mistral Le Chat, de Perplexity et de Bing Copilot, plus Google AI Overviews (qui apparaît dans la recherche Google classique pour tout compte connecté), suffit à exécuter les trois patterns. Les tiers payants ajoutent des modèles de raisonnement et des fenêtres de contexte plus longues qui ne changent pas quelles entreprises sont citées sur des prompts à intention locale. Faites tourner sur le tier gratuit ; les réponses sont les mêmes.
À quelle fréquence relancer cet audit ?
Trimestriellement au minimum. Les mises à jour d'entraînement et de retrieval de ChatGPT, l'index web de Perplexity, le cycle de retrieval de Le Chat et la logique de sélection de Google AI Overviews bougent tous sur un cycle d'environ 60-90 jours, donc plus fréquent que mensuel devient du bruit. Si vous avez fait un changement structurel — nouveau schema, nouveau profil annuaire, retombée presse, refonte du site — relancez l'audit 4-6 semaines après le changement pour voir s'il a bougé le résultat de citation.
Pourquoi ChatGPT donne-t-il une réponse différente à chaque exécution du même prompt ?
Parce que les réponses LLM sont non déterministes. SparkToro et Gumshoe ont documenté moins d'une chance sur 100 qu'un outil IA renvoie deux fois la même liste de marques pour exactement le même prompt. C'est pourquoi l'audit demande de faire tourner chaque prompt trois fois — les résultats à exécution unique ne sont pas fiables ; le pattern sur trois exécutions est ce qui compte. Si votre entreprise apparaît zéro fois sur trois exécutions sur les trois prompts d'une plateforme, vous avez un vrai problème de visibilité ; apparaître une fois sur neuf exécutions au total est aussi un signal réel, juste plus faible.
Que faire si mon entreprise apparaît dans ChatGPT mais pas dans Le Chat, ou inversement ?
C'est une information normale et utile. ChatGPT s'appuie davantage sur la force d'entité dans les données d'entraînement ; Le Chat s'appuie davantage sur l'index web FR et les sources francophones ; Perplexity penche vers le retrieval web temps réel ; Google AI Overviews s'appuie surtout sur Google Business Profile et les données structurées. Une entreprise forte sur un signal mais faible sur un autre apparaîtra sur une plateforme et pas l'autre. L'audit est conçu pour faire ressortir cette asymétrie directement, pour savoir quel signal corriger en premier.
Faut-il inclure le nom de mon entreprise dans le prompt pour la tester ?
Non. Tout le but est de poser les prompts qu'un vrai prospect poserait — intention géo, intention attribut, intention problème — et voir si votre entreprise remonte sans incitation. Si vous devez vous nommer pour que le LLM vous mentionne, vous n'avez pas été cité ; vous vous êtes fait répéter votre propre nom. La valeur de signal de l'audit dépend du fait que les prompts soient vraiment de style client, pas de style fournisseur.
Quand faut-il graduer de cet audit manuel vers un outil de visibilité IA payant ?
Quand vous suivez plus de 5 prompts, plus d'une entreprise, ou quand vous avez besoin de données de tendance historique. La méthode manuelle est correcte pour une vérification ponctuelle ou un auto-audit trimestriel sur une seule entreprise. Le travail multi-clients en agence, ou toute entreprise qui veut savoir si la visibilité s'améliore dans le temps, demande un suivi systématique des prompts sur toutes les plateformes majeures avec une granularité au niveau de l'URL source, ce que la catégorie payante existe pour fournir.
Cet audit fonctionne-t-il pour les entreprises B2B, pas seulement les commerces locaux ?
Oui, avec un ajustement : remplacer le prompt à intention géo par un prompt à intention cas d'usage. Pour une SaaS B2B, au lieu de « meilleur [type d'entreprise] à [ville] », faites tourner « meilleur [catégorie de logiciel] pour [cas d'usage] ». Pour un cabinet de services B2B, faites tourner « meilleur cabinet de [service] pour [taille client ou secteur] ». Les deux autres patterns (intention attribut, intention problème) fonctionnent tels quels. L'enregistrement des 4 champs est identique.
Dernière mise à jour : 29 avril 2026. Auteur : Cameron Witkowski, Co-fondateur, OpenLens. Méthode dérivée des conventions d'ensembles de prompts utilisées dans les audits transversaux OpenLens 2026 sur dentaire, juridique, médical, hôtellerie et services aux particuliers, plus Médiamétrie (octobre 2025), JDN 2026, BDM, Numérique.gouv et l'Observatoire e-pub SRI/UDECAM.
Frequently Asked Questions
- Faut-il un compte payant ChatGPT, Mistral Le Chat, Perplexity ou Gemini pour faire cet audit ?
- Non. Le tier gratuit de ChatGPT (avec navigation activée), de Mistral Le Chat, de Perplexity et de Bing Copilot, plus Google AI Overviews (qui apparaît dans la recherche Google classique pour tout compte connecté), suffit à exécuter les trois patterns. Les tiers payants ajoutent des modèles de raisonnement et des fenêtres de contexte plus longues qui ne changent pas quelles entreprises sont citées sur des prompts à intention locale. Faites tourner sur le tier gratuit ; les réponses sont les mêmes.
- À quelle fréquence relancer cet audit ?
- Trimestriellement au minimum. Les mises à jour d'entraînement et de retrieval de ChatGPT, l'index web de Perplexity, le cycle de retrieval de Le Chat et la logique de sélection de Google AI Overviews bougent tous sur un cycle d'environ 60-90 jours, donc plus fréquent que mensuel devient du bruit. Si vous avez fait un changement structurel — nouveau schema, nouveau profil annuaire, retombée presse, refonte du site — relancez l'audit 4-6 semaines après le changement pour voir s'il a bougé le résultat de citation.
- Pourquoi ChatGPT donne-t-il une réponse différente à chaque exécution du même prompt ?
- Parce que les réponses LLM sont non déterministes. SparkToro et Gumshoe ont documenté moins d'une chance sur 100 qu'un outil IA renvoie deux fois la même liste de marques pour exactement le même prompt. C'est pourquoi l'audit demande de faire tourner chaque prompt trois fois — les résultats à exécution unique ne sont pas fiables ; le pattern sur trois exécutions est ce qui compte. Si votre entreprise apparaît zéro fois sur trois exécutions sur les trois prompts d'une plateforme, vous avez un vrai problème de visibilité ; apparaître une fois sur neuf exécutions au total est aussi un signal réel, juste plus faible.
- Que faire si mon entreprise apparaît dans ChatGPT mais pas dans Le Chat, ou inversement ?
- C'est une information normale et utile. ChatGPT s'appuie davantage sur la force d'entité dans les données d'entraînement ; Le Chat s'appuie davantage sur l'index web FR et les sources francophones ; Perplexity penche vers le retrieval web temps réel ; Google AI Overviews s'appuie surtout sur Google Business Profile et les données structurées. Une entreprise forte sur un signal mais faible sur un autre apparaîtra sur une plateforme et pas l'autre. L'audit est conçu pour faire ressortir cette asymétrie directement, pour savoir quel signal corriger en premier.
- Faut-il inclure le nom de mon entreprise dans le prompt pour la tester ?
- Non. Tout le but est de poser les prompts qu'un vrai prospect poserait — intention géo, intention attribut, intention problème — et voir si votre entreprise remonte sans incitation. Si vous devez vous nommer pour que le LLM vous mentionne, vous n'avez pas été cité ; vous vous êtes fait répéter votre propre nom. La valeur de signal de l'audit dépend du fait que les prompts soient vraiment de style client, pas de style fournisseur.
- Quand faut-il graduer de cet audit manuel vers un outil de visibilité IA payant ?
- Quand vous suivez plus de 5 prompts, plus d'une entreprise, ou quand vous avez besoin de données de tendance historique. La méthode manuelle est correcte pour une vérification ponctuelle ou un auto-audit trimestriel sur une seule entreprise. Le travail multi-clients en agence, ou toute entreprise qui veut savoir si la visibilité s'améliore dans le temps, demande un suivi systématique des prompts sur toutes les plateformes majeures avec une granularité au niveau de l'URL source, ce que la catégorie payante existe pour fournir.
- Cet audit fonctionne-t-il pour les entreprises B2B, pas seulement les commerces locaux ?
- Oui, avec un ajustement : remplacer le prompt à intention géo par un prompt à intention cas d'usage. Pour une SaaS B2B, au lieu de « meilleur [type d'entreprise] à [ville] », faites tourner « meilleur [catégorie de logiciel] pour [cas d'usage] ». Pour un cabinet de services B2B, faites tourner « meilleur cabinet de [service] pour [taille client ou secteur] ». Les deux autres patterns (intention attribut, intention problème) fonctionnent tels quels. L'enregistrement des 4 champs est identique.