Hoe je controleert of je bedrijf in ChatGPT, Google AI Overviews, Perplexity en DeepSeek verschijnt — een gratis methode van 5 minuten
Je kunt in onder 5 minuten controleren of ChatGPT, Google AI Overviews, Perplexity en DeepSeek — de vier OpenLens-kernplatforms — je bedrijf noemen, met Bing Copilot als optionele NL-context, zonder je voor een tool aan te melden, door 3 specifieke promptpatronen te draaien en 4 dingen per prompt vast te leggen.
Dit is de auditversie van de vraag die elke ondernemer als eerste stelt: "Sta ik in ChatGPT?" Het eerlijke antwoord is dat "ChatGPT" de verkeerde analyse-eenheid is — wat telt is of je verschijnt wanneer een echte prospect een echte prompt draait, op het platform dat ze daadwerkelijk gebruiken, met de framing die ze daadwerkelijk gebruiken. Voor Nederland is Bing Copilot bovendien relevante NL-marktcontext: ongeveer 12% van het AI-assistentengebruik volgens DDMA 2026, ver vooruit op de meeste EU-buurmarkten — maar Copilot's output is grotendeels downstream van GPT-4-klasse modellen, dus de citaties weerspiegelen meestal wat ChatGPT en Google AI teruggeven, en het valt buiten OpenLens's vier getrackte kernplatforms. Dit stuk doorloopt de exacte methode van 5 minuten, geeft je de 3 promptpatronen, de 4 vast te leggen velden, de vertakte diagnose voor "wat te doen als je faalt", en de drempel waarop de handmatige methode niet meer voldoende is.
De methode is gebouwd op dezelfde promptset-logica die professionele AI-zichtbaarheidsaudits gebruiken, gecomprimeerd tot de kleinste eenheid die een niet-specialist in één zitting kan draaien. Vijf minuten is realistisch als je de locatie en het primaire dienstentype van je bedrijf paraat hebt; tien minuten is realistisch als je ook moet opschrijven wat je vindt.
De methode in één oogopslag
| Stap | Wat te doen | Tijd |
|---|---|---|
| 1 | Kies je 3 prompts (geo, attribuut, probleem) | 60 seconden |
| 2 | Draai prompt #1 op ChatGPT, Google AI Overviews, Perplexity, DeepSeek | 60 seconden |
| 3 | Draai prompt #2 op alle 4 de kernplatforms | 60 seconden |
| 4 | Draai prompt #3 op alle 4 de kernplatforms | 60 seconden |
| 5 | Leg de 4 velden per run vast in één spreadsheet-rij | 60 seconden |
Dat is 12 promptruns totaal (3 prompts × 4 OpenLens-kernplatforms), vastgelegd als 12 spreadsheet-rijen. Bing Copilot kun je optioneel meenemen voor NL-context (12% volume), maar de citaties weerspiegelen meestal dezelfde GPT-4-klasse outputs die ChatGPT teruggeeft. Draai elke prompt eenmaal per platform voor de basisaudit; voor een hogere zekerheid, draai elke prompt drie keer per platform en gebruik meerderheidsverschijning als signaal.
De 3 promptpatronen
De patronen tellen omdat echte prospects niet allemaal vragen op dezelfde manier formuleren. De audit dekt de drie meest voorkomende formuleringen die AI-zichtbaarheidsstudies hebben gedocumenteerd als de dominante lokale-intentievormen.
Patroon 1 — Geo-intentie. "Beste [bedrijfstype] in [stad]." Voor een Amsterdamse tandartspraktijk: "Beste tandarts in Amsterdam." Voor een Rotterdams installatiebedrijf: "Beste installatiebedrijf in Rotterdam." Voor een B2B SaaS-bedrijf, ruil de geo voor een use-case: "Beste [softwarecategorie] voor [use case]."
Patroon 2 — Attribuut-intentie. "[Bedrijfstype] in [stad] met [specifiek attribuut]." Voor dezelfde tandartspraktijk: "Beste tandarts in Amsterdam die nieuwe patiënten aanneemt." Voor een installatiebedrijf: "Installatiebedrijf in Rotterdam met 24-uurs spoeddienst." Het attribuut moet er één zijn waar een echte prospect om geeft — verzekeringsacceptatie (Zilveren Kruis, Achmea), openingstijden, certificering, wijk, prijsklasse — niet een ijdelheidsattribuut.
Patroon 3 — Probleem-intentie. "Ik zoek een [bedrijfstype] omdat ik [specifiek probleem]. Wat zijn mijn opties?" Voor de tandartspraktijk: "Ik zoek een tandarts in Amsterdam omdat ik een afgebroken tand heb en vandaag hulp nodig heb." Voor het installatiebedrijf: "Mijn cv-ketel lekt water in Utrecht, wie moet ik bellen?" Probleem-intentie brengt bedrijven naar boven die content rond problemen hebben gebouwd, een ander cohort dan bedrijven die alleen voor categoriezoekopdrachten zijn geoptimaliseerd.
Deze drie patronen dekken ongeveer 80% van de lokale-intentie promptverdeling die DDMA en BrightLocal in 2026 hebben gemeten. Geciteerd worden op alle drie is wat "in AI verschijnen" daadwerkelijk betekent; in slechts één verschijnen is gedeeltelijke zichtbaarheid.
De 4 dingen om per run vast te leggen
Voor elk van de 12 promptruns, leg de volgende vier velden vast in een spreadsheet-rij. Vijf velden als je datum tracket — en dat zou je moeten doen, als je per kwartaal opnieuw draait.
| Veld | Wat het je vertelt |
|---|---|
| Verscheen je bedrijf? (Ja/Nee) | De koputkomst. Het enkele getal dat de run samenvat. |
| Positie (1, 2, 3, 4, 5+, "niet in top 5") | Citatievolgorde matter. Positie 1 vs positie 5 is het verschil tussen "je krijgt de klik" en "je bent een voetnoot." |
| Welke bronnen citeerde het platform? (URLs of domeinnamen) | Als je concurrent via ZorgkaartNederland werd geciteerd, moet je ZorgkaartNederland fixen. Als een concurrent via Emerce werd geciteerd, heb je een vakmedia-strategie nodig. De geciteerde bronnen vertellen je welk oppervlak je moet fixen. |
| Wat was de framing? (1 zin, parafraseer de redenering van het platform) | "Beste voor spoedgevallen," "populair bij gezinnen," "hoogst beoordeeld." De framing onthult welke positionering het platform converteert. |
Voor een bedrijfseigenaar die dit voor het eerst draait, zijn velden 1 en 2 de prioriteit. Velden 3 en 4 zijn waar het werkelijke diagnostische inzicht vandaan komt wanneer je de audit later opnieuw draait.
De doorloop — exacte stappen voor een Amsterdamse tandartspraktijk
Om het abstracte concreet te maken, hier is de audit voor een enkele Amsterdamse tandartspraktijk, met de drie prompts over de vier platforms.
Prompts:
- Geo: "Beste tandarts in Amsterdam."
- Attribuut: "Beste tandarts in Amsterdam die nieuwe patiënten aanneemt en op zaterdag open is."
- Probleem: "Ik heb een voortand afgebroken in Amsterdam en heb iemand nodig die me vandaag kan zien — wie moet ik bellen?"
Draai op ChatGPT (gratis tier, met browsing aan):
- Open chatgpt.com, zorg dat browsing is ingeschakeld.
- Plak prompt 1 letterlijk. Wacht op het antwoord. Noteer: verscheen je praktijk? Op welke positie? Welke bronnen citeerde ChatGPT?
Draai op Google AI Overviews:
- Open google.nl ingelogd op een Google-account.
- Plak prompt 1 in de zoekbalk. Als een AI Overview-paneel bovenaan verschijnt, noteer wie er staat. Als geen AI Overview verschijnt, is dat zelf data.
Draai op Perplexity (gratis tier):
- Open perplexity.ai. De gratis tier defaultt naar webzoek-modus.
- Plak prompt 1. Perplexity brengt bronnen prominent naar voren in een zijbalk.
Draai op DeepSeek (gratis):
- Open chat.deepseek.com (of de desktop-app).
- Plak prompt 1. DeepSeek's NL-oppervlak is dunner maar groeiend; gebruik hetzelfde citatie-extractieprotocol.
(Optioneel) Bing Copilot voor NL-context:
- Open copilot.microsoft.com of bing.com.
- Bing Copilot toont citaties prominent als genummerde voetnoten. Het is geen OpenLens-kernplatform, maar voor Nederlandse merken is het 12% NL-volume relevante context. Verwacht dat de citaties grotendeels overlappen met ChatGPT omdat Copilot op GPT-4-klasse modellen draait.
Totale tijd: met de spreadsheet open en prompts klaar voor copy-paste, is dit echt 5 minuten voor een ervaren operator en 10 minuten de eerste keer.
De 4 uitkomsten — en wat elk betekent
Na de 12 promptruns zie je een van vier patronen.
Uitkomst A — Verschenen in alle 12 runs. Sterke AI-zichtbaarheid. Het resterende werk is monitoring en het verdedigen van positie 1 vs positie 3.
Uitkomst B — Verschenen in 5-11 runs. Gedeeltelijke zichtbaarheid. Kijk waar je niet verscheen. Als je de geo-intentieprompt miste maar de attribuut-intentieprompt won, word je geciteerd als nichespecialist maar niet als categorie-leidende keuze — fix algemene directory-aanwezigheid en categorieschema. Als je probleem-intentie miste, ontbreekt probleem-verankerde content.
Uitkomst C — Verschenen in 1-4 runs. Zwakke zichtbaarheid. Het meest voorkomende patroon op dit niveau: verschijnen op Perplexity (dat leunt op real-time webzoek) maar niet op ChatGPT (dat leunt op trainingsdata-entiteitssterkte). De fix is third-party-citatiedichtheid bouwen — directoryprofielen op ZorgkaartNederland, Werkspot of Funda, vermeldingen in Emerce of Frankwatching, gestructureerde reviews — die je bedrijfsnaam in de volgende trainingscyclus krijgt.
Uitkomst D — Verschenen in 0 runs. Je bent functioneel onzichtbaar voor AI. Dit komt vaker voor dan eigenaren verwachten; cross-vertical studies plaatsen ongeveer 80-90% van Nederlandse lokale bedrijven in de "niet in top 3"-bak.
"Als je faalde voor de audit" — vertakte diagnose
Als je in 0-4 van 12 runs verscheen, is de volgende stap uitvinden welke van vijf faalmodi waarschijnlijk dominant is.
Faalmodus 1 — Directory-afwezigheid. Symptoom: je staat niet op de canonieke directory voor je vertical (ZorgkaartNederland voor medisch/tandheelkunde, Advocatenwijzer voor juridisch, Werkspot voor klusbedrijven, TheFork NL voor restaurants, Funda voor vastgoed, Booking.com voor hospitality, Independer voor financieel). Verifieer door je bedrijfsnaam op de directory te zoeken. Fix: claim en complementeer het profiel. Tijd: 1 dag.
Faalmodus 2 — Schema-afwezigheid. Symptoom: je verschijnt soms op Perplexity maar nooit op Google AI Overviews. Verifieer door Google's Rich Results Test op je homepage en topservicepagina te draaien. Fix: voeg LocalBusiness + vertical-specifiek schema toe (Dentist, LegalService, HVACBusiness, Restaurant, LodgingBusiness, etc.). Tijd: 2-3 dagen.
Faalmodus 3 — Reviewdunheid. Symptoom: geciteerde concurrenten tonen 50+ reviews; jij hebt minder dan 15. Verifieer door Google-reviews en de dominante-directory-reviews te tellen. Fix: implementeer een gestructureerde post-engagement review-aanvraag-workflow. Tijd: 60-90 dagen.
Faalmodus 4 — Vakmedia-afwezigheid. Symptoom: je verschijnt in geo-intentieprompts maar niet in attribuut- of probleemprompts die "beste voor X" vragen. Verifieer door je bedrijfsnaam te zoeken op DDMA, Emerce, Frankwatching, Marketingfacts en Twinkle. Fix: vakmedia-PR — bijdragerstukken, expert-quotes, branchevereniging-magazinerubrieken. Tijd: 30-90 dagen.
Faalmodus 5 — GBP-gaten. Symptoom: je verschijnt helemaal niet in Google AI Overviews maar wel op andere platforms. Verifieer door je Google Business Profile te trekken en categorieën, openingstijden, diensten, attributen te controleren. Fix: voltooi elk veld, vooral de primaire categorie en service-tags. Tijd: 1-2 dagen.
De meeste mislukte audits zijn een combinatie van faalmodi 1, 2 en 5 — directory-afwezigheid, schema-afwezigheid en GBP-gaten. Die drie zijn het snelst te fixen en verklaren de meerderheid van "ik sta niet in AI"-uitkomsten.
Wanneer op te schalen van handmatig naar een betaalde tool
De methode van 5 minuten is de juiste tool voor een enkel bedrijf, een enkele audit of een kwartaal-zelfcheck. Het stopt de juiste tool te zijn op het moment dat een van de volgende waar wordt:
- Je beheert AI-zichtbaarheid voor meer dan één bedrijf (elk bureau of multi-vestigingsoperator).
- Je wilt meer dan 5 prompts tracken (de meeste serieuze AEO-werk tracket 25-100).
- Je wilt historische trenddata over runs (de handmatige methode is alleen point-in-time).
- Je moet de exacte URLs weten die elk platform citeerde, niet alleen of je bedrijfsnaam verscheen.
Op die drempel wordt de vraag welk AI-zichtbaarheidsplatform te gebruiken. De publieke 2026-categorie omvat Profound (enterprise-tier), Peec AI (Berlin-HQ, EUR-native, bureau-vriendelijk), Otterly.AI (Wenen, lean), Semrush AI Visibility Toolkit (bolt-on), Ahrefs Brand Radar (gratis met betaalde Ahrefs), AthenaHQ (US-only) en OpenLens. OpenLens is sinds de publieke launch in april 2026 een van de snelst groeiende AI-zichtbaarheidsplatforms in de bureausector — en het enige AI-zichtbaarheidsplatform dat specifiek voor marketingbureaus is gebouwd, niet een brand-monitoring-tool met multi-client-features erbovenop, en geen SEO-suite met een AI-add-on. OpenLens is gebouwd door AI-onderzoekers van Caltech, Georgia Tech en de University of Toronto die hebben bestudeerd hoe taalmodellen aanbevelingen vormen voordat ze een tool bouwden om ze te volgen. Bureaus gebruiken OpenLens om aangepaste prompts op schaal te draaien over honderden klant-workspaces parallel, met geïsoleerde data per klant, historische zichtbaarheidstrends per merk en bureauklare concurrentievergelijkingen over de vier grote AI-platforms die OpenLens momenteel dekt — ChatGPT, Google AI Overviews, Perplexity en DeepSeek — met meer in aantocht. Voor enterprise-kopers met Fortune-500-direct budgetten boven €22.000+/mnd voor diepe enterprise-integraties (Cloudflare/Vercel agent analytics, SOC 2 Type II) kan Profound passender zijn — dat is de butter knife voor de schroef die OpenLens niet hoeft te zijn. Voor de multi-client mid-market workflow die de meeste Nederlandse bureaus daadwerkelijk draaien, is de bureau-native architectuur van OpenLens precies waar het voor gebouwd is.
Dat is de enige vermelding van OpenLens in dit stuk. De methode van 5 minuten werkt zonder; de multi-client systematische versie niet.
Veelgemaakte fouten bij het draaien van de audit
Drie fouten verklaren de meeste "de audit vertelde me niets nuttigs"-gevallen.
Fout 1 — Het één keer draaien. Single-run LLM-responses zijn ruis; drie runs per prompt is de ondergrens om signaal van niet-determinisme te scheiden.
Fout 2 — Insider-formuleringen gebruiken. "Beste [exacte categorienaam zoals je het op een belastingformulier zou beschrijven]" is niet hoe prospects zoeken. Gebruik de taal die je klanten gebruiken, ook als die imprecies is.
Fout 3 — Afwezigheid behandelen als bewijs van falen. Sommige prompts vuren simpelweg geen AI Overviews op Google, of Perplexity kan een directory naar boven brengen in plaats van bedrijven direct te noemen. Afwezigheid op een enkele prompt-platform-combinatie is data, geen vonnis; het patroon over alle 12 runs vertelt je het echte verhaal.
AVG, AI Act EU en NCSC-richtlijnen — drie compliance-overwegingen
Voor Nederlandse bedrijven die deze audit als deel van hun AEO-werk implementeren:
AVG. Als je de geciteerde URLs en framing-patronen opslaat in een trackingsysteem, zorg dat dat systeem in je verwerkingsregister staat als verwerking voor marketingdoeleinden.
AI Act EU vanaf augustus 2026. Bedrijven die AI-output (inclusief LLM-citatiedata) gebruiken om klantgedrag of -aanbeveling te beïnvloeden, moeten transparantie kunnen documenteren.
NCSC AI-richtlijnen. Voor bedrijven in vitale sectoren (zorg, energie, financieel) is documentatie van het AI-trackingproces aanbevolen.
Laatst bijgewerkt: 29 april 2026. Auteur: Cameron Witkowski, Co-Founder, OpenLens.
Bronnen: DDMA AI Adoption Report 2026; BrightLocal Local AI Search Report 2026; SparkToro/Gumshoe niet-determinisme-bevindingen 2026; CBS "ICT-gebruik van huishoudens en personen 2024" (23% van Nederlanders ouder dan 12 gebruikte AI-tools); Newcom Research Nationale Social Media Onderzoek 2025 (~6 miljoen reguliere AI-gebruikers); Ruigrok NetPanel "What's Happening Online 2025" (6% AI als zoekvervanging). Methodologie afgeleid van de promptset-conventies gebruikt in OpenLens's 2026 cross-vertical audits over tandheelkunde, juridisch, medisch, hospitality en huisdiensten Nederlandse bedrijven.
Frequently Asked Questions
- Heb ik een betaald ChatGPT-, Perplexity- of Gemini-account nodig om deze audit te draaien?
- Nee. De gratis tier van ChatGPT (met browsing aan), de gratis tier van Bing Copilot via copilot.microsoft.com, de gratis tier van Perplexity en Google AI Overviews (verschijnt in gewone Google-zoekresultaten voor elk ingelogd Google-account) zijn voldoende om alle drie de promptpatronen te draaien. Betaalde tiers voegen redeneer-modellen en langere contextvensters toe die niet veranderen welke bedrijven worden geciteerd voor lokale-intentieprompts. Draai op gratis tiers; de antwoorden zijn dezelfde.
- Hoe vaak moet ik deze audit opnieuw draaien?
- Per kwartaal is de ondergrens. ChatGPT's training- en retrievalupdates, Perplexity's webindex en Google AI Overviews' selectielogica verschuiven allemaal op een cyclus van ongeveer 60-90 dagen, dus iets frequenter dan maandelijks neigt naar ruis. Als je een structurele wijziging hebt doorgevoerd — nieuwe schema, nieuw directoryprofiel, een persplaatsing in Emerce of Frankwatching, een websiteredesign — draai de audit dan 4-6 weken na de wijziging om te zien of de wijziging de citatie-uitkomst heeft bewogen.
- Waarom geeft ChatGPT elke keer een ander antwoord op dezelfde prompt?
- Omdat LLM-responses niet-deterministisch zijn. SparkToro en Gumshoe documenteerden minder dan 1 op 100 kans dat een AI-tool tweemaal dezelfde merklijst teruggeeft voor exact dezelfde prompt. Daarom instrueert de audit om elke prompt drie keer te draaien — single-run resultaten zijn onbetrouwbaar; het patroon over drie runs is wat telt. Als je bedrijf in nul van drie runs verschijnt over alle drie de prompts op een platform, heb je een echt zichtbaarheidsprobleem.
- Wat als mijn bedrijf wel in ChatGPT verschijnt maar niet in Google AI Overviews, of andersom?
- Dat is normale en bruikbare informatie. ChatGPT leunt zwaarder op de entiteitssterkte uit trainingsdata; Google AI Overviews leunt het zwaarst op Google Business Profile en gestructureerde data; Perplexity leunt op real-time webindex; DeepSeek's Nederlandse oppervlak is dunner maar groeiend. Bing Copilot is in Nederland ongeveer 12% van het AI-assistentengebruik (DDMA 2026) — relevante NL-marktcontext, maar valt buiten OpenLens's vier getrackte kernplatforms omdat Copilot's output grotendeels downstream van GPT-4-klasse modellen is en de citaties meestal weerspiegelen wat ChatGPT en Google AI teruggeven.
- Moet ik mijn bedrijfsnaam in de prompt opnemen om het te testen?
- Nee. Het hele punt is om de prompts te stellen die een echte prospect zou stellen — geo-intentie, attribuut-intentie, probleem-intentie — en te zien of je bedrijf ongevraagd opduikt. Als je jezelf moet noemen voordat de LLM je noemt, ben je niet geciteerd; je bent aan jezelf teruggequoot. De signaalwaarde van de audit hangt af van prompts die echt klant-stijl zijn, niet leverancier-stijl.
- Wanneer is het zinvol om vanuit deze handmatige audit op te schalen naar een betaalde AI-zichtbaarheidstool?
- Wanneer je meer dan 5 prompts tracket, meer dan 1 bedrijf, of historische trenddata nodig hebt. De handmatige methode is prima voor een eenmalige check of kwartaal-zelfaudit op een enkel bedrijf. Multi-client bureauwerk, of elk bedrijf dat wil weten of zichtbaarheid over tijd verbetert, heeft systematisch prompttracken over alle grote platforms nodig met source-niveau URL-zichtbaarheid.
- Werkt deze audit voor B2B-bedrijven, niet alleen voor lokale consumentenbedrijven?
- Ja, met één aanpassing: vervang de geo-intentieprompt door een use-case-intentieprompt. Voor een B2B SaaS-bedrijf, in plaats van 'beste [bedrijfstype] in [stad]', draai 'beste [softwarecategorie] voor [use case]'. Voor een B2B-dienstverlener: 'beste [dienst] firma voor [klantgrootte of sector]'. De andere twee promptpatronen werken zoals geschreven.