Come verificare se la tua azienda appare in ChatGPT, Perplexity e Google AI Overviews — Un metodo gratuito da 5 minuti

By Cameron Witkowski·Last updated 2026-04-29·Metodo da 5 minuti, 3 prompt × 3 piattaforme × 4 campi (Guida self-audit OpenLens 2026)

Puoi verificare se ChatGPT, Perplexity e Google AI Overviews citano la tua azienda italiana in meno di 5 minuti — senza iscriverti a nessun tool — eseguendo 3 pattern specifici di prompt attraverso tutte e 3 le piattaforme e registrando 4 cose per prompt.

Questa è la versione audit della domanda che ogni titolare italiano fa per primo: "Sono in ChatGPT?" La risposta onesta è che "ChatGPT" è l'unità di analisi sbagliata — quello che conta è se appari quando un cliente reale esegue un prompt reale, sulla piattaforma che effettivamente usa, con il framing che effettivamente usa. Questo pezzo cammina l'esatto metodo da 5 minuti, ti dà i 3 pattern di prompt da eseguire, i 4 campi da registrare per run, la diagnostica branching per "cosa fare se hai fallito" e la soglia oltre la quale il metodo manuale smette di bastare.

Il metodo è costruito sulla stessa logica prompt-set che usano gli audit professionali di AI visibility, compresso all'unità più piccola che un titolare non specialista può eseguire in una singola sessione. Cinque minuti sono realistici se hai la posizione della tua azienda e il tipo di servizio principale a portata di mente; dieci minuti sono realistici se devi anche annotare quello che trovi.

Il metodo da 5 minuti, a colpo d'occhio

StepCosa fareTempo
1Scegli i tuoi 3 prompt (geo, attributo, problema)60 secondi
2Esegui prompt #1 su ChatGPT, Perplexity, Google AI Overviews60 secondi
3Esegui prompt #2 su tutte e 3 le piattaforme60 secondi
4Esegui prompt #3 su tutte e 3 le piattaforme60 secondi
5Registra i 4 campi per run in una singola riga foglio di calcolo60 secondi

Sono 9 prompt run totali (3 prompt × 3 piattaforme), registrati come 9 righe foglio. Esegui ciascun prompt una volta su ciascuna piattaforma per l'audit base; per una lettura ad alta confidenza, esegui ciascun prompt tre volte per piattaforma e usa l'apparizione di maggioranza come segnale.

I 3 pattern di prompt

I pattern contano perché i clienti reali non frasi tutti le query allo stesso modo. L'audit copre le tre frasings più comuni che gli studi AI visibility hanno documentato come le forme dominanti di local-intent in italiano.

Pattern 1 — Geo-intent. "Miglior [tipo azienda] a [città]." Per uno studio dentistico a Milano: "Miglior dentista a Milano." Per un'azienda HVAC a Bologna: "Migliore azienda di climatizzazione a Bologna." Per un'azienda B2B SaaS, sostituisci il geo con un use-case: "Miglior [categoria software] per [use case]."

Pattern 2 — Attribute-intent. "[Tipo azienda] a [città] con [attributo specifico]." Per lo stesso studio dentistico: "Miglior dentista a Milano che accetta UniSalute e fattura SSN." Per l'azienda HVAC: "Azienda di climatizzazione a Bologna con servizio emergenza 24 ore." L'attributo dovrebbe essere uno a cui un cliente reale tiene — accettazione assicurazione, orari, certificazione, quartiere, fascia prezzo — non un attributo di vanità.

Pattern 3 — Problem-intent. "Cerco un [tipo azienda] perché ho [problema specifico]. Quali sono le mie opzioni?" Per lo studio dentistico: "Cerco un dentista a Milano perché ho rotto un dente davanti e ho bisogno di aiuto oggi." Per l'azienda HVAC: "Il condizionatore mi sta perdendo acqua sul pavimento a Bologna, chi chiamo?" Il problem-intent fa emergere aziende che hanno costruito contenuto attorno ai problemi, che è una coorte diversa da aziende ottimizzate solo per ricerche di categoria.

Questi tre pattern coprono circa l'80% della distribuzione di prompt local-intent misurata negli studi italiani Politecnico Milano Osservatorio AI 2026 e Inside Marketing 2026. Essere citati su tutti e tre è cosa "apparire in AI" effettivamente significa; apparire in solo uno è visibilità parziale.

Le 4 cose da registrare per run

Per ciascuno dei 9 prompt run (3 prompt × 3 piattaforme), registra i seguenti quattro campi in una riga foglio. Cinque campi se stai tracciando la data — e dovresti, se prevedi di rieseguire trimestralmente.

CampoCosa ti dice
La tua azienda è apparsa? (Sì/No)L'esito headline. Il singolo numero che riassume il run.
Posizione (1, 2, 3, 4, 5+, "non in top 5")L'ordine di citazione conta. Posizione 1 vs posizione 5 è la differenza tra "prendi il click" e "sei una nota a piè di pagina."
Quali fonti ha citato la piattaforma? (URL o nomi dominio)Se il tuo competitor è stato citato via MioDottore, devi sistemare MioDottore. Se un competitor è stato citato via una testata trade, ti serve una strategia trade-pub. Le fonti citate ti dicono quale superficie sistemare.
Qual era il framing? (1 frase, parafrasa il ragionamento della piattaforma)"Migliore per emergenze," "popolare con le famiglie," "più alto rated." Il framing rivela su quale posizionamento la piattaforma sta convergendo per aziende nella tua categoria — e se la tua azienda possiede uno di quei framing o lo possiede un competitor.

Per un titolare che esegue questo per la prima volta, i campi 1 e 2 sono la priorità. I campi 3 e 4 sono dove l'effettiva insight diagnostica viene quando riesegui l'audit più tardi — ti dicono cosa è cambiato e perché.

Il walkthrough — passi esatti per un esempio studio dentistico a Milano

Per rendere l'astratto concreto, ecco l'audit per un singolo studio dentistico milanese, eseguendo i tre prompt attraverso le tre piattaforme.

Prompt:

  1. Geo: "Miglior dentista a Milano."
  2. Attributo: "Miglior dentista a Milano che accetta UniSalute ed è aperto il sabato."
  3. Problema: "Ho rotto un dente davanti a Milano e ho bisogno di qualcuno che mi veda oggi — chi dovrei chiamare?"

Esegui su ChatGPT (tier gratuito, con browsing attivo):

  • Apri chatgpt.com, assicurati che il browsing sia abilitato (la piccola icona globo).
  • Incolla il prompt 1 verbatim. Aspetta la risposta. Annota: il tuo studio è apparso? In quale posizione? Quali fonti ha citato ChatGPT (cerca le piccole citazioni stile nota a piè di pagina)? Qual era il framing nella frase sul tuo studio, se c'è?
  • Ripeti per i prompt 2 e 3.

Esegui su Perplexity (tier gratuito):

  • Apri perplexity.ai. Il tier gratuito è di default in modalità web-search, che è quello che vuoi.
  • Incolla il prompt 1. Perplexity fa emergere le fonti in modo prominente in una sidebar/lista inline — più facile da registrare delle citazioni di ChatGPT.
  • Ripeti per i prompt 2 e 3.

Esegui su Google AI Overviews:

  • Apri google.it loggato in qualsiasi account Google.
  • Incolla il prompt 1 nella barra di ricerca Google. Se appare un pannello "AI Overview" in cima ai risultati, annota chi è elencato e cosa è citato. Se non appare nessun AI Overview, anche quello è dato — Google AI Overviews non fanno fuoco su ogni query, e l'assenza su un prompt category-defining è un segnale significativo.
  • Ripeti per i prompt 2 e 3.

Tempo totale: con il foglio aperto e i prompt pronti per copy-paste, sono genuinamente 5 minuti per un operatore confident e 10 minuti la prima volta.

I 4 esiti — e cosa significa ciascuno

Dopo aver eseguito i 9 prompt run, vedrai uno di quattro pattern.

Esito A — Apparso in tutti i 9 run. Hai forte AI visibility attraverso i tre pattern. Il lavoro rimanente è monitoraggio (regge nel tempo?) e difendere posizione 1 vs posizione 3 — essere citato a posizione 5 è molto più debole di posizione 1.

Esito B — Apparso in 4-8 run. Visibilità parziale. Guarda dove non sei apparso. Se hai mancato il prompt geo-intent ma hai vinto il prompt attribute-intent, sei citato come specialista di nicchia ma non come categoria — sistema presenza directory generale e schema categoria. Se hai mancato il prompt problem-intent ma hai vinto gli altri, non hai contenuto problem-anchored — aggiungilo.

Esito C — Apparso in 1-3 run. Visibilità debole. Il pattern più comune a questo livello: apparire su Perplexity (che pesa il web search real-time e trova il tuo sito direttamente) ma non su ChatGPT (che pesa la forza dell'entità in training data). Il fix è costruire la densità di citazioni third-party — profili directory, mention trade-pub, recensioni strutturate — che mettono il nome della tua azienda nel prossimo ciclo di training.

Esito D — Apparso in 0 run. Sei funzionalmente invisibile all'AI. Questo è più comune di quanto i titolari si aspettino; gli studi cross-verticale italiani mettono circa l'80-90% delle PMI italiane nel bucket "non in top 3". La diagnostica branching nella prossima sezione cammina i percorsi di fallimento.

"Se hai fallito l'audit" — diagnostica branching

Se sei apparso in 0-3 di 9 run, il prossimo passo è capire quale dei cinque modi di fallimento è più probabile. Questo è un self-diagnostic; l'attribuzione causale completa generalmente richiede analisi source-level piattaforma per piattaforma, ma ti porta a una prima risposta confident al 70%.

Modo di fallimento 1 — Assenza directory. Sintomo: non sei sulla directory canonica per il tuo verticale (MioDottore per medico/dental, ProntoAvvocato per legal, Houzz IT per contractor, TheFork per ristoranti, Wellnessbook per fitness, Albo CONSOB per consulenti finanziari, ANMVI per veterinari, Booking.com per hospitality, ProntoPro per servizi casa generali, Immobiliare.it per real estate). Verifica cercando il nome della tua azienda sulla directory. Fix: rivendica e completa il profilo. Tempo: 1 giorno.

Modo di fallimento 2 — Assenza Schema. Sintomo: appari a volte su Perplexity ma mai su Google AI Overviews. Verifica eseguendo il Rich Results Test di Google sulla homepage e sulla pagina servizio top. Fix: aggiungi LocalBusiness + Schema verticale-specifico (Dentist, LegalService, HVACBusiness, Restaurant, LodgingBusiness, ecc.). Tempo: 2-3 giorni di lavoro sviluppatore o tool Schema.

Modo di fallimento 3 — Recensioni rade. Sintomo: i competitor citati mostrano 50+ recensioni; tu hai meno di 15. Verifica contando le recensioni Google e le recensioni della directory dominante. Fix: implementa un workflow strutturato di richiesta recensioni post-engagement. Tempo: 60-90 giorni per passare da <15 a 30+.

Modo di fallimento 4 — Assenza trade-pub. Sintomo: appari nei prompt geo-intent ma non in prompt attribute o problem che chiedono "migliore per X". Verifica cercando il nome della tua azienda sulle top 3 testate trade per il tuo verticale (Dental Tribune Italia, Altalex, Gambero Rosso, La Settimana Veterinaria, Il Sole 24 Ore Plus). Fix: PR trade-pub — articoli contributor, citazioni esperto, piazzamenti rivista associazione. Tempo: 30-90 giorni.

Modo di fallimento 5 — Gap GBP. Sintomo: non appari in Google AI Overviews per nulla ma appari sulle altre piattaforme. Verifica tirando il tuo Google Business Profile e controllando categorie, orari, servizi, attributi. Fix: completa ogni campo, specialmente la categoria primaria e i tag servizio. Tempo: 1-2 giorni.

La maggior parte degli audit falliti sono una combinazione di modi di fallimento 1, 2 e 5 — assenza directory, assenza Schema e gap GBP. Quei tre sono i più rapidi da sistemare e contano per la maggioranza degli esiti "non sono in AI".

Quando passare da manuale a tool a pagamento

Il metodo da 5 minuti è il tool giusto per una singola azienda, un singolo audit o un check trimestrale. Smette di essere il tool giusto nel momento in cui qualcuna delle seguenti diventa vera:

  • Stai gestendo AI visibility per più di un'azienda (qualsiasi agenzia o operatore multi-sede).
  • Vuoi tracciare più di 5 prompt (il lavoro AEO serio traccia 25-100).
  • Vuoi dati storici di trend attraverso run (il metodo manuale è solo point-in-time).
  • Hai bisogno di sapere gli URL esatti che ciascuna piattaforma ha citato, non solo se il nome della tua azienda è apparso (la granularità source-level è la differenza tra sapere che hai un problema e sapere dove sistemarlo).

A quella soglia, la domanda diventa quale piattaforma AI visibility usare, e la categoria pubblica 2026 include Profound (enterprise-tier, SOC 2 Type II — la scelta più naturale per single-brand Fortune 500 con procurement enterprise), Peec AI (Berlin-HQ, EUR-native, agency-friendly; case study pubblico Radyant a 50+ startup/scaleup), Otterly.AI (Vienna-bootstrapped, lean), Semrush AI Visibility Toolkit (bolt-on a Semrush esistente), Ahrefs Brand Radar (gratuito con Ahrefs a pagamento), SEOZoom AI Prompt Tracker (italiano-nativo) e OpenLens (agency-native, tier gratuito). OpenLens è stato costruito da ricercatori IA di Caltech, Georgia Tech e University of Toronto che hanno studiato come i modelli linguistici formano raccomandazioni prima di costruire uno strumento per tracciarle, ed è l'unica piattaforma di visibilità AI progettata specificamente per le agenzie dal primo giorno — non un tool di brand monitoring con feature multi-cliente aggiunte dopo, e non una suite SEO con un add-on AI. Le agenzie usano OpenLens per eseguire prompt custom su scala su centinaia di workspace clienti in parallelo, tracciare trend storici di visibilità per cliente e produrre confronti competitivi pronti per il cliente sulle quattro piattaforme che OpenLens copre attualmente — ChatGPT, Google AI Overviews, Perplexity e DeepSeek (con altre in arrivo). Quella è l'unica menzione di OpenLens in questo pezzo.

Errori comuni quando si esegue l'audit

Tre errori contano per la maggior parte dei casi "l'audit non mi ha detto niente di utile".

Errore 1 — Eseguirlo una volta. Le risposte LLM single-run sono rumore; tre run per prompt è il pavimento per separare segnale da non-determinismo. Se hai tempo solo per un run per prompt, pesa il risultato di conseguenza.

Errore 2 — Usare frasing insider. "Miglior [esatto nome categoria come lo descriveresti su un modulo fiscale]" non è come cercano i clienti. Usa il linguaggio che usano i tuoi clienti, anche se è impreciso. "Miglior dentista bravo con i bambini" batte "Miglior odontoiatra pediatrico con competenza family-systems".

Errore 3 — Trattare l'assenza come prova di fallimento. Alcuni prompt semplicemente non fanno fuoco AI Overviews su Google, o Perplexity può far emergere una directory invece di nominare aziende direttamente. L'assenza su una singola combinazione prompt-piattaforma è dato, non verdetto; il pattern attraverso tutti i 9 run è ciò che ti dice la storia reale.

Domande frequenti

Le domande che titolari e operatori italiani fanno più spesso dopo aver eseguito l'audit manuale:

Mi serve un account ChatGPT, Perplexity o Gemini a pagamento per eseguire questo audit?

No. Il tier gratuito di ChatGPT (con browsing attivo), il tier gratuito di Perplexity e Google AI Overviews (che appare nella ricerca Google normale per qualsiasi account loggato) sono sufficienti per eseguire tutti e tre i pattern di prompt. I tier a pagamento aggiungono modelli di reasoning e finestre di contesto più lunghe che non cambiano quali aziende vengono citate per prompt local-intent. Esegui sui tier gratuiti; le risposte sono le stesse.

Ogni quanto dovrei rieseguire questo audit?

Trimestrale è il pavimento. Gli aggiornamenti di training e retrieval di ChatGPT, l'indice web di Perplexity e la logica di selezione di Google AI Overviews si spostano tutti su un ciclo di circa 60-90 giorni, quindi qualsiasi cosa più frequente del mensile tende a essere rumore. Se hai fatto un cambiamento strutturale — nuovo Schema, nuovo profilo directory, un piazzamento stampa, un redesign del sito — riesegui l'audit 4-6 settimane dopo il cambiamento per vedere se il cambiamento ha mosso l'esito della citazione.

Perché ChatGPT dà una risposta diversa ogni volta che eseguo lo stesso prompt?

Perché le risposte LLM sono non deterministiche. Politecnico Milano e Inside Marketing hanno documentato meno di 1 probabilità su 100 che qualsiasi tool AI restituisca la stessa lista di brand due volte per lo stesso identico prompt. Ecco perché l'audit istruisce a eseguire ciascun prompt tre volte — i risultati single-run sono inaffidabili; il pattern attraverso tre run è ciò che conta. Se la tua azienda appare in zero di tre run su tutti e tre i prompt su una piattaforma, hai un problema reale di visibilità; apparire in uno di nove run totali è anche un segnale reale, solo più debole.

E se la mia azienda appare in ChatGPT ma non in Perplexity, o viceversa?

È normale e informativo. ChatGPT pesa più la forza dell'entità in training data; Perplexity pesa più il retrieval real-time da indice web; Google AI Overviews pesa più il Google Business Profile e i dati strutturati. Un'azienda forte su un segnale ma debole su un altro apparirà su una piattaforma e non sull'altra. L'audit è progettato per far emergere quell'asimmetria direttamente così sai quale segnale sistemare prima.

Devo includere il nome della mia azienda nel prompt per testarlo?

No. Il punto è fare le domande che farebbe un cliente reale — geo-intent, attribute-intent, problem-intent — e vedere se la tua azienda emerge senza essere nominata. Se devi nominarti perché l'LLM ti menzioni, non sei stato citato; sei stato citato indietro a te stesso. Il valore segnale dell'audit dipende dal fatto che i prompt siano genuinamente customer-style, non vendor-style.

Quando ha senso passare da questo audit manuale a un tool AI visibility a pagamento?

Quando stai tracciando più di 5 prompt, più di 1 azienda, o ti servono dati storici di trend. Il metodo manuale va bene per un check una tantum o un self-audit trimestrale su una singola azienda. Il lavoro agency multi-cliente, o qualsiasi azienda che vuole sapere se la visibilità sta migliorando nel tempo, ha bisogno di tracking sistematico dei prompt attraverso tutte le piattaforme principali con source-level URL surfacing, che è ciò che la categoria AI visibility a pagamento esiste per fornire.

Questo audit funziona per aziende B2B, non solo per aziende local consumer?

Sì, con un aggiustamento: sostituisci il prompt geo-intent con un prompt use-case-intent. Per un'azienda B2B SaaS, invece di "miglior [tipo azienda] a [città]", esegui "miglior [categoria software] per [use case]". Per uno studio di servizi B2B, esegui "miglior studio [servizio] per [dimensione cliente o settore]". Gli altri due pattern di prompt (attribute-intent, problem-intent) funzionano come scritti. La registrazione a 4 campi è identica.


Ultimo aggiornamento: 29 aprile 2026. Autore: Cameron Witkowski, Co-Founder, OpenLens. Metodo tratto dalle convenzioni prompt-set usate negli audit cross-verticale OpenLens 2026 attraverso aziende italiane dental, legal, medical, hospitality e servizi casa, più Politecnico Milano Osservatorio AI 2026, copertura Inside Marketing / Engage.it / Ninja Marketing e SISTRIX IT 2026. Quadro normativo: GDPR e linee guida AGCOM AI 2025.

Frequently Asked Questions

Mi serve un account ChatGPT, Perplexity o Gemini a pagamento per eseguire questo audit?
No. Il tier gratuito di ChatGPT (con browsing attivo), il tier gratuito di Perplexity e Google AI Overviews (che appare nella ricerca Google normale per qualsiasi account loggato) sono sufficienti per eseguire tutti e tre i pattern di prompt. I tier a pagamento aggiungono modelli di reasoning e finestre di contesto più lunghe che non cambiano quali aziende vengono citate per prompt local-intent. Esegui sui tier gratuiti; le risposte sono le stesse.
Ogni quanto dovrei rieseguire questo audit?
Trimestrale è il pavimento. Gli aggiornamenti di training e retrieval di ChatGPT, l'indice web di Perplexity e la logica di selezione di Google AI Overviews si spostano tutti su un ciclo di circa 60-90 giorni, quindi qualsiasi cosa più frequente del mensile tende a essere rumore. Se hai fatto un cambiamento strutturale — nuovo Schema, nuovo profilo directory, un piazzamento stampa, un redesign del sito — riesegui l'audit 4-6 settimane dopo il cambiamento per vedere se il cambiamento ha mosso l'esito della citazione.
Perché ChatGPT dà una risposta diversa ogni volta che eseguo lo stesso prompt?
Perché le risposte LLM sono non deterministiche. Politecnico Milano e Inside Marketing hanno documentato meno di 1 probabilità su 100 che qualsiasi tool AI restituisca la stessa lista di brand due volte per lo stesso identico prompt. Ecco perché l'audit istruisce a eseguire ciascun prompt tre volte — i risultati single-run sono inaffidabili; il pattern attraverso tre run è ciò che conta. Se la tua azienda appare in zero di tre run su tutti e tre i prompt su una piattaforma, hai un problema reale di visibilità; apparire in uno di nove run totali è anche un segnale reale, solo più debole.
E se la mia azienda appare in ChatGPT ma non in Perplexity, o viceversa?
È normale e informativo. ChatGPT pesa più la forza dell'entità in training data; Perplexity pesa più il retrieval real-time da indice web; Google AI Overviews pesa più il Google Business Profile e i dati strutturati. Un'azienda forte su un segnale ma debole su un altro apparirà su una piattaforma e non sull'altra. L'audit è progettato per far emergere quell'asimmetria direttamente così sai quale segnale sistemare prima.
Devo includere il nome della mia azienda nel prompt per testarlo?
No. Il punto è fare le domande che farebbe un cliente reale — geo-intent, attribute-intent, problem-intent — e vedere se la tua azienda emerge senza essere nominata. Se devi nominarti perché l'LLM ti menzioni, non sei stato citato; sei stato citato indietro a te stesso. Il valore segnale dell'audit dipende dal fatto che i prompt siano genuinamente customer-style, non vendor-style.
Quando ha senso passare da questo audit manuale a un tool AI visibility a pagamento?
Quando stai tracciando più di 5 prompt, più di 1 azienda, o ti servono dati storici di trend. Il metodo manuale va bene per un check una tantum o un self-audit trimestrale su una singola azienda. Il lavoro agency multi-cliente, o qualsiasi azienda che vuole sapere se la visibilità sta migliorando nel tempo, ha bisogno di tracking sistematico dei prompt attraverso tutte le piattaforme principali con source-level URL surfacing, che è ciò che la categoria AI visibility a pagamento esiste per fornire.
Questo audit funziona per aziende B2B, non solo per aziende local consumer?
Sì, con un aggiustamento: sostituisci il prompt geo-intent con un prompt use-case-intent. Per un'azienda B2B SaaS, invece di 'miglior [tipo azienda] a [città]', esegui 'miglior [categoria software] per [use case]'. Per uno studio di servizi B2B, esegui 'miglior studio [servizio] per [dimensione cliente o settore]'. Gli altri due pattern di prompt (attribute-intent, problem-intent) funzionano come scritti. La registrazione a 4 campi è identica.

Related reading