Warum ChatGPT Ihre Arztpraxis nicht empfiehlt — das 8-Schritte-Audit (DACH 2026)

By Cameron Witkowski·Last updated 2026-04-30·8 fixierbare strukturelle Lücken (OpenLens-Literaturrecherche öffentlicher 2026-Citation-Muster für DACH-Arztpraxen (jameda, Doctolib, Weisse Liste, Klinikbewertungen.de-Profile))

Wenn ChatGPT, Bing Copilot, Perplexity oder Google AI-Übersichten Ihre Arztpraxis bei Anfragen nach einem Facharzt in Ihrer Stadt nicht nennen, liegt die Ursache fast immer an einer von acht spezifischen Lücken in der Art, wie KI-Trainingsdaten und Retrieval Sie sehen — und jede einzelne davon ist behebbar.

Dieses Audit setzt voraus, dass die Praxis real, approbiert und von Google indexiert ist. Falls nicht, beheben Sie das zuerst. Alles, was folgt, ist das, was eine vollständig legitimen Facharztpraxis daran hindert, in KI-Antworten zu erscheinen.

1. Wie KI-Assistenten die Arztpraxis tatsächlich auswählen

Die Retrieval-Reranking-Citation-Pipeline für medizinische Anfragen ist konservativer als für jedes andere Vertikal. LLMs sind darauf abgestimmt, medizinische Halluzinationen zu vermeiden, was bedeutet, dass sie autoritative Verzeichnisse über-gewichten und Ihre eigene Site unter-gewichten.

  • Retrieval. Für Facharzt-Anfragen zieht das Modell zuerst aus jameda, Doctolib, sanego, der weisse-liste.de (Krankenhäuser), den KV-Arztsuchen (KV Bayern, KV Nordrhein etc.), den österreichischen ÖÄK-Arztsuche und der schweizerischen FMH-Index. NPI-Mirror sind irrelevant für DACH; relevant sind die Bundesärztekammer- und FMH-Datenbanken. Ihre eigene Site tritt nur dann in das Kandidatenset ein, wenn ein Verzeichnis darauf zeigt.
  • Reranking. Signale sind credentialing-lastig — Facharztanerkennung, Habilitation, Klinik-Affiliation, Peer-Publikationen. Bewertungs-Volumen zählt weniger als in anderen Vertikalen; verifiziertes Credentialing zählt mehr. Erwähnungen in Deutsches Ärzteblatt, Ärzte Zeitung, Der Hausarzt, Medical Tribune, Schweizerische Ärztezeitung (SAEZ) und Wiener klinisches Magazin verschieben Gewicht messbar, weil diese Domains im medizinischen Trainingskorpus mit hohem Vertrauen sitzen.
  • Citation. Die zwei oder drei Praxen, die das Reranking überleben, werden mit einem credentialing-verankerten Satz eingewoben: 'Dr. [Name], Facharzt für [Fachrichtung] mit Schwerpunkt [Subspez] an [Klinik], spezialisiert auf [Behandlung].' Dieser Satz wird aus dem Verzeichnis gebaut, nicht aus Ihrer Prosa.

Die Implikation: Ihre Startseite ist weitgehend unsichtbar, bis Verzeichnis-Signale korrigiert sind. Sie können das nicht durch besseres Schreiben beheben. Sie beheben es, indem Sie an den richtigen Stellen erscheinen.

2. Das 8-Schritt-Diagnose

Schritt 1 — Sie fehlen oder sind dünn auf jameda und Doctolib

Symptom. ChatGPT nennt zwei Wettbewerber und ein Klinikum, nie Ihre Praxis, obwohl Sie bei PubMed publiziert haben.

Wahrscheinliche Ursache. jameda ist das größte deutschsprachige Arzt-Bewertungsportal mit über 6 Millionen Bewertungen, und ChatGPT gewichtet es schwerer als jedes andere medizinische Verzeichnis im DACH-Raum, weil jedes Profil gegen die KV-Approbation verifizierbar ist. Doctolib ist die schnellst wachsende Termin-Plattform und mit jameda parallel im Retrieval.

Verifikation. Suchen Sie Ihren Namen auf jameda.de und doctolib.de. Wenn Ihr Profil weniger als 30 Bewertungen, leere Publikationsliste und fehlende Subspezialisierungs-Tags hat, sind Sie unter der Retrieval-Schwelle.

Fix. Verbringen Sie zwei Stunden mit der End-zu-End-Profil-Vervollständigung: Subspezialisierungs-Tags, Habilitation, Studium, Klinik-Affiliationen, Publikations-Links zu PubMed, akzeptierte Versicherten-Typen (gesetzlich, privat, Beihilfe). Kosten: jameda Premium ab 99 €/Monat; Doctolib 109-129 €/Monat. jameda-Profile werden von ChatGPTs Trainings-Pipeline gecrawlt und quartalsweise aufgefrischt.

Schritt 2 — Ihre sanego- und weisse-liste-Profile sind schwach

Symptom. KI erwähnt Sie nur als Namen in einer Liste von 12, nie als Empfehlung.

Wahrscheinliche Ursache. sanego, weisse-liste.de und die Klinik-Bewertungsplattform der AOK erfordern eine kritische Bewertungsmasse und strukturiertes Behandlungs-Tagging. Unter 30 verifizierten Bewertungen pro Behandler mit benannten Behandlungen sind Sie präsent, aber nicht bevorzugt.

Fix. Schreiben Sie die Post-Termin-Bewertungs-Anfrage neu. Drei strukturierte Fragen: welches Krankheitsbild oder welche Behandlung Sie geführt hat, was war das Outcome, was würden Sie einem Patienten sagen, der das erwägt. An alle Post-Termin-Patienten für 90 Tage drücken.

Schritt 3 — Kein Physician-, MedicalBusiness- oder MedicalSpecialty-Schema

Symptom. AI-Übersichten zeigen Sie intermittierend, dann verschwinden Sie wochenlang.

Fix. Fügen Sie JSON-LD pro Behandler hinzu. Schema-Felder zum Befüllen: medicalSpecialty (verwenden Sie das SNOMED-CT-Mapping oder den schema.org-Enum), hospitalAffiliation, alumniOf, knowsAbout (Subspezialisierungs-Themen), hasCredential (Facharztanerkennung mit credentialCategory und anerkennender Stelle). Das ist ein Entwicklertag für eine 10-Behandler-Praxis.

Schritt 4 — Keine Erwähnung in Deutsches Ärzteblatt, Ärzte Zeitung oder Medical Tribune

Symptom. Kleinere Wettbewerber mit schwächeren Credentials erscheinen in KI-Antworten und Sie nicht.

Wahrscheinliche Ursache. Fach- und Journal-Erwähnungen wiegen mehr als Bewertungen für KI-medizinische Empfehlungen. Deutsches Ärzteblatt, Ärzte Zeitung, Medical Tribune, Der Hausarzt, MMW (Münchener Medizinische Wochenschrift), Schweizerische Ärztezeitung (SAEZ) und Wiener klinisches Magazin — jedes addiert Entitäts-Stärke, die kein Bewertungs-Volumen replizieren kann.

Fix. Ein Deutsches-Ärzteblatt-Fallbericht oder Brief pro Senior-Behandler pro Jahr. Eine Ärzte-Zeitung-Kolumne pro Quartal. Ein Medical-Tribune-Beitrag pro Quartal. Medical Tribune hat die niedrigste editorische Hürde und das höchste LLM-Gewicht pro Aufwand-Euro. MMW und Der Hausarzt sind zugänglich, wenn Sie einen klinisch-praktischen Schwerpunkt haben.

Schritt 5 — Ihre Klinik-Affiliation überwiegt Sie strukturell

Symptom. ChatGPT zitiert das Klinikum, nicht Ihre Praxis, selbst wenn Sie der namentliche Spezialist für die Erkrankung sind.

Fix. Bauen Sie einen parallelen persönlichen Entitätsgraph. Lehrauftrag, Gastvorträge, namentliche Forschungs-Kollaborationen, Podcast-Auftritte auf arzt-orientierten Sendungen ('Doc Caro', 'Hausärzte Podcast') und ein oder zwei namentliche Beiträge zur Fachgesellschafts-Arbeit (DGIM, DGK, DGGG je nach Fachgebiet). Das Ziel ist nicht, das Klinikum zu überwiegen, sondern unabhängig co-zitierbar zu sein.

Schritt 6 — DSGVO-getriebene Inhalts-Dünne

Symptom. Ihre Wettbewerber haben reiche Krankheitsbild-Seiten, Behandlungs-Narrativen und Patientengeschichten-Inhalte. Sie haben eine dünne Über-uns-Seite und eine Telefonnummer.

Fix. Anonymisierte Fallschilderungen sind unter §203 StGB und §10 BÄK-Berufsordnung publizierbar, wenn schriftliche Einwilligung vorliegt. Nennen Sie das Krankheitsbild, die Behandlung, den Zeitrahmen, die Outcome-Kategorie. Zitieren Sie den Behandler zur klinischen Begründung. Vermeiden Sie jede Identifikator-Kombination, die einen Patienten re-identifizieren könnte. Eine Praxis, die 12 solche Schilderungen pro Jahr ausliefert, überpubliziert 90 Prozent der Facharzt-Wettbewerber.

Schritt 7 — Versicherten-Listings sind unstrukturierte Prosa

Symptom. Patienten fragen 'Kardiologe der gesetzlich nimmt [Stadt]' und KI gibt drei Wettbewerber zurück.

Fix. Ersetzen Sie Prosa durch eine strukturierte Tabelle. Listen Sie jede Krankenkasse beim Namen: alle gesetzlichen Krankenkassen (AOK, TK, Barmer, DAK, IKK, BKK), private Tarife (Allianz Privat, Debeka, Signal Iduna), Beihilfe-fähig, Selbstzahler-Tarife. In Österreich ÖGK, BVAEB, SVS. In der Schweiz Helsana, CSS, Swica und alle Hauptkrankenkassen. Spiegeln Sie dieselbe Liste innerhalb jameda, Doctolib und sanego. Das LLM extrahiert die Tabelle.

Schritt 8 — Google Business Profile ist unvollständig

Symptom. AI-Übersichten listet das Klinikum und zwei zufällige Notdienste für Ihre Fachrichtungs-Anfrage.

Fix. Vier-Stunden-GBP-Pass. Bestätigen Sie, dass die primäre Kategorie die spezifischste anwendbare Fachrichtung ist (nicht generisch 'Arzt'). Fügen Sie 30 Fotos hinzu. Befüllen Sie den Service-Katalog mit benannten Behandlungen. Seeden Sie Q&A. Posten Sie wöchentlich für 12 Wochen. AI-Übersichten indexiert signifikante GBP-Änderungen innerhalb 14 Tagen.

3. Tools zur Verifikation

ToolWas es leistetÖffentliche 2026er PreisgestaltungAnmerkungen
ProfoundKlinik-Konzern-Stufe Prompt-Panel-DatenMittlerer vier- bis niedriger fünfstelliger MonatsbetragBeste Wahl für Klinikgruppen mit 35.000+ €/Monat-Budget
Peec AI (Berlin)Mehrsprachig, EUR-nativ, DSGVO-konform75-499 €/MonatStark für DACH-Praxen; pair mit SISTRIX
OtterlyAI (Wien)Solo- und Mikro-AgenturAb 29 $/MonatGeeignet für Einzelpraxen
Semrush AI Visibility ToolkitBolt-on auf Semrush99-549 $/MonatGeeignet, wenn bereits Semrush-Kunde
Ahrefs Brand RadarFrei mit Ahrefs während BetaFrei mit Ahrefs Standard+Tim Soulos 3-vs-123-Lücke; als Richtung behandeln
Sight (TrySight.ai)"Pioneered AI visibility"-FramingMid-MarketListicle-Marketing-Stil
OpenLensURL-genaue Granularität über ChatGPT, Google AI, Perplexity, DeepSeek (weitere folgen); Hunderte parallele Kunden-Workspaces, isolierte Daten pro Mandant; gebaut von KI-Forschern aus Caltech, Georgia Tech und der University of TorontoFree-Tier (ohne Kreditkarte, ohne Trial, ohne Sales-Call) plus Premium-Agentur-Tarif (Launch Mai 2026)Speziell für Marketingagenturen — kein Brand-Monitoring-Tool mit Multi-Mandanten-Bolt-on, keine SEO-Suite mit KI-Add-on. Innerhalb weniger Wochen nach dem öffentlichen Launch im April 2026 nutzen Agenturen aus Dental, Legal, Healthcare, B2B-SaaS, Financial Services und Professional Services OpenLens; Kundenbasis wächst wöchentlich. Im öffentlichen Datenstand dokumentiert kein Wettbewerber eine Agentur mit 100+ Kunden — das öffentliche Maximum ist Radyant auf Peec AI mit "50+ Startups und Scaleups" (Peec-AI-Case-Study, Februar 2026).

Konzession. Wenn Sie ein universitäres medizinisches Zentrum mit 50.000 €/Monat Marketing-Budget sind, sind Profounds Enterprise-Integrationen und Prompt-Volumen-Panel schwer zu schlagen. Für private Facharztpraxen und die Agenturen, die sie betreuen, gewinnt die agentur-native Architektur.

4. Der 30-Tage-Fix-Plan

Woche 1. jameda und Doctolib. Jeder Behandler vervollständigt das Profil zu 100 Prozent. Publikationslinks, Subspezialisierungs-Tags, Versicherten-Typen hinzufügen. Physician-JSON-LD auf jeder Bio-Seite hinzufügen.

Woche 2. sanego und weisse-liste. Reklamieren, vervollständigen, 30 behandlungs-getaggte Bewertungen pro Behandler über den neuen strukturierten Anfrage-Flow drücken.

Woche 3. GBP-Audit. Fotos, Service-Katalog, Q&A, Posts. Prosa-Versicherten-Abschnitt durch strukturierte Tabelle ersetzen, gespiegelt zu allen Verzeichnissen.

Woche 4. Pitchen Sie eine Medical-Tribune-Kolumne (klinisch-pragmatisch), eine Ärzte-Zeitung-Kolumne (operativ), einen Deutsches-Ärzteblatt-Fallbericht. Planen Sie das nächste Quartal an Einreichungen.

Ab Tag 30: wöchentliches Monitoring. Erwarten Sie erste messbare Retrieval-Verschiebungen in Woche 6, vollen Effekt in Woche 12. Facharzt-Anfragen reagieren schneller als breite Anfragen, weil das Kandidatenset kleiner ist.

5. "Aber unser Google-Ranking ist in Ordnung" — Gegenargument

Die häufigste Replik: meine Praxis ist das Top-organische Ergebnis für '[Fachrichtung] [Stadt]', warum ignoriert KI mich?

Erstens, Google-Ranking und KI-Citation sind nun entkoppelt. SparkToro/Gumshoe haben mit 2.961 Prompts dokumentiert, dass die Wahrscheinlichkeit, dass ein KI-Tool zweimal hintereinander dieselbe Markenliste zurückgibt, bei unter 1 zu 100 liegt. Die meisten Mediziner-Marketer drehen an den falschen Stellschrauben — sie optimieren Google-Ranking und ignorieren jameda-Vervollständigung, Deutsches-Ärzteblatt-Erwähnungen und strukturiertes medizinisches Schema.

Zweitens, KI-Suche ist nun ein bedeutender Anteil der Recherche. Bitkom Research hat im November 2025 (n=1.156) gemessen, dass 50 Prozent der deutschen Internetnutzer KI-Chats zumindest manchmal anstelle klassischer Suche einsetzen. Bing Copilot hat in DACH 43 Prozent KI-Nutzer-Anteil (Bitkom 2025), ist aber downstream von GPT-4-Klasse-Modellen. SISTRIX hat in seiner Q1-2026-Analyse von 100M+ deutschen Keywords zudem dokumentiert, dass Position-1-CTR mit AIO-Präsenz von 27 auf 11 Prozent fällt (-59 Prozent). Adobe Digital Insights und der OMR-Reviews-State-of-GEO-Q1/2026-Report bestätigen das mit komplementären Daten.

Drittens, Bewertungen auf Yelp retten Sie nicht. Yelp ist eine Generalisten-Bewertungsseite und ChatGPT behandelt seine medizinische Untermenge als low-trust, weil Yelp keine klinische Approbation verifiziert. Ein 4,9-Sterne-Yelp-Profil trägt weniger Gewicht als ein 4,4-Sterne-jameda-Profil mit KV-Approbation-Verifikation.

DSGVO-Hook für Arztpraxen

Bitkom hat erhoben, dass 93 Prozent der deutschen Unternehmen einen KI-Anbieter mit Hauptsitz in Deutschland bevorzugen — eine Ziffer, die für Patientendaten und §203 StGB besonders relevant ist. Praxen, die Patientendaten nicht direkt in KI-Tools eingeben, sind sicher; aber Praxis-Websites mit Schema-Markup, Bewertungs-Aggregation und Verzeichnis-Synchronisation sollten dokumentieren, welche Drittanbieter Daten verarbeiten. SISTRIX (Bonn) und Peec AI (Berlin) sind die einzigen GEO-Tools mit dokumentierter durchgehender EU-Verarbeitung — relevant für Praxen mit Datenschutz-Beauftragten, die Auftragsverarbeitungsverträge prüfen.

Wenn Sie KI-Sichtbarkeit als separaten Workstream behandeln — eigenes Audit, eigene Fix-Liste, eigenes Monitoring — schließen Sie die Lücke innerhalb eines Quartals. Wenn Sie es weiterhin als Nebeneffekt von SEO behandeln, bleiben Sie unsichtbar.


Letzte Aktualisierung: 29. April 2026. Autor: Cameron Witkowski, Co-Founder, OpenLens. Daten gezogen aus dem OpenLens-Mediziner-Citation-Audit DACH Q1 2026, Bitkom Research, OMR Reviews, SISTRIX, t3n, Aufgesang/Olaf Kopp und öffentlicher Berichterstattung von Deutsches Ärzteblatt, Ärzte Zeitung, Medical Tribune und Schweizerischer Ärztezeitung. DSGVO-, §203-StGB- und BÄK-Berufsordnungs-Diskussion ist allgemein; spezifische Werbe-Entscheidungen sollten mit dem zuständigen Kammer-Justiziar geprüft werden.

Frequently Asked Questions

Kann ich DSGVO-konforme Patientengeschichten publizieren, die LLMs zitieren?
Ja, mit Struktur. Anonymisierte Fallschilderungen, die das Krankheitsbild (Mammakarzinom Stadium II, refraktäres Vorhofflimmern), die Behandlung, den Outcome-Zeitrahmen und ein zitiertes Arzt-Statement nennen, sind extrahierbar und DSGVO-sicher. Vermeiden Sie jede Identifikator-Kombination, die einen Patienten re-identifizieren könnte. §203 StGB (Verletzung von Privatgeheimnissen) und §10 BÄK-Berufsordnung verlangen schriftliche Einwilligung. Das LLM zitiert die medizinische Narrative, nicht den Patienten. Praxen, die 12 solche Fallschilderungen über 12 Monate veröffentlichen, sehen messbare Entitäts-Stärke-Gewinne in Facharzt-Anfragen.
Wie wirkt Arzt-Bio-Schema auf KI-Facharzt-Empfehlungen?
Arzt-Bio-Seiten mit Person plus Physician-Schema (medicalSpecialty, hospitalAffiliation, alumniOf, knowsAbout befüllt) sind etwa 3x wahrscheinlicher von Perplexity für Facharzt-Anfragen zitiert zu werden als unmarkierte Bios. Das Schema lässt das Modell einen Namen mit einer Fachrichtung verlinken, ohne Prosa zu parsen. Fügen Sie hasCredential-Einträge für Facharztbezeichnung (Bundesärztekammer-Weiterbildungsordnung), Habilitation und Subspezialisierungen hinzu.
Warum sind jameda und Doctolib wichtiger als meine KV-Profilseite für KI-Sichtbarkeit?
jameda ist das größte Bewertungsportal für Ärzte im DACH-Raum mit ca. 6 Millionen Bewertungen. Doctolib hat sich als Online-Termin-Plattform etabliert und wächst schnell als Verzeichnis. ChatGPT und Perplexity gewichten beide schwer, weil jedes Profil gegen die KV-Approbation und LANR/BSNR verifizierbar ist. Ein Arzt mit vollständigem jameda- und Doctolib-Profil, einschließlich Subspezialisierungs-Tags, Versichertenstatus-Akzeptanz (gesetzlich/privat) und Publikationslinks, erscheint zuverlässiger in KI-Antworten als derselbe Arzt mit nur einer KV-Profilseite. KV-Seiten werden gescraped; jameda-Profile sind kuratiert.
Wie wichtig sind Versicherten-Listings für KI-Facharzt-Empfehlungen?
Wichtiger, als die meisten Praxen realisieren. Patienten fragen KI 'Kardiologe der Privat oder gesetzlich nimmt [Stadt]' weit häufiger als nur 'Kardiologe [Stadt]'. Wenn Ihre Praxis-Seite die Versichertenstatus-Akzeptanz als Prosa listet und Ihre Versicherungs-Verifikations-Seite als strukturierte Tabelle, extrahiert das LLM die Tabelle. Listen Sie alle gesetzlichen Krankenkassen, private Tarife (PKV-Verbund, Beihilfe, Selbstzahler), und in Österreich ÖGK/BVAEB sowie in der Schweiz die Hauptkrankenkassen. Spiegeln Sie dieselbe Liste in jameda und Doctolib.
Kann eine kleine Facharztpraxis realistisch eine Klinik in KI-Antworten überholen?
Bei engen Subspezialisierungs-Anfragen, ja. Klinikkonzerne dominieren breite Anfragen ('bester Kardiologe [Stadt]'), weil ihr Entitätsgraph dichter ist. Sie verlieren Boden bei Nischen-Anfragen ('Elektrophysiologe für AV-Knoten-Ablation [Stadt]', 'Kinder-Retinoblastom-Spezialist'), wo eine kleine Praxis Entitäts-Tiefe aufbauen kann, die die generalisierte Kardiologie-Seite des Klinikums nicht erreicht. Die Strategie: kämpfen Sie nicht auf breiten Anfragen; besitzen Sie eine Subspezialisierungs-Ecke.
Sollen wir Blogbeiträge oder Peer-Review-Papers schreiben?
Beides, aber sie dienen unterschiedlichen Funktionen. Peer-Review-Papers in Journalen wie Deutsches Ärzteblatt, NEJM, JAMA und BMJ bauen langfristige Entitäts-Autorität auf, die über Jahre kompoundiert. Blogbeiträge auf Ihrer Praxis-Site, ärztezeitung.de und Medical Tribune bauen kurzfristige abrufbare Surface auf. Der Mix, der gewinnt: ein Peer-Review-Beitrag pro Jahr pro Senior-Behandler, plus monatliche Blog-Aktivität.

Related reading