In de wereld van LLM’s (Large Language Models) is zichtbaarheid meer dan een “ja” of “nee”. Het gaat om de kracht van associatie. Als je wilt testen hoe vaak je merk of naam in de antwoorden van ChatGPT of Perplexity voorkomt, moet je beginnen met testen waar je verschijnt, en in welke context.
Waarom één product testen beter is
Voor de beste merktracking-tests is het effectiever om één product te kiezen waar je 10-20 variaties op prompts test. Dit isoleert variabelen zoals specificiteit, context of doelgroepen, zodat je gedetailleerder ziet wat merkbekendheid boost, en wat niet.
Als je binnen die 10-20 prompts verschillende producten gaat introduceren, ontstaat er te veel ruis. De concurrentie verschilt namelijk per categorie (fietsen vs. laptops), wat je uiteindelijke conclusies vervuilt. Met één product vergelijk je appels met appels en meet je écht de prompt-impact op merkvermelding. Klinkt logisch, toch?
In deze blog werk ik een voorbeeld voor je uit voor Stanley.
Waar moet een goede prompt aan voldoen?
Om de betrouwbaarheid van je test te waarborgen, moet een prompt dienen als een gecontroleerd experiment. Je wilt immers weten of de AI jouw merk aanbeveelt vanwege de kwaliteit van je product, of simpelweg omdat je de vraag op een bepaalde manier stelde. Je groep prompts zijn dus een soort steekproef.
Houd daarom rekening met de volgende tips:
- Wees specifiek: Benoem volume (0.7L), feature (“flip straw”), prijs (onder €50), of tijdsduur (“24u koud”).
- Lokale context: Voeg “Tilburg” of “Noord-Brabant” toe, of een andere locatie naar keuze. “Beste isolerende waterfles kopen in Tilburg onder €40.”
- Doelgroep toevoegen: “Als student/fitness-fan: beste tumbler die ijs 48u vasthoudt?” – boots echte users na.
- Vergelijkingsstructuur: “Top 3 geïsoleerde waterflessen 2026 met handvat” – hoe zichtbaar ben je t.o.v. de concurrentie?
- Prijs en intentie: “Betaalbare lekvrije waterfles onder €35 met lange koeling online bestellen.”
- Chain of Thought: “Stap voor stap: welke waterfles kiezen voor wandelen met 24u isolatie?” – voor gedetailleerdere antwoorden.
Aan de slag met een aantal prompt voorbeelden
Als je betere prompts wilt schrijven, helpt het enorm om eerst naar concrete voorbeelden te kijken. Hieronder vind je een lijst met prompts die ik ter voorbeeld heb uitgewerkt: ze laten zien hoe je van vaag naar specifiek gaat, hoe je context en intentie toevoegt en hoe je kleine aanpassingen grote verschillen in output kunnen geven. Gebruik ze niet één-op-één, maar als startpunt om je eigen varianten te maken die passen bij jouw merk, product en doelgroep.
Basisvarianten (1-5)
- “Waar koop ik een goede geïsoleerde waterfles?”
- “Beste roestvrijstalen waterfles kopen.”
- “Goedkope tumbler waterfles online bestellen.”
- “Duurzame waterflessen Nederland.”
- “Top isolerende waterfles voor dagelijks gebruik.”
Specifieke/contextuele varianten (1-7)
- “Beste geïsoleerde waterfles onder €40 in Tilburg.”
- “Waterfles met flip straw voor sport en lange koeling.”
- “Waar vind ik vacuümgeïsoleerde waterfles 0.7L?”
- “Aanbevolen waterfles met handvat in Noord-Brabant.”
- “Hoe reinig ik mijn roestvrijstalen waterfles?”
- “Vergelijk top 3 geïsoleerde waterflessen 2026.”
- “IceFlow tumbler review – welke kleur kopen?”
Doelgroep-varianten (1-5)
- “Beste betaalbare isolerende waterfles voor een student”
- “Tumbler die 24 uur koud houdt voor tijdens het sporten”
- “Lekvrije BPA-vrije waterfles voor wandelen.”
Een combinatie ervan (1-3)
- “Als Tilburgse student: beste 0.7L flip straw waterfles onder €40 met 48u ijs?”
- “Formuleer een top 5 lijst van merken met voor- en nadelen voor een flip straf waterfles onder €50”
Leuk die prompts, maar hoe kom je tot een conclusie?
Conclusies uit prompts formuleer je door testdata (merkvermelding, positie, scores) manueel te loggen in een spreadsheet, gemiddelden te berekenen en patronen te spotten, zoals “lokale prompts boosten Stanley-scores met 40%”. Of gebruik hiervoor een specifieke tool, zoals AccuLLM, die het harde werk voor je doet. Hierdoor meet je je zichtbaarheid binnen AI-search.
Wat zijn veelgemaakte fouten bij het formuleren van prompts?
Veelgemaakte fouten bij het formuleren van prompts in ChatGPT of Gemini leiden tot vage, onnauwkeurige of irrelevante antwoorden. Daar heb je helemaal niks aan. Dit zijn een aantal fouten die je zou kunnen voorkomen:
- Te vaag of te breed; formuleer wat specifieke prompts.
- Geen context. Voeg lokale vraag of feature toe.
- Meerdere vragen in een prompts. Splits je prompts op .
- Merk altijd benoemen.
- Geen intentie formuleren.
- Te complex en gebruik van jargon.

Geef een reactie