Wie spreekt er namens jouw organisatie als AI het woord neemt?
Een directeur bij een grote fiscale dienstverlener stelde ons onlangs een vraag die we steeds vaker horen. Niet over tools, niet over automatisering. Over iets minder grijpbaars: wat zegt een AI-systeem eigenlijk over ons als iemand ernaar vraagt?
Hij wist het antwoord niet. Zijn organisatie ook niet.
Het stille oordeel
Organisaties hebben tientallen jaren geïnvesteerd in hoe ze gevonden worden. Websites, zoekmachineoptimalisatie, persberichten, publicaties. Allemaal gericht op één publiek: de menselijke bezoeker die een zoekopdracht intypt en kiest waar hij op klikt.
Dat publiek is niet weg. Maar er is een tweede publiek bijgekomen dat anders werkt.
AI-systemen, van grote taalmodellen tot specialistische kennisassistenten, vormen voortdurend een beeld van organisaties, domeinen en expertise. Dat beeld ontstaat op basis van wat ze hebben gelezen: artikelen, rapporten, websites, beleidsdocumenten. Het wordt niet bijgewerkt als jouw organisatie een nieuwe koers kiest. Het bevat geen voetnoot die aangeeft hoe actueel het is. En het is zichtbaar voor iedereen die het systeem om informatie vraagt, lang voordat er een menselijke bezoeker aan te pas komt.
Wie dit concreet wil zien: op hoeijmakers.net/bot-stats is een live dashboard beschikbaar dat laat zien hoe het verkeer van een gemiddelde professionele website er werkelijk uitziet. Op de meeste dagen zijn menselijke bezoekers in de minderheid. Dat is geen uitzonderingssituatie. Het is de nieuwe norm.
Wij noemen dit AI-vindbaarheid. Het gaat niet over of je wordt gevonden. Het gaat over hoe je wordt begrepen.
Kennisautoriteit staat op het spel
Voor een webshop is dit een bijzaak. Voor een fiscale dienstverlener, een zorginstelling, een kenniscentrum of een overheidsorganisatie is het iets anders.
Bij deze organisaties is kennis geen bijproduct van wat ze doen. Het is de kern van hun gezag. Ze worden gezocht omdat cliënten, patiënten, burgers of samenwerkingspartners vertrouwen op hun expertise op een specifiek terrein. Als een AI-systeem dat terrein beschrijft, een vraag beantwoordt die raakt aan hun domein, of een vergelijking maakt met andere partijen, telt de kwaliteit van die representatie direct mee.
Wat wij zien in de praktijk: organisaties die inhoudelijk sterk zijn, worden door AI-systemen soms onvolledig, verouderd of generiek weergegeven. Niet omdat de systemen fout zitten, maar omdat de beschikbare, machine-leesbare informatie over die organisaties dat beeld rechtvaardigt. De kennis is aanwezig, maar ze is niet gestructureerd beschikbaar in een vorm die AI-systemen kunnen lezen en citeren. Standaarden als llms.txt bieden hier een eerste antwoord op, maar de meeste organisaties zijn er nog niet mee begonnen.
Het gevolg is een stille mismatch. De organisatie weet wat ze weet. Het AI-systeem weet iets anders. En de cliënt die vraagt, merkt het verschil niet.
Geen technisch detail
AI-vindbaarheid wordt in de markt soms gepresenteerd als een variant op zoekmachineoptimalisatie. Dat miskent de aard van het vraagstuk. Commerciële tools voor AI brand monitoring beginnen te verschijnen, en dat signaleert dat de markt het serieus neemt. Maar de kern van het vraagstuk is niet technisch en niet commercieel.
Bij klassieke SEO optimaliseer je voor een ranking. Je wil hoger dan de concurrent. Het is een relatief spel met meetbare uitkomsten.
Bij AI-representatie gaat het over iets fundamentelers: of de informatie die een AI-systeem over jouw organisatie produceert, klopt, actueel is, en de juiste dingen benadrukt. Dat is geen marketingvraag. Het is een governancevraag. Wie is verantwoordelijk voor het beeld dat AI over ons schetst? Wie controleert of dat beeld accuraat is? Wie past het aan als het niet klopt?
In de meeste organisaties is het antwoord: niemand. Niet omdat ze het niet belangrijk vinden, maar omdat de vraag zich nog niet heeft opgedrongen als bestuurlijk vraagstuk. De directeur die ons die vraag stelde, had er geen eigenaar voor kunnen aanwijzen. Niet bij communicatie, niet bij IT, niet bij de kennismanager.
Een verantwoordelijkheid die belegd moet worden
De organisaties die dit serieus nemen, beginnen met twee stappen.
De eerste is zichtbaarheid: begrijpen hoe AI-systemen op dit moment over de organisatie spreken. Wat komt er naar boven bij vragen die raken aan het domein? Klopt dat beeld? Welke bronnen liggen eraan ten grondslag?
De tweede is structuur: zorgen dat de kennis van de organisatie beschikbaar is in een vorm die AI-systemen kunnen lezen, begrijpen en citeren. Dat is geen eenmalig project. Het is een eigenschap van de kennisinfrastructuur die onderhoud vraagt, net als een website of een kennisbank. Onze eigen arbeidsmarktvisualisatie is een voorbeeld van hoe kennis gestructureerd en machine-leesbaar beschikbaar gesteld kan worden: open, navolgbaar, direct bruikbaar als referentie.
Wij zien AI-vindbaarheid als onderdeel van bredere AI-strategie: niet alleen nadenken over hoe AI intern ingezet kan worden, maar ook over hoe de organisatie zichtbaar is voor de AI-systemen die haar publiek al gebruikt.
Die systemen wachten niet op een besluit. Ze vormen al een beeld.