AI landt niet vanzelf
Organisaties die teleurgesteld zijn in AI beginnen die teleurstelling vrijwel altijd bij het model neer te leggen. De antwoorden zijn te generiek. De assistent mist context. De tool begrijpt niet hoe het hier werkt.
Maar het model is zelden het probleem.
Wat er wel fout gaat
Wij zien een terugkerend patroon bij organisaties die AI invoeren en er vervolgens weinig aan hebben. De technologie werkt. Wat er onder ligt, werkt niet mee.
Kennis leeft in SharePoint-mappen zonder consistente naamgeving. Besluiten verdwijnen in e-mailketens. Documenten bestaan in vier versies, zonder dat duidelijk is welke geldt. Een AI-assistent die op die omgeving gezet wordt, levert snellere en welbespraakter toegang tot dezelfde verwarring. De tool vergroot wat er al is. Als de structuur zwak is, zijn de uitkomsten zwak.
Dat is geen technisch probleem. Het is een kennisorganisatieprobleem dat door AI zichtbaar gemaakt wordt, maar al veel langer bestond. Hoe dat er in de praktijk uitziet, laat de Penny-case zien: een AI-assistent voor hulpverleners die alleen goed kon werken omdat de onderliggende kennisstructuur op orde was.
De vraag die eerder gesteld moet worden
Voordat een organisatie vraagt welke AI-tool ze moet inzetten, is er een nuttigere vraag: is onze kennis eigenlijk bruikbaar voor een systeem dat ermee moet werken?
Dat vraagt om zaken die simpel klinken maar zelden geregeld zijn. Versies die bijgehouden worden. Documenten met duidelijk eigenaarschap. Besluiten die ergens zijn vastgelegd, niet alleen in het hoofd van de mensen die erbij waren. Werkprocessen die leesbaar zijn voor iemand die er net inkomt.
Een goed gestructureerde kennisbasis is nuttig los van AI. AI maakt de kosten van het ontbreken ervan alleen sneller zichtbaar.
Wat geletterdheid er mee te maken heeft
AI-geletterdheid wordt in organisaties vaak als trainingsonderwerp behandeld. Een cursus, een workshop, een set richtlijnen. Maar geletterdheid verschijnt in de praktijk niet als kennisvraag. Het verschijnt als verantwoordelijkheidsvraag.
Op het moment dat een beslissing onderbouwd moet worden. Dat een toezichthouder vraagt welke versie van een beleid gold op een bepaalde datum. Dat een klant wil weten hoe een advies tot stand is gekomen. Op die momenten is de vraag niet of medewerkers iets weten over AI. De vraag is of de organisatie in staat is om uit te leggen wat er gedaan is en waarom.
Dat is een ander soort voorbereiding dan een e-learning.
Twee trajecten, één probleem
Wij werken aan de voorkant en de achterkant van dit vraagstuk. Aan de voorkant: strategie en advisering over hoe organisaties AI zinvol kunnen inbedden, gekoppeld aan hun werkprocessen en verantwoordelijkheidsstructuren. Aan de achterkant: het bouwen van kennisomgevingen via het WiseWare-platform, waar kennis gestructureerd, actueel en toegankelijk is, voor mensen en voor de systemen die hen ondersteunen.
Die twee kanten horen bij elkaar. AI-strategie zonder kennisinfrastructuur blijft hangen op het niveau van intentie. Kennisinfrastructuur zonder strategische verankering wordt een project dat niemand gebruikt.
Niet later alsnog regelen
De verleiding is groot om de kennisinfrastructuur te behandelen als een randvoorwaarde die later wel op orde komt. Maar in de praktijk werkt het omgekeerd. Organisaties die goede resultaten met AI behalen, hebben de informatiehuishouding als onderdeel van de AI-investering behandeld, niet als iets wat een ander vanzelf zou regelen.
AI landt niet op een leeg veld. Het landt op wat een organisatie al heeft. En wat een organisatie al heeft, bepaalt voor een groot deel wat er van de investering terechtkomt.
Lees ook
Banen zijn geen takenlijsten — AI raakt taken, niet banen. Wat er echt op het spel staat, hangt af van hoe die taken zich tot elkaar verhouden.