.png)
Organisaties willen AI gebruiken, maar vrezen verlies van controle over hun data. Nieuwe Europese wetgeving maakt datasoevereiniteit tot een strategische noodzaak. Hoe kunnen bedrijven AI toepassen én de controle behouden? De snelle opkomst van generatieve AI heeft bestuurders en beleidsmakers wereldwijd in beweging gebracht. ChatGPT toont wat technisch kan, maar mist precisie en controle die organisaties nodig hebben. Zeker in sectoren als zorg, overheid, energie en defensie, waar privacy en compliance belangrijk zijn, is afhankelijkheid van buitenlandse aanbieders een groot risico.
Van generiek naar specifiek
Volgens Jan Voskuil, managing director bij Y.digital, ligt de kern van het probleem in het verschil tussen generieke en domeinspecifieke kennis. “Taalmodellen waarop oplossingen als ChatGPT gebaseerd zijn voorspellen de meest waarschijnlijke output, maar dat hoeft niet per se juist te zijn. Voor organisaties met gevoelige gegevens of regelgeving is dat onvoldoende.
”Daarom pleit de Nederlandse AIspecialist in machine learning, natural language processing en kennismodellen, voor een hybride aanpak. Daarbij wordt generatieve AI gecombineerd met kennis uit de eigen organisatie in de vorm van “kennismodellen”. Zo ontstaat AI die teksten genereert én onderbouwt met bedrijfsregels.
Een concreet voorbeeld: bij een handhavingsorganisatie worden douanelijsten gebruikt voor controles. Die informatie wil je niet laten uitlekken via publieke modellen, maar wel benutten in een veilige AI-oplossing. “Daar zit de kracht”, aldus Paul van der Hulst, CEO van Y.digital. “Publieke taalmodellen zijn handig, maar voor specifieke domeinkennis moet je eigen kaders meegeven om ze effectief en accuraat te laten zijn.”
De waarde van kennismodellen
Het kennismodel representeert bedrijfsregels, processen en domeinkennis. “Veel kennis zit verborgen in IT-systemen en procedures”, zegt Van der Hulst. “Door die kennis te structureren en vast te leggen, maak je er een asset van. Je eigen AI-kern, die je kunt combineren met verschillende taalmodellen. Daarmee voorkom je dat cruciale kennis weglekt naar Big Tech, en combineer je de brute kracht van een LLM met de specifieke logica van jouw organisatie.”
Het resultaat is een AI-toepassing die niet alleen plausibel klinkt, maar ook toetsbaar en herleidbaar is. Van chatbot tot geautomatiseerde archiefoplossing: de output kan worden gecontroleerd en voldoet aan interne en externe regelgeving.
Datasoevereiniteit als strategische randvoorwaarde
Europese regels dwingen organisaties na te denken over waar hun data staan. “Datasoevereiniteit betekent baas blijven over je eigen informatie”, benadrukt Voskuil. “Als bedrijven hun data in Amerikaanse clouds blijven zetten, lopen ze niet alleen compliance-risico’s, maar ook het gevaar van afhankelijkheid.”
Volgens Van der Hulst is de verleiding groot om voor gemak te kiezen. “Veel organisaties kiezen gemakshalve voor Big Tech, maar het toepassen van AI is geen plug and play. Het vraagt om strategische keuzes en investeringen in datahygiëne, ofwel een zorgvuldige omgang met data.”
Hij wijst erop dat het gebruik van gratis versies van publieke AI-modellen extra risico’s geeft. “Wie gevoelige documenten uploadt naar een publieke chatbot, loopt kans dat die data worden gebruikt voor hertraining. Dat wil je absoluut vermijden. Organisaties moeten hun mensen daarom veilige alternatieven bieden zoals betrouwbare LLM’s (Large Language Model, getraind met grote hoeveelheden data) in een besloten omgeving.”
Praktische alternatieven
In plaats van blindelings gebruik te maken van publieke modellen, zijn er inmiddels tal van Europese en open source opties. Denk aan Mistral, of aan Llama van Meta, dat weliswaar Amerikaans is maar vaak lokaal of in een private cloud wordt ingezet. “Het is belangrijk dat je zelf de regie houdt”, zegt Van der Hulst. “Bedrijfslogica en knowhow moet je als organisatie bezitten en beschermen. Dat is je intellectueel eigendom.”
Ethiek
Ook ethiek en bias spelen mee. Voskuil: “AI-modellen zijn vaak gekleurd door de data waarop ze getraind zijn. Transparantie is cruciaal om vertrouwen te winnen. Alleen als je kunt laten zien hoe een uitkomst tot stand is gekomen, bouw je dat vertrouwen op.
”Door AI-oplossingen binnen een veilige omgeving te integreren, kunnen bedrijven profiteren van de snelheid van taalmodellen én de nauwkeurigheid van hun eigen domeinkennis. Zo veranderen data van ballast naar strategisch kapitaal
Europa en geopolitiek
De afhankelijkheid van Amerikaanse techreuzen is niet alleen een compliancevraagstuk, maar ook geopolitiek. “Als we niet oppassen, geven we onze digitale soevereiniteit weg”, waarschuwt Voskuil. Hij pleit voor meer investeringen in een volwaardige Europese cloud en in eigen taalmodellen. Van der Hulst vult aan: “We moeten leunen op Big Tech, maar deze technologie gecontroleerd en op eigen voorwaarden inzetten. Europa heeft talent en kennis, maar mist massa en samenwerking. Alleen zo houden we onze autonomie.”
Van hype naar productiefactor
De eerste generatie AI liet vooral zien wat technisch mogelijk is. De volgende generatie draait om economische waarde en volwassenheid. Bedrijven die nu investeren in de combinatie van generatieve AI en kennismodellen, leggen de basis voor duurzame waardecreatie. “Mijn advies aan bestuurders is simpel”, besluit Van der Hulst. “Own it. Zorg dat je AI-oplossingen baseert op je eigen kennis en processen. Alleen dan blijf je baas over je data en kun je AI verantwoord inzetten als motor voor innovatie.”