AI Policy Template
Dit document bestaat uit twee delen:
DEEL A: Instructie & Context – Lees dit eerst. Het helpt je begrijpen waarom een AI-beleid nodig is, wat de beperkingen van AI zijn, en hoe je zelf bepaalt wat wel en niet mag binnen jouw organisatie.
DEEL B: Het Invulbare Template – Dit is het daadwerkelijke beleidsdocument dat je kopieert, aanpast en deelt met je team. Alle invulvelden staan tussen [vierkante haken].
Waarom een AI-beleid?
AI biedt enorme kansen zoals sneller content maken, slimmere data-analyse en efficiëntere klantenservice. Maar zonder duidelijke afspraken ontstaan problemen:
1
Inconsistente kwaliteit
De ene collega controleert AI-output grondig, de andere publiceert direct
2
Privacyrisico's
Klantdata wordt onbewust gedeeld met externe AI-tools
3
Reputatieschade
Foutieve of ongepaste AI-content bereikt klanten
4
Juridische risico's
Onduidelijkheid over aansprakelijkheid bij fouten
5
Verspilde tijd
Teams experimenteren zonder te leren van elkaar
Een AI-beleid is geen bureaucratie. Het is een praktische gids die je team duidelijkheid geeft: "Kan ik AI hiervoor gebruiken? En zo ja, hoe?"

1

De vijf beperkingen van AI
Voordat je bepaalt wat wel en niet mag met AI, moet je team de beperkingen begrijpen. AI is krachtig, maar niet feilloos. Deze vijf beperkingen bepalen waar extra controle nodig is.
1
Ethische en culturele blinde vlekken
Wat het betekent: AI-modellen zijn getraind op data die vooroordelen kan bevatten. Ze kunnen cultureel onbewust of ongepast reageren.
Waar dit speelt in e-commerce: Productaanbevelingen die stereotyperend kunnen overkomen, gegenereerde productfoto's met mensen, content voor internationale of diverse doelgroepen, klantenservice-antwoorden bij gevoelige onderwerpen.
Controlevraag: Kan deze output als oneerlijk, stereotyperend of cultureel ongevoelig worden ervaren door een deel van onze klanten?
2
Inconsistentie en onvoorspelbaarheid
Wat het betekent: AI kan verschillende antwoorden geven op exact dezelfde vraag. Kleine wijzigingen in je instructie leiden soms tot totaal andere output.
Waar dit speelt in e-commerce: Geautomatiseerde e-mailreeksen die consistent moeten zijn, productbeschrijvingen die dezelfde structuur moeten volgen, FAQ-antwoorden die altijd hetzelfde beleid moeten communiceren, prijscommunicatie en voorwaarden.
Controlevraag: Is het acceptabel als deze output elke keer net iets anders is? Of moet het 100% consistent zijn?
3
Feitelijke onbetrouwbaarheid (hallucinaties)
Wat het betekent: AI kan zeer overtuigend klinken, maar feitelijk onjuist zijn. Het verzint soms informatie die niet bestaat ("hallucinaties").
Waar dit speelt in e-commerce: Productspecificaties en technische details, prijzen, levertijden en voorraadstatus, juridische teksten (algemene voorwaarden, retourbeleid), klantcommunicatie over bestellingen en verzending, claims over productkwaliteit of certificeringen.
Controlevraag: Wat zijn de gevolgen als deze informatie onjuist blijkt? Kan het leiden tot klachten, retourzendingen, juridische problemen of reputatieschade?
4
Gebrek aan uitlegbaarheid
Wat het betekent: AI kan niet uitleggen waarom het een bepaald antwoord of advies geeft. Het is een "black box."
Waar dit speelt in e-commerce: Dynamische prijsoptimalisatie, automatische klantsegmentatie voor campagnes, voorspellende analyses (voorraad, vraag, trends), gepersonaliseerde productaanbevelingen.
Controlevraag: Kunnen we dit besluit uitleggen aan klanten, leveranciers of toezichthouders als ze erom vragen?
5
Verouderde kennis
Wat het betekent: AI-modellen weten alleen wat ze tijdens hun training hebben geleerd. Ze zijn niet automatisch op de hoogte van recente ontwikkelingen.
Waar dit speelt in e-commerce: Seizoensgebonden content en actuele acties, nieuwe productlanceringen en collecties, gewijzigde prijzen, beleid of levertijden, actuele marketingcampagnes, concurrentie-informatie.
Controlevraag: Is de informatie die AI gebruikt nog actueel en volledig? Heeft AI toegang tot onze meest recente data?

2

Human-in-the-loop: het kernprincipe
Human-in-the-loop betekent dat er altijd een mens betrokken is bij belangrijke beslissingen of output. Dit is het fundament van verantwoord AI-gebruik.
Waarom dit essentieel is
AI is een assistent, geen vervanger. Het kan voorstellen doen, eerste versies maken en data analyseren. Maar de eindverantwoordelijkheid ligt altijd bij een mens. Dit principe beschermt je tegen:
  • Fouten die klanten bereiken – Een mens vangt hallucinaties en onzin op
  • Reputatieschade – Een mens beoordeelt of content past bij jullie merk
  • Juridische aansprakelijkheid – Een mens neemt de beslissing, niet de AI
Drie niveaus van menselijke controle
Niet elke taak vraagt dezelfde mate van controle. Bepaal per use case welk niveau passend is:
Niveau 1: Mens controleert achteraf
AI voert de taak uit, een mens beoordeelt steekproefsgewijs of periodiek.
Voorbeeld: AI categoriseert binnenkomende klantvragen. Wekelijks controleert iemand of de categorisering klopt.
Niveau 2: Mens keurt goed vóór publicatie
AI maakt een concept, een mens beoordeelt en keurt goed voordat het live gaat.
Voorbeeld: AI schrijft productbeschrijvingen. Een contentmanager controleert en publiceert.
Niveau 3: Mens neemt de beslissing
AI geeft informatie of advies, maar een mens neemt altijd de uiteindelijke beslissing.
Voorbeeld: AI analyseert klantgedrag en stelt een compensatiebedrag voor. Een medewerker beslist of en hoeveel compensatie wordt gegeven.

3

Hoe bepaal je wat groen, geel of rood is?
Het template in Deel B vraagt je om taken in te delen in drie categorieën:
🟢 Groen (ga je gang)
AI mag zonder extra goedkeuring worden gebruikt
🟡 Geel (eerst laten controleren)
AI mag worden gebruikt, maar output moet worden gecontroleerd vóór gebruik
🔴 Rood (niet doen zonder toestemming)
AI mag niet worden gebruikt zonder expliciete toestemming van een leidinggevende
Hoe maak je deze indeling?
Stel jezelf per taak de volgende vragen:
1
Wat is de impact als het misgaat?
  • Laag (interne notitie, brainstorm) → meer richting groen
  • Middel (klant ziet het, maar correctie mogelijk) → meer richting geel
  • Hoog (juridisch, financieel, reputatie) → meer richting rood
2
Welke AI-beperkingen spelen hier?
  • Geen of weinig relevante beperkingen → meer richting groen
  • Eén of twee beperkingen relevant → meer richting geel
  • Meerdere beperkingen relevant → meer richting rood
3
Is de taak herhaalbaar en consistent?
  • Ja, hetzelfde type werk telkens → groen of geel
  • Nee, uniek en contextafhankelijk → geel of rood
4
Hoe makkelijk is een fout te herstellen?
  • Eenvoudig te corrigeren → meer richting groen
  • Lastig of kostbaar te corrigeren → meer richting rood
Voorbeelden ter inspiratie
Dit zijn voorbeelden om je op weg te helpen. Bepaal zelf wat past bij jouw organisatie, risicoprofiel en branche.
🟢 Typisch groen
  • Interne brainstormsessies en ideevorming
  • Eerste concepten voor productbeschrijvingen
  • Samenvatten van interne documenten
  • Vertalingen voor intern gebruik
🟡 Typisch geel
  • Productbeschrijvingen die gepubliceerd worden
  • E-mailcampagnes naar klanten
  • Social media posts
  • Klantenservice-conceptantwoorden
  • Analyses die leiden tot beslissingen
🔴 Typisch rood
  • Volledig geautomatiseerde klantcommunicatie zonder menselijke controle
  • Juridische teksten (voorwaarden, contracten)
  • Prijsbeslissingen boven een bepaald bedrag
  • Claims over productveiligheid of certificeringen
  • Strategische beslissingen zonder validatie

4

DEEL B: HET INVULBARE TEMPLATE

Kopieer dit deel, vul de velden tussen [vierkante haken] in, en deel het met je team.
AI-Beleid voor [Bedrijfsnaam]
Versie: [1.0]
Ingangsdatum: [Datum]
Volgende herziening: [Datum over 6 maanden]
Opgesteld door: [Naam + functie]
Goedgekeurd door: [Naam + functie]
1. Doel van dit beleid
Dit beleid geeft het team van [Bedrijfsnaam] duidelijke richtlijnen voor het gebruik van AI in het dagelijkse werk. Het doel is om AI verantwoord in te zetten: op een manier die past bij onze bedrijfswaarden en de belangen van onze klanten beschermt.
Kernprincipe: AI ondersteunt ons werk, maar vervangt nooit menselijk oordeelsvermogen. Elk belangrijk AI-resultaat wordt beoordeeld door een mens voordat het wordt gebruikt of gepubliceerd.
2. Transparantie over AI-gebruik
Wij zijn transparant over waar en hoe we AI inzetten.
Ons transparantie-statement (pas aan naar jullie situatie):
"[Bedrijfsnaam] gebruikt AI om bepaalde processen te ondersteunen. We werken met interne richtlijnen om kwaliteit, privacy en onze waarden te waarborgen. AI ondersteunt bij het maken van content, maar automatiseert dit nooit volledig zonder menselijke controle."
[Publiceer dit statement op: website / in contracten / anders, namelijk: ______________]

5

Wat mag, wat moet gecontroleerd worden en wat mag niet
🟢 Groen: Ga je gang
Deze taken mag je met AI uitvoeren zonder extra goedkeuring:
🟡 Geel: Eerst laten controleren
Deze taken mag je met AI uitvoeren, maar de output moet gecontroleerd worden vóór gebruik:
🔴 Rood: Niet zonder toestemming
Deze taken voer je niet uit met AI zonder expliciete toestemming van [functie]:

6

Goedgekeurde AI-tools en Data & Privacy
4. Goedgekeurde AI-tools
Gebruik alleen de onderstaande AI-tools voor bedrijfsgerelateerd werk. Wil je een andere tool gebruiken? Vraag goedkeuring aan [functie].
Niet-goedgekeurde tools: Gebruik geen gratis AI-tools of tools die niet in bovenstaande lijst staan voor bedrijfsdata of klantinformatie.
5. Data en privacy
Dit mag je wél invoeren in AI-tools:
  • [Vul in, bijv. Algemene productinformatie]
  • [Vul in, bijv. Anonieme verkooptrends]
  • [Vul in, bijv. Publiek beschikbare informatie]
  • [Vul in]
  • [Vul in]
  • [Vul in]
  • [Vul in]
Dit voer je NOOIT in:
  • Persoonlijke klantgegevens (namen, adressen, e-mails, telefoonnummers)
  • Betaalgegevens en financiële informatie van klanten
  • Wachtwoorden en inloggegevens
  • [Vul in: andere gevoelige data specifiek voor jullie bedrijf]
  • [Vul in: andere gevoelige data specifiek voor jullie bedrijf]
  • [Vul in: andere gevoelige data specifiek voor jullie bedrijf]
Vuistregel: Vraag jezelf af: "Zou ik willen dat deze data gebruikt wordt om publieke AI-modellen te trainen?" Bij twijfel: niet invoeren.
Bij twijfel, vraag het aan: [Naam/functie] via [contactgegevens]

7

Review, Escalatie en Training
6. Review en goedkeuringsproces
7. Escalatie bij problemen
Wat te doen als er iets misgaat met AI:
Stap 1: Stop en beperk
Publiceer niet, verstuur niet, gebruik niet. Beperk de schade indien al gepubliceerd.
Stap 2: Meld direct
Meld het incident aan [functie] via [contactmethode, bijv. Slack #ai-incidenten of e-mail].
Stap 3: Documenteer
Vul het incidentformulier in (zie hieronder).
Incident registratie
Bij elk AI-gerelateerd incident leggen we het volgende vast:
  • Datum en tijd
  • Wat ging er mis?
  • Welke AI-tool was betrokken?
  • Wat was de impact?
  • Hoe is het opgelost?
  • Wat leren we hiervan?
  • Gemeld door
Incidenten melden aan: [Naam/functie] via [e-mail/Slack]
Incidentlog locatie: [bijv. Gedeelde Drive map / Notion pagina]
8. Training en ondersteuning
Voordat je AI gebruikt
Alle medewerkers die AI gebruiken moeten:
  • Dit beleid hebben gelezen en begrepen
  • Een AI training hebben gevolgd [indien van toepassing]
  • Weten bij wie ze terecht kunnen met vragen
Hulp nodig?
Interne kennisbank
[Link naar interne documentatie, prompts, best practices]

8

Verantwoordelijkheid en versiebeheer
9. Verantwoordelijkheid

Belangrijk: Mensen zijn verantwoordelijk voor wat AI produceert.
  • Publiceer of verstuur nooit AI-output zonder menselijke controle
  • De persoon die AI-output gebruikt is verantwoordelijk voor het eindresultaat
  • Bij problemen nemen we als bedrijf verantwoordelijkheid en lossen we het op
10. Versiebeheer en herziening
Herzienfrequentie: Dit beleid wordt elke [6 maanden / bij grote wijzigingen in AI-tools of wetgeving] herzien.
Volgende herziening gepland: [Datum]
Feedback op dit beleid? Neem contact op met [Naam/functie] via [e-mail]
Acceptatie
Door AI te gebruiken in je werk bij [Bedrijfsnaam], ga je akkoord met dit beleid.
Niet-naleving wordt serieus genomen en kan leiden tot [consequenties invullen, bijv. "een gesprek met je leidinggevende"].
Dit beleid is geen rem op creativiteit, maar een kader voor verantwoord gebruik. Door deze richtlijnen te volgen, benutten we de kracht van AI terwijl we onze klanten respecteren en onze bedrijfswaarden hooghouden.

9