
AI-beleid opstellen in 10 stappen
AI – of kunstmatige intelligentie – is in opkomst en biedt volop kansen. Denk aan tools die teksten genereren, afbeeldingen maken, klantvragen beantwoorden of processen ondersteunen. Maar er zijn ook risico’s: AI-systemen werken niet altijd transparant, zijn gevoelig voor fouten (zoals ‘hallucinaties’) en kunnen persoonsgegevens of bedrijfsinformatie blootstellen.
Als bibliotheek wil je grip houden op het gebruik van AI. Dat begint met duidelijke afspraken. Met dit stappenplan stel je in 9 heldere stappen een AI-beleid op dat past bij jouw organisatie, je ambities én je verantwoordelijkheden.
Stap 1. Bepaal wat AI voor jouw organisatie betekent
Iedereen heeft een ander beeld bij AI. Daarom is het belangrijk om eerst een definitie vast te stellen die past bij jouw bibliotheek.
AI is breder dan je denkt. Niet elk algoritme is AI. We spreken pas van AI als een systeem zelflerend is – oftewel, als het zichzelf verbetert op basis van data. Generatieve AI (zoals ChatGPT of DALL·E) is daar een voorbeeld van.
Tip: Laat je inspireren door bestaande definities:
Stap 2. Stel een team samen en leg verantwoordelijkheden vast
AI raakt veel domeinen: juridisch, technisch, inhoudelijk én organisatorisch. Leg daarom de uitvoering van het AI-beleid niet bij één persoon, maar stel een multidisciplinair team samen.
Denk aan een combinatie van:
- Directie of MT-lid
- ICT-beheerder
- Privacyfunctionaris
- HR en communicatie
Dit team:
- Beoordeelt of AI-toepassingen worden ingezet (en zo ja: hoe)
- Houdt toezicht op naleving van regels
- Evalueert het gebruik en stelt bij waar nodig
- Besluit om een AI-systeem stop te zetten als het niet goed werkt. Het advies is één functionaris het mandaat voor deze beslissing te geven.
Stap 3. Zorg voor kennis en bewustwording
Niet iedereen hoeft alles van AI te weten. Maar iedereen moet wel begrijpen wat AI is, welke risico’s er zijn en wat dit betekent voor het eigen werk.
- Stem trainingen af op functie en verantwoordelijkheden
- Richt je op zowel juridische, ethische als praktische aspecten
- Denk ook aan externe doelgroepen: hoe werkt AI door in dienstverlening?
De Autoriteit Persoonsgegevens heeft hiervoor het document Aan de slag met AI-geletterdheid ontwikkeld.
Aanbeveling van het Rijk in het Implementatiekader Verantwoorde inzet van algoritmen: geef medewerkers de ruimte om AI-gebruik te bevragen of zelfs te weigeren als het niet klopt met de waarden van je organisatie.
Stap 4. Houd rekening met de AI life cycle
AI-systemen doorlopen verschillende fases: van ontwerp tot gebruik – en soms ook beëindiging. Elke fase kent zijn eigen verantwoordelijkheden, risico’s en wettelijke eisen.
De drie hoofdfasen van de AI life cycle:
- Ontwerp (design) – Wat is het doel van het systeem? Welke data worden gebruikt?
- Ontwikkeling (development) – Hoe wordt het systeem gebouwd? Hoe voorkom je vooroordelen of fouten in de data?
- Gebruik (deployment) – Hoe wordt het systeem ingezet? Wordt het goed gemonitord?
Soms besluit je om een AI-systeem te stoppen (end of life). Leg ook dan vast hoe dat gebeurt, wie dat besluit neemt en hoe je verantwoord afbouwt.
Zorg dat in elke fase de risico’s worden beoordeeld, passende maatregelen worden genomen en verantwoordelijkheden duidelijk zijn. Tip: Gebruik hiervoor een PDCA-cyclus (Plan – Do – Check – Act) om AI-toepassingen continu te verbeteren en te evalueren.
Stap 5. Ontwikkel een AI-visie en -missie
Waarom wil jouw bibliotheek AI gebruiken? Wat is de meerwaarde voor jouw organisatie en je publiek?
Stel een korte en duidelijke visie en missie op. Bijvoorbeeld:
- Visie: Wij gebruiken AI om medewerkers te ondersteunen, niet te vervangen.
- Missie: We zetten AI in voor snellere dienstverlening en betere informatievoorziening, met oog voor privacy en inclusie.
Ondersteun je visie met principes, zoals: mensgerichtheid, transparantie, rechtvaardigheid en duurzaamheid. Inspiratie hiervoor vind je bij
- Ethics guidelines for trustworthy AI
- OECD
- Implementatiekader verantwoorde inzet van algoritmen (Ministerie van Binnenlandse Zaken en Koninkrijksrelaties)
Stap 6. Breng risico’s in kaart
AI brengt risico’s met zich mee. Denk aan:
- Voor burgers: schending van privacy, bias of verkeerde beslissingen
- Voor je organisatie: reputatieschade of verkeerde beleidskeuzes
- Voor de samenleving: verspreiding van desinformatie of deepfakes
Breng deze risico’s in kaart en neem maatregelen om ze te beperken.
Tip: Kijk op de site van de Autoriteit Persoonsgegevens voor actuele risico’s en aanbevelingen.
Stap 7. Maak zichtbaar waar en hoe AI wordt gebruikt
Welke AI-systemen worden binnen jouw organisatie gebruikt of ontwikkeld? En waarvoor?
- Inventariseer het huidige gebruik
- Classificeer systemen volgens de risico-categorieën van de AI Act
- Houd een intern AI-register bij
Zo houd je overzicht én voldoe je straks aan wetgeving. Voorbeeld: zie de Handreiking Algoritmeregister van de Digitale Overheid.
Stap 8. Leg vast hoe je omgaat met incidenten
Wat doe je als een AI-systeem iets fout doet? Of als blijkt dat het ongewenste effecten heeft?
Zorg voor een heldere incidentenprocedure. Deze sluit aan op bestaande procedures (zoals datalekken), maar is specifiek voor AI.
Bepaal wanneer iets een ernstig incident is – en wie je dan moet informeren:
- Interne meldingen (zoals vermoeden van bias of hallucinaties)
- Ernstige incidenten die je aan de toezichthouder moet melden (zie Art 3(49) van de AI Act)
Stap 9. Houd rekening met wet- en regelgeving
Je AI-beleid moet voldoen aan de Europese AI Act, maar ook aan bestaande wetgeving, zoals:
- Algemene verordening gegevensbescherming (AVG)
- NIS2 (cybersecurity)
- Wet digitale overheid
- Wet stelsel openbare bibliotheekvoorzieningen (WSOB)
Zorg dat iemand in de organisatie op de hoogte blijft van de laatste ontwikkelingen op het gebied van AI-wetgeving of laat je juridisch adviseren over de samenhang tussen deze regels.
Stap 10. Voer regelmatig controles en onderzoeken uit
AI verandert snel – en dus moet je beleid meebewegen. Plan daarom periodieke evaluaties en assessments in.
Drie vormen van onderzoek zijn belangrijk:
- Conformiteitsbeoordeling – verplicht bij hoog-risico AI-systemen
- AIIA – toetsing op mensenrechten en maatschappelijke effecten
- DPIA – beoordeling van risico’s op het gebied van privacy