
Gemeenten in Nederland zetten steeds vaker kunstmatige intelligentie in om processen te verbeteren en publieke dienstverlening te versnellen. De komst van de AI Act en strengere AVG-toezichtregels maken het essentieel om als gemeente het risiconiveau van iedere AI-toepassing scherp te classificeren. Met deze beslisboom bepaal je eenvoudig welk toezicht- en compliance-niveau past bij jouw project.
Waarom risiconiveau’s classificeren?
Niet iedere AI-toepassing is even risicovol. Sommige systemen zijn vrijwel onschuldig, zoals chatbots voor informatievoorziening. Andere, zoals AI die besluiten neemt over uitkeringen of woningtoewijzing, kunnen grote gevolgen hebben voor het leven van burgers. Door gebruik te maken van een beslisboom volgens de nieuwste inzichten uit 2025, voorkom je niet alleen juridische risico’s, maar borg je ook ethiek, transparantie en vertrouwen.
Zo werkt de AI-beslisboom
De beslisboom hieronder is gebaseerd op de risicoklassen van de AI Act en de AVG. Doorloop de vragen voor iedere AI-toepassing om het juiste risiconiveau en de bijbehorende acties te bepalen.
Beslisboom: Bepaal het risiconiveau van jouw AI-toepassing
-
Gebruikt de AI-toepassing persoonsgegevens of biometrische data?
Ja: Ga naar vraag 2.
Nee: Ga naar vraag 4. -
Worden op basis van deze data besluiten genomen die directe gevolgen hebben voor burgers? (zoals toekenning van uitkering, handhaving, zorg, huisvesting)
Ja: Hoog risico. Voer een DPIA uit, registreer het systeem, zorg voor menselijk toezicht en transparantie.
Nee: Ga naar vraag 3. -
Heeft de AI-toepassing een substantiële impact op rechten of vrijheden (bijv. profiling, scoring)?
Ja: Hoog risico. Volg de eisen voor hoogrisico-AI uit de AI Act en AVG.
Nee: Beperkt risico. Zorg voor transparantie, documentatie en periodieke beoordeling. -
Gebruikt de AI-toepassing géén persoonsgegevens en is de impact minimaal?
Ja: Laag risico. Basisdocumentatie en ethisch kader volstaan.
Nee: Raadpleeg een expert of voer alsnog een DPIA uit. -
Wordt de toepassing gebruikt voor verboden doeleinden volgens de AI Act (zoals manipulatie, sociale scoring, massale surveillance)?
Ja: Toepassing is verboden.
Nee: Volg stappen hierboven afhankelijk van uitkomst.
Tip: Download de uitgebreide beslisboom als interactieve pdf of neem contact op voor een gratis intake.
Wil je de AI-beslisboom als interactieve pdf of poster ontvangen? Laat je e-mail achter voor een gratis download en handige begeleiding bij de implementatie.
Download de beslisboomWat moeten gemeenten hiermee?
- Risicoanalyse uitvoeren: Gebruik de beslisboom bij elk AI-project.
- Compliance verzekeren: Houd je aan de eisen van de AI Act, AVG en sectorale richtlijnen.
- Dataprivacy waarborgen: Bescherm persoonsgegevens volgens de hoogste standaarden.
- Transparantie bieden: Gebruik een algoritmeregister voor publieke verantwoording.
- Ethiek centraal stellen: Zorg voor een ethisch kader en menselijk toezicht.
- Periodiek herzien: Herzie classificaties en maatregelen bij updates of nieuwe data.
Afsluiting
Het correct inschatten van het risiconiveau van AI-toepassingen is in 2025 essentieel voor gemeenten. Zo borg je niet alleen compliance, maar ook vertrouwen en innovatie. Wil je hulp bij het toepassen van de beslisboom of meer weten over de laatste ontwikkelingen? Download onze whitepaper of plan een intakegesprek.