
Inleiding – waarom dit relevant is voor gemeenten
Het gebruik van kunstmatige intelligentie (AI) binnen de overheid is in 2025 snel toegenomen. Steeds meer gemeenten maken gebruik van AI-systemen om processen te optimaliseren, besluitvorming te ondersteunen en dienstverlening richting burgers te verbeteren. Maar met deze mogelijkheden komen ook risico’s. Met name voor AI-systemen die als ‘hoog risico’ zijn aangemerkt, gelden sinds de definitieve AI Act strengere regels. Voor gemeenten is het daarom belangrijk om op de hoogte te zijn van deze nieuwe verplichtingen, zodat ze niet alleen voldoen aan de wet, maar ook het vertrouwen van inwoners behouden.
Uitleg – wat houdt het onderwerp in?
Binnen de AI Act worden bepaalde toepassingen van AI als ‘hoog risico’ aangemerkt. Dit zijn bijvoorbeeld systemen die een rol spelen in kritieke infrastructuur (zoals energie, water of verkeer), in het onderwijs (zoals geautomatiseerde beoordelingen), op de arbeidsmarkt (bijvoorbeeld voor selectie van kandidaten), maar ook bij publieke dienstverlening (zoals het verdelen van sociale woningen, fraudebestrijding of politietaken).
Een AI-systeem valt onder hoog risico als het aanzienlijke gevolgen kan hebben voor de rechten en vrijheden van individuen. Denk aan systemen die beslissingen nemen over toegang tot voorzieningen, recht op uitkeringen of het prioriteren van burgers op wachtlijsten. Deze AI-systemen moeten voldoen aan strikte eisen, waaronder:
- Grondige risicobeoordeling en documentatie (DPIA, logboeken, evaluaties)
- Transparantie en uitleg voor burgers, inclusief het recht op menselijke tussenkomst
- Hoge eisen aan datakwaliteit, data governance en beveiliging
- Continue monitoring en evaluatie van de werking en uitkomsten van het AI-systeem
- Registratie van het AI-systeem in een algoritmeregister
- Het opstellen van procedures voor het melden van incidenten en het aanpakken van fouten of discriminatie
Praktijkvoorbeeld
Wat moeten gemeenten hiermee?
- Risicobeoordeling uitvoeren: Voor elk AI-systeem dat als hoog risico wordt beschouwd, is een Data Protection Impact Assessment (DPIA) verplicht. Dit moet gedetailleerd zijn en ook ethische aspecten meenemen.
- Transparantie waarborgen: Informeer burgers actief over het gebruik van AI, via heldere communicatie, het openbaar maken van het algoritmeregister en duidelijke uitleg over de werking van systemen.
- Data governance versterken: Leg vast hoe data wordt verzameld, verwerkt, opgeslagen en beveiligd. Dit omvat ook regels voor het controleren van bias en discriminatie.
- Training en bewustwording: Zorg dat medewerkers goed zijn opgeleid in de juridische en ethische aspecten van AI-gebruik. Regelmatige bijscholing is in 2025 een vereiste.
- Samenwerking zoeken: Werk samen met andere gemeenten, experts en platforms als Common Ground voor kennisdeling, ontwikkeling van best practices en gezamenlijke audits.
- Continue monitoring en rapportage: Zorg voor periodieke evaluatie van de prestaties en effecten van AI-systemen. Documenteer incidenten en verbeterpunten.
Afsluiting
De inzet van AI biedt grote kansen voor gemeenten, maar vraagt ook om verantwoordelijkheid en naleving van strikte regels. Door te investeren in risicobeoordeling, transparantie, goede data governance en samenwerking, zorgen gemeenten dat hun AI-systemen veilig, eerlijk en betrouwbaar zijn. Zo wordt niet alleen aan de wet voldaan, maar wordt ook het vertrouwen van burgers behouden. Voor uitgebreide informatie over de AI Act, praktische tips en begeleiding, kun je onze whitepaper downloaden of een intakegesprek aanvragen bij VerantwoordAI.