MATConnect is een online bibliotheek van Vanden broele

AI verantwoord invoeren in je lokaal bestuur

Zes concrete stappen voor het managementteam

AI biedt lokale besturen echte kansen: efficiëntere processen, betere dienstverlening, ondersteuning voor medewerkers. Maar wie AI invoert zonder kader en duidelijke strategie, loopt risico's op vlak van privacy, aansprakelijkheid en vertrouwen. Hieronder lees je zes stappen om meteen mee aan de slag te gaan, met respect voor de verplichtingen uit de EU AI Act.

 

Tijdslijn

Februari 2025 ✓ Augustus 2025 ✓ Augustus 2026 Augustus 2030

Verboden systemen +

AI-geletterdheid verplicht

Transparantie­regels GPAI van kracht AI Act volledig van toepassing Compliance hoog-risico systemen door publieke overheden

 

Implementation Timeline | EU Artificial Intelligence Act

 

Bestuur en beleid

  1. Stel een AI-beleid op.

Wacht niet tot medewerkers zelf ChatGPT, Copilot of andere AI-tools beginnen te gebruiken. Leg vast welke toepassingen toegelaten zijn, welke niet, en onder welke voorwaarden. Koppel dit aan je bestaand informatiebeveiligingsbeleid en de AVG.

EU AI Act: Gebruik de EU AI Act Compliance Checker om na te gaan of jouw AI-systemen onderhevig zijn aan bepaalde verplichtingen.

 

  1. Wijs een interne eigenaar aan.

AI-toepassingen hebben nood aan iemand die opvolgt, bijstuurt en rapporteert aan het managementteam. Dit kan een bijkomende rol zijn van je IT-dienst, maar dit hoeft geen technisch profiel te zijn: een beleidsmedewerker of proceseigenaar met mandaat volstaat.

EU AI Act: Lokale besturen zijn minstens gevat als gebruiksverantwoordelijke ("deployer") en moeten aantoonbaar toezicht kunnen uitoefenen op ingezette AI-systemen.

 

Risico en beheersing

  1. Maak een inventaris en beoordeel het risico per toepassing.

Niet elke AI-tool vraagt dezelfde aanpak. Een AI die teksten herformuleert, verschilt wezenlijk van een AI die beslissingen over burgers ondersteunt. Gebruik de risicoklassen uit de AI Act als toetsingskader en pas je maatregelen daarop af.

EU AI Act: Hoog-risicosystemen (bv. AI bij toekenning van sociale steun of personeelsbeheer) vereisen een formele risicobeoordeling, registratie en technische documentatie (art. 9 & 17).

 

  1. Bewaar de menselijke controle op beslissingen.

AI mag ondersteunen, maar mag niet beslissen over burgers zonder menselijke validatie. Leg dit expliciet vast in je processen. Zorg dat medewerkers weten wanneer ze moeten bijsturen en dat AI-output herleidbaar is.

EU AI Act: Menselijk toezicht ("human oversight") is een kernverplichting voor hoog-risicosystemen. Een expert moet de werking kunnen opvolgen, herzien en uitleggen (art. 14).

 

Mensen en cultuur

  1. Investeer in AI-geletterdheid.

Medewerkers hoeven geen AI-experts te worden, maar moeten wel begrijpen wat AI kan en niet kan, hoe ze uitkomsten kritisch lezen en welke vragen ze moeten stellen. Korte en periodieke bewustmakingssessies zijn vaak effectiever dan uitgebreide of eenmalige opleidingen.

Voorbeeld: Een financieel medewerker gebruikt AI om begrotingsrapporten samen te vatten. Na een korte sessie weet die medewerker dat hij cijfers altijd zelf verifieert, dat hij geen vertrouwelijke data ingeeft in een publieke tool en dat hij weet hoe hij een fout signaleert.

EU AI Act: De verplichting rond AI-geletterdheid voor alle medewerkers die met AI werken, geldt al sinds 2 februari 2025 (art. 4). Dit is nu afdwingbaar, maar er zijn nog geen concrete sancties vastgelegd.
Tip: Documenteer zoveel mogelijk de initiatieven die je nu al neemt rond AI-geletterdheid.

 

  1. Start klein, evalueer en schaal.

Kies een afgebakende toepassing met een duidelijk doel. Evalueer na drie maanden: levert het op wat het belooft, zijn er risico's opgedoken, is de kwaliteit geborgd? Schaal dan pas op naar andere of complexe processen.

Voorbeeld: De dienst communicatie gebruikt AI om antwoorden op veelgestelde vragen over de gemeentelijke website op te stellen. Na drie maanden blijkt dat 12% van de voorgestelde antwoorden bijgestuurd moet worden. Dit is nuttige informatie om te beslissen of en hoe je opschaalt.

 

Verantwoord AI-gebruik begint niet bij de technologie, maar bij de vraag: wat willen we als organisatie bereiken, en hoe zorgen we dat medewerkers, burgers en het college erop kunnen vertrouwen? Met de EU AI Act als kompas en een helder intern kader kun je snel én veilig stappen zetten.

 

 

Deel deze update via LinkedIn
Deel deze update via Facebook
Deel deze update via Twitter
Deel deze update via e-mail

Lees meer in MATConnect

Al onze nieuwsberichten in uw mailbox?

Schrijf u in op onze gratis nieuwsbrief en blijf op de hoogte van nieuwe regelgeving, relevante actualiteit, niet te missen opleidingen en studiedagen, ...