Lokale besturen staan aan de vooravond van een nieuw toezichtslandschap. De AI‑Verordening verplicht elke lidstaat om bevoegde autoriteiten aan te wijzen en te notificeren; die deadline liep af op 2 augustus 2025. Waar sommige landen hun huiswerk klaar hebben, blijft in België de formele aanstelling uit. Daarmee rijst uiteraard de vraag welke instantie(s) deze rol op zich zullen nemen, welke toezicht‑ en handhavingsbevoegdheden zij krijgen en hoe dit zich verhoudt tot bestaande toezichthouders (o.a. inzake de Algemene Verordening Gegevensbescherming)
Het institutionele speelveld: van Europees AI‑bureau tot nationale markttoezichters
De AI‑Verordening introduceert een gelaagd toezichtmodel. Op Europees niveau wordt binnen de Europese Commissie een AI‑bureau ingericht dat de coördinatie en uitvoering van het kader waarborgt en toezicht houdt op AI‑modellen voor algemene doeleinden (art. 75 AI-Verordening).
Op nationaal niveau moeten lidstaten bevoegde autoriteiten instellen of aanwijzen, met in elk geval een aanmeldende autoriteit en een markttoezichtautoriteit (art. 70, lid 1 AI-Verordening), die instaan voor het toezicht op AI‑systemen, waaronder verboden toepassingen en hoog‑risicosystemen. Wijst een lidstaat meerdere bevoegde autoriteiten aan, dan moet een centraal contactpunt worden voorzien om de coördinatie en externe aanspreekbaarheid te verzekeren.
Voor lokale besturen is dit geen abstracte puzzel. Als aanbieder of gebruiker van AI‑toepassingen vallen ook lokale besturen binnen dit toezichtskader: van classificatievraagstukken over hoog‑risico tot de naleving van transparantie‑ en toezichtplichten. De inrichting van het Belgische model zal dus rechtstreeks voelbaar zijn bij AI-gebruik door lokale besturen.
Deadline 2 augustus 2025: tussen Europese voortrekkers en Belgische stilstand
De Europese Commissie verwachtte dat lidstaten uiterlijk op 2 augustus 2025 hun bevoegde autoriteiten aanmeldden en de contactpunten publiek maakten (art. 70, lid 2). Enkele lidstaten rondden die oefening af of staan op de rand van definitieve bekrachtiging: Italië, Letland, Litouwen, Cyprus en Ierland hebben definitieve beslissingen genomen terwijl Spanje, Slovenië en Luxemburg hun bevoegde autoriteit al aanmeldden, maar nog wachten op definitieve bekrachtiging.
België daarentegen heeft, voor zover publiek bekend, nog geen formele aanstelling verricht.
De FOD Economie neemt de algemene coördinatie van de implementatie van de AI‑Verordening weliswaar op, maar formele aanwijzingen van een aanmeldende autoriteit en een markttoezichtautoriteit blijven uit. Daardoor blijven cruciale vragen open, precies op het moment dat organisaties hun governance willen (en/of moeten) aligneren: waar meldt men vermoedelijke inbreuken, wie beoordeelt de conformiteit van hoog‑risicosystemen, en hoe worden uitzonderingen en sectorale nuances geïnterpreteerd?
Komt er ook een Vlaamse AI‑toezichthouder?
De Belgische bevoegdheidsverdeling maakt een multi‑autoriteitenmodel niet bij voorbaat uitgesloten. Net zoals het gegevensbeschermingslandschap federale (Gegevensbeschermings-autoriteit) en Vlaamse (Vlaamse Toezichtcommissie) schakels kent, ligt een configuratie met een federaal AI-contactpunt en specifieke Vlaamse AI-schakels niet geheel buiten de mogelijkheden
Dit roept de vraag op of Vlaanderen een eigen toezichthoudende rol zal opnemen voor AI‑toepassingen binnen de Vlaamse en lokale bevoegdheidsdomeinen. Vlaams minister Matthias Diependaele, bevoegd voor Economie, Innovatie en Industrie, Buitenlandse Zaken, Digitalisering en Facilitair Management, formuleerde hierover het volgende in antwoord op een schriftelijke vraag van 26 november 2024.
“Enerzijds is de controle op productconformiteit doorgaans een federale bevoegdheid. Anderzijds bevinden sommige gebruiksgevallen waarin hoog-risico AI systemen worden ingezet zich op duidelijk deelstatelijke domeinen. Ik denk daarbij bv. aan AI-systemen die ingezet worden in het onderwijs, bij arbeidsbemiddeling, bij het bedelen van essentiële overheidsdiensten of bij het beheer van kritieke infrastructuur. In die domeinen is het belangrijk dat de deelstaten nauw betrokken worden in het beoordelen of een AI-systeem al dan niet marktconform is.
Hierover hebben we nog geen formeel overleg gehad met andere regeringen van het land. We wachten nog steeds op het federale niveau om het geraamte van het markttoezichtsysteem formeel en politiek af te kloppen, alvorens we deze discussies kunnen voeren. Ook de Vlaamse regering heeft hierover nog geen formeel standpunt ingenomen. Ter inspiratie kijken we wel naar wat onze buurlanden doen. Zo hanteert Nederland bv. een interessant systeem waarbij het markttoezicht voor de AI systemen onder Bijlage III formeel bij één coördinerende markttoezichtautoriteit zit, maar waarbij telkens per gebruiksgeval een beroep wordt gedaan op sectorale experten. Zo wordt bv. voor het markttoezicht op AI systemen in het onderwijs structureel de onderwijsinspectie betrokken.
Zoals eerder besproken, ligt de uiteindelijke vorm van de toezichthouder nog niet vast. Vanuit Vlaanderen onderzoeken we een aantal pistes. Daarbij is het belangrijk dat het markttoezichtsysteem zo efficiënt en overzichtelijk mogelijk wordt ingericht, om onze ondernemers en instellingen niet te belasten met incoherente en onduidelijke regeldruk. Even belangrijk is dat de deelstaten sterk betrokken zijn bij het markttoezicht binnen domeinen die onder deelstatelijke bevoegdheden vallen.”
Daaruit volgt dat, zolang het federale kader niet is uitgewerkt, onduidelijk blijft of—en in welke vorm—Vlaanderen zelf een toezichthoudende rol zal opnemen voor AI‑toepassingen binnen zijn eigen bevoegdheidsdomeinen, zij het met het duidelijke voornemen om sectorale expertise structureel te verankeren zodra het politiek-juridische fundament is gelegd.
Bevoegdheden in de praktijk: van dossieropvraging tot buitengebruikstelling
De AI‑Verordening geeft toezichthouders een breed instrumentarium (art. 74 AI-Verordening). Zij kunnen naleving onderzoeken, (technische) documentatie en loggegevens opvragen, onafhankelijke testen laten uitvoeren en corrigerende maatregelen opleggen.
Bij verboden praktijken of niet‑conforme hoog‑risicosystemen kunnen autoriteiten vorderen dat een AI-systeem wordt aangepast, tijdelijk of definitief buiten gebruik gesteld, uit de handel genomen, of dat specifieke toepassingen ervan worden gestaakt. Verder worden de toezichthouders gelast te waken over de AI-verplichtingen van aanbieders en gebruikers, waaronder risicobeheer, data-governance, technische documentatie, logging, transparantie en menselijk toezicht (bv. art. 80 AI-Verordening).
Voor lokale besturen betekent dit dat controleerbaarheid (opnieuw) een sleutelwoord wordt, ditmaal (ook) in de context van AI-gebruik. Wie zijn documentatie, data‑hygiëne en toezichtmechanismen niet op orde heeft, riskeert frictie zodra het AI-toezicht actief wordt.
Toegangspoorten voor burgers: klachten en signalen
De AI‑Verordening opent de deur voor klachten van natuurlijke en rechtspersonen bij de bevoegde markttoezichtautoriteit wanneer zij menen dat bepalingen van de AI-Verordening zijn geschonden (art. 85). Daarnaast kunnen klokkenluiders inbreuken signaleren.
Naar analogie met het gegevensbeschermingsrecht — waar natuurlijke personen klachten kunnen indienen inzake de verwerking van hun persoonsgegevens — zal ook voor AI een klachtenprocedure worden uitgewerkt. De markttoezichtautoriteit bepaalt vrij de specifieke procedurele modaliteiten.
Voor lokale besturen verhoogt dit de nood aan transparantie, traceerbaarheid en een zorgvuldige incidentafhandeling: elk besluit om een AI‑toepassing in te zetten, moet in de regel vergezeld gaan van een dossier dat standhoudt bij vragen, klachten of audits.
Van compliance‑last naar kwaliteitshefboom: wat u vandaag al kan doen
Het gebrek aan formele aanwijzingen ontslaat lokale besturen niet van actie. Integendeel, wie nu bouwt aan een AI‑ready governance, vermijdt later kostelijke hernemingen. Minstens drie sporen dringen zich op.
Ten eerste, inventariseer uw AI‑landschap. Breng in kaart welke AI‑toepassingen er worden gebruikt of aangewend, onderscheidt potentiële hoog‑risicosystemen en leg de functionele context vast. Transparantie begint met zicht op de feiten.
Ten tweede, borg de kernverplichtingen in processen en documenten. Zorg voor aantoonbaar risicobeheer, data‑governance, bias‑tests, logging en menselijk toezicht. Werk met technische dossiers die de werking, de datastromen en de gebruikte modellen beschrijven. Zo wordt de toetsing op conformiteit geen sprong in het duister, maar een voorspelbare audit.
Ten derde, veranker compliance contractueel. In lopende en nieuwe aanbestedingen voor AI‑systemen horen expliciete conformiteitsgaranties, leveringsverplichtingen inzake technische documentatie, en duidelijke update‑ en onderhoudsplannen richting volledige compliance. Leg verantwoordelijkheid en aanspreekpunten vast, inclusief de verwachte rol bij vragen of interventies van de nationale autoriteiten.
Slot: anticiperen is winnen—praeparatio est dimidium victoriae
De komst van een Belgische—en mogelijk ook Vlaamse—AI‑waakhond is geen kwestie van “of”, maar van “wanneer en hoe”. De contouren liggen helder vastgelegd in de AI‑Verordening: een gelaagd model met stevige bevoegdheden en toegankelijke klachtenkanalen. De Belgische institutionele invulling volgt, maar het momentum is nu.
Voor lokale besturen is de strategische keuze eenvoudig: vandaag al handelen in de geest van de AI‑Verordening, zodat projecten morgen vlot door het toezichtskader glijden. Praeparatio est dimidium victoriae: voorbereiding is de helft van de overwinning.
Bij GD&A Advocaten begrijpen we als geen ander het belang van deze materie. Ons team staat dan ook steeds klaar om uw bestuur met kennis van zaken bij te staan.