Wat betekent de AI-geletterdheidsverplichting concreet voor Belgische bedrijven?
De Europese AI-wetgeving (EU AI Act) introduceert een nieuwe verplichting voor bedrijven die AI gebruiken of inzetten binnen hun organisatie: AI literacy, of AI-geletterdheid.
Voor veel bedrijven roept dat vragen op:
- Wat wordt hier precies mee bedoeld?
- Geldt dit ook voor KMO’s?
- Moet iedereen een AI-opleiding volgen?
- En wat als je “gewoon” tools zoals ChatGPT of Copilot gebruikt?
Op deze pagina geven we context, duiding en helderheid.
Wat bedoelt de EU met “AI literacy” of “AI geletterdheid”?
AI literacy betekent niet dat medewerkers AI moeten kunnen bouwen, programmeren of technisch begrijpen.
Volgens de EU AI Act gaat het om:
Het geheel aan kennis, vaardigheden en inzicht dat nodig is om AI-systemen op een geïnformeerde, bewuste en verantwoorde manier te gebruiken, rekening houdend met kansen, risico’s en mogelijke schade.
Concreet betekent dit dat mensen die met AI werken:
- begrijpen wat AI wel en niet kan
- AI-output kritisch kunnen inschatten
- weten wanneer menselijke controle nodig blijft
- zich bewust zijn van risico’s zoals fouten, vooroordelen of hallucinaties (foutieve/gedateerde informatie)
- weten welke informatie ze wel en niet mogen invoeren
AI literacy gaat dus evenveel over begrenzen als over gebruiken.
Waarom bestaat deze verplichting?
De EU introduceert AI literacy niet om innovatie af te remmen, maar om ze veilig en duurzaam mogelijk te maken.
Veel problemen met AI ontstaan niet door de technologie zelf, maar door:
- blind vertrouwen in AI-output
- verkeerd gebruik door onvoldoende context
- beslissingen zonder menselijke controle
- onbegrip over risico’s of beperkingen
AI literacy is bedoeld als menselijke veiligheidslaag:
- om fouten te herkennen voor ze impact hebben
- om risico’s te vermijden zonder AI te verbieden
- om AI te gebruiken als hulpmiddel, niet als beslissingsnemer
Geldt deze verplichting ook voor KMO’s?
Ja.
De AI-geletterdheidsverplichting geldt onafhankelijk van de grootte van het bedrijf.
Niet het aantal medewerkers is doorslaggevend, maar het gebruik van AI.
Dit geldt dus ook wanneer:
- medewerkers generatieve AI gebruiken (zoals ChatGPT, Copilot, Gemini, …)
- AI wordt ingezet in marketing, HR, klantenservice of administratie
- AI-functionaliteiten verwerkt zitten in software van derden
- AI intern gebruikt wordt, ook zonder externe klantenimpact
Ook “algemene” AI-tools vallen hieronder wanneer ze structureel in de organisatie gebruikt worden.
Wie moet AI-geletterd zijn binnen een organisatie?
Niet iedereen moet hetzelfde weten. AI literacy is rol- en contextafhankelijk.
De AI Act maakt onder meer onderscheid tussen:
- beslissingsnemers (management, leidinggevenden)
- gebruikers (medewerkers die AI effectief inzetten)
- ondersteunende rollen (HR, IT, legal, marketing, sales)
- externe partijen die namens het bedrijf met AI werken
- personen die door AI beïnvloed worden (bv. medewerkers of klanten)
Wat “voldoende” AI literacy is, verschilt per rol:
- een manager moet AI-risico’s kunnen inschatten
- een gebruiker moet AI-output kritisch kunnen beoordelen
- een HR-medewerker moet weten waar AI niet mag beslissen
- een IT-rol moet begrijpen hoe AI geïntegreerd wordt
Hoe kan een bedrijf hier vandaag pragmatisch mee omgaan?
Zonder grote opleidingsprogramma’s of zware structuren op te zetten, kunnen organisaties vandaag al stappen zetten door:
- inzicht te krijgen in welke AI-tools gebruikt worden
- na te denken over rollen en verantwoordelijkheden
- basisbewustzijn te creëren rond correct en foutief gebruik (zie onze AI workshop)
- afspraken/richtlijnen vast te leggen over wat wel en niet mag (zie AI policy template)
- bij te houden welke initiatieven genomen zijn
AI literacy draait vooral om bewustzijn:
- mensen die begrijpen wat ze doen
- organisaties die AI met gezond verstand inzetten
- technologie die ondersteunt, niet stuurt
- innovatie zonder naïviteit

