Vanaf 2 februari 2025 worden de eerste artikelen van de Europese Artificial Intelligence Act (AI Act) van toepassing (1). Het betreft de bepalingen van hoofdstuk I en II van de AI Act. Voor de enkelingen die de AI Act nog niet van buiten kennen, dit zijn voornamelijk de bepalingen rond AI-geletterdheid en de verboden AI-systemen.
Deze bijdrage poogt op een begrijpbare en praktische wijze de belangrijkste kenmerken van de verplichting tot AI-geletterdheid weer te geven. Het betreft aldus geen diepgaande (wetstechnische) analyse.
In verband met de verboden AI-systemen, zal deze bijdrage hierop niet dieper ingaan dan te vermelden dat organisaties vanaf 2 februari deze niet meer mogen aanbieden of gebruiken (2).
1. AI-Geletterdheid: Wat?
Artikel 4 van de AI Act, één van de kortste artikels van de hele wettekst, legt aanbieders en gebruiksverantwoordelijken de verplichting op om voor een toereikend niveau van AI-geletterdheid te zorgen bij hun personeel. Hierbij dienen zij rekening te houden met bepaalde eigenschappen van het personeel zoals hun technische kennis, ervaring, opleiding, reeds aanwezige niveau van kennis rond AI, de context en de doelgroep ten aanzien van wie het AI-systeem gebruikt wordt, etc.
De AI-geletterdheid moet het personeel (maar ook de getroffen personen!) in staat stellen geïnformeerde keuzes te maken in verband met AI-systemen. Langs de kant van diegene die het AI-systeem gebruikt, zal dit bijvoorbeeld te maken hebben met de kansen en risico’s alsook mogelijke schade die het systeem kan veroorzaken (3). Het betreft dus niet louter technische zaken maar bijvoorbeeld ook ethische zaken.
Enkele elementen die hierbij zeker aanbod kunnen komen zijn:
een basisbegrip van hoe AI-systemen werken;
risico’s en beperkingen van AI;
toegestane use cases;
hoe de output van een AI-systeem interpreteren;
doelgroep-specifieke onderwerpen (bv. HR, productie, marketing, …).
2. AI-Geletterdheid: Wie?
De verplichting om te zorgen voor een toereikend niveau van AI-Geletterdheid geldt ten aanzien van zowel aanbieders (i.e. diegene die het AI-systeem heeft ontwikkeld) als gebruiksverantwoordelijken (4) (i.e. diegene die het AI-systeem gebruikt). Bovendien geldt deze verplichting voor alle AI-systemen ongeacht tot welke risicocategorie zij behoren!
Elke organisatie waar AI-systemen gebruikt worden, daarin begrepen populaire generatieve AI-tools zoals ChatGPT of Copilot, wordt dus gevat door deze verplichting (5)!
Gelet op het wijdverspreide gebruik van de ChatGPTs en Copilots (en minder kuise tools zoals Deepseek) van de wereld, zal dit ook veel organisaties treffen die oorspronkelijk dachten niet gevat te zijn door de AI Act.
Binnen de organisatie zijn het ook lang niet alleen de IT’ers die opleidingen moeten krijgen maar iedereen die op welke wijze dan ook met AI in contact komt of zal komen!
3. AI-Geletterdheid: Hoe?
De AI Act geeft verder niet veel duiding over hoe organisaties juist moeten voorzien in AI-geletterdheid. Uit de gebruikte bewoordingen zoals “zoveel als mogelijk”, “toereikend”, “houden daarbij rekening met …”, blijkt wel duidelijk dat er geen “one-size-fits-all” oplossing bestaat voor wat organisaties nu juist moeten voorzien.
Een organisatie moet zelf nagaan, onder andere op basis van de bovenvermelde elementen, wat zij noodzakelijk en toereikend acht. Het opleidingsprogramma moet aangepast worden aan de organisatie, de verschillende profielen binnen de organisatie, de context van het gebruik, de verschillende niveaus van bestaande kennis binnen de organisatie, etc. Dit kan het opleidingsprogramma bijzonder complex maken. Een vooraf vastgelegde strategie met duidelijke doelen is daarom onontbeerlijk.
Bovendien is het wel duidelijk dat een eenvoudige verplichte infosessie, waar het merendeel van de deelnemers niet eens oplet, absoluut niet volstaat. Een organisatie moet, naast (interactieve) infosessies, tevens voorzien in specifieke richtlijnen, aangepaste opleidingen, hands-on begeleiding (bv. bij het aanleggen van een prompting-bibliotheek), de nodige ondersteunende documentatie, etc.
4. AI-Geletterdheid: Waarom?
Waarom zou een organisatie nu willen voldoen aan de zoveelste Europese wettelijke verplichting?
Ten eerste geeft de AI Act zelf al een (financiële) drijfveer om te voldoen aan zijn verplichtingen. Niet-naleving kan in het slechtste geval leiden tot boetes tot € 35 miljoen of 7% van de totale wereldwijde omzet (6).
Ten tweede kan een ontoereikende kennis van de gevaren van AI onder het personeel, de organisatie openstellen tot inbreuken op andere wettelijke verplichtingen, reputatieschade, schadeclaims, … Denk maar aan een gegevenslek (cfr. GDPR), onvoldoende niveau van cyberveiligheid (cfr. NIS2/DORA), onrechtmatige discriminatie, etc.
Ten derde helpt deze verplichting het vertrouwen van klanten in jouw organisatie te behouden én versterken doordat je aantoont dat je op een verantwoorde wijze het potentieel van AI wil benutten.
5. Hoe kan Apogado helpen?
Zoals eerder gezegd, kan de vereiste om het AI-geletterdheid opleidingsprogramma aan te passen aan de organisatie (en haar personeel, context, …) dit proces zeer ingewikkeld maken. Bovendien beschikken veel organisaties niet over de vereiste kennis om dergelijke opleidingen te organiseren.
Het team van experts van Apogado staat klaar om, samen met u, een gepersonaliseerde aanpak en strategie uit te tekenen, alsook de nodige opleidingen te voorzien.
Neem gerust contact op voor een vrijblijvend eerste gesprek!
(1) Zie art. 113, a) AI Act.
(2) Zie art. 5 AI Act.
(3) Art. 3, 56) en overw. 20 AI Act.
(4) Zie specifiek i.v.m. gebruiksverantwoordelijken: overw. 91 AI Act.
(5) Het AI-systeem moet uiteraard wel binnen de (onduidelijke) definitie van artikel 3, 1) AI Act passen.
(6) Let wel: de bepalingen betreffende de sancties worden pas van toepassing op 2 augustus 2025; Zie art. 113, b) AI Act.
Kobe Troch