Je L&D team overweegt AI spraakcoaching voor verkooptraining, feedbackgesprekken of leiderschapsontwikkeling. Logisch: schaalbaar, consistent, en medewerkers kunnen 24/7 oefenen. Maar dan komt de vraag van Compliance of je AVG-functionaris: "Is dit wel toegestaan onder de nieuwe AI-wetgeving?"
Vanaf februari 2026 is de EU AI Act volledig van kracht. Voor organisaties die AI-systemen gebruiken voor personeelstraining betekent dit nieuwe verplichtingen. Niet alle AI-tools vallen in dezelfde risicocategorie, en niet elke leverancier heeft zijn zaken op orde.
Deze gids helpt je begrijpen wat de EU AI Act betekent voor AI spraakcoaching, welke verplichtingen er gelden, en hoe je checkt of een platform compliant is. Geen juridisch jargon, gewoon wat je als L&D professional moet weten.
Wat is de EU AI Act en waarom geldt die voor AI spraakcoaching?
De EU AI Act is de eerste uitgebreide AI-wetgeving ter wereld. Het doel: innovatie stimuleren én risico's beheersen. De wet deelt AI-systemen in vier categorieën in, van minimaal tot onaanvaardbaar risico.
AI spraakcoaching valt meestal in de categorie beperkt risico (limited risk). Dat betekent vooral transparantieverplichtingen: gebruikers moeten weten dat ze met AI communiceren, en hoe het systeem werkt. Als je AI spraakcoaching inzet voor beslissingen over promoties of functioneringsgesprekken verschuift het mogelijk naar hoog risico, met strengere eisen.
De meeste L&D teams gebruiken AI spraakcoaching echter voor training en ontwikkeling, niet voor besluitvorming. Dan blijven de verplichtingen behapbaar: transparantie, menselijk toezicht, en duidelijke documentatie.
Drie kernprincipes van de EU AI Act
Ongeacht het risiconiveau gelden drie basisprincipes voor alle AI-systemen onder de Act:
- Menselijk toezicht: AI mag ondersteunen, maar mensen blijven verantwoordelijk voor eindresultaten
- Transparantie: Gebruikers moeten weten dat ze met AI werken en hoe het systeem tot output komt
- Technische robuustheid: Systemen moeten betrouwbaar, veilig en accuraat werken
Voor AI spraakcoaching betekent dit concreet: medewerkers weten dat ze met een AI coach oefenen, er is een trainer of L&D professional die de voortgang monitoreert, en het platform is gebouwd volgens Europese privacy- en beveiligingsstandaarden.
AVG compliance: de basis voor elke AI tool
Voordat je überhaupt naar de AI Act kijkt, moet je platform AVG-proof zijn. De Algemene Verordening Gegevensbescherming geldt al sinds 2018 en blijft de basis voor alle data-verwerking in Europa.
Bij AI spraakcoaching worden vaak gevoelige gegevens verwerkt: spraakopnames, conversaties over werk-gerelateerde situaties, soms zelfs emotionele content bij coachingstrajecten. Dat vraagt extra zorgvuldigheid.
Vijf AVG-checks voor AI spraakcoaching platforms
1. Europese data-opslag: Worden opnames en transcripties opgeslagen op servers binnen de EU/EER? Dit is cruciaal voor organisaties in sectoren met extra privacyeisen, zoals zorg, financiële dienstverlening of overheid.
2. Verwerkersovereenkomst: Heeft de leverancier een duidelijke verwerkersovereenkomst conform artikel 28 AVG? Hierin staat precies welke data ze verwerken, waarvoor, en hoe ze die beschermen.
3. Doelbinding: Worden spraakopnames alleen gebruikt voor training en feedback, of ook voor andere doeleinden zoals product-verbetering? Medewerkers moeten hier toestemming voor geven.
4. Recht op inzage en verwijdering: Kunnen medewerkers hun eigen opnames en data opvragen en laten verwijderen? Dit moet binnen 30 dagen mogelijk zijn.
5. Beveiliging en encryptie: Zijn opnames encrypted at rest en in transit? Wie heeft toegang tot de ruwe data?
Een degelijk platform heeft dit allemaal geregeld en kan je binnen een uur een Data Processing Agreement (DPA) en security assessment sturen. Als dat niet het geval is, red flag.
De AI Act verplichting die L&D teams raakt: AI-geletterdheid
Vanaf februari 2025 geldt er een specifieke verplichting die direct impact heeft op L&D afdelingen: artikel 4 van de EU AI Act vereist dat werknemers die met AI-systemen werken voldoende AI-geletterdheid hebben.
Dit betekent dat medewerkers moeten begrijpen hoe AI werkt, wat de mogelijkheden en beperkingen zijn, en hoe ze verantwoord met AI-tools omgaan. Voor L&D teams die AI spraakcoaching inzetten betekent dit twee dingen:
Ten eerste moet je zelf snappen hoe de AI coach werkt: welk model gebruikt het, hoe worden antwoorden gegenereerd, wat zijn bekende beperkingen? Deze kennis heb je nodig om medewerkers te kunnen uitleggen hoe ze het effectief gebruiken.
Ten tweede moet je medewerkers briefen voordat ze met de AI coach aan de slag gaan. Een korte introductie van 10-15 minuten volstaat meestal: "Dit is een AI coach, geen mens. Hij reageert op basis van getrainde scenario's en je input. Gebruik het voor oefenen, niet als vervanging voor een collega of leidinggevende bij echte beslissingen."
Praktisch gezien kun je dit inbouwen in je onboarding voor elk AI spraakcoaching traject. Veel platforms hebben hier kant-en-klare materialen voor: uitlegvideo's, informatiebladen, of interactieve intro-modules. Check of jouw leverancier dit aanbiedt.
Documentatie: wat moet je vastleggen?
Als L&D team ben je niet verantwoordelijk voor de technische documentatie van het AI-systeem zelf. Dat is de taak van de leverancier. Maar je moet wel kunnen aantonen dat je het systeem verantwoord inzet.
Leg daarom minimaal dit vast:
- Doel van de inzet: waarvoor gebruiken jullie AI spraakcoaching precies?
- Informatie aan medewerkers: hoe hebben jullie uitgelegd dat ze met AI werken?
- Menselijk toezicht: wie monitort de resultaten en volgt voortgang op?
- Incidentenprocedure: wat doen medewerkers als de AI onverwacht of ongepast reageert?
Dit hoeft geen 40 pagina's tellend beleidsdocument te zijn. Een A4'tje in je L&D procedures volstaat. Het gaat erom dat je bij een audit of vraag van de ondernemingsraad kunt laten zien dat je dit bewust hebt geregeld.
Hoog-risico vs beperkt-risico: waar valt jouw use case?
De EU AI Act maakt onderscheid tussen AI-systemen met beperkt en hoog risico. Voor L&D teams is dit een belangrijk onderscheid, omdat hoog-risico systemen veel strengere eisen kennen.
Beperkt risico (de meeste L&D use cases):
Als je AI spraakcoaching gebruikt voor ontwikkeling en training, zonder dat het directe invloed heeft op beslissingen over arbeidsvoorwaarden, promoties of ontslag, valt het onder beperkt risico. Verplichtingen: transparantie en AI-geletterdheid. Dat is behapbaar.
Voorbeelden: verkopers oefenen pitches, leidinggevenden trainen feedbackgesprekken, klantenservice medewerkers oefenen met lastige klanten, sollicitanten voorbereiden op gesprekken.
Hoog risico (zeldzaam in L&D context):
Als de output van de AI coach direct gebruikt wordt voor beslissingen over iemands baan, bijvoorbeeld als onderdeel van een formele beoordeling die leidt tot promotie of ontslag, verschuift het naar hoog risico. Dan gelden strengere eisen: conformiteitsbeoordeling, risicobeheersing, menselijk toezicht door gekwalificeerde professionals, en grondige documentatie.
In de praktijk zien we dit zelden. De meeste organisaties gebruiken AI spraakcoaching als oefentool, niet als beoordelingstool. Net zoals je een medewerker niet beoordeelt op hoe hij presteert tijdens een rollenspel met een collega, beoordeel je hem ook niet op zijn gesprekken met een AI coach.
Wil je toch AI-gegenereerde feedback gebruiken in formele beoordelingen? Zorg dan dat een gekwalificeerde professional (trainer, coach, leidinggevende) de output beoordeelt en dat de eindconclusie bij een mens ligt. Dan blijf je binnen de lijntjes.
Wat moet je aan je leverancier vragen?
Als L&D team ben je 'deployer' in AI Act-termen: je zet een systeem in dat een derde partij heeft gebouwd. De zware technische verantwoordelijkheden liggen bij de leverancier (de 'provider'). Maar jij moet wel kunnen checken of ze hun zaken op orde hebben.
Stel deze vragen voordat je een AI spraakcoaching platform kiest of contracteert:
Over technische compliance
- Waar worden onze data opgeslagen? (vereist: EU/EER voor Nederlandse organisaties met strikte privacy-eisen)
- Welk AI-model gebruiken jullie en hoe vaak wordt dat ge-update?
- Hoe voorkomen jullie bias in de antwoorden van de AI coach?
- Wat is jullie procedure bij een data-incident of beveiligingslek?
Over transparantie en gebruikersrechten
- Hoe informeren jullie eindgebruikers (medewerkers) dat ze met AI communiceren?
- Kunnen medewerkers hun eigen opnames en data inzien en verwijderen?
- Hebben jullie materiaal beschikbaar voor onze AI-geletterdheid training?
Over contractuele waarborgen
- Bieden jullie een DPA (Data Processing Agreement) aan die voldoet aan artikel 28 AVG?
- Wat zijn jullie SLA's rond uptime en databescherming?
- Hoe gaan jullie om met toekomstige wijzigingen in de AI Act (is compliance meegenomen in je roadmap)?
Een serieuze leverancier heeft dit allemaal uitgedacht en gedocumenteerd. Als ze vaag of afwerend reageren op deze vragen, overweeg dan een ander platform. Compliance is geen last, het is een teken van volwassenheid.
Voor organisaties die AI spraakcoaching overwegen voor grote teams of risicovolle sectoren: check ook of het platform certificeringen heeft zoals ISO 27001 (informatiebeveiliging) of SOC 2. Deze zijn niet verplicht onder de AI Act, maar geven wel vertrouwen dat de leverancier security serieus neemt.








