EU AI Act: Is uw AI Scribe hoog risico?
Een praktische beslisboom voor praktijken die de EU AI Act navigeren. Ontdek wanneer een AI scribe hoog risico is en welke vragen u uw leverancier moet stellen.
Geschreven door
Dya Klinisch Team
Experts in Klinische Documentatie
De EU AI Act is geen voorstel meer. De wet is in augustus 2024 in werking getreden, en de regels die er het meest toe doen voor praktijken — de hoog risico-verplichtingen voor AI-systemen — worden van toepassing vanaf augustus 2026. Als uw praktijk een AI scribe gebruikt, of dat van plan is, is de vraag eenvoudig: telt het als "hoog risico"?
Het antwoord is niet altijd voor de hand liggend. Een AI scribe die een sessie transcribeert en een SOEP-notitie opmaakt, lijkt onschuldig. Maar als diezelfde tool diagnoses gaat suggereren, risico-indicatoren signaleert of data invoert voor behandelbeslissingen, verandert het regelgevingsplaatje volledig.
Deze gids loopt door de classificatielogica in helder taalgebruik, legt de tijdlijnen uit die er echt toe doen en geeft u een checklist met vragen om elke AI-leverancier te stellen vóór augustus 2026.
Wat de EU AI Act werkelijk vereist
De AI Act hanteert een risicogebaseerd kader. Niet elk AI-systeem wordt gelijk behandeld. Er zijn vier niveaus:
- Onaanvaardbaar risico — ronduit verboden (sociale scoring, manipulatieve AI, real-time biometrische surveillance in openbare ruimtes)
- Hoog risico — toegestaan, maar onderworpen aan strenge eisen rond documentatie, toezicht, transparantie en conformiteitsbeoordeling
- Beperkt risico — alleen transparantieverplichtingen (bijv. melden dat een chatbot AI is)
- Minimaal risico — geen specifieke verplichtingen
De meeste klinische AI-tools vallen ergens tussen "hoog risico" en "beperkt risico". Het onderscheid is belangrijk omdat hoog risico-classificatie een volledig complianceregime activeert: technische documentatie, risicomanagementsystemen, mechanismen voor menselijk toezicht, datagovernance-eisen en in veel gevallen conformiteitsbeoordeling door een externe aangemelde instantie.
Dit verkeerd inschatten heeft echte gevolgen. Boetes voor verkeerde classificatie kunnen oplopen tot 15 miljoen euro of 3% van de wereldwijde jaaromzet.
De twee paden naar "hoog risico"
Onder Artikel 6 van de AI Act kwalificeert een AI-systeem als hoog risico via een van twee paden:
Pad 1: Het is een medisch hulpmiddel (Artikel 6(1), Bijlage I)
Als uw AI scribe kwalificeert als medisch hulpmiddel — of een veiligheidscomponent daarvan is — onder de EU-verordening medische hulpmiddelen (MDR), en een conformiteitsbeoordeling door derden vereist (d.w.z. Klasse IIa of hoger), is het automatisch een hoog risico AI-systeem.
Dit is relevant voor AI-tools die verder gaan dan documentatie. Als de software patiëntgegevens analyseert om diagnoses te suggereren, behandelingen aan te bevelen of klinische risico's te signaleren, kwalificeert het waarschijnlijk als Software als Medisch Hulpmiddel (SaMD) onder de MDR.
Belangrijk detail: De volledige verplichtingen voor AI-systemen als medisch hulpmiddel onder Artikel 6(1) gelden pas vanaf 2 augustus 2027 — een jaar later dan de algemene hoog risico-deadline. Het door de EU voorgestelde Digital Omnibus-pakket kan dit verder verschuiven naar augustus 2028, afhankelijk van wanneer geharmoniseerde normen beschikbaar komen.
Pad 2: Het valt onder een Bijlage III-toepassing (Artikel 6(2))
Bijlage III somt specifieke toepassingen op die automatisch hoog risico zijn. De relevante voor gezondheidszorg vallen onder Categorie 5 ("toegang tot essentiële diensten"):
- AI-systemen die worden gebruikt om de geschiktheid voor publieke gezondheidszorgdiensten te evalueren of om uitkeringen toe te kennen, te verminderen of in te trekken
- AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling in levens- en ziektekostenverzekeringen
- AI-systemen die worden gebruikt voor triage van noodoproepen of het aansturen van medische hulpdiensten
Een puur documentatietool — dat spraak transcribeert en klinische notities opmaakt — past niet duidelijk in een van deze categorieën. Maar de grens vervaagt snel als de tool beslissingen over patiënttoegang, verzekeringen of triage begint te beïnvloeden.
De beslisboom: Is uw AI Scribe "hoog risico"?
Hier is het praktische raamwerk. Loop deze vragen door voor elke AI-tool die in uw praktijk wordt gebruikt:
Stap 1: Kwalificeert de tool als medisch hulpmiddel?
Vraag uw leverancier rechtstreeks: is dit product CE-gemarkeerd als medisch hulpmiddel onder de MDR? Zo ja — en het is Klasse IIa of hoger — dan is het hoog risico onder de AI Act. Punt.
De meeste pure AI scribes zijn geen medische hulpmiddelen. Ze vangen informatie op en formatteren deze, maar stellen geen diagnoses, doen geen aanbevelingen en monitoren niet. De grens wordt echter getrokken op basis van het beoogde doel, niet de marketingtaal. Als de documentatie of het promotiemateriaal van de tool klinische beslissingsondersteuning impliceert, kunnen regelgevers het anders classificeren dan de leverancier bedoelde.
Stap 2: Valt het onder een Bijlage III-toepassing?
Beoordeel de hierboven genoemde Bijlage III-categorieën. Als de tool wordt gebruikt om zorggeschiktheid te beoordelen, verzekeringsrisico te berekenen of patiënten te triëren — zelfs als secundaire functie — kan dit de hoog risico-classificatie activeren.
Stap 3: Beïnvloedt het klinische beslissingen?
Hier valt de classificatie voor de meeste AI scribes. Artikel 6(3) van de AI Act biedt een uitzondering voor systemen die:
(a) Een beperkte procedurele taak uitvoeren — bijv. spraak naar tekst omzetten, notities in een sjabloon formatteren
(b) Het resultaat van een eerder voltooide menselijke activiteit verbeteren — bijv. de notities van een behandelaar opschonen nadat deze al een beoordeling heeft gedaan
(c) Patronen detecteren zonder menselijke beoordeling te vervangen of te beïnvloeden — bijv. signaleren dat een behandelaar andere terminologie gebruikte dan gebruikelijk, zonder klinische suggesties te doen
(d) Een voorbereidende taak uitvoeren voor een menselijke beoordeling — bijv. de patiëntgeschiedenis ordenen voordat een behandelaar deze beoordeelt
Als uw AI scribe alleen transcribeert en notities opmaakt — zonder diagnoses te suggereren, symptomen te signaleren, acties aan te bevelen of ernst te rangschikken — kwalificeert het waarschijnlijk voor de Artikel 6(3)-uitzondering en is het niet hoog risico.
Stap 4: Zelfs bij uitzondering hebt u nog verplichtingen
Aanbieders die de Artikel 6(3)-uitzondering claimen moeten:
- De beoordeling documenteren voordat het systeem op de markt wordt gebracht
- Het systeem registreren in de EU-database voor hoog risico AI-systemen (ja, zelfs niet-hoog risico systemen uit Bijlage III-categorieën moeten zich registreren)
- Documentatie verstrekken aan nationale autoriteiten op verzoek
Vraag uw leverancier of ze deze beoordeling hebben voltooid. Als ze nog nooit van Artikel 6(3) hebben gehoord, is dat een rode vlag.
Stap 5: Profileert de tool patiënten?
Een kritieke override: de Artikel 6(3)-uitzondering is nooit van toepassing als het systeem personen profileert. Onder de AVG-definitie betekent profileren geautomatiseerde verwerking van persoonsgegevens om aspecten van een persoon te evalueren — gezondheidsstatus, gedrag, betrouwbaarheid, locatie.
Een AI scribe die patiëntpatronen over sessies heen volgt, gedragsveranderingen signaleert of risicoprofielen opbouwt, profileert. Zelfs als het een "beperkte procedurele taak" uitvoert, maakt profilering de uitzondering ongeldig en activeert het de hoog risico-classificatie.
De snelreferentie-classificatietabel
| Wat de tool doet | Waarschijnlijke classificatie | Waarom |
|---|---|---|
| Transcribeert spraak naar tekst | Niet hoog risico | Beperkte procedurele taak (Art. 6(3)(a)) |
| Formatteert notities in SOEP/sjabloon | Niet hoog risico | Beperkte procedurele taak (Art. 6(3)(a)) |
| Vat sessie-inhoud samen | Grijs gebied | Kan een menselijke activiteit "verbeteren", of kan nieuwe klinische inhoud genereren |
| Suggereert ICD-10-codes | Grijs gebied | Kan voorbereidend zijn, maar kan factureringsbeslissingen beïnvloeden |
| Signaleert mogelijke diagnoses of symptomen | Waarschijnlijk hoog risico | Beïnvloedt klinische besluitvorming |
| Beveelt behandelopties aan | Hoog risico | Kwalificeert waarschijnlijk als SaMD onder de MDR |
| Volgt patiëntpatronen over sessies heen | Hoog risico | Profilering maakt Artikel 6(3)-uitzondering ongeldig |
| Triageert patiënturgentie | Hoog risico | Expliciet vermeld in Bijlage III |
Tijdlijn: wat gebeurt wanneer
De gefaseerde uitrol is belangrijk voor de planning. Dit is wat er al is gebeurd en wat er komt:
Al van kracht:
- 2 februari 2025 — Verboden AI-praktijken geband; AI-geletterdheidsverplichtingen actief
- 2 augustus 2025 — Governanceregels en verplichtingen voor general-purpose AI (GPAI)-modellen van toepassing
Wat komt:
- 2 februari 2026 — Europese Commissie publiceert richtlijnen met praktische voorbeelden van hoog risico en niet-hoog risico toepassingen (direct relevant voor AI scribes)
- 2 augustus 2026 — Hoog risico-verplichtingen voor Bijlage III-systemen van toepassing (dit is de belangrijkste deadline voor zelfstandige AI-tools in praktijken)
- 2 augustus 2027 — Hoog risico-verplichtingen voor AI-systemen ingebed in gereguleerde producten (medische hulpmiddelen) van toepassing
De Digital Omnibus-complicatie
In november 2025 stelde de Europese Commissie het Digital Omnibus-pakket voor, dat hoog risico-deadlines zou uitstellen tot geharmoniseerde compliancenormen gereed zijn:
- Bijlage III-systemen (zelfstandige hoog risico tools): uitgesteld tot het vroegste van 2 december 2027 of 6 maanden na publicatie van normen
- Bijlage I-systemen (AI in medische hulpmiddelen): uitgesteld tot het vroegste van 2 augustus 2028 of 12 maanden na publicatie van normen
Het Digital Omnibus is een voorstel, geen wet. Het vereist nog goedkeuring van EU-lidstaten en het Europees Parlement. Maar de richting is duidelijk: de Commissie erkent dat de compliance-infrastructuur niet op schema gereed is.
Wat dit betekent voor praktijken: Gebruik het mogelijke uitstel niet als excuus om voorbereiding te negeren. De compliance-eisen zelf veranderen niet — alleen de handhavingsdatum. Praktijken die zich nu voorbereiden, lopen voorop ongeacht de uiteindelijke tijdlijn.
10 vragen om uw AI Scribe-leverancier te stellen
Voer vóór augustus 2026 dit gesprek met elke leverancier die AI-tools aan uw praktijk levert:
1. "Is uw product geclassificeerd als medisch hulpmiddel onder de MDR?"
Zo ja, vraag om de CE-markering en het classificatieniveau (I, IIa, IIb, III). Klasse IIa en hoger betekent automatisch hoog risico onder de AI Act.
2. "Hebt u een Artikel 6(3)-beoordeling uitgevoerd?"
Elke leverancier wiens tool onder Bijlage III-categorieën valt, zou een gedocumenteerde beoordeling moeten hebben die uitlegt waarom hun systeem wel of niet hoog risico is. Als ze dit niet hebben gedaan, zijn ze niet klaar voor 2026.
3. "Is uw systeem geregistreerd in de EU AI-database?"
Zelfs niet-hoog risico systemen uit Bijlage III-categorieën moeten zich registreren. Vraag om de registratiereferentie.
4. "Beïnvloedt uw tool klinische beslissingen op welke manier dan ook?"
Kijk voorbij de marketingtaal. Suggereert het diagnoses? Beveelt het codes aan? Signaleert het symptomen? Rangschikt het ernst? Elk van deze kan de classificatie verschuiven van "documentatietool" naar "hoog risico systeem".
5. "Profileert het systeem patiënten over sessies heen?"
Als de tool patronen volgt, patiëntprofielen opbouwt of gedragsveranderingen in de tijd signaleert, is de Artikel 6(3)-uitzondering niet van toepassing — ongeacht de primaire functie van de tool.
6. "Waar worden patiëntgegevens verwerkt en opgeslagen?"
De AI Act bestaat naast de AVG. Klinische gegevens die buiten de EU worden verwerkt, kunnen aanvullende compliance-eisen creëren. Vraag naar dataresidentie, bewaarbeleid en subverwerkerovereenkomsten. Als uw praktijk in Zwitserland actief is, raadpleeg onze FADP-compliancechecklist voor AI-medische transcriptie voor regiospecifieke richtlijnen.
7. "Welke mechanismen voor menselijk toezicht zijn ingebouwd?"
Hoog risico-systemen vereisen betekenisvol menselijk toezicht — niet alleen een "bevestigen"-knop. Vraag hoe het systeem behandelaars in staat stelt de outputs te begrijpen, te superviseren en te overrulen.
8. "Kunt u uw technische documentatie verstrekken?"
Aanbieders van hoog risico AI moeten uitgebreide technische documentatie bijhouden over het ontwerp, de ontwikkeling, trainingsdata, tests en prestatiemetrics van het systeem. Als een leverancier dit niet kan delen, bevraagteken hun compliance-gereedheid.
9. "Wat gebeurt er als de classificatie verandert?"
AI-tools evolueren. Een documentatie-only scribe vandaag kan morgen klinische beslissingsondersteuningsfuncties toevoegen. Vraag hoe de leverancier herclassificatie afhandelt en of updates het risicoprofiel kunnen veranderen.
10. "Wie draagt de compliance-verantwoordelijkheid — aanbieder of gebruiker?"
Onder de AI Act hebben zowel aanbieders (het bedrijf dat de AI bouwt) als gebruikers (de praktijk die het gebruikt) verplichtingen. Gebruikers van hoog risico-systemen moeten menselijk toezicht waarborgen, het systeem monitoren op risico's en ernstige incidenten melden. Verduidelijk de verdeling van verantwoordelijkheden in uw contract.
Wat praktijken nu moeten doen
U hoeft niet te wachten op definitieve geharmoniseerde normen om te beginnen met voorbereiden. Hier is een praktische volgorde:
Inventariseer uw AI-tools
Maak een lijst van elk AI-systeem dat in uw praktijk wordt gebruikt — niet alleen de AI scribe. Neem planningstools, triage-chatbots, coderingsassistenten, factureringsautomatisering en alles wat patiëntgegevens met AI verwerkt mee. Noteer voor elk wat het doet en of het klinische of administratieve beslissingen beïnvloedt. Als u niet zeker weet wat telt als "AI scribe" versus dicteren versus handmatige notities, biedt onze vergelijking van AI scribes, dicteren en notities maken een helder overzicht.
Classificeer elke tool
Gebruik de beslisboom hierboven. Bepaal voor elk AI-systeem of het hoog risico, mogelijk hoog risico of duidelijk uitgezonderd is. Documenteer uw redenering.
Beoordeel leverancierscontracten
Controleer of contracten AI Act-compliance adresseren. Zoek naar clausules over: verantwoordelijkheid voor conformiteitsbeoordeling, incidentrapportage, datagovernanceverplichtingen en wat er gebeurt als de risicoclassificatie van het product verandert.
Stel processen voor menselijk toezicht vast
Zorg er voor elke tool die mogelijk hoog risico is voor dat uw klinische workflows betekenisvol menselijk toezicht bevatten. "Betekenisvol" betekent dat behandelaars begrijpen wat de AI doet, de outputs kritisch kunnen beoordelen en ze kunnen overrulen of negeren. Het automatisch goedkeuren van AI-gegenereerde notities volstaat niet. Voor praktijken met meerdere behandelaars kan het standaardiseren van rapportstructuren binnen uw team helpen bij het opzetten van de consistente toezichtprocessen die de AI Act vereist.
Monitor de richtlijnen van februari 2026
De praktische voorbeelden van de Europese Commissie — verwacht op 2 februari 2026 — worden de duidelijkste richtlijnen tot nu toe over wat wel en niet als hoog risico geldt. Deze richtlijnen zullen waarschijnlijk AI scribes direct adresseren.
De conclusie
De meeste AI scribes die zich beperken tot transcriptie en opmaak — spraak omzetten naar gestructureerde klinische notities zonder beslissingen te beïnvloeden — zullen waarschijnlijk buiten de hoog risico-classificatie vallen onder de Artikel 6(3)-uitzondering. Dat is het goede nieuws.
Het grijze gebied is echter reëel. Functies zoals geautomatiseerde coderingssuggesties, klinische samenvattingen die verder gaan dan wat de behandelaar zei, of het volgen van patronen over sessies heen kunnen een ogenschijnlijk eenvoudige tool in hoog risico-gebied duwen. En de verplichtingen die volgen zijn aanzienlijk.
De EU AI Act verbiedt AI in praktijken niet. Het eist transparantie over wat AI-tools doen, verantwoording over hoe ze worden gebruikt en betekenisvol menselijk toezicht over klinische processen. Voor praktijken die al goede documentatiegewoonten hanteren — AI-outputs beoordelen, klinisch oordeel behouden, patiënten informeren — kan de kloof tussen huidige praktijk en compliance kleiner zijn dan verwacht.
Begin nu het gesprek met uw leveranciers. De classificatievraag verdwijnt niet, en het antwoord bepaalt alles wat volgt.
Gerelateerde artikelen
- AI Scribe vs dicteren vs notities maken: welke methode vermindert echt de administratie? — Begrijp wat AI scribes werkelijk doen (en niet doen) voordat u hun regelgevingsclassificatie beoordeelt.
- Complete gids voor AI-medische transcriptie — Een praktisch overzicht van AI-transcriptie in de gezondheidszorg, inclusief privacy- en compliance-overwegingen.
- Hoe rapporten te standaardiseren in een praktijk met meerdere behandelaars — Consistente documentatieworkflows opzetten die zowel kwaliteit als compliance ondersteunen.
- AI-medische transcriptie in Zwitserland: FADP-compliancechecklist — Regiospecifieke gegevensbeschermingsrichtlijnen voor Zwitserse praktijken die AI-documentatietools gebruiken.
- Sessierapportsjabloon voor therapeuten — Gestructureerde sjablonen die het menselijk toezicht ondersteunen dat de AI Act vereist.
Bronnen
- EU AI Act — High-Level Summary
- Article 6: Classification Rules for High-Risk AI Systems
- Annex III: High-Risk AI Systems
- EU AI Act Implementation Timeline
- MDCG 2025-6: Interplay Between the Medical Devices Regulation and the AI Act
- AI Act: Guidelines for Medical Device Manufacturers — Quickbird Medical
- The EU AI Act and Medical Devices — Reed Smith
- High-Risk AI — EU AI Act Guide — Orrick
- EU Digital Omnibus on AI — Morrison Foerster
- European Commission Proposes Delaying AI Act Implementation — Euronews
- Digital Omnibus Implications for MedTech — Sidley Austin
- EU AI Act Summary — January 2026 Update — SIG
- Navigating the EU AI Act for Healthcare — PMC
Op zoek naar een AI scribe gebouwd voor compliance? Dya Clinical genereert gestructureerde klinische notities van uw sessies — alleen transcriptie en opmaak, geen klinische besluitvorming, geen patiëntprofilering. Uw notities, uw oordeel, uw toezicht. Probeer het 7 dagen gratis.