ai-healthcare

AI Act européen en 2026 : Votre Scribe IA est-il considéré comme « à haut risque » dans votre pratique clinique ?

Un arbre décisionnel clair pour les cabinets et cliniques face à l'AI Act européen. Découvrez quand un scribe IA reste un simple outil de documentation ou devient à haut risque, ce que le calendrier 2026 implique, et les questions à poser à votre fournisseur.

Publié le 1 février 202517 min de lecture
É

Écrit par

Équipe Clinique Dya

Experts en Documentation Clinique

AI Act européen en 2026 : Votre Scribe IA est-il considéré comme « à haut risque » dans votre pratique clinique ?

L'AI Act européen n'est plus un projet. Il est entré en vigueur en août 2024, et les règles les plus pertinentes pour les cabinets de thérapeutes — les obligations relatives aux systèmes d'IA à haut risque — s'appliqueront à partir d'août 2026. Si votre cabinet utilise un scribe IA, ou envisage de le faire, la question est simple : est-il considéré comme « à haut risque » ?

La réponse n'est pas toujours évidente. Un scribe IA qui transcrit une séance et met en forme un compte-rendu SOAP semble inoffensif. Mais si ce même outil commence à suggérer des diagnostics, à signaler des indicateurs de risque ou à alimenter des décisions thérapeutiques, le cadre réglementaire change du tout au tout.

Ce guide détaille la logique de classification en termes clairs, explique les échéances qui comptent réellement, et vous fournit une liste de questions à poser à tout fournisseur d'IA avant août 2026.

Ce que l'AI Act européen exige réellement

L'AI Act repose sur une approche par les risques. Tous les systèmes d'IA ne sont pas traités de la même manière. Il existe quatre niveaux :

  • Risque inacceptable — interdit purement et simplement (notation sociale, IA manipulatrice, surveillance biométrique en temps réel dans les espaces publics)
  • Haut risque — autorisé, mais soumis à des exigences strictes en matière de documentation, de supervision, de transparence et d'évaluation de conformité
  • Risque limité — obligations de transparence uniquement (ex. : signaler qu'un chatbot est une IA)
  • Risque minimal — aucune obligation spécifique

La plupart des outils d'IA utilisés en pratique clinique se situent entre « haut risque » et « risque limité ». La distinction est importante car la classification « haut risque » déclenche un régime de conformité complet : documentation technique, systèmes de gestion des risques, mécanismes de supervision humaine, exigences en matière de gouvernance des données et, dans de nombreux cas, évaluation de conformité par un organisme notifié tiers.

Se tromper dans cette classification a des conséquences réelles. Les amendes pour erreur de classification peuvent atteindre jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial.

Les deux voies vers la classification « haut risque »

En vertu de l'Article 6 de l'AI Act, un système d'IA est classé « haut risque » par l'une de deux voies :

Voie 1 : Il s'agit d'un dispositif médical (Article 6(1), Annexe I)

Si votre scribe IA est classé comme dispositif médical — ou en est un composant de sécurité — au titre du Règlement européen relatif aux dispositifs médicaux (RDM), et nécessite une évaluation de conformité par un tiers (c'est-à-dire qu'il est de classe IIa ou supérieure), il est automatiquement un système d'IA à haut risque.

Cela concerne les outils d'IA qui vont au-delà de la documentation. Si le logiciel analyse les données du patient pour suggérer des diagnostics, recommander des traitements ou signaler des risques cliniques, il est probablement classé comme Logiciel en tant que Dispositif Médical (SaMD) au titre du RDM.

Point important : Les obligations complètes pour les systèmes d'IA liés aux dispositifs médicaux au titre de l'Article 6(1) ne s'appliqueront qu'à partir du 2 août 2027 — soit un an après l'échéance générale du haut risque. Le paquet Digital Omnibus proposé par l'UE pourrait repousser cette date à août 2028, en fonction de la disponibilité des normes harmonisées.

Voie 2 : Il relève d'un cas d'usage de l'Annexe III (Article 6(2))

L'Annexe III énumère des cas d'usage spécifiques automatiquement classés « haut risque ». Ceux qui concernent le domaine de la santé relèvent de la Catégorie 5 (« accès aux services essentiels ») :

  • Systèmes d'IA utilisés pour évaluer l'éligibilité aux services de santé publique ou pour accorder, réduire ou révoquer des prestations
  • Systèmes d'IA utilisés pour l'évaluation des risques et la tarification en assurance vie et santé
  • Systèmes d'IA utilisés pour le tri des appels d'urgence ou la répartition des services de soins d'urgence

Un outil de documentation pur — qui transcrit la parole et met en forme les notes cliniques — ne correspond à aucune de ces catégories. Mais la frontière devient floue dès que l'outil commence à influencer les décisions concernant l'accès des patients aux soins, les assurances ou le triage.

L'arbre décisionnel : Votre scribe IA est-il « à haut risque » ?

Voici le cadre pratique. Passez en revue ces questions pour tout outil d'IA utilisé dans votre cabinet :

Étape 1 : L'outil est-il classé comme dispositif médical ?

Posez directement la question à votre fournisseur : ce produit porte-t-il le marquage CE en tant que dispositif médical au titre du RDM ? Si oui — et qu'il est de classe IIa ou supérieure — c'est un système à haut risque au regard de l'AI Act. Point final.

La plupart des scribes IA purs ne sont pas des dispositifs médicaux. Ils captent et mettent en forme l'information, mais ne diagnostiquent pas, ne recommandent pas et ne surveillent pas. Cependant, la classification repose sur la finalité prévue, pas sur le discours marketing. Si la documentation ou les supports promotionnels de l'outil suggèrent un soutien à la décision clinique, les régulateurs pourraient le classer différemment de ce que le fournisseur avait prévu.

Étape 2 : Relève-t-il d'un cas d'usage de l'Annexe III ?

Examinez les catégories de l'Annexe III ci-dessus. Si l'outil est utilisé pour évaluer l'éligibilité aux soins, calculer un risque assurantiel ou trier les patients — même comme fonctionnalité secondaire — il peut déclencher la classification « haut risque ».

Étape 3 : Influence-t-il les décisions cliniques ?

C'est ici que se joue la classification pour la plupart des scribes IA. L'Article 6(3) de l'AI Act prévoit une exemption pour les systèmes qui :

(a) Exécutent une tâche procédurale étroite — ex. : convertir la parole en texte, formater les notes de séance selon un modèle

(b) Améliorent le résultat d'une activité humaine préalablement accomplie — ex. : remettre en forme les notes du thérapeute après que celui-ci a déjà formulé son évaluation

(c) Détectent des schémas sans remplacer ni influencer l'évaluation humaine — ex. : signaler que le praticien a utilisé une terminologie inhabituelle, sans émettre de suggestion clinique

(d) Exécutent une tâche préparatoire pour une évaluation humaine — ex. : organiser l'historique du patient avant la revue par le thérapeute

Si votre scribe IA se contente de transcrire et de mettre en forme les notes de séance — sans suggérer de diagnostics, signaler des symptômes, recommander des actions ou hiérarchiser des niveaux de gravité — il bénéficie probablement de l'exemption de l'Article 6(3) et n'est pas à haut risque.

Étape 4 : Même en cas d'exemption, des obligations subsistent

Les fournisseurs qui revendiquent l'exemption de l'Article 6(3) doivent :

  • Documenter l'évaluation avant la mise sur le marché du système
  • Enregistrer le système dans la base de données européenne des systèmes d'IA à haut risque (oui, même les systèmes non à haut risque relevant des catégories de l'Annexe III doivent s'enregistrer)
  • Fournir la documentation aux autorités nationales sur demande

Demandez à votre fournisseur s'il a réalisé cette évaluation. S'il n'a jamais entendu parler de l'Article 6(3), c'est un signal d'alarme.

Étape 5 : L'outil établit-il un profil des patients ?

Un point critique : l'exemption de l'Article 6(3) ne s'applique jamais si le système établit un profil de personnes. Au sens du RGPD, le profilage désigne le traitement automatisé de données personnelles visant à évaluer des aspects d'une personne — état de santé, comportement, fiabilité, localisation.

Un scribe IA qui suit l'évolution des patients d'une séance à l'autre, signale des changements comportementaux ou construit des profils de risque pratique le profilage. Même s'il remplit une « tâche procédurale étroite », le profilage annule l'exemption et déclenche la classification « haut risque ».

Tableau de classification rapide

Ce que fait l'outil Classification probable Pourquoi
Transcrit la parole en texte Pas à haut risque Tâche procédurale étroite (Art. 6(3)(a))
Met en forme les notes en modèle SOAP Pas à haut risque Tâche procédurale étroite (Art. 6(3)(a))
Résume le contenu de la séance Zone grise Peut « améliorer » une activité humaine, ou générer du contenu clinique nouveau
Suggère des codes CIM-10 Zone grise Peut être préparatoire, mais risque d'influencer les décisions de facturation
Signale des diagnostics ou symptômes potentiels Probablement à haut risque Influence la prise de décision clinique
Recommande des options thérapeutiques Haut risque Probablement classé SaMD au titre du RDM
Suit l'évolution du patient d'une séance à l'autre Haut risque Le profilage annule l'exemption de l'Article 6(3)
Trie l'urgence des patients Haut risque Explicitement listé à l'Annexe III

Calendrier : Ce qui se passe et quand

L'entrée en vigueur progressive a son importance pour la planification. Voici ce qui s'est déjà passé et ce qui arrive :

Déjà en vigueur :

  • 2 février 2025 — Pratiques d'IA interdites prohibées ; obligations en matière de littératie IA actives
  • 2 août 2025 — Règles de gouvernance et obligations pour les modèles d'IA à usage général (GPAI) applicables

À venir :

  • 2 février 2026 — La Commission européenne publie des lignes directrices avec des exemples pratiques de cas d'usage à haut risque et non à haut risque (directement pertinent pour les scribes IA)
  • 2 août 2026 — Obligations « haut risque » pour les systèmes de l'Annexe III applicables (c'est l'échéance principale pour les outils d'IA autonomes utilisés en cabinet)
  • 2 août 2027 — Obligations « haut risque » pour les systèmes d'IA intégrés dans des produits réglementés (dispositifs médicaux) applicables

La nuance du Digital Omnibus

En novembre 2025, la Commission européenne a proposé le paquet Digital Omnibus, qui reporterait les échéances « haut risque » jusqu'à ce que les normes de conformité harmonisées soient prêtes :

  • Systèmes de l'Annexe III (outils autonomes à haut risque) : reportés au plus tôt au 2 décembre 2027, ou 6 mois après la publication des normes
  • Systèmes de l'Annexe I (IA dans les dispositifs médicaux) : reportés au plus tôt au 2 août 2028, ou 12 mois après la publication des normes

Le Digital Omnibus est une proposition, pas une loi. Il nécessite encore l'approbation des États membres de l'UE et du Parlement européen. Mais la direction est claire : la Commission reconnaît que l'infrastructure de conformité n'est pas prête dans les délais prévus.

Ce que cela signifie pour les cabinets : N'utilisez pas le report potentiel comme prétexte pour négliger la préparation. Les exigences de conformité elles-mêmes ne changent pas — seule la date d'application évolue. Les cabinets qui se préparent dès maintenant seront en avance quel que soit le calendrier final.

10 questions à poser à votre fournisseur de scribe IA

Avant août 2026, engagez cette conversation avec tout fournisseur d'outils d'IA pour votre cabinet :

1. « Votre produit est-il classé comme dispositif médical au titre du RDM ? »

Si oui, demandez le marquage CE et le niveau de classification (I, IIa, IIb, III). Les classes IIa et supérieures signifient automatiquement « haut risque » au regard de l'AI Act.

2. « Avez-vous réalisé une évaluation au titre de l'Article 6(3) ? »

Tout fournisseur dont l'outil relève des catégories de l'Annexe III devrait disposer d'une évaluation documentée expliquant pourquoi son système est ou n'est pas à haut risque. S'il ne l'a pas fait, il n'est pas prêt pour 2026.

3. « Votre système est-il enregistré dans la base de données européenne sur l'IA ? »

Même les systèmes non à haut risque relevant des catégories de l'Annexe III doivent s'enregistrer. Demandez la référence d'enregistrement.

4. « Votre outil influence-t-il les décisions cliniques d'une quelconque manière ? »

Allez au-delà du discours commercial. Suggère-t-il des diagnostics ? Recommande-t-il des codes ? Signale-t-il des symptômes ? Hiérarchise-t-il des niveaux de gravité ? Chacune de ces fonctionnalités pourrait faire basculer la classification de « outil de documentation » à « système à haut risque ».

5. « Le système établit-il un profil des patients d'une séance à l'autre ? »

Si l'outil suit des schémas, construit des profils de patients ou signale des changements comportementaux dans le temps, l'exemption de l'Article 6(3) ne s'applique pas — quelle que soit la fonction principale de l'outil.

6. « Où les données des patients sont-elles traitées et stockées ? »

L'AI Act s'articule avec le RGPD. Les données cliniques traitées en dehors de l'UE peuvent créer des exigences de conformité supplémentaires. Renseignez-vous sur la résidence des données, les politiques de conservation et les sous-traitants. Si votre cabinet exerce en Suisse, consultez notre checklist de conformité nLPD pour la transcription médicale IA pour des recommandations spécifiques à votre région.

7. « Quels mécanismes de supervision humaine sont intégrés ? »

Les systèmes à haut risque exigent une supervision humaine significative — pas un simple bouton « confirmer ». Demandez comment le système permet aux thérapeutes de comprendre, superviser et corriger ses résultats.

8. « Pouvez-vous fournir votre documentation technique ? »

Les fournisseurs de systèmes d'IA à haut risque doivent tenir une documentation technique complète couvrant la conception, le développement, les données d'entraînement, les tests et les indicateurs de performance du système. Si un fournisseur ne peut pas la partager, interrogez sa préparation à la conformité.

9. « Que se passe-t-il si la classification change ? »

Les outils d'IA évoluent. Un scribe purement documentaire aujourd'hui pourrait intégrer des fonctions d'aide à la décision clinique demain. Demandez comment le fournisseur gère les reclassifications et si les mises à jour pourraient modifier le profil de risque.

10. « Qui porte la responsabilité de la conformité — le fournisseur ou le déployeur ? »

Au titre de l'AI Act, les fournisseurs (l'entreprise qui conçoit l'IA) et les déployeurs (le cabinet qui l'utilise) ont des obligations. Les déployeurs de systèmes à haut risque doivent assurer la supervision humaine, surveiller les risques du système et signaler les incidents graves. Clarifiez la répartition des responsabilités dans votre contrat.

Ce que les cabinets devraient faire dès maintenant

Inutile d'attendre les normes harmonisées définitives pour commencer à se préparer. Voici une séquence pratique :

Inventoriez vos outils d'IA

Listez chaque système d'IA utilisé dans votre cabinet — pas seulement le scribe IA. Incluez les outils de prise de rendez-vous, les chatbots de triage, les assistants de codage, l'automatisation de la facturation, et tout ce qui traite des données patient avec de l'IA. Pour chacun, notez ce qu'il fait et s'il influence les décisions cliniques ou administratives. Si vous ne savez pas ce qui distingue un « scribe IA » de la dictée ou de la prise de notes manuelle, notre comparatif scribes IA, dictée et prise de notes détaille les différences.

Classifiez chaque outil

Utilisez l'arbre décisionnel ci-dessus. Pour chaque système d'IA, déterminez s'il est à haut risque, potentiellement à haut risque, ou clairement exempté. Documentez votre raisonnement.

Révisez vos contrats fournisseurs

Vérifiez si les contrats traitent de la conformité à l'AI Act. Recherchez les clauses couvrant : la responsabilité de l'évaluation de conformité, la déclaration d'incidents, les obligations en matière de gouvernance des données, et ce qui se passe si la classification de risque du produit change.

Mettez en place des processus de supervision humaine

Pour tout outil susceptible d'être à haut risque, assurez-vous que vos pratiques cliniques intègrent une revue humaine significative. « Significative » signifie que les thérapeutes comprennent ce que fait l'IA, peuvent évaluer ses résultats de manière critique et peuvent les corriger ou les ignorer. Valider machinalement des notes de séance générées par l'IA ne suffit pas. Pour les cabinets multi-praticiens, standardiser la structure des comptes-rendus au sein de votre équipe peut vous aider à mettre en place les processus de supervision cohérents que l'AI Act exige.

Surveillez les lignes directrices de février 2026

Les exemples pratiques de la Commission européenne — attendus pour le 2 février 2026 — constitueront les orientations les plus claires à ce jour sur ce qui est « haut risque » et ce qui ne l'est pas. Ces lignes directrices aborderont probablement directement le cas des scribes IA.

En résumé

La plupart des scribes IA qui se limitent à la transcription et à la mise en forme — convertir la parole en notes de séance structurées sans influencer les décisions — échapperont probablement à la classification « haut risque » grâce à l'exemption de l'Article 6(3). C'est la bonne nouvelle.

Cependant, la zone grise est bien réelle. Des fonctionnalités comme les suggestions automatiques de codage, les résumés cliniques qui vont au-delà de ce que le thérapeute a dit, ou le suivi de schémas d'une séance à l'autre peuvent faire basculer un outil par ailleurs simple dans le territoire du « haut risque ». Et les obligations qui en découlent sont substantielles.

L'AI Act européen n'interdit pas l'IA dans les cabinets. Il exige de la transparence sur ce que font les outils d'IA, une responsabilisation quant à leur utilisation, et une supervision humaine significative des processus cliniques. Pour les cabinets qui pratiquent déjà de bonnes habitudes de documentation — révision des résultats de l'IA, maintien du jugement clinique, information des patients — l'écart entre la pratique actuelle et la conformité pourrait être plus faible que prévu.

Engagez la conversation avec vos fournisseurs dès maintenant. La question de la classification ne va pas disparaître, et la réponse détermine tout ce qui suit.

Lectures complémentaires

Sources


Besoin d'un scribe IA conçu pour la conformité ? Dya Clinical génère des comptes-rendus de séance structurés à partir de vos consultations — transcription et mise en forme uniquement, aucune aide à la décision clinique, aucun profilage de patients. Vos notes, votre jugement clinique, votre supervision. Essayez gratuitement pendant 7 jours.

#regulation#compliance#ai-healthcare#documentation#best-practices

Articles connexes