Comprendre la conformité à la loi européenne sur l’IA
D’après l’indice 2025 de maturité IA des entreprises de ServiceNow, 82 % des leaders de l’IA, des entreprises pionnières dans la mise en œuvre de l’intelligence artificielle, envisagent d’augmenter leurs dépenses liées à l’IA au cours de la prochaine année. Plus des deux tiers (67 %) des entreprises interrogées déclarent que l’IA a augmenté leur marge brute.
En dépit des avantages de l’IA, les personnes interrogées ont également exprimé des inquiétudes quant à la sécurité des données. Il faut absolument une IA responsable.
Les cadres de gouvernance de l’IA peuvent aider les entreprises à mettre en œuvre l’IA en toute sécurité. Les efforts mondiaux se multiplient : selon l’Organisation de coopération et de développement économiques (OCDE), il existe plus de 1 000 initiatives politiques en matière d’IA dans 69 pays, territoires et dans l’UE.
La loi européenne sur l’IA en est un exemple notable. Les entreprises qui déploient des agents IA et d’autres systèmes d’IA peuvent être tenues de se conformer à cette législation essentielle. Voyons les éléments clés de la loi européenne sur l’IA et comment ServiceNow aide les équipes à mettre l’IA en œuvre de manière responsable.
Qu’est-ce que la loi européenne sur l’IA ?
La loi européenne sur l’IA est une législation élaborée par la Commission européenne pour régir la mise en œuvre de l’IA. Elle réglemente l’utilisation de l’IA dans l’UE.
La mise en œuvre est progressive. Bien que la loi soit officiellement entrée en vigueur en août 2024, des dispositions clés sont déployées progressivement jusqu’en août 2027, ce qui laisse le temps de s’adapter.
Les systèmes d’IA présentant le niveau de risque le plus élevé ont été interdits par la loi en février 2025. Il s’agit notamment de technologies de police prédictive, de reconnaissance faciale en temps réel et de collecte de données biométriques à partir des réseaux sociaux. Les règles sur les modèles d’IA à usage général (GPAI) entreront en vigueur en août 2025.
L’UE prépare plus de 20 textes législatifs complémentaires pour accompagner la mise en œuvre de la loi. ServiceNow collabore avec Business Software Alliance (BSA) pour guider la prise de décision dans l’UE, en partageant son expertise en matière de gouvernance de l’IA.
Comment utiliser l’IA de manière responsable ?
Une gouvernance robuste est essentielle pour une IA efficace. Les responsables doivent s’assurer que leurs mises en œuvre respectent les cadres de conformité mondiaux auxquels ils sont soumis.
Pour les entreprises opérant dans l’UE et soumises à la loi sur l’IA de l’UE, cela signifie se conformer à la réglementation.
Elles doivent envisager d’évaluer les risques pour classer les applications d’IA. Celles identifiées comme à haut risque peuvent nécessiter des stratégies d’atténuation des risques, telles que la génération de rapports réglementaires et la transparence des processus de prise de décision.
Une plateforme d’orchestration de l’IA, telle que la ServiceNow AI Platform, peut prendre en charge la supervision des systèmes d’IA dans toute entreprise, en fournissant un centre de commande centralisé pour gérer les modèles d’IA. Elle peut aider à appliquer des politiques de gouvernance cohérentes dans tous les systèmes d’IA, grâce à des fonctionnalités telles que la gestion des accès, la génération de rapports en temps réel et des options de confidentialité intégrées.
Il est également important de développer la culture de l’IA parmi les employés. Une formation peut les aider à comprendre les principes éthiques de l’IA, notamment l’équité, la non-discrimination et la protection des droits fondamentaux, afin de garantir une mise en œuvre sécurisée des systèmes d’IA.
Comment la loi européenne sur l’IA classe-t-elle les risques ?
La loi européenne sur l’IA prévoit un système de classification basé sur les risques. Elle classe l’IA en quatre catégories, résumées ci-dessous :
-
Risque inacceptable : les systèmes d’IA qui représentent une menace pour la sécurité ou les droits humains fondamentaux sont interdits. Toute entreprise qui les utilise s’expose à des sanctions financières sévères pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, selon le montant le plus élevé.
-
Risque élevé : les systèmes d’IA utilisés dans des domaines sensibles tels que le recrutement, les infrastructures critiques et l’application de la loi sont autorisés à condition de suivre des règles strictes. Il faut alors répondre à des exigences strictes, notamment en établissant des pratiques de gestion des risques, en fournissant une documentation adéquate et en assurant un certain niveau de supervision humaine.
-
Risque limité : moins d’exigences s’appliquent aux systèmes d’IA avec des profils de risque plus faible, tels que les chatbots ou les systèmes deep fake. Ils doivent respecter certaines obligations de transparence, comme informer les utilisateurs lorsqu’ils interagissent avec un service IA.
-
Risque minimal : les systèmes d’IA prenant en charge les processus internes, tels que les assistants de rédaction ou le filtrage des e-mails, comportent moins de risques et n’ont pas d’obligations supplémentaires.
La loi européenne sur l’IA classe également les modèles GPAI en deux catégories, résumées ci-dessous :
- Les fournisseurs de modèles GPAI, tels que les grands modèles de langage, doivent répondre à certaines exigences pour permettre aux fournisseurs en aval de les intégrer à leurs systèmes d’IA.
- Les modèles GPAI présentant un « risque systémique », à savoir les modèles les plus avancés avec une puissance de calcul très élevée, ont des obligations supplémentaires. Par exemple, les entreprises doivent documenter et divulguer les incidents importants et atténuer les risques systémiques.
Des pénalités peuvent s’appliquer pour les cas de non-conformité qui présentent un risque, tels que négliger les exigences de transparence ou fournir des informations incorrectes aux organismes de réglementation.
Les avantages de ServiceNow
En raison des obligations réglementaires, il peut être difficile de mettre en œuvre l’IA de façon agile tout en restant en parfaite conformité avec les cadres réglementaires.
Pour aider les entreprises à répondre à leurs besoins en matière de conformité, la ServiceNow AI Platform leur permet de gouverner, de gérer et d’optimiser toutes les initiatives d’IA, y compris les versions internes, les modèles tiers, les agents et l’IA intégrée au SaaS (Software as a Service).
La Tour de contrôle IA de ServiceNow permet aux entreprises de déployer et d’étendre leurs opérations d’IA de manière responsable dans tous leurs départements, tout en respectant la loi européenne sur l’IA et les autres exigences réglementaires. Les dirigeants peuvent prendre le contrôle total des initiatives d’IA, ce qui permet d’atténuer les risques, de suivre l’impact et de coordonner de manière transparente les agents IA.
Découvrez comment ServiceNow peut aider votre entreprise en matière de gouvernance, risque et conformité.