4 façons d’adopter une IA responsable dans la région EMEA

Trois personnes souriant ensemble devant un écran d'ordinateur

L’IA devient rapidement essentielle dans les activités des entreprises. Son utilisation s’accroît et suscite beaucoup de questions, notamment autour d’un déploiement éthique et responsable. Selon une étude récente de l’université de Stanford, plus de la moitié des entreprises européennes s’inquiètent des répercussions de l’IA sur la confidentialité et la gouvernance des données. Elles sont par ailleurs 45 % à mettre en cause la fiabilité de l’IA, et 49 % ont des doutes quant à sa transparence.

On comprend aisément l’empressement à mettre rapidement en œuvre de nouvelles technologies qui promettent d’automatiser les tâches de routine et de faire émerger de nouvelles informations, mais le défi consiste à trouver le bon équilibre entre favoriser l’innovation et se préserver des risques éventuels. Des systèmes d’IA biaisés, opaques ou mal contrôlés peuvent rapidement éroder la confiance des clients et des employés.

Les entreprises en Europe, au Moyen-Orient et en Afrique (EMEA) qui souhaitent adopter une IA éthique doivent mettre en place un socle de principes sains. Les quatre points suivants constituent un bon point de départ pour déployer une IA responsable.

1. Donner la priorité à l’humain

Le premier principe fondamental consiste à garder les besoins humains au cœur du développement de l’IA. Plutôt que de mettre en œuvre la technologie dans une perspective d’innovation, il faut employer l’IA pour résoudre les frictions et les problèmes réels des utilisateurs. Une approche centrée sur l’humain permet d’établir des normes éthiques tout au long du cycle de vie, de la phase de conception initiale au déploiement, en passant par l’amélioration continue.

Dans cette optique, le cadre d’IA éthique de l’UNESCO constitue un point de départ intéressant pour les entreprises. Il intègre l’équité et la non-discrimination, la transparence, la responsabilité et la supervision humaine.

2. Rendre l’IA inclusive

Contrairement à d’autres technologies, l’IA apprend des données avec lesquelles elle est entraînée et des personnes qui la développent. Si les données et les équipes manquent de diversité, l’IA obtenue véhiculera probablement des préjugés qui conduiront à un traitement injuste des groupes sous-représentés. L’IA étant de plus en plus déployée dans des domaines aux enjeux élevés tels que le service client et le recrutement, le processus doit être très bien mené pour éviter d’aggraver les inégalités sociales.

La diversité et une juste représentation doivent être votre principale préoccupation lorsque vous créez une IA au service de toutes et tous. Les équipes de développement et les données doivent représenter des individus de toutes les cultures, tous les genres, tous les âges et tous les domaines d’expertise afin de réunir une multitude de points de vue qui atténuent les préjugés inconscients.

En intégrant la diversité et la représentation à chaque étape, de la composition des équipes aux tests utilisateur, les entreprises créent des systèmes d’IA qui fonctionnent mieux pour tout le monde. L’objectif doit être de permettre à tout un chacun d’accéder aux avantages de l’IA, en veillant à ce que la technologie soit accessible et inclusive pour chaque client, chaque employé et toute autre personne concernée en lien avec l’entreprise.

3. Instaurer la confiance grâce à la transparence

Pour que l’IA gagne la confiance à grande échelle, il faut d’abord comprendre comment elle fonctionne. La documentation sur le fonctionnement des modèles, leurs cas d’utilisation prévus et leurs limites est indispensable pour assurer la transparence de la technologie. Il est également essentiel de parler de toutes les incertitudes et limites pour que les employés et les clients aient des attentes réalistes quant aux capacités de l’IA.

La transparence doit s’accompagner d’une solide responsabilité et d’une bonne gouvernance. Cela passe par des organes de contrôle et des moyens de signaler les problèmes. Dans cette optique, ServiceNow a mis en place des instances internes pour superviser les initiatives et faire en sorte qu’elles concordent bien avec les normes éthiques de la communauté de l’IA, ce qui permet aux entreprises d’utiliser ses solutions d’IA en toute confiance.

4. Trouver le bon équilibre entre humains et machines

Aussi avancés qu’ils soient, les systèmes d’IA doivent collaborer avec les humains, et non les remplacer. Les entreprises doivent avoir de la visibilité pour savoir où et comment l’IA est utilisée, être en mesure d’interpréter ce qu’elle produit et avoir la possibilité d’ajuster ou de passer outre ses décisions le cas échéant.

Le jugement humain est particulièrement important pour les cas d’utilisation de l’IA qui ont des répercussions importantes pour d’autres personnes. Par exemple, une entreprise de services financiers qui utilise l’IA pour évaluer et approuver des demandes de prêt peut injustement refuser un prêt à des demandeurs éligibles. L’absence d’appréciation humaine dans le processus de prise de décision peut entraîner des difficultés financières pour les clients, nuire à la réputation de l’entreprise et éroder la confiance du grand public.

Évaluer l’impact éthique et mettre en place des plans d’atténuation contribuent à garantir que l’IA est bénéfique pour les humains, sans conséquences néfastes. En pratique, les évaluations de l’impact consistent à faire le point sur les risques avant et après la mise en œuvre d’un système d’IA. Il s’agit d’une étape essentielle pour assurer la conformité de la technologie avec les normes éthiques tout au long de la conception, du développement et du déploiement.

Unifier ces principes

Le respect des principes de l’IA responsable représente un engagement continu. Les entreprises doivent définir des directives claires en ce qui concerne la place centrale de l’humain, l’inclusion, la responsabilité et la transparence pour guider toutes les futures initiatives d’IA.

En tenant compte de ces quatre points, les entreprises de la région EMEA peuvent commencer à libérer le potentiel de l’IA pour créer de meilleures expériences pour tout le monde. La voie éthique est la seule qui permette de créer des solutions d’IA bénéficiant d’une grande confiance, appréciées et pérennes.

Découvrez comment ServiceNow peut vous aider à mettre l’IA responsable au service de votre entreprise.