Nl

TECH

6 étapes pour une utilisation éthique de l'IA, par Hannah Tacheny & Charlotte Beeckmans (AdaStone)

Jeudi 14 Novembre 2024

6 étapes pour une utilisation éthique de l'IA, par Hannah Tacheny & Charlotte Beeckmans (AdaStone)

L’intelligence artificielle (IA) n’est plus l’apanage des experts ou des laboratoires high-tech : elle fait désormais partie intégrante du quotidien des entreprises - quelle que soit leur taille ou leur domaine d’expertise - transformant les relations clients et redéfinissant les modèles économiques. Si cette évolution ouvre des horizons prometteurs, elle soulève également des préoccupations quant aux potentiels risques associés à son utilisation et impose des responsabilités nouvelles. 
Le règlement européen sur l’intelligence artificielle (AI Act), entré en vigueur le 1er août 2024, vise à répondre à ces défis en fournissant des directives claires aux développeurs et utilisateurs d’IA tout en favorisant l’innovation des entreprises.

L’AI Act établit un cadre de responsabilités et d’obligations pour les acteurs de l’IA, fondé sur sept principes éthiques solides, visant à garantir une IA digne de confiance en protégeant les droits fondamentaux des citoyens européens et atténuant les risques associés à certains systèmes d’IA.

Fournisseur, importateur, distributeur, fabricant, représentant autorisé et déployeur : chaque acteur se voit imposer des obligations plus ou moins strictes selon son rôle et le niveau de risque associé au système d’IA qu’il crée, fournit ou utilise.

En tant qu’entreprise utilisant des systèmes d’IA, vous serez tantôt qualifié de ‘’déployeur’’, tantôt de ‘’fournisseur’’ si votre entreprise participe activement au développement du système d'IA et l’intègre sous son propre nom. Si le fournisseur est souvent perçu comme le principal responsable du système d’IA, le déployeur joue un rôle essentiel dans l’application et le bon fonctionnement du système. Cette responsabilité partagée justifie l’attention particulière que l’AI Act leur accorde.

Nous vous proposons ci-après six étapes essentielles pour aider votre entreprise à intégrer l’IA de façon éthique et responsable au sein de ses activités professionnelles et ainsi l’utiliser comme vecteur de confiance et de performance durable, à savoir identifier les besoins ; vérifier la conformité des systèmes ; assurer une transparence ; désigner un responsable ; sensibiliser et former les équipes et respecter les données personnelles.

1. Identifiez les besoins et les systèmes d’IA utilisés et déterminez les risques
Il est important de cerner vos besoins en matière d’utilisation de l’IA et de dresser une liste exhaustive des produits ou services utilisés dans votre entreprise qui reposent sur des systèmes d’IA, qu’ils soient destinés à un usage interne ou externe à l’entreprise.

Identifiez ensuite les fonctionnalités spécifiques de chacun de ces systèmes (par exemple : prise de décisions automatisées, recommandations personnalisées, etc.) afin d’évaluer le niveau de risque associé et mettre en place les obligations requises par l’AI Act.

L’AI Act classifie les systèmes d’IA selon le risque qu’ils présentent pour la sécurité et les droits fondamentaux :
- Systèmes d’IA interdits : il s’agit de systèmes qui présentent un risque jugé inacceptable. Il s’agira notamment de systèmes utilisant des techniques subliminales visant à manipuler le comportement ou exploitant des vulnérabilités liées par exemple à l'âge, au handicap ou à la situation socio-économique.
- Système d’IA à haut risque : l’utilisation de ce type d’IA est autorisée à condition toutefois qu’il respecte des exigences strictes dès lors qu’il présente un potentiel danger pour la sécurité ou les droits fondamentaux. Il s’agit - souvent - d’IA utilisée dans des domaines sensibles comme la santé, la justice, le recrutement et le crédit. On pense notamment aux systèmes qui traitent de manière automatisée des données personnelles pour évaluer divers aspects de la vie d’une personne (emploi, migration, éducation, etc.).
- Système d’IA à risque limité : il s’agit par exemple de chatbots ou de technologie de génération de contenu artificiel (tels que les deep fakes). Considérés comme présentant des risques de de manipulation ou d’altération de la confiance des utilisateurs, il est notamment obligatoire d’informer les utilisateurs qu'ils interagissent avec une machine, afin de pouvoir prendre des décisions en tout connaissance de cause.
- Système d’IA à risque minimal ou nul : il s’agit de tous les autres systèmes d’IA qui ne nécessitent pas de mesure particulière et peuvent donc être utilisés librement, tels que des filtres anti-spam et les jeux alimentés par l’IA ainsi que des algorithmes qui suggèrent des produits similaires sur les plateformes e-commerce.

Bien que seuls les opérateurs de systèmes d’IA à ‘’haut risque’’ et ‘’risque limité’’ se voient imposer des obligations strictes par l’AI Act, ce dernier encourage l’application des sept principes éthiques dans la conception et l’utilisation de tous les systèmes d’IA, indépendamment de leur niveau de risque.

2. Vérifiez la conformité et établissez un cadre contractuel
Après avoir déterminé les besoins et identifié les risques liés aux systèmes utilisés, il est recommandé de vérifier la conformité et les garanties dont disposent les fournisseurs des système d’AI utilisés par votre entreprise.

Des certifications (ISO) ou audits externes sont ainsi des éléments qui peuvent être pris en considération pour attester de cette conformité.

Ensuite, l’analyse des conditions générales ou l’entame de discussions et négociations avec vos partenaires ayant fourni, distribué ou importé les systèmes d’IA est une étape incontournable pour vérifier que vos intérêts sont suffisamment protégés. En cas de possibilité de négociations, il est ainsi recommandé d’insérer des clauses de conformité, des garanties, et de préciser les obligations des acteurs concernés.

Si des risques élevés sont identifiés et qu’il n’est pas possible de les encadrer contractuellement pour protéger votre entreprise contre toute responsabilité, évaluez la décision d’interdire l’utilisation interne du système d’IA concerné (black lister les systèmes d’IA dont les risques ne peuvent être maîtrisés).

C’est également dans ce cadre qu’une attention particulière doit être portée aux contrats en cours avec les clients et éventuels autres partenaires de l’entreprise afin de les adapter au besoin, notamment en vue d’intégrer des clauses de responsabilité, le cas échéant partagée, concernant l’utilisation de systèmes d’IA.

3. Assurez une transparence
Être transparent sur l’utilisation de l’IA est essentiel pour instaurer un climat de confiance.

Cela implique d’informer les clients, partenaires et, le cas échéant, les employés, sur la manière dont l’IA est utilisée, que ce soit par exemple dans le traitement de données ou la création de contenu. En expliquant clairement le rôle des algorithmes et leurs objectifs, les entreprises favorisent un sentiment de sécurité et d’autonomie chez leurs clients et partenaires. Une telle transparence témoigne également de l’engagement éthique de l’entreprise, notamment en matière de confidentialité et de respect des droits individuels ; autant d’aspects qui renforcent la crédibilité et la fidélité à long terme.

Le droit à l’explication et - lorsque nécessaire - la possibilité de contester les décisions qui seraient prises sur base de l’IA renforcent ainsi la transparence et l’équité du système, ce qui instaure un climat de confiance autour de l’utilisation de l’IA et démontre l’engagement de l’entreprise envers des pratiques éthiques et responsables. Il est donc recommandé d’établir une politique de communication claire, visant à informer les personnes concernées sur l’utilisation des systèmes d’IA.

4. Désignez un responsable de la conformité à l’IA
Désigner un responsable de la conformité de l'IA (un AI Officer ou AIO) renforce la garantie d’une utilisation éthique et légale de l’IA. Ce rôle clé permet de centraliser la gestion des risques liés à l'IA, en s'assurant que les systèmes utilisés respectent les réglementations en vigueur (telles que l’AI Act, le Règlement général sur la protection des données personnelles et la législation sur les droits d’auteur).

L’AIO est chargé de former les équipes, de surveiller les évolutions législatives et d'implémenter des processus de validation interne pour garantir que les systèmes d’IA utilisés sont régulièrement évalués et validés.

En établissant une gouvernance claire, l’AIO contribue à renforcer la confiance auprès des clients et des partenaires, tout en protégeant l'entreprise contre d'éventuels litiges et atteintes à la réputation. Cette démarche proactive est cruciale dans un paysage technologique en constante évolution, où les enjeux éthiques et réglementaires prennent une importance grandissante.

5. Sensibilisez et formez les équipes
La sensibilisation et la formation de vos équipes sont essentielles pour garantir une utilisation éthique et cohérente de l’IA au sein de votre entreprise. Former vos collaborateurs aux risques éthiques et aux obligations légales liées à l’IA permet de les sensibiliser aux défis spécifiques associés à ces technologies.

Pour établir un cadre clair, adoptez une charte éthique de l’IA qui définit les modalités d’utilisation des systèmes d’IA, en abordant des questions essentielles telles que les types de données pouvant ou non être utilisées, et inclut des recommandations précises. N’hésitez pas à impliquer vos équipes dans le processus rédactionnel pour favoriser leur adhésion.

L’IA est en constante évolution, des ateliers réguliers sur les évolutions législatives et technologiques sont également fortement recommandés pour garder le personnel informé et engagé.

6. Respectez les données personnelles
Pour intégrer l'IA de manière sécurisée, une entreprise doit établir des protocoles solides de protection des données et des systèmes d’IA. Cela commence par la mise en place de contrôles d’accès stricts (par exemple, l’utilisation de mots de passe et la limitation des accès au personnel qualifié ou à ceux ayant un besoin légitime d’accès). Il est également essentiel de mettre en place des mesures de suppression, d’anonymisation et/ou de chiffrement des données personnelles utilisées pour « alimenter » le système d’IA utilisé.

La mise en place de mécanismes de surveillance continue, ainsi que la réalisation d’audits et de tests de résilience sont cruciales pour détecter toute anomalie et maintenir la conformité aux normes de sécurité et de confidentialité. Ces contrôles renforcent la résistance de l’IA face aux cybermenaces et assurent une réaction rapide face aux évolutions réglementaires ou sociétales.

Agissez pour une IA éthique et responsable

L'AI Act marque un tournant décisif dans l'intégration éthique et responsable de l'intelligence artificielle au sein des entreprises.

Implémenter ces six étapes clés dans votre entreprise, c'est garantir que l'IA devienne un atout stratégique qui respecte les droits fondamentaux. Cette démarche favorisera la création d’un environnement harmonieux où éthique et technologie se renforcent mutuellement, consolidant ainsi la confiance de vos clients et partenaires dans l'avenir de vos projets, ainsi que celle de vos employés dans « votre » entreprise ; qu’ils considèrent comme étant la « leur » et à laquelle ils s’identifient avec fierté.

N'attendez plus pour agir ! Adoptez dès aujourd’hui ces bonnes pratiques afin de positionner votre entreprise comme un modèle d'éthique et d'innovation dans un monde où l'IA occupe désormais une place centrale. Chez Adastone, nous sommes à vos côtés pour vous accompagner dans la mise en œuvre de ces pratiques.

Archive / TECH