Nl

TECH

L'AI Act impose la maîtrise de l'IA dans les entreprises, par Beatrijs Dewijngaert et Hannah Tacheny (AdaStone)

Jeudi 13 Février 2025

L'AI Act impose la maîtrise de l'IA dans les entreprises, par Beatrijs Dewijngaert et Hannah Tacheny (AdaStone)

Le 2 février 2025, les premières obligations prévues par le règlement européen sur l’Intelligence artificielle (AI Act) sont entrées en vigueur. Elles s'appliquent tant aux développeurs qu'aux utilisateurs de systèmes d'IA.

L'une des premières mesures est l'interdiction de certains systèmes d'IA qui présentent un risque jugé inacceptable. L'AI Act introduit en outre une nouvelle obligation : la maîtrise de l'IA.

Qu'est-ce que la maîtrise de l'IA ?

Un utilisateur maîtrise l’IA lorsqu'il possède les connaissances nécessaires sur le fonctionnement d'un système d'IA, les risques qui y sont associés et qu'il est en mesure d'en évaluer l'impact. Toute entreprise qui utilise l'IA doit veiller à ce que chaque membre de l'équipe qui travaille avec l'IA soit suffisamment informé et dispose des connaissances nécessaires, ce qui inclut :
  • avoir une compréhension de base des systèmes d'IA : comment fonctionne-t-elle, quels sont ses avantages et ses limites ?
  • développer un regard critique sur les résultats issus de l'IA
  • utiliser une IA éthique et responsable en tenant compte d'aspects tels que la protection de la vie privée, la transparence et le risque de partialité (biais).
Le niveau de maîtrise de l'IA de chaque membre de l’équipe variera évidemment en fonction du poste, des connaissances techniques et du contexte dans lequel le système d'IA est utilisé. A titre d’‘exemple, des connaissances plus approfondies seront bien logiquement attendues de l'équipe RH qui utilise l'IA pour analyser des CV au cours d'un processus de candidature.

Le chemin vers une maîtrise de l'IA

1. Une analyse approfondie comme point de départ : la maîtrise de l'IA commence par une bonne compréhension des systèmes d'IA utilisés dans votre entreprise, des équipes qui les utilisent et des risques.

Chaque système d'IA comporte des défis différents : un système pourra impliquer des risques pour la vie privée de vos clients, alors que d’autres pourraient émettre des recommandations erronées lors de l'analyse de données financières.

Les systèmes d'IA doivent donc être passés au crible. Pour ce faire, référez-vous aux informations ou directives fournies par le fournisseur… mais sans vous y fiez aveuglément. La maîtrise de l’IA nécessite pour l’entreprise de comprendre le fonctionnement du système d'IA utilisé : quelles données le système d'IA utilise-t-il et comment parvient-il à un certain résultat ?

Les membres de l'équipe doivent être activement impliqués dans cette étape. Ils connaissent mieux que quiconque les outils d'IA qu'ils utilisent et peuvent fournir des informations précieuses sur leur fonctionnement des systèmes ainsi que leurs limites. C'est en outre le moment idéal pour évaluer le niveau actuel des connaissances en matière d'IA et déterminer si un soutien supplémentaire est nécessaire.

Enfin, les risques doivent également être identifiés. Cela commence par une analyse des données utilisées par l’IA pour travailler. Les sources de l’IA sont donc analysées, ainsi que la manière dont les informations sont collectées mais aussi la mesure dans laquelle les données doivent être considérées comme sensibles ou confidentielles. Les résultats méritent également une attention particulière : il convient par exemple d'examiner s'ils conduisent à des décisions automatisées et s'il existe des risques, notamment de discrimination ou de réponses ou recommandations erronées.

Cet examen permettra de très clairement faire apparaître les outils d'IA qui présentent les plus grands risques et pour lesquels une attention particulière est nécessaire. Cela permettra notamment à votre entreprise de savoir le type de formation ou de soutien il est important de prévoir et dans lequel investir.

2. Formation sur mesure à l'IA : il n'existe pas de formation standard. Le type de formation dépendra du contexte, des systèmes d'IA utilisés ainsi que des connaissances existantes au sein de l'équipe.

Chaque membre de l'équipe doit avoir une connaissance de base afin de pouvoir considérer chaque résultat de l'IA avec un œil critique. Si la vitesse à laquelle les systèmes d'IA résolvent les problèmes et produisent des résultats semble presque magique, le résultat n'est pas toujours sans reproche. Il n'est pas toujours évident de savoir comment un système d'IA est parvenu à un résultat particulier et, dans certains cas, le système peut contenir des biais cachés ou ‘’fabriquer’’ des informations, ce qu’on appelle les hallucinations. Cela peut conduire à des décisions discriminatoires, à des analyses erronées ou à des recommandations peu fiables avec des conséquences potentiellement négatives pour votre entreprise, vos fournisseurs ou vos clients.

3. Des règles de base claires pour l'IA au sein de votre entreprise : une politique en matière d'IA se doit d’expliquer dans un langage clair et compréhensible la manière dont l’IA doit être utilisée ainsi que le type d’IA ou les outils d’IA sélectionnés par l’entreprise qui peuvent être utilisés.

Lors de la rédaction de votre politique en matière d'IA, il est intéressant de prendre en compte les éléments suivants :
  • une description claire de l'utilisation qui est attendue de l'IA au sein de l'entreprise ;
  • une description de l'utilisation éthique et responsable de l'IA, en accord avec les valeurs de l'entreprise ;
  • une vue d'ensemble des risques ;
  • les critères d'évaluation des outils d'IA pour déterminer si un système d'IA est fiable et peut donc être utilisé ;
  • si les outils d'IA doivent être approuvés par une personne responsable avant d'être utilisés ; 
  • une description ou une liste des systèmes d'IA qui ne peuvent pas être utilisés ;
  • la désignation d'une personne responsable qui contrôlera le respect de la politique en matière d'IA.

Risques et sanctions en cas de non-respect

L’AI Act n'impose pas de sanctions aux utilisateurs qui ne respectent pas l'obligation de maîtrise de l'IA et laisse le soin aux États membres de déterminer le régime applicable au niveau national. À l'heure actuelle, la Belgique n'a pris aucune mesure concrète dans ce domaine.

Il convient toutefois de noter que les entreprises peuvent être tenues pour responsables si le manque de connaissance de l'IA entraîne des violations d'autres lois ou cause des dommages à des tiers. Pensez, par exemple, aux violations des lois sur la protection de la vie privée lors du traitement de données à caractère personnel, au non-respect des obligations de transparence envers les consommateurs ou aux violations de la loi anti-discrimination.

La maîtrise de l'IA offre des opportunités pour votre entreprise. En investissant et en s'engageant dans la maîtrise de l'AI, les systèmes d'IA peuvent être déployés de manière plus efficace, ce qui se traduit par de meilleurs résultats. Prenez dès aujourd'hui les premières mesures pour gérer l'IA de manière responsable. Chez AdaStone, nous sommes prêts à vous guider dans votre mise en conformité !
Beatrijs Dewijngaert - Hannah Tacheny

Archive / TECH