Nl

TECH

L'éthique de l'IA dans le marketing : naviguer entre innovation et responsabilité

Jeudi 3 Octobre 2024

L'éthique de l'IA dans le marketing : naviguer entre innovation et responsabilité

On l'a suffisamment dit : l'intelligence artificielle révolutionne le monde du marketing, offrant des opportunités sans précédent pour optimiser la productivité, personnaliser les expériences client, améliorer l'efficacité des campagnes et stimuler la croissance des entreprises. 
 
Cependant, cette révolution soulève également des préoccupations éthiques majeures qui nécessitent une attention particulière.
 
Il y a quelques mois, Gartner notait que la majorité des "reputation managers" estiment que l’IA générative représentera un risque important pour leur entreprise. Plus récemment, une enquête de la WFA auprès de gros annonceurs notait que 80% des sondés expriment des inquiétudes quant à la manière dont leurs partenaires agences (créatives et médias) l'utilisent au nom de leur entreprise. Les risques juridiques (66%), éthiques (51%) et liés à la réputation (49%) sont cités comme des obstacles majeurs à une adoption plus large. 
 
L'un des principaux enjeux est aussi la question de la transparence. Selon un rapport de la Harvard Business Review, plus de 70% des consommateurs estiment que les entreprises ne sont pas suffisamment transparentes sur l'utilisation de leurs données. 
  
Un autre aspect est la question des biais dans les algorithmes d'IA. Ces biais peuvent entraîner des discriminations ou des injustices dans les campagnes publicitaires, par exemple, en excluant inconsciemment certains groupes de consommateurs. 
 
Plusieurs études et publications, dont Forbes, ont révélé que de nombreux algorithmes publicitaires tendent à favoriser des stéréotypes de genre ou raciaux, influençant les publics ciblés de manière inégale. Cela soulève la question de savoir comment les spécialistes du marketing peuvent développer des modèles d'IA plus inclusifs et représentatifs de la diversité humaine.
 
Du reste, la capacité de l'IA à personnaliser les messages de manière extrêmement précise peut rapidement basculer vers un sentiment d'intrusion pour le consommateur. Selon Gartner, la plupart des consommateurs affirment que la désinformation, les bases d’utilisateurs toxiques, les faux comptes et les bots ont dégradé l’expérience offerte par les réseaux sociaux, et plus de 70 % s’attendent à ce que l’IA générative ait un impact négatif sur ces derniers.
 
Il est donc crucial pour les marques et leurs partenaires agences de trouver un équilibre entre pertinence et respect de la vie privée, en adoptant une approche centrée sur le consommateur et en évitant les pratiques de suivi excessives.
 
Malgré ces défis, de plus en plus d'entreprises reconnaissent que l'intégration de l'IA dans les process peut offrir un véritable avantage concurrentiel, pour autant que les marketers assument leurs responsabilités en matière d'utilisation éthique de l'IA : ce n'est pas seulement une question de conformité réglementaire, c'est aussi une opportunité pour les entreprises de se positionner en tant que leaders responsables dans un paysage numérique en constante évolution.
 
Les marques qui parviendront à intégrer des pratiques éthiques dans leurs stratégies d'IA se distingueront non seulement par leur capacité d'innovation, mais aussi par leur engagement envers la protection et le respect de leurs clients. Cela nécessite une approche proactive, qui allie transparence, inclusion et respect de la vie privée.
 
L'éthique : un trésor à protéger dans l'ère de l'IA, par Karine Ysebrant
À l'heure où l'innovation technologique redéfinit notre quotidien, l'alliance entre marketing, IA et éthique devient le socle indispensable d'un avenir durable. Le marketing a beaucoup évolué ces dernières années. Nous ne sommes plus à l’ère où il suffisait de pousser des produits et des services vers le consommateur. Aujourd'hui, celui-ci veut choisir comment les marques s’adressent à lui, il veut choisir des marques qui partagent ses valeurs et qui respectent son intégrité. Cette évolution a conduit à l’émergence du Meaningful Marketing, ou marketing porteur de sens, un concept qui place la pertinence et l’éthique au cœur des stratégies de marque. Mais comment concilier innovation fulgurante et respect des valeurs éthiques ?

Le consommateur est devenu de plus en plus méfiant face à l'utilisation potentiellement abusive de ses données personnelles, aux dérives de la personnalisation et aux scandales liés à la fuite d’informations. Le retargeting excessif, la désinformation générée par des algorithmes ou encore les intrusions dans la sphère privée sont autant de comportements qui ont sapé la confiance du public. Il est désormais impératif pour les marques de rétablir cette confiance en faisant preuve de transparence, de respect et d’un engagement éthique inébranlable. Une étude récente montre que 78% des consommateurs sont prêts à se détourner d’une marque qui ne protège pas suffisamment leurs données personnelles. La confiance se mérite chaque jour et ne se reconstruit qu’à travers des actions concrètes.

Les défis de l’IA en marketing : entre opportunités et dérives

L’introduction de l’IA dans les entreprises est un magnifique potentiel levier de croissance. Entre des mains expertes, et gérée par des esprits critiques, l’IA se révèle être un formidable allié en termes d’efficacité opérationnelle, voire même de créativité. Elle permet de mieux cibler les audiences, de personnaliser les messages, de créer des contenus dynamiques, d’automatiser des tâches répétitives et même de protéger d’avantage le consommateur. Pourtant, il est crucial de ne pas ignorer les dérives potentielles.

L’hyperpersonnalisation, poussée à l’extrême, peut devenir une forme de manipulation. Lorsqu’un consommateur se sent surveillé ou manipulé par des messages trop intrusifs, la relation de confiance est rompue. Si les données qui alimentent les systèmes d’IA sont biaisées, les décisions qu’elles génèrent le seront aussi, menant ainsi à des discriminations ou à la marginalisation de certains groupes cibles. Rappelons que 60% des consommateurs déclarent vouloir plus de transparence sur l'utilisation de leurs données personnelles. La complexité des algorithmes ne doit pas être un prétexte pour masquer la manière dont les décisions sont prises. La protection des données personnelles est un droit fondamental, et les marketers doivent garantir que les informations collectées ne seront jamais utilisées à des fins non consenties.

Vers un marketing éthique et pleinement responsable

L’éthique ne doit pas être une simple option, mais bien le socle sur lequel repose chaque décision stratégique. Il est impératif de créer un cadre qui, dès le départ, intègre l’éthique dans le développement et l’utilisation de l’IA en marketing. C’est précisément l’objectif du Think Tank "Éthique" de BAM dont je fais partie : accompagner les entreprises pour que l'innovation IA ne se fasse pas au détriment des valeurs fondamentales de notre société. En adoptant dès aujourd’hui des principes éthiques fondamentaux, les marketers peuvent s’assurer que leurs pratiques renforcent la confiance des consommateurs, favorisent une loyauté accrue envers les marques et contribuent à un avenir où marketing et IA servent le bien commun tout en respectant les droits et les valeurs de chaque individu.

Le rôle de la collaboration interfonctionnelle

Un des grands changements apportés par le développement de l’IA au sein des entreprises est la réorganisation presque obligatoire du travail. L’IA n’est source de réussite que lorsque les systèmes ont été bien conçus, bien alimentés, bien testés, bien déployés, bien surveillés et bien expliqués à des équipes bien formées. C’est une série de conditions complexes à réunir, et la montée de l’IA nécessite une collaboration interfonctionnelle accrue.

Or, dans la plupart des entreprises, les marketers, les développeurs tech & data et les départements juridiques travaillent encore trop souvent séparément. Ce cloisonnement ralentit l’intégration de l’IA et augmente les risques d’erreurs éthiques. La création d’équipes interfonctionnelles permet de partager les compétences, mais aussi de les renforcer, selon le principe du 1+1=3. Ces équipes doivent apprendre à intégrer et gérer les nouvelles responsabilités que l’IA apporte, tout en garantissant l’intégrité du consommateur. L’intelligence collective devient alors la clé pour naviguer dans cet environnement complexe.

Ensemble vers un marketing responsable

L'innovation et l'éthique ne doivent pas être vues comme des forces opposées, mais comme des partenaires indissociables pour bâtir un avenir durable. En tant que professionnels du marketing, nous avons une responsabilité majeure. Celle de garantir au marketing sa véritable vocation : être au service du consommateur tout en contribuant au bien commun et au business. C’est ensemble, avec des valeurs partagées et des actions concrètes, que nous y parviendrons.

Pour  celles et ceux que ces matières intéressent, j’anime un webinaire le vendredi 11 octobre sur le sujet "Ethical Ai-powered Marketing" dans le cadre de la BAM Webinaire Week. Infos et inscriptions ici.

Ps : mon avatar repris en photo a été créé à partir de l’IA Musavir.
Quels défis pour le futur ?, par Joy Pyl (Client Lead, Publicis Groupe Belgium)
L'intelligence artificielle est une avancée technologique majeure qui promet de transformer de nombreux aspects de notre vie quotidienne. En tant que professionnelle convaincue, je trouve cet outil exceptionnel. Cependant, elle soulève également des questions éthiques cruciales, en particulier sur son incapacité à intégrer les sentiments et les émotions humaines. En tant que membre du Jury d’Éthique Publicitaire, quand nous délibérons, outre les conventions, règles, et codes publicitaires, nous faisons appel à notre jugement moral et à notre empathie. Ce sont des éléments cruciaux pour une prise de décision éthique. Sans la capacité de comprendre et de reproduire les motivations morales humaines, une IA risque de manquer de nuance dans ses décisions, ce qui peut entraîner des conséquences imprévues et potentiellement dangereuses.
 
Par exemple, une IA pourrait approuver une publicité véhiculant des stéréotypes culturels subtils, que seule une compréhension humaine des nuances sociales pourrait détecter. Cela risquerait d'offenser certains groupes et de créer des tensions sociales. Même avec des mesures de sécurité telles que la supervision humaine et l'utilisation de "sandbox" pour limiter les risques, ces défis persistent. Les IA peuvent exceller dans des tâches spécifiques et offrir une aide précieuse, mais elles ne peuvent pas encore, et peut-être jamais, intégrer pleinement la complexité et la profondeur de l'éthique humaine. Cela exige un contrôle total et rigoureux de leur utilisation. Par exemple, lorsqu'une IA est utilisée pour modérer des contenus en ligne, elle peut ne pas toujours saisir les subtilités contextuelles et culturelles, ce qui pourrait entraîner une censure inappropriée ou la propagation de contenus nuisibles.
 
Bien que je sois favorable à l'utilisation de l'intelligence artificielle pour ses nombreux bénéfices potentiels, il est impératif qu'elle soit employée sous une surveillance humaine stricte. Cela garantirait que les décisions prises par les IA restent alignées avec nos valeurs éthiques et morales, protégeant ainsi la société contre des erreurs potentiellement graves. La collaboration entre l'homme et la machine doit garantir que la technologie reste un outil au service de l'humanité, et non l'inverse. Nous devons également encourager une transparence accrue dans le développement et l’utilisation des IA, afin de pouvoir identifier et corriger rapidement toute dérive éthique. Cette tâche complexe est essentielle pour garantir un avenir où l'IA enrichit notre société tout en respectant les valeurs humaines fondamentales.
Les biais cachés : peut-on faire confiance aux plateformes pour s'autocorriger ?, par Benoît Dumeunier (Marketing Intelligence Strategist, Publicis Groupe Belgium)
Les biais dans l'IA générative sont omniprésents, car ces systèmes reposent sur des modèles qui apprennent à partir de vastes ensembles de données. Ils se produisent parce que les modèles apprennent à partir de données existantes, qui contiennent intrinsèquement les préjugés de la société qu'elles représentent. Si un ensemble de données n'est pas inclusif, l'IA reproduira ces lacunes. Par exemple, si la majorité des images de PDG dans les données d'apprentissage sont masculins, l'IA suggérera probablement des images masculines lorsqu'on lui demandera une image de PDG. Sexisme, racisme, classisme, âgisme... Toutes les inégalités systémiques de la société sont nourries au modèle via sa base de données d’entraînement et seront recrachées en résultats biaisés.

Afin de contrer ces biais, plusieurs plateformes d'IA générative ont commencé à mettre en œuvre diverses stratégies qui corrigent les prompts en arrière-plan afin de garantir des résultats plus diversifiés et plus inclusifs. Par exemple, si l'on demande à Dall-E de créer l'image d'une "personne travaillant dans un espace ouvert", l'image sera automatiquement adaptée pour mentionner une origine diverse. Vous pouvez voir un exemple du message automatiquement mis à jour sous l'image où il est fait mention d'une "femme sud-asiatique travaillant avec enthousiasme" :
Bien que cette approche corrective soit bien intentionnée et s'efforce de contrecarrer les biais inhérents aux données d'entraînement, elle se produit souvent en arrière-plan et n'est pas clairement communiquée à l'utilisateur final. Un exemple frappant est apparu avec Gemini de Google : lorsqu’il lui a été demandé de générer une image d'un soldat allemand des années 40, il a systématiquement produit des représentations de nazis d'origines ethniques variées.
Au-delà de ce cas extrême, le risque est grand d'invisibiliser le problème avec ces corrections automatisées. En dissimulant ces préjugés au lieu d'en traiter la cause, les utilisateurs pourraient croire à tort que le problème est résolu. Cela peut conduire à un manque de sensibilisation et de compréhension des préjugés sous-jacents qui existent encore. Au lieu de compter uniquement sur les plateformes d'IA pour masquer ces préjugés (et de leur faire confiance pour cela), il est urgent d'éduquer les utilisateurs sur la manière de les reconnaître et d'y remédier.
 
Cela implique que nous, professionnels de l’industrie marketing de plus en plus dépendante de ces outils, devons être particulièrement exigeants à l'égard des plateformes d'IA générative en ce qui concerne la diversité des bases de données et la transparence des modifications apportées en arrière-plan, quelles que soient les bonnes intentions qui les sous-tendent ! Nous devons aussi instaurer des audits réguliers des résultats, nous éduquer sur les risques inhérents à l'IA générative et surtout nous former au prompt engineering pour produire un résultat crédible, diversifié et créatif ! 
 
Ce n'est que par cette prise de conscience et cette éducation que nous pourrons espérer créer un paysage technologique plus inclusif et juste.
L’IA peut-elle être le nouvel allié de la DEI ?, par Christina Goosdeel (Senior Content Strategist, Publicis Groupe Belgium)
Deux domaines sont actuellement en pleine expansion dans le monde de l’entreprise : l'intelligence artificielle (IA) et la diversité, l'équité et l'inclusion (DEI). À première vue, ces deux concepts peuvent sembler incompatibles, étant donné que l'IA a tendance à renforcer les biais existants dans notre société. Benoît Dumeunier l’a bien illustré : les biais dans l'IA générative sont inévitables car les modèles apprennent à partir de données existantes qui reflètent les préjugés de la société, perpétuant ainsi les inégalités systémiques telles que le sexisme, le racisme, le classisme et l'âgisme. La correction des biais est en cours sur certaines plateformes, mais elle présente également des risques et des limites. D’un autre côté, Joy Pyl a souligné que l’éthique fait appel à l’intelligence émotionnelle des humains, au jugement moral et à l’empathie. L'IA ne devrait donc pas remplacer les humains dans la prise de décisions éthiques.
 
La question se pose donc : est-il possible de concilier ces deux domaines ? Est-il envisageable que l'intelligence artificielle soit au service de la diversité, de l'équité et de l'inclusion ? Je suis convaincue que si l’IA est "promptée" (sollicitée) correctement, elle peut servir de chambre d’écho et devenir un outil puissant pour promouvoir la DEI, en particulier dans les secteurs de la communication, de la publicité et du marketing de contenu.
 
Prenons le cas d’une campagne publicitaire sanctionnée par le JEP pour stéréotypes négatifs. Si le concept créatif de cette campagne avait été soumis à une IA promptée pour apporter un regard critique sur la DEI (au bon moment du processus créatif), celle-ci aurait pu détecter le problème de stéréotype négatif à temps et proposer des recommandations pour y remédier. En l'absence de cet exercice préliminaire, ce stéréotype négatif est passé sous les radars, et la campagne a été lancée. Si le JEP a été alerté, c’est que plusieurs consommateurs ont été suffisamment choqués pour porter plainte. L’image de marque a peut-être été entachée, et dans certains cas, il est même possible que les consommateurs se soient tournés vers les réseaux sociaux, créant ainsi un bad buzz autour de la marque. Ce n’est ni souhaitable ni inévitable.
 
En réalité, nous avons tous des biais inconscients, des angles morts, des sujets sensibles qui nous échappent, et il nous manque parfois le temps de faire relire, contrôler ou vérifier ces éléments par un expert DEI. À une époque où l'IA est à portée de main, il serait dommage de ne pas l'utiliser pour éviter ce type d'erreur. De plus, cette approche proactive présente de nombreux avantages.
 
D’une part, elle permet un gain de temps considérable. En effet, lorsqu'une campagne est sanctionnée par le JEP, il faut suspendre les placements média, modifier les assets, refaire valider par le client, etc. Dans le cas d’un bad buzz, des semaines voire des mois de travail sont nécessaires pour rectifier la situation au niveau de la réputation. Donc même si l’examen par l’IA rajoute une petite étape (5 minutes maximum pour écrire le prompt et lire la réponse), cela représente in fine une économie de temps.
 
D’autre part, prendre l’habitude de se "challenger" par l’IA peut favoriser à terme le développement de bons réflexes chez nous, humains. À force d’être mis au défi, nous gagnons en métacognition, cette capacité à réfléchir sur nos propres processus de pensée. Nous apprenons à remettre en question nos idées préconçues et à identifier nous-mêmes les problématiques DEI, ce qui améliore notre travail et le rend plus inclusif.
 
Enfin, le fait que l’IA propose des solutions pour remédier à un problème génère en nous de nouvelles idées, comme dans un ping-pong créatif. J’aime beaucoup la citation d’Anish Kapoor : « All ideas grow out of other ideas », qui résume bien le fait que les idées viennent parfois en cascade. L’utilisation de l’IA dans ce cadre peut nous amener à nous renouveler, à sortir d’une impasse créative ou à contrer des modes de pensée automatiques.
 
C’est donc une opportunité précieuse pour les agences, d’autant plus que l’IA est accessible à tous, disponible à tout moment, et qu’elle peut être adoptée à grande échelle. En fin de compte, l’agence qui saura tirer le meilleur parti de l'IA aura créé un avantage concurrentiel. Le meilleur des deux mondes, c’est quand on utilise l’IA pour se challenger, et l’humain pour prendre la décision finale. Mais cet équilibre n’est optimal que si l’humain a une solide compréhension de l'outil (l'IA) et de ses limites, ainsi qu’une sensibilité à l’éthique et à la DEI.
 
Chez Publicis Groupe Belgium, nous avons un groupe de travail sur la DEI qui peut être sollicité à tout moment pour fournir un avis éclairé. En parallèle, sous la direction de Matthieu Vercruysse, Chief Transformation Officer, nous intégrons l'IA à tous les niveaux de l'agence où cela est possible et bénéfique. Cette synergie entre l'IA et l'expertise humaine nous place en position idéale pour relever les défis du secteur, constituant ainsi un modèle à suivre pour une intégration éthique et efficace de l'IA.
AI Act : l’Union européenne en quête d’une IA responsable ?, par Hannah Tacheny (AdaStone)
Une photo, une seconde, une identité. Clearview AI, startup américaine controversée, a révolutionné la reconnaissance faciale en temps réel. Son outil, utilisé par les forces de l'ordre aux États-Unis, permet d'identifier une personne à partir d'une simple photographie, grâce à des milliards d'images aspirées en ligne pour alimenter ses algorithmes. En Europe, cette technologie étant perçue comme une menace sérieuse pour les libertés individuelles, notamment en matière de protection des données personnelles, Clearview AI a de nouveau été condamnée à une amende de 30,5 millions d'euros par l'autorité néerlandaise de protection des données, le 3 septembre 2024.
 
Mais la startup va bientôt se heurter à un nouvel obstacle : le règlement européen sur l’intelligence artificielle (AI Act). Entré en vigueur le 1er août 2024, ce cadre législatif impose des normes rigoureuses en matière de transparence, de sécurité et d’éthique pour les systèmes d'intelligence artificielle et interdit le développement d’IA présentant des « risques jugés inacceptables ». En conséquence, il pourrait influencer considérablement le développement et la distribution de ces technologies à travers le continent.
 
Ainsi, des innovations qui étaient considérées comme acquises dans d'autres régions peuvent être modifiées, retardées voir interdites en Europe en raison de la nécessité de se conformer à ces nouvelles règles. Ce contraste flagrant soulève des questions fondamentales : l'AI Act est-il en train de redéfinir le marché technologique mondial ? Quelles sont les véritables motivations derrière ces nouvelles régulations, et comment affectent-elles les entreprises et les consommateurs ? Plus important encore, comment cette législation répond-elle aux préoccupations éthiques croissantes dans notre société numérique ?
 
Les étapes de l'implémentation : une transition progressive
 

Si l'AI Act est entré en vigueur le 1er août 2024, son application se fera de manière progressive, les périodes transitoires (allant du 2 février 2025 à 2030) s’appliqueront aux systèmes d’IA selon leur type et leur date d’entrée sur le marché.
 
L’éthique au cœur des débats et de la règlementation
 

Dès les premières discussions sur l’adoption d’un cadre règlementaire européen pour l’IA, l’éthique occupe une place centrale. 
 
Deux textes l’abordent en particulier. 
 
Il s’agit des lignes directrices du groupe d’experts de haut niveau sur l’intelligence artificielle (dit "GEHN IA") désigné par la Commission européenne et visant à promouvoir une IA « digne de confiance » définie comme une IA éthique, licite et robuste. Ces lignes directrices « visent à encourager une innovation responsable et durable dans le domaine de l’IA en Europe. Elles cherchent à ériger l’éthique en pilier essentiel de la mise au point d’une approche unique de l’IA cherchant à favoriser, renforcer et protéger tant la prospérité individuelle des êtres humains que le bien commun de la société ».
 
Ces lignes directrices ont été suivies d’une Résolution du Parlement européen contenant des recommandations à la Commission européenne concernant un cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes.
 
Sept principes pour une IA digne de confiance et saine sur le plan éthique
 

L'intelligence artificielle n'est plus qu'un simple outil technologique ; elle façonne nos vies, prend des décisions et analyse d'innombrables données. Mais avec ce pouvoir vient une tout aussi grande responsabilité. C'est là qu'intervient l'AI Act et ses sept principes éthiques visant à garantir une AI "digne de confiance". Si ces principes sont non-contraignants l'AI Act indique qu’ils devraient se trouver autant que possible dans la conception et l’utilisation des systèmes d’IA.  
 
1. L’action et le contrôle humain : L’IA à notre service, pas l’inverse 

Imaginez une IA qui prenne des décisions à votre place, sans que vous ne puissiez intervenir. Un scénario digne de la science-fiction, mais pas si lointain. Le premier principe garantit que l’utilisateur garde toujours la main sur les décisions prises par l’IA en disposant des outils nécessaires pour comprendre celles-ci. Que ce soit en étant directement impliqué dans chaque cycle de décision du système d’IA (« human-in-the-loop »), dans la conception et la surveillance du système d’IA (« human-on-the-loop ») ou en contrôlant l’activité globale du système d’IA (« human-in-command »), l'idée est claire : l’IA est là pour nous aider, pas pour nous contrôler.
 
2. Robustesse technique et sécurité : Un bouclier contre les cyberattaques
 

Le potentiel d’une IA est incroyable, mais il ne faut jamais oublier les risques. Piratage, bugs ou défaillances techniques pourraient transformer une innovation brillante en catastrophe. Les systèmes doivent donc être bâtis comme des forteresses numériques, avec des protocoles de sécurité à la hauteur de leur impact potentiel. Et quand tout ne se passe pas comme prévu ? Des plans de secours doivent être prêts à intervenir.
 
3. Respect de la vie privée 
 
Dans un monde où les données sont devenues la nouvelle monnaie, et une source essentielle de l’IA, les systèmes d’IA doivent manipuler ces informations avec le plus grand soin. Le respect de la vie privée n’est pas un luxe, c’est un droit fondamental. Cela signifie que les données utilisées, mais également générées, doivent répondre à des normes élevées en matière de qualité et d’intégrité. Une IA digne de confiance doit être aussi respectueuse que sécurisée.
 
4. Transparence : une IA qui n’a rien à cacher
 
Si une IA prend une décision qui affecte votre vie, vous avez le droit de le savoir. Vous avez également savoir pourquoi et comment. Ce principe de transparence exige notamment que les algorithmes soient traçables et compréhensibles par des humains. Finis les systèmes opaques : chaque décision de l’IA doit pouvoir être expliquée et justifiée.
 
5. Diversité, non-discrimination et équité : une IA pour tous
 
Les systèmes d’IA doivent veiller à favoriser l’inclusion et la diversité. Cela implique notamment de veiller à l’égalité d’accès et de traitement en permettant à toute personne d’utiliser l’IA quelque soit son âge, ses capacités et caractéristiques. L’IA doit refléter la diversité de la société, et non renforcer les biais existants. Ce principe est là pour s’assurer que chacun, sans exception, puisse bénéficier équitablement des avancées technologiques, et que les systèmes ne renforcent pas les stéréotypes ou les discriminations.
 
6. Bien-être sociétal et environnemental : l’IA au service de la planète et des gens
 

L’innovation ne doit pas se faire au détriment de la planète. Les IA doivent être développées avec une conscience écologique, en minimisant leur empreinte environnementale. De plus, elles doivent s'aligner sur des objectifs sociétaux plus larges : rendre le monde meilleur, plus juste et plus durable.
 
7. Responsabilité : qui surveille les machines ?
 
Enfin, qui répond des actions d’une IA lorsqu’un problème survient ? Ce principe impose la mise en place de mécanismes de contrôle, d’audits, d’analyse d’impact et de recours. Il ne s'agit pas seulement de construire des IA intelligentes, mais aussi de créer des systèmes qui rendent des comptes.
 
Les obligations de l'AI Act : la mise en pratique des principes éthiques
 

L'AI Act ne se limite pas à de simples principes directeurs ; il impose des obligations concrètes qui se déclinent tout au long du cycle de vie d'un système d'intelligence artificielle. Ce règlement différencie les responsabilités en fonction des rôles : fournisseur, importateur, distributeur, fabricant, représentant autorisé et déployeur. Dans la plupart des cas, les entreprises sont considérées comme des déployeurs, mais elles peuvent également agir en tant que fournisseurs si elles ne se contentent pas d'utiliser un système d'IA existant, mais contribuent à son développement et l'intègrent sous leur propre nom.
 
Mais comment ces obligations se traduisent-elles dans des contextes concrets, en particulier dans le secteur du marketing ?
 
Prenons Criteo, dont le moteur IA analyse en temps réel les données de près de 700 millions de consommateurs actifs chaque jour. Grâce à cette capacité impressionnante, Criteo peut générer des campagnes publicitaires hyperciblées. Cependant, un tel pouvoir s’accompagne aujourd’hui de responsabilités éthiques et réglementaires significatives. En tant que fournisseur, Criteo doit veiller à la transparence de ses algorithmes. Cela implique d’expliquer clairement comment fonctionnent ses méthodes d’analyse et les critères utilisés pour le ciblage des annonces. Les personnes concernées doivent être informées de l’utilisation de leurs données, car la confiance est essentielle dans un environnement numérique. De plus, Criteo a la responsabilité de s'assurer que ses systèmes ne présentent pas de biais discriminatoires. Pour cela, des audits réguliers sont nécessaires afin d’évaluer les recommandations de produits et de garantir qu'elles sont équitables et accessibles à tous.
 
Du côté de l’entreprise qui utilise l’IA de Criteo, des obligations similaires s’appliquent. Elle doit respecter le RGPD, ce qui implique d’obtenir le consentement éclairé des utilisateurs pour l'utilisation de leurs données. Il est également crucial que les utilisateurs puissent comprendre pourquoi ils voient certaines publicités, ce qui peut être réalisé grâce à des mécanismes de retour d'information clairs et explicites sur les critères de ciblage. Enfin, l’entreprise doit former ses équipes aux responsabilités éthiques liées à l'utilisation de l’IA, promouvant ainsi une culture d'innovation responsable. 
 
L’Union européenne peut-elle donc réellement assurer une IA responsable ? 
 
L'AI Act marque un tournant décisif dans la régulation de l'intelligence artificielle, visant à établir un équilibre subtil et ambitieux entre innovation et responsabilité. Alors que l'Europe aspire à devenir un modèle mondial en matière de réglementation éthique, le véritable défi réside non seulement dans la mise en œuvre efficace des normes, mais aussi dans leur capacité à s'adapter à un secteur en perpétuelle évolution. La récente lettre ouverte d'une trentaine d'entreprises de premier plan, dont Meta, Spotify et Ericsson, à l'UE, souligne une préoccupation partagée : la fragmentation des réglementations pourrait entraver l'innovation et engendrer des inégalités sur le marché mondial.
 
Cette situation soulève des questions fondamentales. L'UE parviendra-t-elle à harmoniser ses règles tout en restant un terreau fertile pour les start-ups et les géants technologiques ? L'AI Act pourra-t-il réellement encourager une IA éthique sans étouffer la créativité et l'innovation ? L'innovation technologique ne doit pas seulement être évaluée à l’aune de sa rapidité et de son efficacité, mais également en fonction de son impact sur la société.
 
Bien que ces sept principes ne soient pas contraignants, ils nous incitent à réfléchir à la façon dont nous souhaitons que ces technologies façonnent notre avenir. Ils nous rappellent également que leur intégration dans notre quotidien doit être pensé avec prudence, en veillant à promouvoir l’innovation tout en respectant nos valeurs éthiques fondamentales.

Archive / TECH