Fr

TECH

Ethiek en AI in marketing: tussen innovatie en verantwoordelijkheid

Donderdag 3 Oktober 2024

Ethiek en AI in marketing: tussen innovatie en verantwoordelijkheid

We zegden en schreven het al vaak: artificiële intelligentie zorgt voor een revolutie in de marketingwereld en biedt ongekende mogelijkheden om de productiviteit te optimaliseren, klantervaringen te personaliseren, de effectiviteit van campagnes te verbeteren en businessgroei te stimuleren.
 
Deze revolutie brengt echter ook grote ethische problemen met zich mee die bijzondere aandacht vereisen.
 
Zo merkte Gartner enkele maanden geleden op dat AI volgens de meeste reputatiemanagers een aanzienlijk risico voor hun bedrijf zal vormen. Meer recentelijk bleek uit een WFA-enquête bij grote adverteerders dat 80% van de respondenten zich zorgen maakt over hoe hun bureaupartners (creatief en media) AI namens hun bedrijf zouden gebruiken. Juridische (66%), ethische (51%) en reputatierisico's (49%) werden genoemd als belangrijkste obstakels voor een bredere acceptatie.
 
Ook transparantie is een belangrijk punt. Volgens een rapport van Harvard Business Review denkt  meer dan 70% van de consumenten dat bedrijven niet transparant genoeg zijn over hoe hun gegevens worden gebruikt.
 
Een andere kwestie betreft de bias in AI-algoritmen. Deze vooringenomen ideeën kunnen leiden tot discriminatie of onrechtvaardigheid in reclamecampagnes, bijvoorbeeld door onbewust bepaalde groepen consumenten uit te sluiten.
 
Verschillende onderzoeken en publicaties, zoals die van Forbes, hebben aangetoond dat veel reclamealgoritmen de neiging hebben om gender- of rassenstereotypen te bevoordelen, waardoor doelgroepen ongelijk worden beïnvloed. Dit roept de vraag op hoe marketeers AI-modellen kunnen ontwikkelen die inclusiever en representatiever zijn voor de menselijke diversiteit.
 
Bovendien kan het vermogen van AI om boodschappen extreem precies te personaliseren al snel omslaan in een gevoel van opdringerigheid bij de consument. Volgens Gartner zeggen de meeste consumenten dat desinformatie, toxische gebruikersbestanden, nepaccounts en bots de ervaring van sociale netwerken hebben verslechterd. Meer dan 70% verwacht dat generatieve AI daar een negatieve invloed zal hebben.
 
Het is daarom cruciaal voor merken en hun bureaupartners om een balans te vinden tussen relevantie en privacy, een consumentgerichte aanpak te hanteren en buitensporige trackingpraktijken te vermijden.
 
Ondanks deze uitdagingen erkennen steeds meer bedrijven dat de integratie van AI in processen een echt concurrentievoordeel kan opleveren, zolang marketeers hun verantwoordelijkheid nemen voor het ethisch gebruik van AI: het gaat er niet alleen om de regelgeving na te leven, maar het is ook een kans voor bedrijven om zich te positioneren als verantwoordelijke leiders in een steeds veranderend digitaal landschap.
 
Merken die erin slagen om ethische praktijken te integreren in hun AI-strategieën zullen zich niet alleen onderscheiden door hun vermogen om te innoveren, maar ook door hun engagement om hun klanten te beschermen en te respecteren. Dit vereist een proactieve aanpak die transparantie, inclusie en respect voor privacy combineert.
Ethiek: de kostbaarste schat in tijden van AI, door Karine Ysebrant
In een tijd waarin technologische innovatie ons dagelijks leven een nieuwe invulling geeft, wordt het verbond tussen marketing, AI en ethiek de cruciale hoeksteen voor een duurzame toekomst. Marketing is de laatste jaren razendsnel geëvolueerd. We bevinden ons niet meer in een tijdperk waarin het voldoende was om producten en diensten naar de consument te pushen. Tegenwoordig willen consumenten de keuze hebben over hoe merken hen bereiken en kiezen ze die merken die hun waarden delen en hun integriteit respecteren. Deze ontwikkeling heeft geleid tot de opkomst van Meaningful Marketing of marketing die er toe doet. Het betreft een concept dat relevantie en ethiek centraal stelt in merkstrategieën. Maar hoe verzoen je een bliksemsnelle innovatie en het respecteren van ethische waarden?
 
Consumenten zijn steeds meer op hun hoede voor een mogelijk misbruik van hun persoonlijke gegevens, de uitspattingen van personalisering en de schandalen gerelateerd aan informatielekken. Excessieve retargeting, fake news gegenereerd door algoritmes en inbreuken op de privacy zijn allemaal zaken die het vertrouwen van het publiek hebben aangetast. Het is nu noodzakelijk dat merken dit vertrouwen herstellen door transparantie, respect en een standvastige ethische toewijding te tonen. Uit recent onderzoek blijkt dat 78% van de consumenten het niet zal nalaten om een merk dat hun persoonlijke gegevens onvoldoende beschermt de rug toe te keren. Vertrouwen moet je elke dag verdienen en kan alleen worden herwonnen door concrete actie.

De uitdagingen van AI in marketing: tussen kansen en valkuilen
 
De introductie van AI in bedrijven is een geweldige potentiële hefboom voor groei. In de handen van experts en beheerd door kritische geesten blijkt AI een geduchte bondgenoot te zijn wat betreft efficiëntie op de werkvloer en zelfs creativiteit. Het maakt het mogelijk om doelgroepen beter te bereiken, berichten te personaliseren, dynamische content te creëren, repetitieve taken te automatiseren en zelfs consumenten beter te beschermen. We mogen echter zeker niet de potentiële valkuilen negeren.

Een tot in het extreme doorgedreven hyperpersonalisatie kan een vorm van manipulatie worden.
 
Wanneer consumenten het gevoel hebben dat ze worden gecontroleerd of gemanipuleerd door te opdringerige berichten, krijgt de vertrouwensrelatie een barst. Als de data die AI-systemen voeden vooringenomen zijn, zullen de beslissingen die ze genereren dat ook zijn, wat dan weer kan leiden tot discriminatie of marginalisatie van bepaalde doelgroepen. Ter herinnering, 60% van de consumenten zegt dat ze meer transparantie willen over het gebruik van hun persoonlijke gegevens. De complexiteit van algoritmes mag niet worden gebruikt als voorwendsel om de manier waarop beslissingen worden genomen te verbergen. De bescherming van persoonlijke gegevens is een grondrecht en marketeers moeten garanderen dat de verzamelde informatie nooit voor niet-consensuele doeleinden zal worden gebruikt.
 
Naar een ethische en 100% verantwoorde marketing
 
Ethiek moet niet simpelweg een optie zijn, het moet de hoeksteen zijn waarop elke strategische beslissing is gebaseerd. Het is noodzakelijk om een kader te creëren dat ethiek vanaf de start integreert in de ontwikkeling en het gebruik van AI in marketing. Dit is precies het doel van de Ethics Think Tank van BAM waarvan ik deel uitmaak, meer bepaald bedrijven hierbij begeleiden opdat AI-innovatie de fundamentele waarden van onze maatschappij niet ondermijnt. Door nu fundamentele ethische principes voor ogen te houden, kunnen marketeers ervoor zorgen dat hun acties het vertrouwen van consumenten versterken, de merkloyaliteit verhogen en bijdragen aan een toekomst waarin marketing en AI het algemeen belang dienen en dit met respect voor de rechten en waarden van elk individu.

De rol van crossfunctionele samenwerking
 
Een van de grootste veranderingen die de ontwikkeling van AI binnen bedrijven teweegbrengt, is de bijna verplichte reorganisatie van het werk. AI is alleen succesvol als systemen goed zijn vormgegeven, gevoed, getest, gelanceerd, geverifieerd en uitgelegd aan goed opgeleide teams. Dit is een reeks complexe voorwaarden waaraan moet voldaan worden en de opkomst van AI vereist een verhoogde crossfunctionele samenwerking.

In de meeste bedrijven werken marketeers, tech & data developers en de juridische afdelingen vaak nog apart. Dit hokjesdenken vertraagt de integratie van AI en verhoogt het risico op ethische vergissingen. Het creëren van crossfunctionele teams maakt het niet alleen mogelijk om skills uit te wisselen, maar versterkt ze ook, en dit door middel van het 1+1=3 principe. Deze teams moeten leren om de nieuwe verantwoordelijkheden die AI met zich meebrengt te integreren en te beheren en tegelijkertijd de integriteit van de consument te garanderen. Collectieve intelligentie wordt de sleutel voor de navigatie in deze complexe omgeving.

Samen op weg naar verantwoorde marketing
 
Innovatie en ethiek moeten niet worden gezien als tegengestelde krachten, maar als onafscheidelijke partners bij het bouwen aan een duurzame toekomst. Als marketingprofessionals hebben we een grote verantwoordelijkheid. Die is ervoor te zorgen dat marketing zijn ware roeping vervult: ten dienste staan van de consument en tegelijkertijd bijdragen aan de samenleving en de business. Dit is iets dat we enkel samen kunnen verwezenlijken, meer bepaald met gedeelde waarden en concrete acties.
 
Voor iedereen die geïnteresseerd is in deze interessante materie, ik presenteer op vrijdag 11 oktober een webinar met als onderwerp ‘Ethical AI-powered Marketing’, en dit in het kader van de BAM Webinar Week. Info en inschrijvingen vind je hier.
 
PS: mijn avatar in de foto is gemaakt met Musavir AI.
AI versus de menselijke ethiek: welke uitdagingen voor de toekomst?, door Joy Pyl (client lead, Publicis Groupe België)
Artificiële intelligentie is een belangrijke technologische vooruitgang die heel wat dingen in ons dagelijks leven belooft te veranderen. Als marketingprofessional en believer vind ik het een uitzonderlijke tool. Het roept echter ook cruciale ethische vragen op, meer bepaald over het onvermogen van AI om menselijke gevoelens en emoties te integreren. Met de Jury voor Ethische Praktijken inzake Reclame waarvan ik lid ben doen we, als we de zaken tegen elkaar afwegen, niet alleen een beroep op erecodes, regels en reclamecodes, maar ook op ons morele kompas en onze empathie. Dit zijn cruciale elementen bij een ethische besluitvorming. Bij gebrek aan het vermogen om menselijke morele motivaties te begrijpen en na te bootsen, loopt een AI het risico nuance te missen in zijn beslissingen, wat kan leiden tot onvoorziene en mogelijk gevaarlijke gevolgen.

Een AI zou bijvoorbeeld een advertentie kunnen goedkeuren die subtiele culturele stereotypen overbrengt die alleen een menselijk inzicht in sociale nuances zou kunnen gewaarworden. Dit kan bepaalde groepen beledigen en sociale spanningen veroorzaken. Zelfs met beveiligingsmaatregelen zoals controle door een mens en het gebruik van ‘sandboxes’ om de risico’s te beperken, blijven deze uitdagingen aan de orde. AI’s kunnen uitblinken in specifieke taken en waardevolle hulp bieden, maar ze kunnen de complexiteit en diepgang van de menselijke ethiek nog niet, en mogelijk nooit, volledig integreren. Dit vereist een volledige en strikte controle over het gebruik ervan. Wanneer een AI bijvoorbeeld wordt gebruikt om online content te modereren, begrijpt het niet altijd de contextuele en culturele subtiliteiten, wat kan leiden tot ongepaste censuur of de verspreiding van schadelijke content.

Hoewel ik positief sta ten opzichte van AI vanwege de vele potentiële voordelen, is het noodzakelijk dat het onder strikt menselijk toezicht wordt toegepast. Dit zou moeten garanderen dat de beslissingen die AI neemt in lijn blijven met onze ethische en morele waarden, waardoor de maatschappij beschermd wordt tegen mogelijk ernstige fouten. Samenwerking tussen mens en machine moet ervoor zorgen dat technologie een hulpmiddel blijft ten dienste van de mensheid, en niet andersom. We moeten ook voor een verhoogde transparantie ijveren in de ontwikkeling en het gebruik van AI, zodat eventuele ethische dwalingen snel kunnen worden geïdentificeerd en gecorrigeerd. Deze complexe taak is essentieel voor een garantie op een toekomst waarin AI onze samenleving verrijkt en tegelijkertijd de fundamentele menselijke waarden respecteert.
Verborgen bias van generatieve AI: kunnen we erop vertrouwen dat platformen zichzelf corrigeren?, door Benoît Dumeunier (marketing intelligence strategist, Publicis Groupe Belgium)
Vertekende beelden van de werkelijkheid zijn alomtegenwoordig in generatieve AI, omdat deze systemen vertrouwen op modellen die leren van grote datasets. Bias ontstaat doordat de modellen getraind worden met bestaande gegevens die de vooroordelen van de maatschappij die ze vertegenwoordigen in zich dragen. Als een dataset niet inclusief is, zal AI deze lacunes reproduceren. Als de meerderheid van de afbeeldingen van CEO's in de trainingsdata bijvoorbeeld een man is, zal AI waarschijnlijk mannelijke afbeeldingen voorstellen als een gebruiker een afbeelding van een CEO vraagt. Seksisme, racisme, klassen- en leeftijdsdiscriminatie, … Alle systemische ongelijkheden in de maatschappij worden het model aangeleerd via de trainingsdatabase en die er dus ook weer uitkomen in de vorm van vertekende resultaten.

Om deze vooroordelen tegen te gaan, zijn verschillende generatieve AI-platformen begonnen met de implementatie van verschillende strategieën die prompts op de achtergrond corrigeren om meer diverse en inclusieve resultaten te garanderen. Als Dall-E bijvoorbeeld wordt gevraagd om een afbeelding te genereren van een “persoon die in een open space zit te werken”, wordt de afbeelding automatisch aangepast om een diverse afkomst te vermelden. Hieronder zie je een voorbeeld van de automatisch bijgewerkte tekst onder de afbeelding waarin sprake is van een “Zuid-Aziatische vrouw die met enthousiasme werkt”.
Hoewel deze corrigerende aanpak goed bedoeld is en de bias die inherent is aan trainingsgegevens probeert tegen te gaan, gebeurt dit vaak op de achtergrond en wordt de correctie niet duidelijk gecommuniceerd naar de eindgebruiker. Een treffend voorbeeld hiervan was wat er gebeurde toen Gemini van Google gevraagd werd om een afbeelding van een Duitse soldaat uit de jaren ’40 te genereren: de AI produceerde systematisch afbeeldingen van nazi's van een gediversifieerde etnische afkomst.
Dit is natuurlijk een extreem geval, maar het risico dat het probleem verborgen blijft door deze geautomatiseerde correcties is reëel. Door deze vooroordelen te verbergen in plaats van de oorzaak aan te pakken, kunnen gebruikers ten onrechte geloven dat het probleem is opgelost. Dit kan leiden tot een gebrek aan bewustzijn en begrip van de onderliggende vooroordelen die nog steeds bestaan. In plaats van alleen op AI-platforms te vertrouwen om deze vooroordelen te maskeren (en erop te vertrouwen dat AI dat zal doen), is er dringend behoefte om gebruikers te leren hoe ze deze vooroordelen kunnen herkennen en aanpakken.
 
Dit betekent dat wij als professionals in de marketingindustrie, die steeds afhankelijker wordt van deze tools, de lat voor deze generatieve AI-platforms, de diversiteit van databases en de transparantie van wijzigingen die op de achtergrond worden gemaakt bijzonder hoog moeten leggen, ongeacht de goede bedoelingen erachter! We moeten ook regelmatige audits van de resultaten voorzien, onszelf informeren over de risico's die inherent zijn aan generatieve AI en vooral onszelf trainen in prompt engineering om geloofwaardige, diverse en creatieve resultaten te genereren.
 
Alleen door dit bewustzijn en deze training kunnen we hopen een meer inclusief en eerlijk technologisch landschap te creëren.
Kan AI de nieuwe bondgenoot van DEI zijn?, door Christina Goosdeel (senior content strategist, Publicis Groupe Belgium
Er zijn twee onderwerpen die momenteel op ieders lippen liggen in de bedrijfswereld: artificiële intelligentie (AI) en diversiteit, gelijkheid en inclusie (DEI). Op het eerste gezicht lijken beide concepten onverzoenbaar, aangezien AI de neiging heeft bestaande bias in onze samenleving versterkt. Zoals Benoît Dumeunier uitlegde, is bias in generatieve AI onvermijdelijk omdat modellen leren op basis van bestaande gegevens die de vooroordelen van de samenleving weerspiegelen, waardoor systemische ongelijkheden zoals seksisme, racisme, klasse- of leeftijdsgebonden discriminatie in stand worden gehouden. Op sommige platformen wordt aan biascorrectie gewerkt, maar ook dit brengt risico's en beperkingen met zich mee. Aan de andere kant wees Joy Pyl erop dat ethiek een beroep doet op menselijke emotionele intelligentie, een moreel oordeel en empathie. AI moet mensen dus niet vervangen als ze ethische beslissingen moeten nemen.
 
De vraag is dus of het mogelijk is om beide domeinen met elkaar te verzoenen. Kan AI ten dienste staan van diversiteit, gelijkheid en inclusie? Ik ben ervan overtuigd dat als AI op de juiste manier wordt ‘geprompt’, ze wel degelijk kan fungeren als een echokamer en een krachtig hulpmiddel kan worden ter bevordering van DEI, zeker in communicatie, reclame en content marketing.
 
Laten we het geval nemen van een reclamecampagne die door het JEP werd gesanctioneerd voor negatieve stereotypering. Als het creatieve concept voor deze campagne was voorgelegd aan een AI die kritisch naar de DEI-aspecten had gekeken (op het juiste moment in het creatieve proces), had deze het probleem van het negatieve stereotype op tijd kunnen detecteren en aanbevelingen kunnen doen om het te verhelpen. Zonder deze voorafgaande oefening bleef het negatieve stereotype onder de radar en ging de campagne als dusdanig van start. Dat de JEP erbij gehaald werd, kwam doordat verschillende consumenten zo geschokt waren dat ze een klacht indienden. Het imago van het merk is mogelijk beschadigd en het kan zelfs gebeuren dat consumenten een bad buzz genereren rond het merk op de sociale media. Dit is niet wenselijk en niet onvermijdelijk.
 
De realiteit is dat we allemaal onbewuste vooroordelen hebben, blinde vlekken, gevoelige onderwerpen die we niet begrijpen, en soms hebben we niet de tijd om deze dingen te laten nalezen, controleren of verifiëren door een IED-expert. In een tijd waarin AI binnen handbereik is, zou het zonde zijn om het niet te gebruiken om dit soort fouten te voorkomen. Bovendien heeft deze proactieve aanpak een aantal voordelen.
 
Ten eerste bespaart het veel tijd. Als een campagne gesanctioneerd wordt door de JEP, moeten de media-inlassingen opgeschort worden en de assets worden aangepast, de klant moet ze opnieuw goedkeuren, enzovoort. In het geval van een bad buzz duurt het weken of zelfs maanden om de situatie op het gebied van reputatie recht te zetten. Dus zelfs als de AI-review een kleine stap toevoegt (maximaal 5 minuten om de prompt te schrijven en het antwoord te lezen), bespaart het uiteindelijk tijd.
 
Aan de andere kant kan de gewoonte om 'uitgedaagd' te worden door AI ons mensen uiteindelijk stimuleren om goede reflexen te ontwikkelen. Hoe meer we worden uitgedaagd, hoe meer we nadenken over onze eigen denkprocessen. We leren onze vooroordelen in twijfel te trekken en zelf DEI-kwesties te identificeren, wat ons werk verbetert en inclusiever maakt.

Tot slot doet het feit dat AI oplossingen voor een probleem aandraagt nieuwe ideeën ontstaan, als in een creatieve pingpongwedstrijd. “Alle ideeën groeien uit andere ideeën”, aldus Anish Kapoor: ideeën kunnen elkaar opvolgen als in een waterval. Door AI op deze manier te gebruiken kunnen we onszelf vernieuwen, uit een creatieve impasse raken of automatische denkwijzen doorbreken.
 
Het is daarom een waardevolle kans voor bureaus, vooral omdat AI voor iedereen toegankelijk en op elk moment beschikbaar is en op grote schaal kan worden toegepast. Uiteindelijk zal het bureau dat het beste uit AI kan halen een concurrentievoordeel hebben gecreëerd. Het beste van beide werelden verenig je als je AI gebruikt om jezelf uit te dagen en mensen om de uiteindelijke beslissing te nemen. Maar deze balans is alleen optimaal als de mens een gedegen begrip heeft van het hulpmiddel (AI) en de beperkingen ervan, evenals een gevoeligheid voor ethiek en IED.
 
Bij Publicis Groupe België hebben we een DEI-werkgroep die op elk moment kan worden ingeschakeld om een gefundeerde mening te geven. Tegelijkertijd integreren we onder leiding van Matthieu Vercruysse, Chief Transformation Officer, AI op alle niveaus van het bureau waar dat mogelijk en nuttig is. Deze synergie tussen AI en menselijke expertise stelt ons in een ideale positie om de uitdagingen van de sector aan te gaan en een benchmark te zetten voor de ethische en effectieve integratie van AI.
AI Act: de Europese Unie, op zoek naar verantwoorde AI?, door Hannah Tacheny (AdaStone)
Eén foto, één seconde en hop, één identiteit. De controversiële Amerikaanse start-up Clearview AI ontketende met zijn tool een revolutie op het gebied van real time gezichtsherkenning. De tool die gebruikt wordt door politiekorpsen in de Verenigde Staten, kan een persoon identificeren aan de hand van een simpele foto. Dat is te danken aan de miljarden beelden die Clearview AI online verzamelt om zijn algoritmes te verrijken. Omdat deze technologie in Europa beschouwd wordt als een ernstige bedreiging voor de individuele vrijheid, met name inzake privacy, kreeg Clearview AI op 3 september 2024 opnieuw een boete van 30,5 miljoen euro opgelegd door de Nederlandse privacywaakhond.

De start-up stuit binnenkort op een nieuw obstakel: de Europese verordening inzake artificiële intelligentie (AI Act). Dit wettelijke kader dat op 1 augustus 2024 van kracht werd, legt AI-systemen strenge normen op met betrekking tot transparantie, veiligheid en ethiek. Het verbiedt ook de ontwikkeling van AI die “onaanvaardbaar geachte risico’s” met zich meebrengt. Dit zou de ontwikkeling en verspreiding van deze technologieën over het hele continent aanzienlijk kunnen beïnvloeden.

Hierdoor kunnen innovaties die in andere regio’s als vanzelfsprekend werden beschouwd, in Europa worden aangepast, tegengehouden of zelfs verboden vanwege de noodzaak om aan deze nieuwe regels te voldoen. Dit schrille contrast roept een aantal fundamentele vragen op: leidt de AI Act tot een herdefinitie van de wereldwijde technologiemarkt? Wat zijn de werkelijke beweegredenen achter deze nieuwe regels en welke gevolgen hebben ze voor bedrijven en consumenten? En nog belangrijker: hoe beantwoordt deze wetgeving aan de toenemende ethische bekommernissen in onze digitale samenleving?

Etappes in de implementatie: progressieve transitie

De AI Act werd van kracht op 1 augustus 2024, maar de toepassing gebeurt geleidelijk, met overgangsperiodes (van 2 februari 2025 tot 2030) van toepassing op AI-systemen naargelang hun type en hun introductie op de markt.

Ethiek centraal in de debatten en reglementering

Vanaf de eerste discussies over de invoering van een Europees regelgevend kader voor AI stond ethiek centraal.

Twee teksten in het bijzonder behandelen deze kwestie.

Het gaat om de richtlijnen van de High Level Expert Group on Artificial Intelligence, samengesteld door de Europese Commissie en gericht op de bevordering van “betrouwbare” AI. Die wordt gedefinieerd als AI die ethisch, wettelijk en robuust is. Deze richtlijnen “zijn bedoeld om verantwoorde en duurzame AI-innovatie in Europa aan te moedigen. Ze zijn erop gericht ethiek tot een essentiële pijler te maken in een unieke benadering van AI die zowel de individuele welvaart van mensen als het algemeen welzijn van de samenleving wil bevorderen, verbeteren en beschermen”.

Deze richtlijnen werden gevolgd door een Resolutie van het Europees Parlement met aanbevelingen aan de Europese Commissie over een kader voor de ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën.

Zeven principes voor betrouwbare en ethisch verantwoorde AI

Artificiële intelligentie is niet langer alleen een technologische tool, ze het geeft vorm aan ons leven, neemt beslissingen en analyseert massa’s data. Maar deze kracht brengt een even grote verantwoordelijkheid met zich mee. Daarom is er de AI Act, met zijn zeven ethische principes die ervoor moeten zorgen dat AI “betrouwbaar” is. Hoewel deze principes niet bindend zijn, preciseert de AI Act dat ze maximaal aanwezig moeten zijn in het ontwerp en gebruik van AI-systemen.

1. Menselijke actie en controle: AI ten dienste van ons, niet andersom

Stel je een AI voor die beslissingen voor je neemt, zonder dat je kunt ingrijpen. Een scenario dat niet zou misstaan in een sciencefiction serie of roman, maar niet zo vergezocht is als je zou denken. Het eerste principe van de AI Act wil ervoor zorgen dat de gebruiker altijd de controle behoudt over de beslissingen van de AI, door over de nodige tools te beschikken om ze te begrijpen. Of het nu is door direct betrokken te zijn bij elke beslissingscyclus van het AI-systeem (“human-in-the-loop”), bij het ontwerp en de controle van het AI-systeem (“human-on-the-loop”) of door de algehele activiteit van het AI-systeem te controleren (“human-in-command”), het idee is duidelijk: AI is er om ons te helpen, niet om ons te controleren.

2. Technische robuustheid en veiligheid: een schild tegen cyberaanvallen

Het potentieel van AI is indrukwekkend, maar we mogen nooit de risico’s uit het oog verliezen. Hacking, bugs of technische fouten kunnen van een briljante innovatie een ramp maken. Systemen moeten dus worden gebouwd als waren het digitale forten, met beveiligingsprotocollen die in verhouding staan tot hun potentiële impact. En als de dingen niet volgens plan verlopen? Dan moeten er back-upplannen klaarliggen om het over te nemen.

3. Respect voor privacy

In een wereld waarin data de nieuwe pasmunt en een essentiële bron van AI zijn, moeten AI-systemen uiterst zorgvuldig met deze informatie omgaan. Privacy is geen luxe, het is een fundamenteel recht. Dit betekent dat zowel de gebruikte als de gegenereerde gegevens moeten voldoen aan hoge kwaliteits- en integriteitsnormen. Betrouwbare AI moet even respectvol als veilig zijn.

4. Transparantie: AI die niets te verbergen heeft

Als een AI een beslissing neemt die een impact heeft op je leven, heb je het recht om dat te weten. Je hebt ook het recht om te weten waarom en hoe. Dit transparantieprincipe vereist dat algoritmes traceerbaar en begrijpelijk zijn voor mensen. Geen ondoorzichtige systemen meer: elke AI-beslissing moet uitgelegd en gerechtvaardigd kunnen worden.

5. Diversiteit, non-discriminatie en rechtvaardigheid: AI voor iedereen

AI-systemen moeten inclusie en diversiteit bevorderen. Dit betekent met name gelijke toegang en gelijke behandeling door iedereen in staat te stellen AI te gebruiken, ongeacht leeftijd, vaardigheden of kenmerken. AI moet de diversiteit van de samenleving weerspiegelen en mag bestaande vooroordelen niet versterken. Dit beginsel moet ervoor zorgen dat iedereen, zonder uitzondering, in gelijke mate kan profiteren van technologische vooruitgang en dat systemen stereotypen of discriminatie niet versterken.

6. Maatschappelijk en ecologisch welzijn: AI ten dienste van mens en planeet

Innovatie mag niet ten koste gaan van de planeet. AI moet worden ontwikkeld met een ecologisch bewustzijn, zodat de ecologische voetafdruk zo klein mogelijk wordt gehouden. Bovendien moet AI worden afgestemd op bredere maatschappelijke doelstellingen: de wereld beter, eerlijker en duurzamer maken.

7. Verantwoordelijkheid: wie bewaakt de machines?

Tot slot, wie is verantwoordelijk voor de acties van AI als er zich een probleem voordoet? Dit principe vereist controlemechanismen, audits, impactanalyses en de mogelijkheid om verzet aan te tekenen. Het komt er niet alleen op aan slimme AI te bouwen, maar ook systemen te creëren die verantwoording afleggen.

De verplichtingen van de AI Act: toepassing van de ethische principes

De AI Act beperkt zich niet tot het formuleren van principes, maar legt concrete verplichtingen op tijdens de gehele cyclus van een AI-systeem. De verordening onderscheidt verantwoordelijkheden op basis van rol: leverancier, importeur, distributeur, fabrikant, gemachtigde en toepassers. In de meeste gevallen worden bedrijven beschouwd als toepassers, maar ze kunnen ook optreden als leveranciers als ze niet alleen een bestaand AI-systeem gebruiken, maar ook bijdragen aan de ontwikkeling ervan en het onder hun eigen naam integreren.

Maar hoe vertalen deze verplichtingen zich naar concrete toepassingen, met name in de marketingsector?

Laten we het voorbeeld nemen van Criteo. Diens AI-engine analyseert dagelijks in real time data van bijna 700 miljoen actieve consumenten. Daardoor kan Criteo hypergerichte reclamecampagnes genereren. Maar dit soort potentieel brengt ook aanzienlijke ethische en wettelijke verantwoordelijkheden met zich mee. Als aanbieder moet Criteo ervoor zorgen dat zijn algoritmen transparant zijn. Dit betekent dat duidelijk moet worden uitgelegd hoe de analysemethoden werken en welke criteria gebruikt worden om advertenties te targeten. De betrokkenen moeten worden geïnformeerd over het gebruik van hun data, want vertrouwen is essentieel in een digitale omgeving. Daarnaast heeft Criteo de verantwoordelijkheid om ervoor te zorgen dat zijn systemen vrij zijn van discriminerende vooroordelen. Dit vereist regelmatige audits om productaanbevelingen te evalueren en ervoor te zorgen dat ze eerlijk en toegankelijk zijn voor iedereen.

Voor de bedrijven die de AI van Criteo gebruiken, gelden vergelijkbare verplichtingen. Ze moeten voldoen aan de GDPR, wat betekent dat ze de geïnformeerde toestemming moeten krijgen van gebruikers voor de inzet van hun data. Het is ook cruciaal dat gebruikers kunnen begrijpen waarom ze bepaalde advertenties te zien krijgen. Dat kan door middel van duidelijke en expliciete feedbackmechanismen over targetingcriteria. Tot slot moeten gebruikers-bedrijven hun teams trainen in de ethische verantwoordelijkheden die gepaard gaan met het gebruik van AI, om zo een cultuur van verantwoorde innovatie te bevorderen.

Kan de EU echt verantwoorde AI garanderen?

De AI Act betekent een keerpunt in de regulering van AI, met als doel een evenwicht te vinden tussen innovatie en verantwoordelijkheid. Terwijl Europa ernaar streeft om een wereldwijd model voor ethische regelgeving te worden, ligt de echte uitdaging niet alleen in de effectieve implementatie van normen, maar ook in hun vermogen om zich aan te passen aan een steeds veranderende sector. De recente open brief aan de EU van zo’n 30 toonaangevende bedrijven, waaronder Meta, Spotify en Ericsson, benadrukt een gedeelde zorg dat versnippering van regelgeving innovatie zou kunnen belemmeren en ongelijkheden op de wereldmarkt zou kunnen creëren.

Deze situatie roept fundamentele vragen op. Zal de EU erin slagen om haar regels te harmoniseren en toch een kweekvijver te blijven voor start-ups en technologiereuzen? Kan de AI Act ethische AI echt aanmoedigen zonder creativiteit en innovatie te verstikken? Technologische innovatie moet niet alleen worden beoordeeld op haar snelheid en efficiëntie, maar ook op haar impact op de samenleving.

Hoewel deze zeven principes niet bindend zijn, moedigen ze ons wel aan om na te denken over de manier waarop we willen dat deze technologieën onze toekomst vormgeven. Ze herinneren ons er ook aan dat de integratie van AI in ons dagelijks leven zorgvuldig doordacht moet zijn, waarbij innovatie wordt bevorderd met respect voor onze fundamentele ethische waarden.

Archief / TECH