Waarom AI-agents minder eng zijn dan je denkt

Is het ethisch correct om AI-agents in te schakelen? Vormen ze geen risico voor de privacy en security van data? Is de output van een agent wel betrouwbaar? Het zijn logische vragen die opduiken in de marge van een nieuwe golf aan AI-mogelijkheden. Agentic AI gaat een stap verder dan eerdere ontwikkelingen, met systemen die autonoom handelen en beslissingen nemen – zonder menselijke interventie. Dat laatste maakt het uiteraard nog belangrijker om te focussen op het concept dat aan de basis van elke technologie moet liggen: vertrouwen.

Toen ik dertien jaar geleden bij Salesforce aan de slag ging, was er in de meeste bedrijven nog geen sprake van artificiële intelligentie. De cloud was toen nog het belangrijkste discussiepunt binnen hun digitale transformatie. Klanten vertrouwden die relatief nieuwe technologie niet en vroegen zich af of het wel veilig was om data in de cloud te zetten. Als medewerker van het privacy- en securityteam was het destijds mijn taak om die klanten vertrouwd te maken met de cloud en uit te leggen waarom zo’n cloudomgeving geen risico hoeft te vormen voor hun gegevens, mits de vereiste technische en organisatorische beschermingsmaatregelen correct zijn geïmplementeerd.

Vandaag zien we eigenlijk hetzelfde gebeuren met Agentic AI. Telkens wanneer er een nieuwe technologie of wetgeving (zoals GDPR) opduikt, gaan we terug tot onze kernwaarde: vertrouwen. Ook in het kader van AI-agents moeten we bedrijven dus eerst duidelijk maken dat ze de technologie mogen vertrouwen. Dat is nodig, want uit de Digimeter van Imec blijkt dat niet alleen de positieve houding tegenover AI, maar ook het wantrouwen bij het publiek toeneemt.

Binnen de Ethical AI Advisory Council, waar ik zelf in zetel, zijn we voortdurend bezig met vraagstukken rond vertrouwen, privacy en beveiliging. Vertrouwen is onze belangrijkste waarde voor de ontwikkeling van nieuwe technologie en komt steeds terug.

Agents versterken beveiliging en privacy

Net zoals bij de cloud destijds moeten veel bedrijven Agentic AI nog leren kennen. Vaak weten ze immers niet waarvoor ze de technologie precies kunnen gebruiken. Het is onze taak om partijen hierover te informeren en ze te begeleiden in het inventariseren van use cases en ermee te experimenteren. Natuurlijk integreren we ook heel wat richtlijnen in onze producten, zodat gebruikers op de juiste manier met AI-agents en andere technologie aan de slag gaan.

Terwijl AI-agents op dit moment vooral beschouwd worden als een risico voor privacy en beveiliging, kunnen ze bij correct gebruik zelfs voor een verbetering zorgen. We zien bijvoorbeeld dat heel wat beveiligingsincidenten het gevolg zijn van menselijke fouten. Met behulp van AI-agents kunnen we het risico op menselijke fouten tot een minimum beperken, wat uiteraard de beveiliging ten goede komt. Belangrijk is dat een agent weet wat hij wel én niet mag doen, dat er voldoende garanties zijn ingebouwd en dat organisaties begrijpen in welke situaties ze een agent kunnen gebruiken en wanneer er naar een medewerker moet worden overgeschakeld.

Gestoeld op ethische principes

Ethiek is een belangrijke basis om vertrouwen in technologie te creëren. Hoe zorg je ervoor dat er geen mensen worden uitgesloten? Nog voor AI een hype was, hebben we binnen ons bedrijf een team gevormd dat zich bezighoudt met het opstellen van ethische principes. Een groot deel van de input komt van klanten die met de technologie aan de slag gaan en bepaalde verwachtingen of bezorgdheden hebben. Het team werkt samen met academici en luistert naar alle verschillende afdelingen in de interne organisatie. Daarnaast zetelen we ook in werkgroepen die bijvoorbeeld kijken naar nieuwe wetgeving die een impact heeft op het gebruik van onze technologie.

Ons ethisch comité lobbyt niet enkel voor betere wetgeving, maar vooral voor goede wetgeving met input van de sector en het werkveld. Op basis daarvan hebben we proactief een aantal ethische principes opgesteld waarop al onze producten gebaseerd zijn. Voor AI-agents hebben we een vergevorderde versie van die basisprincipes ontwikkeld, zodat gebruikers vangrails hebben om de technologie op een veilige manier te gebruiken (Privacy by Design). Met functionaliteiten die bedrijven nodig hebben, maar ook met restricties die standaard zijn ingesteld en die in het belang van ethiek en privacy meestal te nemen of te laten zijn. Technologie is nooit goed of slecht. Wat wel van belang is, is de manier waarop je die technologie inzet.

Maak duidelijk waarvoor je AI gebruikt

Wanneer we over autonome agents praten, denken veel mensen dat de technologie hun job straks gaat vervangen, maar technologie en werkgelegenheid sluiten elkaar niet per se uit. Wel zal bijna elke job veranderen en zullen we bepaalde taken uitbesteden aan agents, waardoor we ons werk anders kunnen invullen. En door met agents de capaciteit en productie van je bedrijf uit te breiden, kan er tegelijkertijd zelfs een toename aan vacatures ontstaan. Agents gaan zo versterking bieden, maar ook hier is vertrouwen heel belangrijk. Als je niet weet hoe een agent werkt, als je geen privacy by design hebt ingebouwd, of als je niet over de juiste principes beschikt die het omliggende kader schetsen, dan ga je agents niet zomaar in je organisatie uitrollen.

Veel mensen hebben het lastig om AI op de juiste manier te gebruiken. Ze weten immers niet waar en waarvoor ze de technologie mogen inschakelen. Hoe meer je met AI gaat doen, des te sneller mensen zullen denken dat ze weldra overbodig zijn. Creëer daarom een duidelijk leertraject voor medewerkers om op een efficiënte manier met agents samen te werken, en een kader waarin je aangeeft waar AI-agents een belangrijke tool zijn en welke cases randgevallen zijn. Zo zorg je er ook voor dat gebruikers begrijpen waarom hun menselijke bijdrage cruciaal blijft.

Vertrouwen, ethiek, privacy … Het zijn essentiële elementen voor het gebruik van AI-agents. En het is belangrijk om dit goed te doen, want er zijn veel maatschappelijke consequenties aan AI verbonden. Het is onze gezamenlijke taak om verantwoord AI-gebruik mogelijk te maken. Zodat we bij het brede publiek vertrouwen creëren en het echte potentieel van AI-agents kunnen omarmen.

Lien Ceulemans, Country Leader bij Salesforce Belux en lid van de Ethical AI Advisory Council

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.