Key takeaways
- Organisaties zetten meer en sneller in op AI, maar doen dat vaak zonder voldoende aandacht te schenken aan veiligheid en regelgeving.
- 67 procent van de ondervraagden voelt zich onder druk gezet om AI-toepassingen goed te keuren, ondanks veiligheidszorgen.
- Inconsistent beleid, onduidelijke verantwoordelijkheden en inconsistente regelgeving binnen organisaties vergroten het risico van een onder druk doorgevoerde AI-implementatie.
Wereldwijd zetten organisaties steeds meer en sneller in op artificiële intelligentie (AI). Maar dat doen ze vaak zonder voldoende aandacht te schenken aan veiligheid en regelgeving. Dat blijkt uit een nieuw onderzoek van AI-beveiligingsbedrijf TrendAI. Voor de studie ondervroeg het bedrijf 3.700 bedrijfsleiders en IT’ers.
Druk om AI te implementeren
67 procent van de ondervraagden voelt zich onder druk gezet om AI-toepassingen goed te keuren, ondanks bestaande veiligheidszorgen. Eén op de zeven omschreef deze veiligheidszorgen zelfs als extreem, maar deze toch negeerde om mee te zijn met de concurrentie en te voldoen aan interne verwachtingen.
“Organisaties zijn zich wel degelijk bewust van de risico’s, maar beschikken niet over de juiste structuren om die te beheersen”, vertelt Rachel Jin, de Chief Platform en Buisiness Officer bij Trend AI. “Wanneer de implementatie wordt gedreven door concurrentiedruk in plaats van door een volwassen governance-structuur, ontstaat er een situatie waarin AI wordt geïntegreerd in kritieke systemen zonder de nodige controles om dit veilig te beheren.”
Onduidelijke verantwoordelijkheid
Inconsistent beleid, onduidelijke verantwoordelijkheden en inconsistente regelgeving binnen organisaties vergroten het risico van een onder druk doorgevoerde AI-implementatie. Beveiligingsteams moeten vaak achteraf reageren op beslissingen van bovenaf. Dat leidt tot tijdelijke oplossingen en een toename van de zogenaamde “shadow AI”, niet-goedgekeurde tools die buiten het zicht van de organisatie worden gebruikt.
Recent onderzoek van TrendAI naar cybercriminelen laat zien hoe aanvallers nu al AI gebruiken om verkenning te automatiseren, phishingcampagnes te versnellen en de drempel voor cybercriminaliteit te verlagen. Hierdoor neemt zowel de snelheid als de omvang van de aanvallen toe.
Controlemechanismen
57 procent van de organisaties geeft ook toe dat AI zich sneller ontwikkelt dan ze kunnen beveiligen. Tegelijk heeft 64 procent ook weinig vertrouwen in hun kennis van de wettelijke kaders rond AI.
Ook op vlak van AI-beleid is er nog heel wat werk aan de winkel voor bedrijven. Slecht 38 procent van de organisaties beschikt over een volledig uitgewerkt AI-beleid. Veel bedrijven zitten nog in de ontwerpfase, terwijl 41 procent aangeeft dat onduidelijke wetgeving een belangrijke hindernis vormt voor de uitwerking van zo’n beleid.
Autonome AI-systemen
Vooral bij de meer geavanceerde en autonome AI-systemen blijft het vertrouwen beperkt. Minder dan de helft (48 procent) van de respondenten gelooft dat deze systemen op een korte termijn een grote meerwaarde zullen bieden voor cyberbeveiliging.
De grootste risico’s bevinden zich volgens het rapport rond datatoegang en controle. 44 procent van de respondenten noemt het een risico dat AI gevoelige gegevens kan benaderen. Ruim een derde (36 procent) waarschuwt ook dat kwaadwillige prompts de beveiliging in gevaar kunnen brengen, terwijl een op de drie (33 procent) wijst op een groeiend aanvalsoppervlak voor cybercriminelen.
Opvallend is dat bijna een derde (31 procent) toegeeft dat ze onvoldoende zicht of controle hebben over de AI-systemen. Dat gebrek aan transparantie maakt het moeilijk om in te grijpen wanneer er iets misloopt.
Groeiende nood aan controlemechanismen
40 procent van de organisaties staat achter het invoeren van een zogenaamde “kill switch” om AI-systemen uit te schakelen in geval van storingen of misbruik. Toch blijft de helft van de respondenten hierover toch twijfelen. Een dieperliggend probleem volgens TrendAI. Organisaties evolueren naar autonome AI zonder overeenstemming over hoe ze de controle kunnen behouden wanneer dat het belangrijkste is.
“Agentische AI brengt organisaties in een nieuwe risicocategorie”, voegde Rachel Jin eraan toe. “Uit ons onderzoek blijkt dat de zorgen al duidelijk zij, van het blootstellen van gevoelige gegevens tot het verlies van toezicht. Zonder inzicht en controle implementeren organisaties systemen die ze niet volledig begrijpen of beheersen, en dat risico zal alleen maar toenemen tenzij er maatregelen worden genomen.”
Volg Business AM ook op Google Nieuws
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

