Cybercriminelen kunnen door AI ontsnappen aan traditionele detectiesystemen


Key takeaways

  • Cybercriminelen zullen in de toekomst gebruik maken van AI-assistenten om te ontsnappen aan traditionele detectiesystemen.
  • De AI-assistenten bieden een extra laag anonimiteit die de klassieke tegenmaatregelen minder effectief maakt.
  • Vooral bij ransomware en datadiefstal zou AI maximale schade kunnen aanrichten.

Cybercriminelen zullen in de toekomst gebruik kunnen maken van AI-assistenten, zoals Grok en Microsoft Copilot om hun aanvallen beter te verbergen. Dat blijkt uit een nieuw onderzoek van Check Point Research. De techniek is momenteel nog niet in echte aanvallen vastgesteld. Toch waarschuwen de onderzoekers dat naarmate de AI-assistenten meer worden gebruikt en vertrouwd, het aanvalsoppervlak van de criminelen veel groter zal worden.

Volgens het onderzoek kunnen cybercriminelen ontsnappen aan traditionele detectie door zich te verbergen achter normaal lijkend AI-gebruik. Maar de AI-assistenten dienen echter als een verborgen communicatiekanaal tussen malware en aanvallers.

Onzichtbaar doorgeefluik

Het misbruiken van betrouwbare clouddiensten voor het zogenaamde command-and-control (C2)-verkeer is niet nieuw. Cybercriminelen verstoppen al langer hun communicatie in e-mail, cloudopslag en samenwerkingstools. Maar de zwakke plekken van die aanpak is ook bekend: accounts kunnen worden geblokkeerd, API-sleutels ingetrokken en tenants verwijderd. Het verschil met de AI-assistenten is dat die via web interfaces een extra laag anonimiteit kunnen bieden. Dat maakt de klassieke tegenmaatregelen minder effectief.

De onderzoekers van Check Point toonden aan dat AI-platforms die op het web kunnen, misbruikt kunnen worden om gegevens op te halen en die samen te vatten met specifieke URL’s. Malware zou zo instructies kunnen ontvangen zonder rechtsreeks verbinding te maken met een verdachte server. Die wisselwerking verloopt via gewone AI-verzoeken en lijkt zo legitiem verkeer voor beveiligingssystemen.

AI als cybercrimineel

AI wordt vandaag al gebruikt om phishingmails op te stellen, malwarecode te genereren en gestolen gegevens te analyseren. De drempel voor minder ervaren cybercriminelen wordt zo ook verlaagd. Toch wijst het rapport op een nieuwe evolutie. AI is niet langer een hulpmiddel, maar gaat actief deel uitmaken van de operaties van cybercriminelen.

In plaats van voorgeprogrammeerde instructies te volgen, zal malware in de toekomst informatie over een systeem kunnen verzamelen en die door een AI-assistent laten analyseren. Cybercriminelen kunnen dan op basis daarvan hun aanval voorbereiden. Vooral bij ransomware en datadiefstal zou dat grote gevolgen kunnen hebben. Veel beveiligingssystemen slaan alarm wanneer er een grote hoeveelheid data wordt gekopieerd of versleuteld. De door AI aangestuurde aanvallen zouden minder zichtbaar zijn, maar wel een maximale schade kunnen aanrichten.

Microsoft CoPilot

Toen er bij Microsoft melding werd gedaan van de kwetsbaarheden in CoPilot, bevestigde het bedrijf die en voerde het bedrijf ook aanpassingen uit om het risico te beperken. Volgens Check Point zou het niet gaan om een klassieke softwarefout, maar om een bredere uitdaging rond misbruik van vertrouwde diensten. (ev)

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.