Kunstmatige intelligentie revolutioneert onze digitale wereld, maar dat geldt ook voor malware. Onderzoekers van Cyberbeveiligingsbedrijf CyberArk hebben met succes geavanceerde malware geschreven dat niet door antivirusprogramma’s wordt opgemerkt.
Dreigt software als ChatGPT een gevaar voor onze cyberspace te worden?

Waarom is dit belangrijk?
ChatGPT heeft aangetoond een oneindige hoeveelheid aan creatieve en praktische mogelijkheden te bieden. Zo schreef de software vorig jaar in opdracht van Business AM een artikel over zichzelf en wordt het zelfs gebruikt om computerprogramma’s te schrijven. Het kan echter ook gebruikt worden om phishing-mails, computervirussen en malware te schrijven.De essentie: CyberArk vreest dat criminele groeperingen in toenemende mate kunstmatige intelligentie gaan gebruiken voor het schrijven van verfijnde malware.
- Het volledige rapport van het bedrijf gaat in op alle technische details, maar om het kort te houden: onderzoekers hebben verschillende tests uitgevoerd met de revolutionaire AI-tool ChatGPT. Het resultaat was malware, waartegen zeer moeilijk te verdedigen was door antivirusprogramma’s.
- “Onderzoekers hebben vastgesteld dat mensen met ChatGPT malware kunnen maken die polymorf van aard is en niet de gebruikelijke computercodering bevat die bij antivirusprogramma’s bekend zijn”, aldus Maria-Kristina Hayden, CEO van cyberbeveiligingsbedrijf OUTFOXM, aan Cybernews.
- Om het kwaadwillenden moeilijk te maken heeft ChatGPT een inhoudsfilter die misbruik door gebruikers moet voorkomen. Echter blijkt uit het onderzoek van CyberArk dat deze filter gemakkelijk omzeild kan worden.
- Ook deskundigen van Checkpoint, een onderzoeksbureau op het gebied van digitale veiligheid, waarschuwen voor het gebruik AI-tools. Medewerkers van het bedrijf zagen dat er op verschillende hackersfora handleidingen voor het gebruik van de AI-tool werden aangeboden.
- “De cybercriminele gemeenschap toont aanzienlijke belangstelling en springt op de trend om kwaadaardige code te genereren met behulp van kunstmatige intelligentie.”
Google: Ook Google zegt zich zorgen te maken over de negatieve kanten van AI.
- “We begrijpen dat AI, als een nog opkomende technologie, verschillende en evoluerende complexiteiten en risico’s met zich meebrengt”, aldus het bedrijf. “Daarom beschouwen we het als bedrijf als een noodzaak om AI op een verantwoorde wijze te gebruiken”.
Valase websites, spamberichten en nepnieuws
Verschillende mogelijkheden: Naast malware bleek ChatGPT ook interessant voor andere criminele praktijken, zoals:
- Het schrijven van overtuigende phishing-e-mails. Vanwege de automatisering kunnen oplichters hun activiteiten flink opschalen.
- Het bouwen van valse websites. Op Google zijn talloze handleidingen te vinden die uitleggen hoe de AI-tool professioneel ogende websites kan bouwen. En hoewel dit goed nieuws is voor iedereen die een website wil maken, is het ook goed nieuws voor cybercriminelen.
- Het schrijven van spamberichten. Om een valse website op te zetten, een socialemediapagina te beheren of een spam-mail te schrijven, is veel inhoud nodig.
- De verspreiding van desinformatie en nepnieuws. Online desinformatie is de laatste jaren een groot probleem geworden en verspreidt zich in sneltreinvaart over sociale media. Met behulp van een tool als ChatGPT hebben actoren toegang tot software die dagelijks duizenden nieuwsartikelen kan genereren en verspreiden.
(ns)