Van WormGPT tot FraudGPT: hoe artificiële intelligentie ook voor cybercriminelen nieuwe deuren opent

Van WormGPT tot FraudGPT: hoe artificiële intelligentie ook voor cybercriminelen nieuwe deuren opent
Le “Cheval de Troie”, fabriqué à partir de composants informatiques, à l’université de Tel Aviv, où OpenAI, le créateur de ChatGPT, était l’hôte en juin dernier. Un “Cheval de Troie” est également le nom d’un redouté virus informatique. – Getty Images

Cybersecurityfirma’s waarschuwen dat slimme ChatGPT-achtige chatbotdiensten cybercriminaliteit democratiseren en hackers gevaarlijker maken.

In het nieuws: Terwijl ChatGPT een revolutie ontketent op de werkvloer en het nut van talloze bureaujobs op losse schroeven zet, duiken er ook onethische varianten op waar cybercriminelen gebruik van kunnen maken.

  • Een Portugese twintiger bouwde WormGPT, dat zoveel mogelijk veiligheidsrestricties en andere ingebouwde beperkingen overboord gooit. De slimme chatbot kan daardoor gebruikt worden om ransomware te creëren of gesofistikeerde phishing-schema’s te bouwen.
  • Op het dark web, het ondergrondse internet, werd vorige maand ChatGPT Fraud Bot of FraudGPT gelanceerd. Ook die dienst beweert het voor hackers makkelijker te maken om bedrijfsnetwerken binnen te dringen en cyberdiefstallen te plegen.
  • De ene duistere chatbot na de andere duikt de kop op, waaronder recentelijk een kwaadaardige variant van DarkBERT, een in oorsprong bonafide taalmodel dat het dark web scant, en het bijna gelijknamige DarkBART, een malafide versie van Bard van Google.

Samengevat: “Kwaadaardige AI-tools zoals WormGPT en FraudGPT worden gebouwd bovenop open-source generatieve AI-platformen om cybercriminaliteit te democratiseren, hackers productiever te maken en aanvallen meer kans op slagen te geven”, schrijft cyberbeveiliger Trend Micro deze week in een persbericht. “De technologie wordt al gebruikt door opportunistische cybercriminelen om te profiteren van beveiligingsgaten van ondernemingen.”

Virtuele kidnapping

Enkele concrete toepassingen:

  • Grote datasets worden samengevoegd en gefilterd om de meest “lucratieve” slachtoffers te selecteren. Dat gaat van telefoonnummers tot bankkaartgegevens.
  • Via voice cloning – het genereren van stemmen met deepfake-technieken – wordt “virtuele kidnapping” een pak realistischer: cybercriminelen kunnen met de gekloonde stemmen slachtoffers ervan overtuigen dat hun kind ontvoerd is en gaan losgeld eisen, terwijl er in werkelijkheid van fysieke kidnapping geen sprake is.
  • De gebruikte AI verhoogt ook fors de kwaliteit van frauduleuze e-mails of webpagina’s, en dat in meerdere talen.
  • De creatie van malware en virussen.

Uitgetest: De voorbije weken werd IT-dienstenbedrijf Econocom getroffen door een cyberaanval. Gaan de nieuwe AI-tools tot een enorme golf aan cybercriminaliteit leiden?

  • De Nederlandse cybersecurityspecialist Daniël Luthra (Bodyguard.io) zegt zelf de malafide tools uitgeprobeerd te hebben en heeft goed nieuws: “De kwaliteit van de antwoorden blijft naar ons idee ver achter op die van de reguliere ChatGPT-4 applicatie”, zo zegt hij op carrièresite LinkedIn. De chatbots blijken ook instabiel en daardoor vaak down te zijn.
  • Maar de expert waarschuwt ook: “Helaas zijn dit groeipijnen die op den duur wel onder controle zullen zijn. De vraag lijkt immers groot te zijn.” (ddw)
Meer premium artikelen
Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.