Anthropic waarschuwt dat hun AI-tool Claude gebruikt wordt voor afpersingen


Key takeaways

  • Criminelen gebruiken AI-tools als Claude voor criminele activiteiten zoals netwerkinfiltratie en gegevensdiefstal.
  • AI verlaagt de drempel voor cybercriminaliteit, waardoor individuen geavanceerde aanvallen kunnen uitvoeren waarvoor voorheen teams van experts nodig waren.

Het gebruik van artificiële intelligentie bij cyberaanvallen neemt toe, volgens een bedreigingsrapport van Anthropic, de makers van chatbot Claude. Anthropic waarschuwt dat criminelen AI-tools zoals Claude voor verschillende kwaadaardige doeleinden gebruiken.

Opkomende bedreigingen

Deze bedreigingen omvatten het infiltreren van netwerken, het stelen van gevoelige gegevens en het opstellen van zeer persoonlijke afpersingseisen om de kwetsbaarheid van slachtoffers te maximaliseren. In sommige gevallen hebben aanvallers losgeld van meer dan 500.000 dollar (430.000 euro) geëist.

Het rapport onthult dat 17 organisaties uit verschillende sectoren, zoals gezondheidszorg, overheid en religie, alleen al in de afgelopen maand het doelwit waren. De capaciteiten van Claude speelden een sleutelrol bij het identificeren van kwetsbaarheden, het selecteren van doelwitten en het bepalen van de te extraheren gegevens.

AI heeft drempel voor cybercriminaliteit verlaagd

Jacob Klein, directeur van Anthropic, wijst erop dat AI de drempel voor cybercriminaliteit aanzienlijk heeft verlaagd. Operaties waarvoor vroeger teams van bekwame experts nodig waren, kunnen nu dankzij AI-tools door één persoon worden uitgevoerd.

Het rapport werpt ook licht op Noord-Koreaanse agenten die Claude gebruiken om zich voor te doen als programmeurs op afstand voor Amerikaanse bedrijven. Deze tactiek is bedoeld om geld door te sluizen naar de wapenprogramma’s van Noord-Korea. Claude stelt deze agenten in staat om effectief te communiceren met hun werkgevers en taken uit te voeren waarvoor ze anders niet de benodigde vaardigheden zouden hebben.

Expertise omzeilen

Historisch gezien hebben Noord-Koreaanse hackers jaren van rigoureuze training ondergaan om dergelijke taken uit te voeren. AI-modellen zoals Claude hebben deze vereiste echter overbodig gemaakt.

Daarnaast heeft Anthropic de opkomst gedocumenteerd van AI-gestuurde fraudeprogramma’s die online te koop zijn. Een voorbeeld hiervan is een Telegram-bot die ontworpen is voor oplichtingspraktijken met romances en die meertalige mogelijkheden gebruikt om slachtoffers emotioneel te manipuleren en geld af te troggelen.

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.