Key takeaways
- AI-modellen kunnen worden gemanipuleerd om beveiligingen te omzeilen en schadelijke instructies uit te voeren.
- Hackers gebruiken technieken zoals rapid injection en jailbreaking om kwetsbaarheden in AI uit te buiten.
- Ondanks de potentiële risico’s gelooft Eric Schmidt dat AI een immense transformatieve kracht heeft en ondergewaardeerd wordt.
Eric Schmidt, voormalig CEO van Google, heeft de alarmbel geluid over de potentiële gevaren van artificiële intelligentie, door te wijzen op de kwetsbaarheid voor hacken en misbruik.
Mogelijkheden tot manipulatie
Hij wees er tijdens een techsummit, via CNBC, op dat AI-modellen, zelfs als er voorzorgsmaatregelen zijn genomen, gemanipuleerd kunnen worden om hun beperkingen te omzeilen, met mogelijk schadelijke gevolgen. Schmidt noemde het voorbeeld van een gehackt AI-model dat gevaarlijke instructies zou kunnen leren, zoals hoe iemand kwaad te doen. Hoewel verantwoordelijke bedrijven maatregelen implementeren om dergelijke scenario’s te voorkomen, erkende Schmidt de mogelijkheid van reverse engineering van deze beschermende maatregelen.
De ex-CEO legde uit dat hackers verschillende tactieken gebruiken om kwetsbaarheden in AI uit te buiten. Bij promptinjectie worden kwaadaardige commando’s verborgen in gebruikersinvoer of externe gegevensbronnen, om de AI te verleiden tot het uitvoeren van onbedoelde acties. Jailbreaking heeft dan weer als doel om beveiligingsprotocollen te omzeilen en de AI te dwingen om beperkte of schadelijke inhoud te genereren.
Goede vooruitzichten
Ondanks deze zorgen blijft Schmidt optimistisch over het bredere potentieel van AI. Hij gelooft dat de technologie momenteel ondergewaardeerd is en een enorme transformerende kracht voor de mensheid in zich heeft.
Volg Business AM ook op Google Nieuws
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

