Key Takeaways
- Hoofd van Signal Technology Foundation Meredith Whittaker waarschuwt voor de gevaren van AI-agenten.
- AI-agenten oefenen aanzienlijke controle uit en hebben toegang tot enorme hoeveelheden gegevens, waardoor ze mogelijk toegang krijgen tot gevoelige informatie die gebruikers misschien privé willen houden.
- Een AI-agent die krachtig genoeg is, kan gegevens buiten het apparaat verwerken en informatie heen en weer sturen naar cloudservers, wat ernstige beveiligings- en privacyproblemen met zich meebrengt.
Meredith Whittaker, het hoofd van de Signal Technology Foundation, uitte haar bezorgdheid over de mogelijke risico’s van AI-agenten voor de privacy van gebruikers. Terwijl sommige technologieleiders de mogelijkheden van agentic AI toejuichen en gebruikers aanmoedigen om met deze bots te experimenteren, waarschuwde Whittaker op een recente conferentie in de VS voor de gevaren van autonome bots.
Reële bedreiging
Ze gelooft dat we te maken hebben met een reële bedreiging vanwege de aanzienlijke controle die deze systemen uitoefenen en hun toegang tot enorme hoeveelheden gegevens. Whittaker beschrijft AI-agenten als “magische bots” die in staat zijn om in meerdere stappen te denken en taken voor gebruikers uit te voeren, waardoor ze in wezen hun eigen cognitieve processen kunnen uitschakelen.
Als voorbeeld wordt vaak het vermogen van een AI-agent genoemd om concerten te zoeken, kaartjes te kopen en zelfs om vrienden berichten over het evenement te sturen. Whittaker maakt zich echter zorgen over de gegevens die deze agenten in verschillende stadia van dit proces nodig hebben, waardoor ze mogelijk toegang krijgen tot gevoelige informatie die gebruikers liever privé willen houden.
Ze legt uit dat agenten toegang nodig hebben tot browsers van gebruikers, creditcardgegevens voor ticketaankopen, agenda’s, contactlijsten en zelfs de mogelijkheid om Signal te openen om berichten te versturen. Dit impliceert een breed scala aan machtigingen, vergelijkbaar met “root-toegang”, waardoor de agent controle krijgt over talloze systeemdatabases.
Ernstige beveiligings- en privacyproblemen
Whittaker stelt dat een AI-agent die krachtig genoeg is, waarschijnlijk gegevens buiten het apparaat zou verwerken en informatie heen en weer zou sturen naar cloudservers. Dit brengt ernstige beveiligings- en privacyproblemen met zich mee, en kan de grens tussen de toepassings- en besturingssysteemlaag in gevaar brengen. Uiteindelijk zou deze ongecontroleerde toegang volgens haar de privacy van berichten kunnen ondermijnen.
Rampscenario’s
Whittaker’s zorgen worden gedeeld door andere prominenten op het gebied van AI. Yoshua Bengio, een gerenommeerd AI-onderzoeker, herhaalde soortgelijke waarschuwingen in januari op het World Economic Forum in Davos. Hij onderstreepte dat de ontwikkeling van AI-agenten zou kunnen leiden tot de rampscenario’s die men vaak associeert met kunstmatige algemene intelligentie, machines die net als mensen kunnen redeneren.
Bengio onderstreept de noodzaak van voortdurend onderzoek naar veilige AI-ontwikkeling, terwijl men de inherente risico’s moet erkennen en begrijpen. Hij roept op tot investeringen in technologieën die ontworpen zijn om de creatie van systemen die uiteindelijk een bedreiging voor de mensheid zouden kunnen vormen, te voorkomen.
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!