Key takeaways
- Ondanks de recente verdeeldheid tijdens de AI-actietop in Parijs is er een wereldwijde consensus over AI-veiligheid ontstaan.
- De consensus van Singapore over wereldwijde onderzoeksprioriteiten voor AI-veiligheid beschrijft de belangrijkste onderzoeksgebieden die cruciaal zijn voor een veilige ontwikkeling van AI, waaronder het beoordelen van AI-risico’s en het ontwikkelen van betrouwbare AI-systemen.
- Het vaststellen van risicodrempels om te bepalen wanneer interventie nodig is, is ook een belangrijke aanbeveling in het rapport.
Ondanks recente verdeeldheid op de AI Action Summit in Parijs, onthult een nieuw rapport een wereldwijde consensus over AI-veiligheid. Het rapport is het resultaat van een conferentie die afgelopen april in Singapore werd gehouden en waaraan vooraanstaande AI-experts en vertegenwoordigers van overheden en technologiebedrijven uit de hele wereld deelnamen. Terwijl er op de top in Parijs onenigheid was over een AI-verklaring, was het doel van het evenement in Singapore, getiteld “International Scientific Exchange on AI Safety”, om die kloof te overbruggen.
- Het resultaat is “The Singapore Consensus on Global AI Safety Research Priorities”, waarin de belangrijkste onderzoeksgebieden worden beschreven die cruciaal zijn voor een veilige ontwikkeling van AI.
Het document legt de nadruk op drie kernaspecten: het beoordelen van AI-risico’s, het ontwikkelen van betrouwbare AI-systemen en het controleren van deze systemen, die verschillende types omvatten, waaronder grote taalmodellen en multimodale modellen die uiteenlopende gegevens kunnen verwerken. Cruciaal is dat het rapport oproept tot het vaststellen van risicodrempels om te bepalen wanneer ingrijpen noodzakelijk is.
Eerlijke AI-systemen
Verder benadrukt de consensus het belang van de ontwikkeling van waarheidsgetrouwe en eerlijke AI-systemen die gebruik maken van betrouwbare datasets. Voortdurende controle en rigoureuze veiligheidscontroles, zoals tests tegen “jailbreak”-pogingen, zijn essentieel om ervoor te zorgen dat AI-systemen zich aan de vastgestelde normen houden. Het rapport gaat ook in op de maatschappelijke veerkracht in het licht van AI-gestuurde verstoringen. Het stelt voor om veiligheidsmechanismen te implementeren zoals noodschakelaars en niet-agentschappelijke AI-systemen om toezicht te houden op agentschappelijke systemen, samen met kaders voor mensgericht toezicht.
- Het versterken van de infrastructuur tegen AI-gebaseerde bedreigingen en het opzetten van gecoördineerde incidentbestrijdingsmechanismen zijn vitale onderdelen van deze aanpak.
Veilige toekomst met AI
Ondanks de toenemende geopolitieke concurrentie op het gebied van AI, onderstreept de conferentie in Singapore een gedeelde toewijding aan het vormgeven van een veiligere AI-toekomst. Toonaangevende AI-bedrijven, waaronder OpenAI en Anthropic, namen actief deel en toonden hun bereidheid om veiligheidskwesties transparant aan te pakken.
Zoals Max Tegmark, een MIT-professor en medewerker aan het rapport, aangeeft, is er een wederzijds belang tussen overheden en techbedrijven om de veiligheid van AI te garanderen, vergelijkbaar met de strenge veiligheidsnormen die gelden voor krachtige industrieën zoals biotech. Hij is optimistisch dat landen tegen de volgende AI-top in India een vergelijkbare benadering van AI-regulering zullen aannemen, waarbij veiligheidsevaluaties worden vereist die vergelijkbaar zijn met die voor nieuwe medicijnen.
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!