Centimiljardair Elon Musk, Apple mede-oprichter Steve Wozniak, schrijver Yuval Noah Harari en honderden andere bekende namen roepen in een open brief op om onderzoek naar geavanceerde AI tijdelijk stil te zetten. Zij willen garanties dat de technologie niet ongecontroleerd wordt ontwikkeld en zeggen dat het risico voor de mensheid groot is.
Elon Musk, Steve Wozniak en honderden anderen vragen in open brief om AI-onderzoek te vertragen

Waarom is dit belangrijk?
ChatGPT werd eind november 2022 beschikbaar gemaakt voor een breed publiek. Slechts vier maanden later lijkt het alsof de technologie de wereld heeft overgenomen. ChatGPT heeft honderden miljoenen gebruikers en techbedrijven struikelen over elkaar om hun eigen generatieve AI aan te kondigen.In het nieuws: De ontwikkeling van systemen die krachtiger zijn dan GPT-4, het nieuwste taalmodel van OpenAI, kan gevaarlijk zijn voor de mensheid, zeggen de experts in de open brief.
- De brief werd gepubliceerd door de ngo Future of Life Institute, die sinds 2014 probeert om het existentiële risico van geavanceerde AI te verminderen. Meer dan 1.000 mensen in de techindustrie ondertekenden de brief intussen.
- Zij vragen dat de ontwikkeling van geavanceerde AI wordt gepauzeerd voor zes maanden. In die tijd moeten veiligheidsprotocols ontwikkeld en geïmplementeerd worden, onder toezicht van onafhankelijke experts.
- “Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en hun risico’s beheersbaar”, staat in de brief te lezen.
- Ook wordt OpenAI geciteerd, dat in februari in een blogpost het volgende schreef. “Op een gegeven moment kan het belangrijk zijn om een onafhankelijke beoordeling te krijgen voordat wordt begonnen met het trainen van toekomstige systemen, en voor … het beperken van de groeisnelheid van de computers die worden gebruikt voor het creëren van nieuwe modellen.” De ondertekenaars van de brief zeggen het volgende: “Daar zijn wij het mee eens. De tijd is nu.”
Geen algemene pauze
Opgemerkt: De ondertekenaars zeggen dat ze de vooruitgang niet willen tegenhouden, maar enkel veilig willen laten verlopen.
- “Dit betekent geen pauze in de ontwikkeling van AI in het algemeen, maar slechts een stap terug van de gevaarlijke wedloop naar steeds grotere onvoorspelbare black-box-modellen met emergente capaciteiten.”
- AI-onderzoekers moeten zich volgens hen vooral focussen op bestaande systemen. Die moeten transparanter, accurater, veiliger en geloofwaardiger worden gemaakt, voordat krachtigere systemen worden ontwikkeld. Ook willen zij dat overheden meer doen om AI te reguleren.