Key takeaways
- Arthur Mensch, medeoprichter van Mistral AI, geeft prioriteit aan het aanpakken van directe risico’s van AI-manipulatie boven speculatieve dreigingen van superintelligentie.
- Mensch waarschuwt voor de mogelijke vorming van een ‘informatie-oligopolie’ dat wordt gecontroleerd door krachtige AI-assistenten zoals ChatGPT, dat zou kunnen worden gebruikt voor verkiezingsinmenging.
- Hij beschouwt discussies over existentiële bedreigingen van AI als afleiding van tastbare problemen zoals desinformatie en vooringenomenheid.
Terwijl figuren als Sam Altman en Dario Amodei hun bezorgdheid hebben geuit over de potentiële gevaren van geavanceerde AI, neemt Arthur Mensch, medeoprichter van Mistral AI, een ander standpunt in. Hij beschouwt discussies over existentiële bedreigingen door “superintelligentie” als afleiding van dringender kwesties.
Informatie-oligopolie als echt gevaar
Mensch is van mening dat het directe risico ligt in de enorme invloed die AI zou kunnen uitoefenen op het denken en stemgedrag van mensen. Hij waarschuwt in gesprek met Le Monde voor de vorming van een “informatie-oligopolie” die wordt gecontroleerd door krachtige AI-assistenten zoals ChatGPT, waarvan hij vreest dat deze kunnen worden gebruikt voor manipulatie tijdens verkiezingen. Hij wijst erop dat juist de entiteiten die waarschuwen voor extreme AI-risico’s vaak beschikken over de middelen om een dergelijke invloed uit te oefenen.
Mensch bagatelliseert de bezorgdheid over catastrofale scenario’s waarin geavanceerde AI de mensheid uitroeit, en bestempelt deze als sciencefiction. Hij suggereert dat deze uitspraken opzettelijk zijn gedaan om de aandacht af te leiden. Hoewel hij de snelle vooruitgang in de ontwikkeling van AI erkent, vindt Mensch dat de focus moet liggen op het aanpakken van concrete problemen zoals desinformatie, vooringenomenheid, schendingen van het auteursrecht en gevolgen voor de geestelijke gezondheid.
Scepticisme ten aanzien van extreme risico’s
Hij staat niet alleen in zijn scepticisme ten aanzien van de nadruk op extreme AI-risico’s. Sommige AI-ethici vinden het concept van Artificial General Intelligence (AGI) te vaag en abstract. Yann Le Cun, voormalig hoofd AI bij Meta, bekritiseert de retoriek rond extreme AI-risico’s als een truc van gevestigde spelers om regelgeving in hun eigen voordeel te manipuleren, waardoor de concurrentie van kleinere bedrijven en open-source-initiatieven mogelijk wordt belemmerd.
Volg Business AM ook op Google Nieuws
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

