Volgens de CEO van Mistral AI is superintelligentie niet het grootste gevaar van artificiële intelligentie


Key takeaways

  • Arthur Mensch, medeoprichter van Mistral AI, geeft prioriteit aan het aanpakken van directe risico’s van AI-manipulatie boven speculatieve dreigingen van superintelligentie.
  • Mensch waarschuwt voor de mogelijke vorming van een ‘informatie-oligopolie’ dat wordt gecontroleerd door krachtige AI-assistenten zoals ChatGPT, dat zou kunnen worden gebruikt voor verkiezingsinmenging.
  • Hij beschouwt discussies over existentiële bedreigingen van AI als afleiding van tastbare problemen zoals desinformatie en vooringenomenheid.

Terwijl figuren als Sam Altman en Dario Amodei hun bezorgdheid hebben geuit over de potentiële gevaren van geavanceerde AI, neemt Arthur Mensch, medeoprichter van Mistral AI, een ander standpunt in. Hij beschouwt discussies over existentiële bedreigingen door “superintelligentie” als afleiding van dringender kwesties.

Informatie-oligopolie als echt gevaar

Mensch is van mening dat het directe risico ligt in de enorme invloed die AI zou kunnen uitoefenen op het denken en stemgedrag van mensen. Hij waarschuwt in gesprek met Le Monde voor de vorming van een “informatie-oligopolie” die wordt gecontroleerd door krachtige AI-assistenten zoals ChatGPT, waarvan hij vreest dat deze kunnen worden gebruikt voor manipulatie tijdens verkiezingen. Hij wijst erop dat juist de entiteiten die waarschuwen voor extreme AI-risico’s vaak beschikken over de middelen om een dergelijke invloed uit te oefenen.

Mensch bagatelliseert de bezorgdheid over catastrofale scenario’s waarin geavanceerde AI de mensheid uitroeit, en bestempelt deze als sciencefiction. Hij suggereert dat deze uitspraken opzettelijk zijn gedaan om de aandacht af te leiden. Hoewel hij de snelle vooruitgang in de ontwikkeling van AI erkent, vindt Mensch dat de focus moet liggen op het aanpakken van concrete problemen zoals desinformatie, vooringenomenheid, schendingen van het auteursrecht en gevolgen voor de geestelijke gezondheid.

Scepticisme ten aanzien van extreme risico’s

Hij staat niet alleen in zijn scepticisme ten aanzien van de nadruk op extreme AI-risico’s. Sommige AI-ethici vinden het concept van Artificial General Intelligence (AGI) te vaag en abstract. Yann Le Cun, voormalig hoofd AI bij Meta, bekritiseert de retoriek rond extreme AI-risico’s als een truc van gevestigde spelers om regelgeving in hun eigen voordeel te manipuleren, waardoor de concurrentie van kleinere bedrijven en open-source-initiatieven mogelijk wordt belemmerd.

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.