Sam Altman lacht met de bunkers van de ultrarijken: “Als de apocalyps van AI komt, zullen die niet helpen”

Sam Altman lacht met de bunkers van de ultrarijken: “Als de apocalyps van AI komt, zullen  die niet helpen”
Sam Altman, CEO OpenAI. (SeongJoon Cho/Bloomberg via Getty Images)

Het is algemeen bekend dat sommige miljardairs bunkers hebben waar ze willen schuilen in het geval van een apocalyps. Bijvoorbeeld vanwege een kernoorlog of een ongekende klimaatramp. Sam Altman, hoofd van OpenAI en vader van ChatGPT, legt uit waarom hij er geen heeft.

In het nieuws: Altmans nieuwe voorspelling over AI.

  • Een journalist vroeg onlangs in een interview met Altman naar aanleiding van een evenement van de Wall Street Journal wat zijn mening is over de bunkers van de ultrarijken. De man achter ChatGPT stak niet alleen de draak met degenen die er een hebben, maar herinnerde ons er ook aan hoe bedreigend kunstmatige intelligentie is voor de mensheid.

De details: Wat heeft hij gezegd?

  • “Ik kan niet zeggen dat ik een bunker heb”, antwoordde hij, volgens Business Insider. “Ik heb vergelijkbare structuren, maar ik zou niet zeggen een bunker.”
  • De CEO van OpenAI gaf geen verdere informatie over wat hij tot zijn beschikking had. Maar hij legde wel uit waarom hij geen bunker heeft gebouwd zoals andere miljardairs.
  • “Niets van dit alles zal helpen als er iets foutloopt met AGI, het is een belachelijke vraag”, stelde hij.
    • AGI staat voor “Kunstmatige Algemene Intelligentie”. Dit verwijst naar het punt waarop AI in staat zal zijn om elke cognitieve taak die normaal door mensen wordt uitgevoerd op zich te nemen.

Altman bouwt misschien geen bunker tegen een apocalyps, maar…

De context: Enkele opmerkingen uit 2016 komen weer naar boven.

  • Dit is lang niet de eerste keer dat Altman zorgwekkende voorspellingen doet over kunstmatige intelligentie.
    • In mei schreef hij bijvoorbeeld mee aan een artikel op de blog van OpenAI waarin hij uitlegde dat AI binnen de komende tien jaar waarschijnlijk “het vaardigheidsniveau van experts op de meeste gebieden zal overtreffen”. Wat, om het simpel te zeggen, de mensheid naar het beste en het slechtste zou kunnen leiden.
    • Iets eerder had hij ook een even korte als duidelijke verklaring medeondertekend: “Het verkleinen van de risico’s op uitsterven als gevolg van AI moet een wereldwijde prioriteit zijn, net zoals andere maatschappelijke risico’s zoals pandemieën en kernoorlogen.”
  • Altman mag dan geen voorstander zijn van bunkers, maar in een interview met de New Yorker uit 2016 zei hij wel dat hij zich voorbereidt op een apocalyps.
    • Altman legde toen uit dat de wereld zou kunnen eindigen door het vrijkomen van een “dodelijk synthetisch virus”, een “AI-aanval” of een “nucleaire oorlog”.
    • Om zichzelf te beschermen tegen zo’n doemscenario heeft hij naar eigen zeggen wapens, goud, kalium, antibiotica, batterijen, water en gasmaskers van de Israëlische defensiemacht ingeslagen. Hij vertrouwde ook toe dat hij een “groot stuk land had in Big Sur”, een deel van de Californische kust.
    • In april, toen hij inmiddels wereldberoemd was, bagatelliseerde Altman zijn vroegere opmerkingen in de podcast Honestly with Bari Weiss. “Het was als een leuke hobby, maar er is niets anders te doen. Niets van dit alles zal je helpen als het [met algemene kunstmatige intelligentie] fout gaat”, legde hij uit.

(nd)

Meer premium artikelen
Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.