Amerikaanse minister van Defensie spreekt met Anthropic-CEO over AI-ethiek


Key takeaways

  • Amerikaans minister van Defensie Pete Hegseth streeft naar AI-technologie die vrij is van ideologische beperkingen, waarbij hij voorrang geeft aan “wettige” militaire toepassingen.
  • Dario Amodei, CEO van Anthropic, uit zijn bezorgdheid over het ongecontroleerde gebruik van AI door de overheid, met name het potentieel ervan in autonome wapens en massasurveillance.
  • Het streven van het Pentagon naar AI-capaciteiten beklemtoont het debat over het evenwicht tussen nationale veiligheid en de verantwoorde ontwikkeling en inzet van artificiële intelligentie.

De aanstaande ontmoeting tussen Amerikaans minister van Defensie Pete Hegseth en Dario Amodei, CEO van Anthropic, beklemtoont de groeiende bezorgdheid over het gebruik van artificiële intelligentie door het leger. Anthropic, maker van de chatbot Claude, is het enige AI-bedrijf onder zijn concurrenten dat geen technologie levert aan het nieuwe interne netwerk van het Pentagon.

In een essay heeft Amodei publiekelijk zijn ethische bedenkingen geuit over het ongecontroleerde gebruik van AI door de overheid, waarbij hij wijst op gevaren zoals autonome wapens en massale surveillance gericht op dissidenten. De ontmoeting toont een bredere discussie over de rol van AI in de nationale veiligheid aan, met name de mogelijke toepassing ervan in scenario’s met hoge risico’s waarbij dodelijk geweld, gevoelige gegevens en overheidssurveillance een rol spelen.

Het standpunt van Hegseth om wat hij beschouwt als een “wokecultuur” uit de strijdkrachten te verwijderen, maakt de kwestie nog ingewikkelder. Amodei heeft gewaarschuwd dat krachtige AI-systemen de publieke opinie kunnen analyseren, pockets van ontrouw kunnen opsporen en deze kunnen onderdrukken voordat ze groeien.

Verdeeld landschap

Hoewel Anthropic het eerste AI-bedrijf was dat werd goedgekeurd voor geheime militaire netwerken en samenwerkt met bedrijven als Palantir, opereren zijn concurrenten Google, OpenAI en xAI momenteel in niet-geheime omgevingen. Hegseth heeft specifiek de nadruk gelegd op xAI en Google en aangegeven dat hij de voorkeur geeft aan AI-systemen die vrij zijn van ideologische beperkingen die legale militaire toepassingen beperken. Hij beweert dat de AI van het Pentagon niet “woke” zal zijn.

OpenAI sloot zich in februari aan bij het beveiligde AI-platform van het Pentagon, waardoor militairen een aangepaste versie van ChatGPT kunnen gebruiken voor niet-geclassificeerde taken. De positie van Anthropic als veiligheidsbewuste leider onder AI-bedrijven wordt nu op de proef gesteld. Owen Daniels, analist bij het Center for Security and Emerging Technology van Georgetown University, suggereert dat de onderhandelingspositie van Anthropic beperkt is door de bereidheid van zijn concurrenten om zich te houden aan het beleid van het Pentagon om modellen te gebruiken voor alle legale toepassingen.

Evenwicht tussen veiligheid en beveiliging

Anthropic heeft zich aangesloten bij de regering van president Biden door zijn AI-systemen vrijwillig te onderwerpen aan controle door derden om risico’s voor de nationale veiligheid te beperken. Amodei erkent de potentiële gevaren van AI, maar verwerpt het label “AI-doemdenker” en stelt dat deze risico’s op realistische en pragmatische wijze kunnen worden beheerd.

Dit is niet de eerste keer dat Anthropic in conflict komt met de regering over AI-veiligheidsmaatregelen. Tijdens de regering-Trump bekritiseerde Anthropic in het openbaar voorstellen om de exportcontroles op AI-chips voor China te versoepelen. Het bedrijf verzette zich ook tegen lobbyinspanningen om AI in Amerikaanse staten te reguleren, wat kritiek opleverde van David Sacks, een topadviseur van Trump op het gebied van AI.

Op zoek naar steun

Ondanks deze spanningen heeft Anthropic gestreefd naar een tweeledige aanpak en Chris Liddell, een voormalig ambtenaar uit de regering-Trump, benoemd tot lid van de raad van bestuur.

Het debat tussen het Pentagon en Anthropic doet denken aan eerdere controverses, toen techmedewerkers bezwaar maakten tegen de betrokkenheid van hun bedrijven bij Project Maven, een drone-surveillanceprogramma van het Pentagon. Hoewel sommige medewerkers ontslag namen en Google zich terugtrok uit het project, blijft het Pentagon vertrouwen op dronesurveillance.

Deskundigen waarschuwen dat het gebruik van AI in militaire contexten al een realiteit is die waarschijnlijk niet zal verdwijnen. Hoewel sommige toepassingen, zoals backoffice-taken, minder risico’s met zich meebrengen, geven inzet op het slagveld waarbij dodelijk geweld of wapens worden gebruikt aanleiding tot grote bezorgdheid. Het leger is zich bewust van deze risico’s en onderzoekt al bijna tien jaar strategieën om deze te beperken.

(jw)(fc)

Wil je meer defensienieuws ontvangen? Schrijf je hier in op onze wekelijkse Defensie Insider-nieuwsbrief.

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.