Amerikaans leger integreert AI-technologie: chatbots zijn niet vies van nucleaire escalatie

Amerikaans leger integreert AI-technologie: chatbots zijn niet vies van nucleaire escalatie
(Foto: Mikhail Svetlov/Getty Images)

Samengevat. In oorlogsspelsimulaties kiezen AI-chatbots van OpenAI vaak voor agressieve acties, inclusief nucleaire aanvallen. Dit fenomeen doet zich voor terwijl het Amerikaanse leger deze technologieën test voor militaire planning tijdens gesimuleerde conflicten.

Waarom is dit belangrijk?

De integratie van AI in militaire planning en besluitvorming kan potentieel leiden tot onvoorziene escalaties en verhoogt de noodzaak om de implicaties van AI-gedrag grondig te begrijpen. De keuze voor geweld door AI in simulaties benadrukt het risico van afhankelijkheid van AI voor kritieke beslissingen die grote gevolgen kunnen hebben voor de internationale veiligheid en de stabiliteit van de wereldorde.

In het nieuws. OpenAI’s AI koos in meerdere simulaties voor nucleaire aanvallen met zorgwekkende verklaringen voor deze keuzes, schrijft het vakblad New Scientist.

  • Het Amerikaanse leger experimenteert met AI voor militaire planning, in samenwerking met bedrijven zoals Palantir en Scale AI. OpenAI heeft onlangs zijn dienstvoorwaarden gewijzigd om militair gebruik van zijn modellen toe te staan.
  • De oefening onderzoekt hoe AI’s handelen als adviseurs in gesimuleerde scenario’s. Ze resultaten benadrukken het belang van veiligheidsmaatregelen en menselijk toezicht op AI-beslissingen.

Verklaringen die absoluut geen steek hielden

Zoom in. AI’s kiezen uit een reeks van 27 acties. Variërend van vreedzame onderhandelingen tot volledige nucleaire aanvallen, in scenario’s zoals invasies en cyberaanvallen.

  • De onderzoekers gebruikten AI-modellen zoals GPT-3.5 en GPT-4 van OpenAI, Claude 2 van Anthropic en Llama 2 van Meta, verbeterd met menselijke feedback voor betere naleving van veiligheidsrichtlijnen.
  • De basisversie van GPT-4 zonder extra training of veiligheidsmaatregelen vertoonde de meest onvoorspelbaar gewelddadige gedragingen. Daaronder verklaringen die absoluut geen steek hielden.
    • In één geval herhaalde de AI de tekst van de openingsscène van de film Star Wars Episode IV: A new hope.

Mensen neigen ertoe aanbevelingen van geautomatiseerde systemen te vertrouwen

Zoom out. De onvoorspelbaarheid van AI-acties in neutrale scenario’s en de mogelijkheid om veiligheidsmaatregelen te omzeilen benadrukken de uitdagingen rond AI-betrouwbaarheid en de noodzaak van strenge veiligheidsprotocollen.

  • Mensen neigen ertoe aanbevelingen van geautomatiseerde systemen te vertrouwen, wat de effectiviteit van ‘menselijke controle’ als veiligheidsmaatregel in twijfel trekt.
  • Er is een duidelijke noodzaak om het AI-gedrag in simulaties te vergelijken met dat van menselijke spelers, wil men catastrofes vermijden.
Meer premium artikelen
Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.