Pentagon bestempelt Anthropic als risico voor AI-toeleveringsketen


Key takeaways

  • Het Pentagon heeft Anthropic bestempeld als een risico voor de toeleveringsketen door bezorgdheid dat de Claude AI-modellen van het bedrijf zouden kunnen leiden tot ineffectieve militaire technologie.
  • Anthropic heeft een rechtszaak aangespannen tegen de regering-Trump en beweert dat de aanwijzing onwettig is en hun contracten in gevaar brengt.
  • Ondanks de aanwijzing heeft het Pentagon verduidelijkt dat het Anthropic niet straft en erkent het de belangrijke commerciële activiteiten van het bedrijf.

Emil Michael, Chief Technology Officer van het Pentagon, heeft zijn bezorgdheid geuit over de Claude AI-modellen van Anthropic en beweert dat deze een risico vormen voor de defensieketen, meldt CNBC. Hij legde uit dat de modellen doordrongen zijn van een “andere beleidsvoorkeur”, wat zou kunnen leiden tot de ontwikkeling van ineffectieve wapens en beschermende uitrusting voor militair personeel.

Aanwijzing als risico 

Door dit standpunt werd Anthropic als eerste Amerikaanse bedrijf aangemerkt als een risico voor de toeleveringsketen, een aanduiding die doorgaans is voorbehouden aan buitenlandse entiteiten. Het besluit verplicht defensiecontractanten en leveranciers om te verklaren dat zij Claude niet gebruiken in hun werk met het Pentagon.

Anthropic reageerde door een rechtszaak aan te spannen tegen de regering-Trump, met het argument dat de aanduiding “ongekend en onwettig” is en contracten ter waarde van honderden miljoenen dollars in gevaar brengt.

Standpunt van het Pentagon

Michael verduidelijkte het standpunt van het Pentagon en beklemtoonde dat het besluit niet bedoeld is als straf. Hij erkende de aanzienlijke commerciële activiteiten van Anthropic en merkte op dat slechts een klein deel van hun activiteiten betrekking heeft op de Amerikaanse overheid. Hij weerlegde ook geruchten dat het Pentagon bedrijven actief ontmoedigt om producten van Anthropic te gebruiken.

Anthropic, opgericht in 2021 door voormalige onderzoekers en leidinggevenden van OpenAI, staat bekend om zijn Claude AI-modellen, die aan populariteit hebben gewonnen bij grote ondernemingen, waaronder het Amerikaanse ministerie van Defensie. Het bedrijf heeft een “grondwet” ontwikkeld als leidraad voor de training van zijn Claude-modellen, waarin staat dat deze een “cruciale rol” speelt bij het vormgeven van het gedrag van de AI en het waarborgen van de bruikbaarheid ervan, met inachtneming van veiligheids-, ethische en nalevingsrichtlijnen.

(jw)(fc)

Wil je meer defensienieuws ontvangen? Schrijf je hier in op onze wekelijkse Defensie Insider-nieuwsbrief.

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.