Key takeaways
- Het Amerikaanse ministerie van Defensie heeft OpenAI geselecteerd voor de implementatie van zijn AI-modellen op een vertrouwelijk netwerk.
- Dit zou een verandering kunnen betekenen in het AI-landschap.
- De toewijding van OpenAI aan veiligheidsprotocollen en verantwoord gebruik heeft waarschijnlijk invloed gehad op de keuze van het Amerikaanse ministerie van Defensie.
Na een week van politieke heisa rond het gebruik van artificële intelligentie kondigde Sam Altman, CEO van OpenAI, een overeenkomst aan met het Amerikaanse ministerie van Defensie (DoD) voor de implementatie van hun AI-modellen op een geheim netwerk. Deze ontwikkeling kwam kort nadat president Trump Anthropic, een concurrerend AI-bedrijf, voor nationale veiligheidsoverwegingen verboden had voor overheidsinstanties.
Anthropic op zwarte lijst
Het besluit van het DoD om samen te werken met OpenAI duidt op een mogelijke verschuiving in het landschap van AI-ontwikkeling en -inzet binnen het leger. Altman accentueert het respect van het DoD voor veiligheidsprotocollen en hun collaboratieve aanpak om optimale resultaten te bereiken. Hij zei dat zowel OpenAI als het DoD fundamentele principes delen met betrekking tot AI-veiligheid, waaronder het verbod op binnenlandse massasurveillance en het waarborgen van menselijke verantwoordelijkheid bij het gebruik van geweld, zelfs in autonome wapensystemen.
De overeenkomst van OpenAI met het DoD staat in schril contrast met de recente plaatsing van Anthropic op de zwarte lijst. Anthropic heeft als eerste zijn modellen geïmplementeerd op het gehele netwerk van het DoD. Het bedrijf onderhandelde over de contractvoorwaarden toen de gesprekken abrupt stopten. Anthropic eiste garanties dat hun modellen niet gebruikt zouden worden voor autonome wapens of massale surveillance, terwijl het DoD bredere gebruiksrechten wilde voor alle legale toepassingen.
OpenAI zet zich in voor veiligheid
De redenen achter de beslissing van het DoD om OpenAI te verkiezen boven Anthropic blijven onduidelijk. Overheidsfunctionarissen hebben Anthropic echter eerder bekritiseerd omdat het bedrijf te voorzichtig zou zijn met betrekking tot AI-veiligheid. Altman bevestigde dat OpenAI zich inzet voor het implementeren van technische veiligheidsmaatregelen en het inzetten van personeel om verantwoord gebruik van hun modellen binnen het kader van het DoD te waarborgen. Hij uitte ook de hoop dat deze voorwaarden zouden worden uitgebreid naar alle AI-bedrijven. Daarnaast pleitte hij voor de-escalatie via redelijke overeenkomsten, in plaats van juridische confrontaties.
Anthropic reageerde op zijn plaatsing op de zwarte lijst met teleurstelling en verklaarde van plan te zijn het besluit van het DoD voor de rechter aan te vechten. (uv)
Volg Business AM ook op Google Nieuws
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

