OpenAI en Anthropic zoeken wapenspecialisten om misbruik van AI te voorkomen


Key takeaways

  • Anthropic en OpenAI nemen wapen- en explosievenexperts in dienst om mogelijk misbruik van hun technologieën tegen te gaan.
  • Deze initiatieven zijn gericht op het ontwerpen van veiligheidsprotocollen en het identificeren van opkomende bedreigingen die geavanceerde AI met zich meebrengt.

AI-bedrijven, Anthropic en OpenAI, nemen proactieve maatregelen om mogelijk misbruik van hun technologieën te beperken. Beide bedrijven hebben vacatures geplaatst waarin ze op zoek zijn naar experts op het gebied van wapens en explosieven.

Gevoelige informatie

Anthropic heeft in een Linkedin-post aangekondigd dat ze specifiek op zoek zijn naar een beleidsexpert met uitgebreide ervaring op het gebied van chemische wapens en explosievenbestrijding. Deze persoon zal verantwoordelijk zijn voor het ontwerpen en implementeren van veiligheidsprotocollen, ook wel ‘guardrails’ genoemd. Zo wil het bedrijf ervoor zorgen dat de AI-systemen van Anthropic op een verantwoorde manier omgaan met gevoelige informatie rond wapens en explosieven. Daarnaast moet hij of zij snel reageren op mogelijke escalaties of zorgwekkende prompts hierrond.

OpenAI heeft een soortgelijk initiatief gelanceerd. Het bedrijf plaatste eerder deze maand een vacature online waarin stond dat het op zoek was naar onderzoekers voor het Preparedness-team. Zij zijn gericht op het identificeren en beperken van catastrofale risico’s die verband houden met geavanceerde AI-modellen. Het bedrijf is ook op zoek naar een Threat Modeler. Die persoon zal verantwoordelijk zijn voor het analyseren en voorspellen van potentiële dreigingen die worden gevormd door de AI-technologieën. Deze persoon zal fungeren als centraal aanspreekpunt en een brug slaan tussen technische, bestuurlijke en beleidsmatige perspectieven om prioriteiten te stellen en de inspanningen te richten op het aanpakken van deze opkomende risico’s.

Overheidstoezicht

Deze wervingsbeslissingen volgen op de recente juridische procedure die Anthropic tegen de Amerikaanse overheid heeft aangespannen. Het bedrijf werd aangemerkt als een “toeleveringsketenrisico“. Dat had kunnen leiden tot beperkingen op zijn contracten en samenwerkingen met overheidsinstanties. De CEO van Anthropic, Dario Amodei, maakte bezwaar tegen deze aanwijzing en voerde aan dat dit hen niet zou mogen beletten om controle uit te oefenen over het gebruik van hun AI-chatbot, Claude. Hij legde daarbij specifiek de nadruk op de bezorgdheid over mogelijk misbruik voor massasurveillance of autonome wapens. (ev)

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.