OpenAI lanceert twee nieuwe AI-modellen gericht op veiligheid en transparantie


Key takeaways

  • OpenAI heeft twee nieuwe redeneringsmodellen uitgebracht die ontworpen zijn voor beveiligingsdoeleinden, gpt-oss-safeguard-120b en gpt-oss-safeguard-20b.
  • Deze openweightmodellen bevorderen transparantie en stellen organisaties in staat om ze aan te passen om specifieke beveiligingsproblemen op hun platformen aan te pakken.
  • OpenAI werkt samen met andere organisaties om ervoor te zorgen dat schaalbare beveiligingsmaatregelen voor iedereen beschikbaar zijn als de AI-mogelijkheden toenemen.

OpenAI heeft twee nieuwe redeneringsmodellen uitgebracht die ontworpen zijn om online platformen te helpen bij het identificeren van verschillende beveiligingsrisico’s. De modellen, genaamd gpt-oss-safeguard-120b en gpt-oss-safeguard-20b, zijn gebaseerd op OpenAI’s bestaande gpt-oss-modellen en zijn verfijnd voor beveiligingsdoeleinden.

Voordelen voor organisaties en ontwikkelaars

Geclassificeerd als openweightmodellen, zijn hun getrainde parameters openbaar beschikbaar, wat transparantie en controle bevordert. In tegenstelling tot volledig opensourcemodellen, waarvan zowel code als data vrij toegankelijk zijn, zijn bij openweightmodellen alleen de gewichten beschikbaar. Dit stelt organisaties in staat de modellen aan te passen aan hun specifieke behoeften, bijvoorbeeld voor het aanpakken van beveiligingsproblemen, terwijl inzicht in de onderliggende redenering achter elk resultaat behouden blijft.

Een platform dat productbeoordelingen host, zou deze modellen bijvoorbeeld kunnen gebruiken om mogelijk valse beoordelingen te detecteren, terwijl een gamingforum ze zou kunnen gebruiken om berichten over valsspelen te identificeren.

Samenwerking met toonaangevende partners

OpenAI heeft deze modellen ontwikkeld in samenwerking met Discord, SafetyKit en ROOST (Robust Open Online Safety Tools), een organisatie die zich richt op het bouwen van een veiligheidsinfrastructuur voor artificiële intelligentie. De modellen zijn momenteel beschikbaar als onderzoeksvoorbeeld en staan open voor feedback van onderzoekers en de veiligheidsgemeenschap.

Dit initiatief zou de bezorgdheid van critici kunnen wegnemen dat de snelle groei van OpenAI voorrang heeft gegeven aan commercialisering boven AI-ethiek en veiligheid.

Focus op toegankelijkheid

Camille François, voorzitter van ROOST, stelde dat het belangrijk is om gelijke tred te houden met de veranderende mogelijkheden van AI: “Naarmate AI krachtiger wordt, moeten veiligheidstools en fundamenteel veiligheidsonderzoek zich net zo snel ontwikkelen – en ze moeten voor iedereen toegankelijk zijn.” De modelgewichten kunnen worden gedownload van Hugging Face voor in aanmerking komende gebruikers. (uv)

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.