AI-taalmodel van Meta gelekt: “Opgelet voor gepersonaliseerde spam en phishing”

LLaMA, een AI-taalmodel van de techgigant Meta, is uitgelekt. Dat is natuurlijk pijnlijk voor het moederbedrijf boven Facebook en Instagram, maar kan ook kwalijke gevolgen hebben voor internetgebruikers.

Terugblik: Meta kondigde eind februari zijn AI-taalmodel LLaMA (Large Language Model Meta AI) aan. In tegenstelling tot ChatGPT, de AI-bot van OpenAI, is LLaMa niet bestemd voor het grote publiek. De techgigant wil met de tool de verdere ontwikkeling van kunstmatige intelligentie ondersteunen.

  • “Het is de bedoeling deskundigen te helpen om problemen met taalmodellen te identificeren, of het nu gaat om vooroordelen, toxiciteit of hun neiging om informatie te verzinnen”, zoals The Verge het formuleert.
  • LLaMa staat dicht bij GPT-3, het taalmodel van OpenAI, en LaMDA, het model dat Bard, de chatbot van Google, aandrijft.

In het nieuws: Een week na de aankondiging is de code van LLaMa uitgelekt, terwijl Meta net begon te reageren op verzoeken om toegang te krijgen tot het taalmodel.

De details: Een bestand met de code werd gepubliceerd op de website 4Chan en verspreidde zich snel onder verschillende AI-gemeenschappen, melden de Amerikaanse media.

  • Dat lek heeft een debat op gang gebracht over de manier waarop geavanceerd onderzoek gedeeld moet worden. Meta biedt LLaMA weliswaar aan als open source, maar alleen op verzoek.

Een risico voor de internetgebruikers?

Uit de techsector zijn er hoe dan ook al heel wat uiteenlopende reacties gekomen op het lek.

  • Naast kritiek op Meta vanwege de laksheid waarmee het zijn krachtige AI-model (65 miljard parameters, of een derde van GPT-3) laat uitlekken, maken sommigen zich zorgen over de gevolgen.
    • “Bereid jullie maar voor op gepersonaliseerde spam en phishing”, cybersecurity-onderzoeker Jeffrey Ladish op Twitter. “Open sourcing van deze modellen was een zeer slecht idee.”
  • Anderen zijn veel minder pessimistisch en wijzen erop dat andere, even complexe taalmodellen in het verleden openbaar zijn gemaakt zonder significante schade te veroorzaken.
  • Het aanbieden van open source taalmodellen is noodzakelijk om garanties op dit gebied te ontwikkelen, benadrukken zij.

Opgemerkt: Het exploiteren van dit lek voor kwaadaardige doeleinden is niet eenvoudig voor de gemiddelde persoon, aangezien er geavanceerde kennis nodig is om het bestand te begrijpen en er iets mee te doen.

  • De potentiële omvang van het risico van de openbaarmaking van deze code is weliswaar niet bekend.

Eén ding is zeker: hoewel kunstmatige intelligentie de nieuwste trend is in de techsector en de eerste demonstraties (soms) indrukwekkend waren, zijn er nog veel hiaten in het onderwerp.

(ns/nd)

Meer