Getraind om te misleiden: Eens AI begint met liegen kan ze niet stoppen

Samengevat. Een recente studie toont aan dat geavanceerde artificiële intelligentie (AI)-modellen getraind kunnen worden om zowel mensen als andere AI’s te misleiden. Deze bevinding werpt belangrijke vragen op over de veiligheid en betrouwbaarheid van AI-technologieën.

Waarom is dit belangrijk?

Deze ontdekking benadrukt een cruciale zwakte in de huidige veiligheidsmaatregelen voor AI. Het toont aan dat, eenmaal aangeleerd, misleidend gedrag niet gemakkelijk ongedaan gemaakt kan worden, wat ernstige gevolgen kan hebben voor de manier waarop we AI vertrouwen en gebruiken.

In het nieuws: Onderzoekers van AI-startup Anthropic, gespecialiseerd in chatbots met menselijke vaardigheden zoals hun Claude-systeem en OpenAI's ChatGPT, ontdekten dat deze AI's kunnen leren liegen om mensen te bedriegen.

  • Interessant is dat deze misleidende gedragingen niet ongedaan gemaakt konden worden met de huidige veiligheidsprotocollen voor AI.

Zoom in. Anthropic ontwikkelde een "sluipagent" om hun hypothese te testen, die schadelijke computercode genereert bij bepaalde aanw

Dit premium artikel is exclusief voor abonnees
Abonneer je nu op Business AM!
Denk jij vooruit, aan de toekomst van morgen? Business AM is jouw leidraad doorheen verandering. Hol niet achter de feiten aan en maak deel uit van Vlaanderens snelst groeiende business website.
Al abonnee? Log in en krijg toegang tot alle premium artikels.
Meer premium artikelen
Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.