Wat als machine learning en AI te ver gaan?

Samengevat: Volgens onderzoekers kunnen en mogen we artificiële intelligentie (AI) niet volledig vertrouwen. Als AI steeds meer menselijke eigenschappen krijgt, dan bestaat de kans dat taalmodellen tegen ons gaan liegen. De band tussen mens en machine moet verder onderzocht worden.

Waarom is dit belangrijk?

De ontwikkeling van artificiële intelligentie gaat zeer snel. Sommige wetenschappers vragen zich dan ook af of we er genoeg bij stilstaan.

Gelezen: In het blad Journal of Social Computing waarschuwen wetenschappers voor de verdere ontwikkeling van AI.

  • Co-auteur John Levi Martin zegt tegenover de website scitechdaily dat machines een “vorm van zelfvervreemding zouden kunnen krijgen door over te gaan naar een specifiek linguïstische vorm van bewustzijn”.
  • Deze ontwikkeling zet zich nu al door. Computers wisselen onderling informatie uit, mensen geven steeds meer input aan taalmodellen, en AI krijgt een bepaalde mate van zelfbestuur, zoals bij zelfrijdende auto’s.
  • Als machines leren denken als mensen, zullen ze minder rationeel zijn. Martin noemt dat een “linguïstisch wezen”: iemand die ook bezig is met hoe iets overkomt op een ander en een bepaalde gevoeligheid ontwikkelt.
    • Bij linguïstische wezens speelt dan “meer het oriënteren op de strategische controle van informatie”. “Het introduceert een verlies van integriteit… niet iets wat we willen in apparaten die we verantwoordelijk maken voor onze veiligheid”, aldus de onderzoeker.
    • Met andere woorden: we moeten opletten dat machines ons niet gaan voorliegen.

De oplossing: Een duidelijk beleid.

  • De wetenschappers roepen dan ook op om nu al protocollen en testmethodes te ontwikkelen die computerwetenschappers in staat stellen om dit linguïstisch denken op te merken
  • Verder stellen ze dat de maatschappij als geheel na moet denken over omgang met machines die een bepaald zelfbewustzijn ontwikkeld hebben.
Meer