Geplande EU-regelgeving op vlak van AI dreigt innovatie te ondermijnen, terwijl het de echte risico’s niet aanpakt.
Volgens een studie van de “Information Technology and Innovation Foundation” loopt de Europese Unie achter op de Verenigde Staten en China als het gaat om de ontwikkeling en het gebruik van artificiële intelligentie (AI). De meest futuristische variant daarvan is “kunstmatige algemene intelligentie (Artificial General Intelligence of AGI)”, omschreven als “het vermogen van een intelligente actor om elke intellectuele taak die een mens kan uitvoeren, te begrijpen of te leren”.
De studie waarin de EU met de V.S. en China wordt vergeleken komt tot een gelijkaardige conclusie als andere studies (de Stanford AI index, het Tortoise AI rapport of het “State of European Tech” rapport). Ze besluit hiertoe op basis van 30 verschillende criteria, waaronder de aanwezigheid van talent, onderzoeksactiviteit, commerciële ontwikkeling alsook investeringen in hard- en software. Terwijl de V.S. aan de leiding staan in de algemene rangschikking, evenals op belangrijke gebieden zoals investeringen in start-ups en financiering van onderzoek en ontwikkeling, loopt China voorop wanneer het gaat om het aantal “supercomputers”, aangezien het er 500 heeft, wat meer is dan de 113 in de V.S. en de 91 die in de EU staan. Supercomputers worden als belangrijk gezien voor de ontwikkeling van AI, zelfs als datgene wat de vooruitgang van AI “echt mogelijk maakt”.
In de studie wordt ook opgemerkt dat “de Verenigde Staten hun voorsprong op de Europese Unie hebben behouden of vergroot in bijna 75% van de criteria”. Een belangrijk probleem voor de EU is hierbij de toegang tot risicokapitaal en private equity-financiering. Ook al doet Europa het wel beter op vlak van het aantal gepubliceerde onderzoekspapers betreft, toch “is China de EU voorbijgestreefd als wereldleider in AI-publicaties”.
De hoofdauteur van het rapport, Daniel Castro, merkte op dat “de Chinese regering van AI een topprioriteit heeft gemaakt en dat de resultaten zichtbaar zijn”.
Al een aantal jaar staat “AI” in de belangstelling. In 2017 beweerde de Russische president Vladimir Poetin al dat wie een doorbraak bereikt in de ontwikkeling van kunstmatige intelligentie de wereld zal domineren, omdat dit “kolossale kansen en bedreigingen met zich meebrengt die nu moeilijk te voorspellen zijn.” Hij voorspelde daarbij dat toekomstige oorlogen zullen worden uitgevochten door drones, en “wanneer de drones van de ene worden vernietigd door drones van de andere, zal die geen andere keuze hebben dan zich over te geven.” In een reactie hierop tweette Tesla-oprichter Elon Musk dat “China, Rusland binnenkort allemaal landen [zullen zijn] met een sterke computerwetenschap. Concurrentie om de AI superioriteit op [het] nationale niveau [wordt] hoogstwaarschijnlijk [de] oorzaak zijn van de Derde Wereldoorlog, naar mijn mening.” Het zal niet verbazen dat ook China zeer actief is als het gaat om AI-toepassingen voor defensie, want in 2020 werden bijna 350 aan kunstmatige intelligentie gerelateerde uitrustingscontracten gegund door het Chinese leger en door de Chinese overheid gecontroleerde defensiebedrijven.
Kortom, kunstmatige intelligentie zal waarschijnlijk niet alleen grote economische, maar ook grote geostrategische gevolgen hebben. Het is niet bepaald mooi om te zien hoe de Europese Unie en haar lidstaten achterop raken.
Hoe pakt de EU AI aan?
Nogmaals volgens de geciteerde studie “is de grootste uitdaging voor de EU en de lidstaten dat velen in Europa geen vertrouwen hebben in AI en het zien als een technologie die moet worden gevreesd en beperkt, in plaats van verwelkomd en bevorderd”.
Ter illustratie wordt herinnerd aan het “witboek” van de Europese Commissie van 2020 over AI, dat een planning bevat voor de verwachte wetgeving, waarin deze vrees voor AI wordt benadrukt en wordt gewezen op “potentiële risico’s, zoals ondoorzichtige besluitvorming, discriminatie op grond van geslacht of andere vormen van discriminatie, schending van ons privéleven of gebruik voor criminele doeleinden”.
Hetzelfde wantrouwen ligt aan de basis van de beruchte General Data Protection Regulation (GDPR) van de EU, die ook beperkingen oplegt aan het verzamelen en gebruiken van gegevens die de ontwikkelingen op het gebied van AI kunnen bevorderen. In maart bekritiseerde de Duitse CDU-Europarlementariër Axel Voss deze EU-regelgeving met het argument dat “Europa’s obsessie met gegevensbescherming digitale innovatie in de weg staat”, aangezien “de implementatie van de GDPR een enorm pijnpunt is geweest voor de gemiddelde onderneming, organisatie en burger. Het belangrijkste is echter dat de GDPR een ernstige belemmering vormt voor het vermogen van de EU om nieuwe technologie en dringend noodzakelijke digitale oplossingen te ontwikkelen, bijvoorbeeld op het gebied van e-governance en gezondheid.” Hij voegde eraan toe: “Veel van de belangrijke technologieën van de toekomst – zoals kunstmatige intelligentie, blockchain of single sign-on-oplossingen – waren al algemeen bekend in 2016, toen de GDPR werd afgerond. En toch maken bepalingen in de wetgeving – die volgens velen “technologieneutraal” had moeten zijn – het onmogelijk om ze goed te gebruiken of zelfs maar te ontwikkelen.”
Momenteel doorloopt de zogenaamde AI-wet van de EU de regelgevingsmachine van de EU, nadat het voorstel door de Commissie hiervoor is gelanceerd. In de meest recente versie, die door het roterende voorzitterschap van de Raad van de EU is ingediend, worden bepalingen inzake AI-systemen die uitsluitend voor militaire doeleinden zijn ontwikkeld, uit de werkingssfeer van de verordening gehaald, aangezien nationale veiligheid een exclusief nationale bevoegdheid is. Ook wordt erop aangedrongen AI-systemen die uitsluitend voor wetenschappelijk onderzoek en ontwikkeling zijn ontwikkeld, vrij te stellen.
Het voorstel van de Commissie voorziet in een verbod op AI-toepassingen wanneer die geacht worden onaanvaardbare risico’s met zich mee te brengen, waaronder bijvoorbeeld “social credit scores” naar Chinees model. Het Sloveense voorzitterschap van de EU heeft erop aangedrongen dit verbod uit te breiden tot private initiatieven, en de definitie van illegaal gebruik uit te breiden tot het uitbuiten van een “sociale of economische situatie”. Dit betekent dat banken dergelijke AI-toepassingen bijvoorbeeld niet zouden kunnen gebruiken om te beoordelen hoe waarschijnlijk het is dat leningen worden terugbetaald.
Voorts worden ook biometrische identificatiesystemen door de komende AI-regelgeving van de EU gereguleerd, ook al worden deze al in ten minste 11 EU-lidstaten gebruikt. Het is de bedoeling ze enkel toe te staan voor bepaalde doeleinden, zoals de bescherming van kritieke infrastructuur, en het gebruik ervan alleen toe te staan na voorafgaande toestemming van de gerechtelijke autoriteiten, of achteraf, in dringende gevallen, terwijl ook het gebruik ervan zou worden toegelaten voor de autoriteiten.
De geplande EU-verordening bevat ook een classificatie van AI-gerelateerde activiteiten die worden beschouwd als “onaanvaardbaar risico”, “hoog risico”, “beperkt risico” of “minimaal risico”, waarbij elke categorie ook gepaard gaat met overeenkomstige verplichtingen. Het gebruik van AI-systemen om verzekeringspremies te schatten, wordt bijvoorbeeld geclassificeerd als “hoog risico”. Ook hier willen de EU-regeringen aanpassingen bijvoorbeeld door de subcategorie “criminaliteitsanalyse” uit de categorie “Hoog risico” te halen. Ook het Europees Parlement krijgt hierover nog zijn zegje en zal alle beperkingen waarschijnlijk nog aanscherpen.
Vraagtekens bij de aanpak van de EU
Hoewel de staats- en regeringsleiders tijdens de Europese top in oktober waarschuwden tegen buitensporige administratieve lasten voor KMO’s in het kader van digitaal beleid en daarbij opriepen tot “innovatievriendelijkheid”, lijkt de nieuw voorgestelde AI-wetgeving niet bepaald in die richting te gaan.
Bovendien lijken de nieuwe vele beperkingen ook niet de echte risico’s aan te pakken. Dat is althans de mening van Jared Brown, directeur Amerikaans en internationaal beleid van het in Boston gevestigde Future of Life Institute. In een evaluatie van de door de EU voorgestelde AI-wet betoogt hij dat er bij de AI-wet van de EU mazen in de wet zijn, omdat deze specifieke toepassingen van AI reguleert of zelfs verbiedt, maar niet dieper ingaat op de zogenaamde “funderingsmodellen” of “foundation models” die aan deze toepassingen ten grondslag liggen. Dat zijn “algoritmen voor machinaal leren die zijn getraind op brede gegevens op massale schaal en die kunnen worden aangepast om een breed scala van functies uit te voeren.”
Als zo’n funderingsmodel geen bepaalde intentie heeft aangegeven, zou het volgens hem mogelijk zijn dat de toepassingen ervan niet onder de wet kunnen vallen.
Een voorbeeld: als de wet bijvoorbeeld “social credit score”-AI-toepassingen zou verbieden, of toepassingen die “de kwetsbaarheden van een specifieke groep personen uitbuiten”, kunnen dergelijke activiteiten toch nog aan een verbod ontsnappen, omdat funderingsmodellen – door de voorgestelde EU-wetgeving “AI-systemen voor algemene doeleinden” genoemd – “veel verschillende toepassingen hebben, zodat één vooringenomenheid of fout in het systeem verschillende sectoren van de samenleving kan treffen”, aldus Brown. Hij geeft het voorbeeld van een anti-moslimvooroordeel, dat “van invloed zou kunnen zijn op media-artikelen, onderwijsmateriaal, chatbots en andere toepassingen van dit systeem die waarschijnlijk in de nabije toekomst zullen worden ontdekt.”
De voorgestelde wijzigingen door het Sloveense Raadsvoorzitterschap omvatten ook de behandeling van dergelijke funderingsmodellen, maar zullen niet automatisch onder de wet vallen. Zij zullen alleen onder de wet vallen als het “beoogde doel” binnen het toepassingsgebied ervan valt. Dit is volgens het Future of Life Institute anders bij de Amerikaanse regelgeving inzake AI, waar zij er wel onder vallen.
Een gevolg hiervan is ook dat de last om in regel te zijn met de wetgeving zou worden verlegd van de grote Amerikaanse en Chinese techreuzen die eigenaar zijn van de funderingsmodellen, naar de Europese KMO’s en startups die deze modellen gebruiken om AI-toepassingen te creëren, iets wat “het relatieve concurrentievermogen van de Europese techsector zou kunnen schaden”, aldus Brown, in een interview met Science Business. Hij zou liever zien dat de EU-regelgeving voor AI zich richt op de algemene kwaliteiten van het hele AI-systeem, zoals of het al dan niet bevooroordeeld is.
Een andere AI-deskundige, onderzoeker Sébastien Krier van de Stanford Universiteit, is het hiermee eens en stelt dat “als je een slecht funderingsmodel hebt […] alles stroomafwaarts ook slecht zal zijn”. Hij voegt eraan toe dat funderingsmodellen volgens hem AI in wezen “centraliseren” en daardoor potentieel kwetsbaarder maken, bijvoorbeeld door gegevensvergiftiging, omdat “je één aanvalspunt hebt”.
Conclusie
Eén conclusie lijkt alvast duidelijk: waar men ook staat ten aanzien van AI, het lijkt zeer complex om performante regels uit te werken, aangezien zelfs goedbedoelde regelgeving die erop gericht is geen onnodige hindernissen op te werpen voor innovatie, gemakkelijk mazen in de wetgeving kan laten voor de echte risico’s.
EU-beleidsmakers verwijzen graag naar het belang van het zogenaamde “Brussel-effect”, dat inhoudt dat de EU in staat is regelgeving op te stellen die door een groot deel van de rest van de wereld wordt overgenomen, als gevolg van de grote marktomvang van de EU. Hieraan wordt herinnerd in een rapport van de denktank Carnegie uit 2020 over “Europa en AI”, waarin het volgende wordt opgemerkt: “Centraal bij de inspanningen van de EU staat de notie van AI die “made in Europe” is, die aandacht besteedt aan ethische en humane overwegingen, en die in overeenstemming is met de kernwaarden van de mensenrechten en de democratische beginselen.”
Te oordelen naar wat Amerikaanse academische critici zeggen, is de aanpak van de EU op het gebied van regelgeving ingegeven door angst voor de technologische ontwikkeling, terwijl zij er allicht daarbij toch niet in slaagt de werkelijke risico’s van AI aan te pakken.
De eerlijkheid gebiedt te zeggen dat het, gezien de grote onzekerheid over hoe deze technologie zich zal ontwikkelen, beter is voorlopig voorzichtig te zijn met al te grote uitspraken over hoe AI best gereglementeerd wordt.
De Carnegie studie maakt sowieso wel een mooie suggestie die de EU in staat zal stellen om succes te boeken op vlak van AI-ontwikkeling, hoe de regelgeving voor AI er uiteindelijk ook uit zal zien. Ze stelt voor dat de EU, om haar AI-ecosysteem te laten bloeien, “een inhaalslag moet maken bij het digitaliseren van haar economieën en de totstandkoming van de digitale interne markt voor eens en voor altijd moet voltooien.”
Als er al een schaars positief resultaat uit de Covid-crisis te halen valt, dan is het misschien wel dat veel Europeanen meer vertrouwd zijn geraakt met de digitale wereld. In zekere zin is dit een enorme kans. De EU en haar lidstaten zouden daarom nu prioriteit moeten geven aan een grootschalig programma om eerst de vele hindernissen die nationale en EU-regelgeving voor digitale bedrijven opwerpt binnen de EU in kaart te brengen en deze vervolgens één voor één weg te nemen, idealiter niet door harmonisatie op EU-niveau, maar door een methode waarbij lidstaten die elkaars regelgeving gewoonweg wederzijds erkennen. Gezien hoe moeilijk het is om een performant regelgevend kader voor AI uit te werken, is dat misschien wel het nuttigste wat we op dit moment kunnen doen. Het is in elk geval noodzakelijk om dit nu te doen, als we bloeiende AI-industrie in de Europese Unie willen.
De auteur Pieter Cleppe is hoofdredacteur van BrusselsReport, een nieuwe webstek die zich richt op nieuws en analyse met betrekking tot EU-politiek.