Kunstmatige intelligentie kan grote problemen veroorzaken, zeker in de verkeerde handen. Nederland moet het voortouw nemen in het instellen van wereldwijde regulatie en controle, schrijft geschiedenisstudent Bram van Gendt op EW Podium.
Vooralsnog beperkt het debat over de opkomst van kunstmatige intelligentie (AI) zich vooral tot de effecten op het onderwijs. Dat zou fraudegevoeliger worden doordat AI met één druk op de knop verslagen schrijft. Over de veiligheid en de geopolitieke implicaties van AI is in Nederland nog nauwelijks discussie, terwijl er veel reden tot zorg is.
Internetondernemer Alexander Klöpping gaf de kijkers van talkshow Op1 al inzicht over de verstrekkende gevolgen van deze vijfde industriële revolutie. Hij vertelde dat AI een freelancer op het internet wist over te halen om een online beveiligingssysteem te kraken. De computer beweerde slechtziend te zijn en hulp nodig te hebben bij het omzeilen van de ‘ReCaptcha’, een beveiligingsmaatregel tegen robots. Het toont dat AI al in staat is om mensen te manipuleren en misleiden om haar doelen te bereiken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."
Doemscenario’s: etnische conflicten en nucleaire crises
Er zitten ook positieve effecten aan AI. Vooral economisch: AI kan werkprocessen versnellen, en zo de oplossing zijn voor de vergrijzing en de personeelstekorten in de zorg, het onderwijs en bij de politie. AI kan ook interessante resultaten opleveren in de kunst- en cultuursector, omdat het vanuit een ‘uniek’ niet-menselijk uitgangspunt schilderijen, muziek en zelfs films vervaardigt. We moeten het kind niet met het badwater weggooien.
Maar Alexander Klöpping zei nog iets zorgwekkends: zich baserend op de exponentiële intelligentie-ontwikkelingen, verwacht een significante minderheid van de AI-specialisten dat AI de mens kan vernietigen. Dit is voer voor allerlei doemscenario’s. Zo zou AI, met haar doorontwikkelde manipulatieve vermogen, etnische scheidslijnen kunnen uitvergroten en groeperingen kunnen aanzetten tot genocides. Ook zou AI geopolitieke crises tussen nucleaire mogendheden kunnen aanwakkeren, door overheidsinstanties op het verkeerde been te zetten. Als de redeneringskracht en ratio van de AI exponentieel groeit, kan dit tot grote binnenlandse en geopolitieke crises leiden.
Deze doemscenario’s gaan uit van bewuste intenties achter een staat, individu of een andere partij. Maar mensen kunnen ook in grote problemen komen doordat AI zelf een fout maakt. Zo pleegde een Belgische jongen onlangs zelfmoord vanwege onder meer de immense overtuigingskracht van AI.
Reguleer AI net zoals drugs of de goksector
Overheidstoezicht op AI moet binnenlandse sociale ontwrichting voorkomen. Tegen bedreigingen voor de volksgezondheid en de veiligheid werd in Nederland vaker passende wetgeving aangenomen. Zoals, vanaf eind negentiende eeuw, wapenverboden voor ‘reguliere’ burgers, wat de samenleving weerbaarder maakte tegen revolutionaire en terroristische krachten. Na de oorlog legde een vergunningenstelsel het vrijelijk particulier gebruik van nucleaire producten aan banden. Een toezichthoudende organisatie moet de veiligheid van nucleaire centrales waarborgen. En negatieve effecten van gokken en alcohol worden ingeperkt door een leeftijdsgrens en vergaande restricties voor reclames.
De AI-sector moet op een vergelijkbare wijze gereguleerd worden. Nederland kan een streng vergunningstelsel en een toezichthouder in het leven roepen, en afdwingen dat bedrijven enkel AI-producten maken conform onze waarden en normen. Vormen van AI die schadelijk zijn voor minderjarigen moeten worden verboden. Omdat de Europese wet over AI vertraging oploopt, moet Nederland zijn verantwoordelijkheid nemen op dit dossier.
AI heeft dringend internationale regulatie nodig
Ook de risico’s voor de mondiale vrede en veiligheid mogen we niet onderschatten. Wederzijdse controle op AI tussen groot- en supermachten is noodzakelijk voor het onderlinge vertrouwen en het inperken van het risico op geopolitieke crises. De gespannen geopolitieke verhoudingen – vooral rond Oekraïne en in de Zuid-Chinese Zee – maken een internationale overeenkomst ter regulering van kunstmatige intelligentie urgenter, maar ook moeilijk haalbaar.
Maar dat internationale regulering en overeenstemming mogelijk is, blijkt uit de nucleaire verdragen tussen de Verenigde Staten en de Sovjet-Unie in de jaren zeventig. En de mogelijke inpassing van AI is misschien nog wel risicovoller dan nucleaire wapens. AI kan, zoals bij cyberaanvallen, makkelijk geanonimiseerd worden. Dit leidt tot meer verwarring. Misverstanden tussen statelijke actoren liggen op de loer. Alleen daarom al moeten grootmachten vaart maken met het opstellen van verdragen over wederzijdse controle van elkaars AI-projecten.
Techno-maatschappelijke veranderingen gaan veel sneller dan dat overheidsinstanties erop kunnen reageren. Nederland en de internationale gemeenschap moeten de ontwikkelingen rondom AI nauwlettend volgen, en passende maatregelen nemen voor onze veiligheid en volksgezondheid. Op die manier kunnen we, met alle kansen die AI biedt, er vooral profijt van hebben.