Hoera! Wetgeving op het gebied van AI op komst.

Artificial intelligence (AI) – of in goed Nederlands kunstmatige intelligentie – is op dit moment hot. Bedrijfsleven en overheden investeren er astronomische bedragen in. En zonder dat we het beseffen is onze samenleving er al van doordrenkt. Denk aan de pinautomaat die je saldo checkt, de geautomatiseerde beoordeling van je kredietaanvraag, Netflix dat je suggesties doet voor films die je waarschijnlijk leuk vindt , de filters op Snapchat en je auto die zichzelf inparkeert. Of in het onderwijs een adaptieve omgeving als Snappet of Gynzy. Veel van deze toepassingen leveren een kwaliteitsimpuls aan ons leven, het onderwijs etc. Maar AI kent bij verkeerde toepassing ook een dark side.
 

Gevaren van AI

Bij de gevaren van AI kun je vooral naar de toekomst kijken in termen van zelfdenkende war-robots die hun eigen leven gaan leiden. Hier zijn we echter nog ver van verwijderd. Nee, de future is now. De dreigingen zijn van nu. Denk aan de bubbel waarin je terecht kunt komen op social media doordat er op de achtergrond allerlei algoritmes draaien die maken dat wat je leest allemaal in dezelfde richting wijst. Of aan de zogenaamde “deep fakes” waarover ik mijn mening ook al heb gegeven in mijn blog van 28 november 2020: het manipuleren van beeldmateriaal waardoor bijna niet meer te achterhalen is of iemand nu wel of niet iets echt gezegd heeft. Een goed voorbeeld van het gevaar van deep fakes zagen we vorige week in ons land. De vaste commissie voor Buitenlandse Zaken van de Tweede Kamer dacht een gesprek te hebben met een naaste medewerker van Navalny. Achteraf bleek het te gaan om een “deep fake” en hebben zij waarschijnlijk een gesprek gehad met een medewerker van een Russische geheime dienst. Ter illustratie onderstaand een deep fake van Barack Obama.
 
Of toegespitst op het onderwijs: denk aan het label dat een leerling opgeplakt kan krijgen als leerkrachten/docenten niet meer zelf nadenken maar klakkeloos voortborduren op adaptieve omgevingen als die van Snappet en Gynzy.
De kern van het probleem is dat er vaak te weinig zicht is op de algoritmes die binnen AI-toepassingen worden toegepast. Waardoor we als mensen de grip dreigen te verliezen. De effecten ervan zien we nu al: een steeds sterker polariserende samenleving, kansenongelijkheid in het onderwijs.

Wetgeving nodig

Om de ongewenste neveneffecten van AI tegen te gaan is onder andere nodig dat wij ons meer bewustzijn van het feit dat algoritmes worden toegepast en welke gevolgen dit kan hebben. Maar dit is niet genoeg. Het is ook nodig dat de algoritmes transparant zijn zodat wij snappen wat er gebeurt en op basis daarvan kunnen handelen. En er zijn toepassingen die simpelweg verboden moet worden. Deep fakes zijn hiervan wat mij betreft een goed voorbeeld.
De Europese Commissie heeft dit ook ingezien en komt daarom met wetgeving. Deze is in concept klaar.
De kern van die nieuwe ai-verordening is dat veel ai-systemen een hoog-risicoclassificering krijgen. Voordat aanbieders van ai-toepassingen met een hoog-risicoprofiel een product op de markt brengen, moeten ze een conformiteitsbeoordeling doen. Daarin worden eisen gesteld aan trainingsdata, documentatie en administratie. Ook zaken als menselijk toezicht, robuustheid, nauwkeurigheid, veiligheid en transparantie naar gebruikers worden vastgelegd. De Commissie kan de lijst van risicovolle systemen gaandeweg bijwerken. Bijvoorbeeld bij letsel, nadelige gevolgen voor de samenleving of als deze in strijd zijn met mensenrechten. Uiteindelijk moet er een database ontstaan waarin ‘goedgekeurde’ ai-toepassingen staan (bron: Computable).

Grenzen stellen waar nodig

Ik vind het een goede zaak dat er wetgeving komt op het gebied van AI. Het is één van de technologieën die raakt aan allerlei ethische vraagstukken en waarbij we ons goed moeten afvragen of we als maatschappij alles wat technisch kan ook moeten willen. En als we het niet willen als samenleving zal er in een aantal gevallen wetgeving nodig zijn om de techgiganten te beperken in hun ambities. Het is één van de weinige wapens die we hebben tegen de macht van het kapitaal dat bij herhaling heeft aangetoond te weinig oog te hebben voor de ethische aspecten van technologie.
Hetgeen overigens niets afdoet aan het feit dat de nieuwe technologieën ons veel te bieden hebben in termen van de 3G’s: gemak, genot en gewin.
We moeten alleen de 4e G niet vergeten: die van “Grenzen stellen waar nodig”.
Auteur: Bert van de Bovenkamp