Deep fake technologie moet worden verboden

Het kwam mooi bij elkaar afgelopen week: op zaterdag in het AD een pleidooi van filosoof Kathleen Gabriels om ICT’ers les te geven in ethiek waarbij deep fakes als voorbeeld werden genoemd, zondag bij Lubach een item over de gevaren van “deep fakes” en op woensdag een initiatiefvoorstel van CDA en Groenlinks om “nudefakes” te verbieden. Deep fakes houden de gemoederen bezig. En terecht, want de gevaren zijn evident!
 

Wat zijn deep fakes?

Op mediawijsheid.nl vond ik de volgende treffende omschrijving: “De naam deepfake is een combinatie van de woorden deep learning en fake (nep). Deep learning is een techniek die valt onder kunstmatige intelligentie. Het zorgt ervoor dat computers nieuwe dingen kunnen leren op basis van grote hoeveelheden data. Het maakt dan niet uit of die data bestaan uit getallen, tekst, geluid of beeld. Deepfake-software zet dus kunstmatige intelligentie in om nepvideo’s te maken die echt lijken”.

Wat is het gevaar?

Daar waar je vroeger dure software nodig had en het manipuleren van beelden was voorbehouden aan experts, download je nu simpelweg een app op je smartphone waarmee dit soort dingen kan.
Natuurlijk zijn er allerlei grappige toepassingen denkbaar zoals in onderstaand fragment waar mister Bean de gedaante van Trump aanneemt (of is het andersom).
 
Maar we zien ook al hele vervelende voorbeelden. Bijvoorbeeld in de vorm van de nudefakes waar CDA en Groenlinks afgelopen week tegen ageerden. Zo verschenen er recent ineens pornofilms met Dionne Stax in de hoofdrol. Eerst werd nog gedacht dat misschien haar dropbox-account gehacked was, maar al snel bleek het te gaan om deep fakes. Hoewel Dionne’s reputatie daarmee gered was, was het toch een zeer vervelende ervaring voor haar en de misleidende filmpjes zijn nog steeds overal terug te vinden.

Waarom verbieden?

In bovenstaand filmpje is overduidelijk dat het om een deep fake gaat. Maar wat als er een deep fake van Donald Trump als zichzelf op Twitter verschijnt waarin hij aangeeft dat hij de uitkomst van de verkiezingen niet accepteert en zijn aanhangers oproept in verzet te komen? Voordat je het weet zijn er gewapende republikeinen op weg naar Washington.
En misschien dat het nu niet gebeurt bij de verkiezingen in Amerika, maar wie zegt niet dat dit scenario zich over enkele jaren afspeelt bij verkiezingen in bijvoorbeeld Rwanda of een ander kruitvat?
 
Levensgevaarlijk, deze techniek, die steeds verfijnder en laagdrempeliger wordt. Het wordt steeds moeilijker echt van nep te onderscheiden. Waardoor individuen, hele bevolkingsgroepen of hele naties beschadigd kunnen raken.
Terwijl er volgens mij geen enkel potentieel nut tegenover staat (behalve dat je er veel lol mee kunt hebben). Waarmee dit specifieke toepassingsgebied zich wat mij betreft in negatieve zin onderscheid van andere toepassingsgebieden van kunstmatige intelligentie, die vaak wel potentieel nuttig kunnen zijn (denk aan zelf rijdende auto’s die ervoor kunnen zorgen dat er straks minder verkeersslachtoffers zijn).
Daarom zeg ik: niet alleen het produceren van nudefakes strafbaar maken maar überhaubt de software waarmee dit soort filmpjes geproduceerd kunnen worden verbieden. En dan heb ik het niet over de onschuldige toepassingen waarmee je zoals in Snapchat jezelf kunt versieren met een bijvoorbeeld een snorretje en een bril, maar wel de gevanceerde toepassingen die ertoe kunnen leiden dat echt niet meer van vals te onderscheiden is.
En inderdaad zoals Kathleen Gabriels bepleit alle ICT’ers verplicht een cursus ethiek laten volgen.
 
De politiek kennende zal het nog wel even duren voor deze maatregelen zijn doorgevoerd en effect sorteren. Neem tot die tijd onderstaande boodschap van Barack Obama in acht!
 
Auteur: Bert van de Bovenkamp

“The social dilemma” wordt niet opgelost door de tech-reuzen

Afgelopen week leek het Corina-virus me dan toch (weer) te pakken te hebben (ik denk namelijk dat ik het in maart al heb gehad maar kon toen nog niet laten testen). Keelpijn, hoofdpijn, snotteren. Dus testen. Uiteindelijk was de uitslag negatief. Maar je bent toch al snel 72 uur aan huis gekluisterd. Ook in dit geval had het nadeel een voordeel. Ik had ’s avonds tijd om de documentaire/film The Social Dilemma op Netflix te kijken. Een documentaire/film die net als een recente aflevering van “Lubach op Zondag” ingaat op de werking van Artificial Intelligence als achterliggende technologie voor social media en de effecten ervan op het individu en de samenleving. En sterker nog, ik had ook nog tijd om me te verdiepen in de reacties op de documentaire/film.
 

De boodschap in “The social Dilemma”

The Social Dilemma is een combinatie van een documentaire en een film. Het documentaire deel bestaat uit verhalen van voormalig medewerkers van techreuzen als Google, Facebook en Instagram (tegenwoordig ook van Facebook) die gewetenswroeging hebben gekregen en vertellen hoe wij als individuen en maatschappij gemanipuleerd worden door de tech-reuzen en social media. Hun verhalen worden geïllustreerd aan de hand van filmische fragmenten over een puber die ten slachtoffer valt aan de manipulatie. Ongewild wordt zijn zus die juist niets van social media wil weten meegesleept in zijn val. Allemaal lekker op z’n Amerikaans, dus zwaar gedramatiseerd.
 
De boodschap die wordt uitgedragen is dat wij als individuen en maatschappij in feite op twee manieren worden gemanipuleerd door toegepaste technologieën als artificial intelligence:
  • ten eerste worden apps en dergelijke zo ontworpen dat deze verslavend werken, waardoor mensen niet meer zonder kunnen. Dit meganisme speelt volgens de deskundigen in de documentaire handig in op het functioneren van het menselijk brein en komt voort uit het verdienmodel dat de tech-reuzen hanteren. Dit verdienmodel is dat zij je aandacht zo lang mogelijk vast willen houden om op die manier meer reclameboodschappen op je los te kunnen laten. Artificial Intelligence wordt hierbij ingezet om je bijvoorbeeld te wijzen op nóg een grappig filmpje met kittens. Des te meer jij klikt, des te meer inkomsten voor de tech-reuzen. Iets wat al wel langer bekend is, toch? Wij betalen de gratis toepassingen met onze data.
  • ten tweede leidt het gebruik van artificial intelligence (lees algoritmes) ertoe dat wij als individuen steeds meer in een “bubble” of “eigen werkelijkheid” leven. Dit doordat wij via de algoritmes steeds meer informatie aangedragen krijgen die in het verlengde ligt van wat wij eerder hebben gezien of gelezen. In feite kan het zo zijn dat je buurman een compleet andere zienswijze heeft op een vraagstuk dan jij doordat hij initieel net een andere zoekterm heeft gebruikt of initieel een keer op een artikel heeft geklikt met een tegengestelde zienswijze. Het gevolg van dit meganisme, zo is de boodschap in “The social dilemma”, is o.a. een toenemende polarisatie in de samenleving. Ik heb hier ook al bij stil gestaan in mijn vorige blog met de titel “Over fabeltjesfuiken en het belang van mediawijsheid”.
 

Wat is dan het dilemma?

Maar Bert, zul je misschien denken, wat is dan precies het dilemma? Dit wordt heel kort aangestipt in “The social dilemma”. Het dilemma is dat tegenover de dark side van artificial intelligence zoals hiervoor geschetst ook een bright side staat. Artificial intelligence heeft ons enorm veel te bieden in termen van de 3 G’s: gemak, genot en gewin. Hoe makkelijk is het als je auto een echte auto wordt en autonoom kan rijden? Hoe fijn is het dat wanneer je online een stofzuiger bestelt je automatisch wordt gewezen op de bijbehorende stofzuigerzakken? Hoeveel efficiënter is een warehouse dat is uitgerust met orderpicking robots en hoe leuk was dat hondenfilmpje wel niet waarop je werd gewezen door Youtube? En dan staan we nog maar aan het begin van de ontwikkelingen.
 

Hoe lossen we dit op?

Volgens degenen die aan het woord zijn in “The social dilemma” ligt de oplossing bij de tech-reuzen. Zij zouden hun verdienmodel moeten aanpassen en bovendien zorgvuldiger om moeten gaan met de inzet van AI.
Iemand die het hier niet mee eens is is Siri Beerends, cultuursocioloog en promovendus bij de Universiteit Twente. Hoewel je gezien haar voornaam eerder zou verwachten dat zij fanatiek aanhanger is van artificial intelligence probeert zij de hooggespannen verwachtingen ten aanzien van deze technologie juist te temperen. Volgens haar is er bij AI op dit moment feitelijk geen sprake van intelligentie maar vooral van rekenkracht en heeft AI veel minder menselijke eigenschappen dan het nu wordt toegedicht. Daarnaast is zij van mening dat in “The social dilemma” een veel te passieve rol wordt toegedicht aan ons als gebruikers van de technologie. Volgens Beerends zijn wij niet zoals in de film wordt gesteld het slachtoffer van ons (reptielen)brein en de superalgoritmes van de tech-reuzen. Wij zijn volgens haar tot een meer in staat dan een Darwinistische reflex vanuit ons onderbewuste doordat we een samensmelting zijn van brein, lichaam en omgeving.
Volgens Beerends moeten we de problemen die door technologie en technologen worden veroorzaakt niet oplossen door diezelfde technologen en nog meer technologie. Wat we moeten doen is de technologie ontmythologiseren. Door het in historisch perspectief te plaatsen, het minder te hypen en er minder menselijke eigenschappen aan toe te dichten. Door ons meer bewust te zijn van wat het is en kan.
 

Het draait toch weer om mediawijsheid

Ziedaar wederom het belang van mediawijsheid. Door daaraan te werken, stil te staan bij de ethische vraagstukken die samenhangen met de toepassing van bepaalde technologieën en op basis daarvan als samenleving spelregels op te stellen kunnen we de technologie vóór ons laten werken in plaats van tegen ons. Dit is iets waar de tech-reuzen ook om vragen. Mark Zuckerberg steld het nog toen hij ondervraagd werd door de Senaat. Richting vanuit de samenleving. De tech-reuzen zijn niet in staat dit soort vraagstukken zelf te tackelen.
Auteur: Bert van de Bovenkamp