Byungchae Ryan Son

Deepfake-technologie en menselijke intentie

Aangemaakt: 2024-05-10

Aangemaakt: 2024-05-10 12:01

China heeft vanaf 10 oktober een uitgebreide regelgeving ingevoerd om de productie van 'deepfakes' te beperken.


Dit wordt gezien als een maatregel om de recente anti-regeringsopinies, gerelateerd aan de blanco protesten, te onderdrukken. Het is interessant om dit te vergelijken met de Europese Unie en de Verenigde Staten, waar dergelijke regelgeving tot nu toe beperkt is gebleven tot aanbevelingen, gebaseerd op zorgen over schendingen van de persvrijheid. Uiteraard is het voor China mogelijk om dergelijke maatregelen te nemen dankzij het al meer dan 20 jaar bestaande internetcensuursysteem, de zogenaamde 'Great Firewall'. Desalniettemin, vanwege de enorme druk op transparantie en naleving van openbaarmakingsvereisten, zullen er naar verwachting voortdurend vragen blijven rijzen over de effectiviteit van deze maatregelen, zowel intern als extern.


Al sinds de beginfase van de deepfake-technologie wordt er gesproken over de noodzaak om gemanipuleerde content te labelen, maar het is duidelijk dat er een gebrek is aan duidelijke methoden om dit te waarborgen. Bovendien, zoals de uitdrukking 'het internet is voor altijd' suggereert, is het uiterst moeilijk om geproduceerde content volledig te verwijderen zodra deze verspreid is. Bovendien, zelfs nadat content is verwijderd, blijft het collectieve bewustzijn van de kijkers bestaan. Dit is bijvoorbeeld te zien aan het effect van de content 'Stemmen van april' op de blanco protesten, waarin de lockdown in Shanghai en het beleid in kritiek werd gebracht.


Historisch gezien is het niet te voorkomen dat technologie zich in de samenleving nestelt. Statistieken tonen aan dat 95% van alle deepfake-video's pornografisch van aard zijn. Daarnaast zijn er reële voorbeelden van de gevaren van deepfake-technologie die impact hebben op de samenleving, zoals de valse overgaveverklaring van de Oekraïense president aan het begin van de Russische invasie en het gebruik van deepfakes voor reclamecampagnes met acteurs als Bruce Willis die aan afasie lijden. Maar misschien is het niet de manier waarop we deze technologie reguleren die we echt moeten vrezen. Nieuwe manieren om de waarheid te manipuleren hebben altijd bestaan, en het steeds richten op de nieuwste technologie is uiteindelijk een verloren gevecht. In plaats daarvan moeten we ons richten op de vraag waarom dergelijke content wordt geproduceerd en hoe deze zich verspreidt – met andere woorden, we moeten ons concentreren op de sociale factoren die de verspreiding van valse verhalen ondersteunen.

“Deepfake-technologie is moreel twijfelachtig, maar niet inherent verkeerd.”


De ethicus en politiek filosoof Adrienne de Ruiter heeft in haar onderzoek betoogd dat 'uitspraken namens iemand die daar geen toestemming voor heeft gegeven', 'het opzettelijk misleiden van de kijker' en 'kwaadaardige bedoelingen' de output van deze technologie immoreel maken. Ze benadrukt dat de intenties van de maker en de kijker, los van de technologie zelf, de partijen zijn die we in de gaten moeten houden. Vooral deepfake-content die gericht is op een specifieke doelgroep (micro-targeting) en die invloedrijke personen zoals beroemdheden of politici beoogt, is moeilijk te reguleren wat betreft de bedoelingen van de maker.


Hoe moeten we dan in de toekomst met deze technologie omgaan? Er zijn twee belangrijke benaderingen.


Ten eerste moeten we ons bewust worden van en accepteren dat we leven in een wereld van camera's en herkenningssystemen. Zowel de schrijver van dit artikel als de lezer brengt het grootste deel van zijn dagelijkse leven door voor een mobiel of laptop met een camera.Vanuit het oogpunt van het systeem is menselijk gedrag een bron van gegevens voor algoritmen .

Een camera die controleert of een kind goed wordt verzorgd, dient de ideale relatie tussen ouder en verzorger, maar is ook een niet-menselijke actor die leert en uitvoert in de zin van menselijke beperkingen. Het bewustzijn dat we samenleven met deze nieuwe actoren kan ons helpen om onfatsoenlijke bedoelingen die verband houden met deepfakes te beheren en te beantwoorden.


Ten tweede moeten er op community-niveau gerelateerde educatieve programma's worden ontwikkeld en verspreid. We hebben de neiging om in het digitale systeem naar een gevoel van verbondenheid te zoeken in zwakke banden. Dit is een fenomeen dat tijdens de pandemie is versterkt, waarbij mensen een gevoel van verbondenheid missen binnen sociale groepen en zich verbonden voelen met onzichtbare anderen op basis van gedeelde interesses en voorkeuren. Bijvoorbeeld: het herhaaldelijk checken van TikTok tot in de vroege uurtjes, het regelmatig raadplegen van Wikipedia (dat niet per se betrouwbaar hoeft te zijn), het voortdurend kijken naar Instagram Stories, en het negeren van groepsgesprekken waarin weinig interesse is.


Deepfakes hebben de neiging om een gevoel van verbondenheid te stimuleren vanuit deze zwakke banden, maar aangezien er geen diepe betrokkenheid is bij de betrokken personen, is het relatief eenvoudig om de invloed van dergelijke content te neutraliseren. Een project dat aantoonde dat politieke partijen in staat waren om de echtheid van deepfake-content te bepalen die bedoeld was om het vertrouwen in een politicus te ondermijnen, illustreert dat educatieve programma's die gebaseerd zijn op community-perspectieven, waarden en praktijken een effectief antwoord kunnen bieden. Dit houdt in dat bedrijven die platforms aanbieden waar deepfake-content wordt gedeeld, strategische kansen kunnen creëren door specifieke community-gerelateerde oplossingen te ontwikkelen en voor te stellen aan hun gebruikers.


Er zijn voorbeelden van positief gebruik van deepfake-technologie, zoals in de film 'Fast & Furious', waar het personage van Paul Walker werd 'herleefd' met behulp van deepfakes. De gezichtsuitdrukkingen van zijn broer werden gecombineerd met de originele beelden van Paul Walker. Tegelijkertijd zijn er echter ook voorbeelden van negatief gebruik van deepfakes, zoals het geval van een vrouwelijke journalist die het slachtoffer werd van een nep-seksvideo, die haar leven volledig verwoestte.


Het is belangrijk om te onthouden dat acteurs in de filmindustrie op dit moment de best beschermde groep zijn tegen deepfake-technologie. De huidige samenleving is nog niet in staat om te beantwoorden hoe we met deze technologie om moeten gaan als het gaat om gewone mensen. Voordat we ons richten op wettelijke regulering, is het van essentieel belang dat we ons bewust worden van ons eigen gedrag, bijvoorbeeld wanneer we deepfake-content op sociale mediakanalen als TikTok bekijken. Dat zou de eerste stap moeten zijn.


*Dit artikel is de originele versie van een artikel dat op 14 februari 2023 werd gepubliceerd in de column van Electronica Nieuws.


Referenties

Reacties0