Byungchae Ryan Son

A deepfake technológia és az emberi szándék

  • Írás nyelve: Koreai
  • Országkód: Minden országcountry-flag
  • Informatika

Létrehozva: 2024-05-10

Létrehozva: 2024-05-10 12:01

Kína a múlt héten, október 10-én bevezetett egy átfogó szabályozást, amely korlátozza a mélyhamisítások (deepfake) készítését.


Ez az intézkedés a közelmúltbeli ürespapír-tüntetésekkel összefüggő, a rendszer elleni hangulat megfékezésére irányul, és érdekes módon egy olyan valódi tiltó intézkedés, amely ellentétben áll az Európai Unió vagy az Egyesült Államok ajánlási szintű megközelítésével, amelyek az újságolásszabadság megsértésére hivatkozva nem lépnek hasonló intézkedésekre. Természetesen Kína ilyen lépése lehetségesnek tűnik a „Nagy Tűzfal” (万里防火墙, Great Firewall) néven ismert internetes cenzúra rendszerének több mint 20 éve tartó működése miatt, de a transzparencia és az információszolgáltatási kötelezettségek betartása óriási terhet ró rá, így a belső és külső hatékonyságát illető kételyek valószínűleg továbbra is felmerülnek.


A mélyhamisítással kapcsolatos technológiák kezdetektől fogva felvetették a mesterséges tartalmak címkézésének szükségességét, de a megoldás módszereinek határozott hiánya egyértelmű volt. Ráadásul az „az internet örökkévaló” kifejezésben is tükröződik, hogy a létrehozott tartalmak terjedése esetén rendkívül nehéz teljesen eltávolítani őket. Továbbá, még a tartalom törlése után is, a nézők kollektív tudata nem tűnik el, ami a sanghaji lezárásról szóló, az „áprilisi hang” (4월의 목소리) tartalmakban megnyilvánuló kritikáin keresztül is bizonyított, amelyek befolyásolták az ürespapír-tüntetéseket.


Történelmileg a technológia beépülése a társadalomba megállíthatatlan. A globális mélyhamisítású videók 95%-a pornográf jellegű, Oroszország Ukrajna elleni inváziójának kezdeti szakaszában az ukrán elnök hamis megadásáról szóló videó, valamint a dadogással küzdő Bruce Willis reklámfilmben való szereplése egyértelműen a mélyhamisítás technológiája által generált veszélyes, valós példák, amelyek hatással vannak a társadalom egészére. De talán nem a technológia szabályozási módja az, amitől igazán óvakodnunk kell. A valóság manipulálásának új módszerei mindig is léteztek, és a legújabb technológiákra való fókuszálás végső soron mindig veszteséges játék. Ehelyett a témával kapcsolatos alkotások keletkezésének és terjedésének okait kell vizsgálnunk, vagyis a hamis narratívák terjedését alátámasztó társadalmi tényezőkre kell összpontosítanunk.

„A mélyhamisítás technológia erkölcsileg kétes, de lényegében nem rossz.”


Adrienne de Ruiter etikai szakértő és politikai filozófus kutatásai során arra a következtetésre jutott, hogy a „hozzájárulás nélküli kifejezés”, a „nézők szándékos megtévesztése” és a „káros szándék” teszi erkölcstelenné a technológia eredményeit. Megállapította, hogy a technológiától elkülönülő alkotók és nézők, vagyis az emberek szándéka az, amitől óvakodnunk kell. Különösen a szociálisan befolyásos személyekre, például hírességekre vagy politikusokra irányuló mikrocélzású mélyhamisítások esetében nehéz szabályozni az alkotók szándékainak megnyilvánulását.


Hogyan kell tehát a jövőben megközelíteni a megoldást? Két fő irányt lehet megkülönböztetni.


Először is fel kell ismernünk és elfogadnunk, hogy a kamerák és felismerő rendszerek világában élünk. Én, aki ezt a cikket írom, és te, aki olvasod, a legtöbb időt kamerával felszerelt mobiltelefonok és laptopok előtt töltjük.A rendszerek szemszögéből az emberi viselkedés az algoritmusok számára szükséges anyag.

A gyermekek gondozását ellenőrző kamerák nem csupán az ideális szülő-gondozó kapcsolatot szolgálják, hanem nem-emberi entitások is, amelyek megtanulják és végrehajtják az emberi korlátozás szándékát. A tudatosság, hogy ezekkel az új szereplőkkel élünk együtt, segíthet a mélyhamisítással kapcsolatos erkölcstelen szándékok kezelésében és kezelésében.


Másodszor, közösségi szinten kell létrehozni és terjeszteni a témával kapcsolatos oktatást. Hajlamosak vagyunk a digitális rendszerek gyenge kapcsolataiban keresni a közösségi hovatartozás érzését. Ez összefügg a pandémia által felerősödött társadalmi csoportokhoz való tartozás hiányával, és a vágyunkkal, hogy láthatatlan szálak révén, ízlés vagy érdeklődés alapján összekapcsolódjunk valakivel. Ennek példái a TikTok folyamatos használata hajnal 2-ig, a nem feltétlenül pontos Wikipédia gyakori használata, az Instagram történetek folyamatos ellenőrzése, vagy a kevésbé érdekes csoportos csevegőablakok figyelmen kívül hagyása.


A mélyhamisítások gyakran stimulálják ezt a gyenge kapcsolatokból fakadó hovatartozás érzését, de mivel nincs mélyebb érdeklődés a témában, a kapcsolódó tartalmak hatása viszonylag könnyen csökkenthető. Míg egyénileg nehéz lehet ellenőrizni egy politikus hiteltségét aláásó mélyhamisítás valódiságát, egy politikai párt szintjén sikerült megkülönböztetni a hamisítványokat egy projekt keretében. Ez bizonyítja, hogy a közösség nézőpontján, értékein és gyakorlatain alapuló oktatási programok hatékony megoldást jelenthetnek. Ez azt is jelenti, hogy a mélyhamisítási tartalmakat megosztó platformszolgáltatók stratégiai lehetőséget teremthetnek maguknak a felhasználók számára egyedi közösségi válaszok kialakításával és javaslatával.


A „Halálos iramban” (Fast and Furious) filmben, ahol a balesetben elhunyt Paul Walker-t a testvére alakította, és csak az arcát cserélték ki mélyhamisítással, egy pozitív példa a mélyhamisítás technológiájának felhasználására. Ugyanakkor egy női újságíró elleni hamis szexuális tartalom miatt egy ember élete tönkrement, ami szintén valós esemény.


Fontos megjegyezni, hogy a filmszakmában a színészek jelenleg a legjobban védettek a mélyhamisítás technológiájától. A mai társadalom még nem tudja megmondani, hogy mit lehet tenni, ha a célpont egy átlagember. A jogi szabályozás iránti várakozás előtt talán a legfontosabb az első lépés, hogy tudatosítsuk magunkban, hogy miként használjuk a TikTok és más közösségi platformok mélyhamisítási tartalmát szórakozás céljából.


*Ez a cikk a 2023. február 14-i Elektronikai Újság (전자신문) aláírt rovatcikk tartalmát tartalmazza.


Hivatkozások

Hozzászólások0