Byungchae Ryan Son

Technologia Deepfake a ludzka intencja

  • Język oryginalny: Koreański
  • Kraj: Wszystkie krajecountry-flag
  • TO

Utworzono: 2024-05-10

Utworzono: 2024-05-10 12:01

Chiny od 10 dnia tego miesiąca zaczęły stosować kompleksowe regulacje ograniczające tworzenie „deepfake'ów.


Jest to interesujące, ponieważ stanowi element działań mających na celu powstrzymanie anty-rządowych nastrojów związanych z ostatnimi protestami białej kartki, co stanowi kontrast w stosunku do podejścia Unii Europejskiej czy Stanów Zjednoczonych, które ograniczają się do zaleceń na poziomie rekomendacji, powołując się na naruszenie wolności słowa. Oczywiście, takie działania Chin są możliwe dzięki istnieniu systemu cenzury internetu, zwanego Wielkim Zaporem (Manri Bangwhabyeok), funkcjonującego od ponad 20 lat. Jednakże, związane z tym zobowiązania do zapewnienia przejrzystości i przestrzegania zasad ujawniania informacji są ogromne, co prawdopodobnie będzie skutkować ciągłym podnoszeniem pytań o wewnętrzną i zewnętrzną skuteczność tych regulacji.


Technologia związana z deepfake'ami od samego początku podkreślała potrzebę oznaczania treści syntetycznych, jednakże jasno widać było ograniczenie w postaci niejasności metod gwarantujących to. Ponadto, jak wskazuje powiedzenie „internet jest wieczny”, rozpowszechnienie stworzonej treści jest niezwykle trudne do całkowitego usunięcia. Co więcej, nawet po usunięciu treści, zbiorowa świadomość odbiorców nie zanika, co zostało potwierdzone na przykładzie treści „Głosu kwietnia” krytykującej politykę izolacji w Szanghaju, która wpłynęła na protesty białej kartki.


Historycznie rzecz biorąc, nie da się powstrzymać wnikania technologii do społeczeństwa. Statystyki mówią, że 95% filmów deepfake na świecie to materiały pornograficzne. Fałszywe oświadczenie o kapitulacji prezydenta Ukrainy na początku rosyjskiej inwazji oraz wykorzystanie wizerunku cierpiącego na afazję Bruce'a Willisa w reklamie to wyraźne przykłady niebezpiecznej, rzeczywistej strony technologii deepfake, mającej wpływ na całe społeczeństwo. Jednakże, to nie sposób regulowania tej technologii może być przedmiotem naszej największej troski. Nowe metody fałszowania faktów zawsze istniały, a skupianie się na najnowszych technologiach prowadzi do ciągłej przegranej. Zamiast tego, powinniśmy skupić się na tym, dlaczego tworzone są tego rodzaju materiały i w jaki sposób się rozpowszechniają, czyli na czynnikach społecznych wspierających rozprzestrzenianie się fałszywych narracji.

„Technologia deepfake budzi wątpliwości etyczne, ale w swej istocie nie jest zła.”


W swoich badaniach etyczka i filozof polityki Adrienne de Ruiter przedstawiła opinię, że to „wyrażanie opinii na temat osoby, która na to nie wyraziła zgody”, „celowe wprowadzanie odbiorców w błąd” oraz „szkodliwe intencje” czynią rezultaty tej technologii niemoralnymi. Wykazała, że to intencje twórcy i odbiorcy, czyli ludzi, a nie sama technologia, są elementem, który należy obserwować z ostrożnością. W szczególności, w przypadku treści deepfake skierowanych do osób o dużym wpływie społecznym, takich jak celebryci czy politycy, mikro-targetowanie utrudnia regulowanie wyrażanych przez twórców intencji.


Jakie zatem rozwiązania powinniśmy wypracować na przyszłość? Można je przedstawić w dwóch głównych kierunkach.


Po pierwsze, musimy uświadomić sobie i zaakceptować, że jesteśmy istotami istniejącymi w świecie kamer i systemów rozpoznawania. Zarówno ja, piszący ten tekst, jak i ty, czytający go, spędzamy większość dnia przed telefonami komórkowymi i laptopami wyposażonymi w kamery.Z perspektywy systemu, ludzkie zachowanie jest materiałem dla algorytmów.

Kamera, która sprawdza, czy dziecko jest dobrze zaopiekowane, istnieje w celu zapewnienia idealnej relacji między rodzicem a opiekunem, ale jest również nieczułym podmiotem, który uczy się i wykonuje intencje ograniczania ludzi. Świadomość, że współistniejemy z tymi nowymi podmiotami, może pomóc nam zarządzać i reagować na nieetyczne intencje związane z deepfake'ami.


Po drugie, konieczne jest tworzenie i rozpowszechnianie edukacji na poziomie społeczności. Mamy tendencję do poszukiwania poczucia przynależności w obrębie słabych powiązań w systemie cyfrowym. Jest to związane z brakiem poczucia przynależności do grup społecznych, który nasilił się w czasie pandemii, a wiąże się z chęcią wierzenia, że jesteśmy połączeni z kimś niewidocznym na podstawie gustów czy zainteresowań. Przykłady tego to: wielokrotne sprawdzanie TikToka do 2:00 w nocy, częste odwiedzanie niekoniecznie wiarygodnej Wikipedii, ciągłe sprawdzanie historii na Instagramie, a także ignorowanie mało interesujących rozmów w grupach na komunikatorach.


Deepfake często stymuluje poczucie przynależności płynące z tych słabych powiązań, ale ze względu na brak głębokiego zainteresowania danym podmiotem, osłabienie wpływu takich treści jest stosunkowo łatwe. Podczas gdy weryfikacja autentyczności treści deepfake mających na celu obniżenie wiarygodności polityka jest trudna dla jednostki, to jeden z projektów przeprowadzonych na poziomie partii politycznych wykazał, że możliwe jest odróżnienie prawdy od fałszu. Wynik ten dowodzi, że programy edukacyjne oparte na perspektywie społeczności, wartościach i praktykach mogą stanowić skuteczne rozwiązanie. Oznacza to również, że firmy świadczące usługi platform, na których udostępniane są treści deepfake, mogą stworzyć strategiczne możliwości poprzez opracowywanie i proponowanie unikalnych strategii reagowania na poziomie danej społeczności użytkowników.


Z jednej strony mamy pozytywne wykorzystanie technologii deepfake, jak w filmie „Szybcy i wściekli”, gdzie wykorzystano tę technologię, aby „ożywić” zmarłego Paula Walkera, zastępując jego twarz na aktorze, który grał jego postać w filmie. Z drugiej strony, mamy przypadki z życia wzięte, takie jak fałszywe nagrania seksualne pewnej dziennikarki, które doprowadziły do zniszczenia jej życia.


Należy pamiętać, że obecnie aktorzy filmowi należą do najlepiej chronionych grup przed technologią deepfake. Społeczeństwo nie jest jeszcze gotowe odpowiedzieć na pytanie, jak poradzić sobie z taką technologią, gdy jej celem staną się osoby niebędące aktorami. Przed oczekiwaniem regulacji prawnych, wydaje się, że najistotniejszym pierwszym krokiem jest uświadomienie sobie, że sami, poprzez oglądanie treści deepfake w celach rozrywkowych na platformach społecznościowych, takich jak TikTok, jesteśmy częścią tego problemu.


*Ten tekst jest oryginalną wersją artykułu opublikowanego 14 lutego 2023 r. w kolumnie gazety elektronicznej.


Bibliografia

Komentarze0