China telah menerapkan peraturan komprehensif untuk membatasi pembuatan ‘deepfake’ sejak tanggal 10.
Ini merupakan bagian dari upaya untuk mencegah opini publik anti-pemerintah yang terkait dengan demonstrasi kertas kosong baru-baru ini. Hal ini menarik karena merupakan tindakan pelarangan yang nyata, berbeda dengan Uni Eropa atau Amerika Serikat yang hanya merekomendasikan pembatasan dengan alasan pelanggaran kebebasan pers. Tentu saja, tindakan China ini dimungkinkan karena keberadaan sistem sensor internet yang dikenal sebagai Tembok Api Besar (Great Firewall) yang telah beroperasi selama lebih dari 20 tahun. Namun, beban untuk mematuhi transparansi dan pengungkapan informasi sangat besar, sehingga kemungkinan besar pertanyaan tentang efektivitasnya, baik secara internal maupun eksternal, akan terus diajukan.
Sejak awal, teknologi yang terkait dengan deepfake telah menekankan perlunya memberi label pada konten sintetis, namun batasannya terletak pada ketidakjelasan metode yang menjamin hal tersebut. Selain itu, seperti yang tersirat dalam ungkapan ‘internet itu abadi’, konten yang telah dibuat sangat sulit dihapus sepenuhnya jika sudah menyebar. Lebih lanjut, meskipun konten tersebut telah dihapus, kesadaran kolektif dari para penonton tidak akan hilang, seperti yang terlihat pada contoh konten ‘Suara April’ yang mengkritik kebijakan penguncian Shanghai yang memengaruhi demonstrasi kertas kosong.
Secara historis, teknologi tidak dapat dihentikan dalam meresap ke dalam masyarakat. Statistik yang menyatakan bahwa 95% dari video deepfake di seluruh dunia adalah konten pornografi, video pernyataan menyerah palsu Presiden Ukraina pada awal invasi Rusia, dan kemunculan Bruce Willis yang menderita afasia dalam iklan, merupakan contoh nyata dari bahaya teknologi deepfake yang memengaruhi seluruh masyarakat. Namun, yang perlu kita waspadai mungkin bukan cara pengaturan teknologi tersebut. Faktanya, cara baru untuk memanipulasi kebenaran selalu ada, dan selalu fokus pada teknologi terbaru pada akhirnya akan selalu menjadi permainan yang kalah. Sebaliknya, kita perlu memperhatikan mengapa konten tersebut dibuat dan bagaimana penyebarannya, yaitu fokus pada faktor-faktor sosial yang mendukung penyebaran narasi palsu.
“Teknologi deepfake memang dipertanyakan secara moral, tetapi pada dasarnya tidak salah.”
Adrienne de Ruiter, seorang ahli etika dan filsuf politik, dalam penelitiannya berpendapat bahwa ‘ekspresi yang ditujukan pada seseorang tanpa persetujuan’, ‘tindakan yang sengaja menyesatkan penonton’, dan ‘niat yang merugikan’ adalah yang membuat hasil dari teknologi ini menjadi tidak bermoral. Ia menekankan bahwa niat pembuat dan penonton, yaitu manusia yang terpisah dari teknologi ini, adalah pihak yang perlu diwaspadai. Terutama konten deepfake yang ditargetkan secara mikro kepada tokoh-tokoh berpengaruh di masyarakat seperti selebriti atau politisi akan sangat sulit untuk diatur berdasarkan ekspresi niat pembuatnya.
Lalu, bagaimana solusi yang tepat untuk masa depan yang terkait dengan hal ini? Dapat dikemukakan dua arah utama.
Pertama, kita harus menyadari dan menerima bahwa kita adalah bagian dari dunia kamera dan sistem pengenalan. Penulis artikel ini, dan Anda yang membacanya, menghabiskan sebagian besar waktu sehari-hari di depan ponsel dan laptop yang dilengkapi kamera.Dari perspektif sistem, perilaku manusia adalah materi untuk algoritma.
Kamera yang memantau apakah anak dirawat dengan baik memang ada untuk menciptakan hubungan yang ideal antara orang tua dan pengasuh, tetapi juga merupakan subjek non-manusia yang belajar dan melakukan niat untuk membatasi manusia oleh manusia. Kesadaran bahwa kita hidup berdampingan dengan subjek-subjek baru ini dapat membantu kita mengelola dan merespons niat tidak bermoral yang terkait dengan deepfake.
Kedua, pendidikan terkait harus diciptakan dan disebarluaskan di tingkat komunitas. Kita cenderung mencari rasa memiliki dalam koneksi yang lemah di dalam sistem digital. Ini terkait dengan hilangnya rasa memiliki dari kelompok sosial yang diperkuat oleh pandemi, di mana kita ingin percaya bahwa kita terhubung dengan seseorang yang tidak terlihat berdasarkan minat atau hobi. Memeriksa TikTok berulang kali hingga pukul 2 pagi, sering mengakses Wikipedia yang tidak selalu akurat, terus-menerus memeriksa Instagram Stories, dan mengabaikan grup obrolan yang tidak terlalu menarik adalah beberapa contohnya.
Deepfake cenderung menstimulasi rasa memiliki dari koneksi yang lemah ini, tetapi karena kurangnya minat yang mendalam pada subjek tersebut, relatif mudah untuk mengurangi pengaruh konten terkait. Memeriksa keaslian konten deepfake untuk menurunkan kredibilitas politisi mungkin sulit bagi individu, tetapi hasil dari suatu proyek yang berhasil membedakan mana yang benar dan salah dalam konteks partai membuktikan bahwa program pendidikan yang didasarkan pada perspektif, nilai, dan praktik komunitas dapat menjadi solusi yang efektif. Ini berarti bahwa perusahaan platform yang berbagi konten deepfake dapat menciptakan peluang strategis dengan mengembangkan dan menawarkan solusi khusus komunitas untuk pengguna mereka.
Ada contoh penggunaan positif teknologi deepfake, seperti dalam film ‘Fast and Furious’ yang menghidupkan kembali Paul Walker yang meninggal karena kecelakaan dengan cara menggabungkan wajahnya ke dalam adegan yang dibintangi oleh saudara laki-lakinya. Di sisi lain, ada juga contoh kasus di dunia nyata di mana seorang jurnalis wanita menjadi sasaran video seks palsu yang menghancurkan hidupnya.
Penting untuk diingat bahwa para aktor di industri film saat ini adalah orang-orang yang paling terlindungi dari teknologi deepfake. Masyarakat saat ini tampaknya belum dapat menjawab pertanyaan tentang bagaimana merespons jika hal itu terjadi pada orang biasa. Sebelum mengharapkan peraturan hukum, kesadaran diri kita sendiri, yang terkadang hanya sekadar menonton konten deepfake di media sosial seperti TikTok sebagai hiburan, tampaknya merupakan langkah awal yang paling penting.
*Artikel ini merupakan versi asli dari artikel yang diterbitkan pada tanggal 14 Februari 2023 di Kolom bernama di Koran Elektronik.
Referensi
Komentar0