中國自10日起開始實施全面限制「深偽」(Deepfake)製作的規範。
這被視為是為防止近期白紙運動引發的反體制輿論而採取的措施之一,相較於以建議性質因應的歐盟或美國(基於侵犯言論自由等理由),中國採取實際的禁止措施,這點相當引人注目。當然,中國之所以能實施這樣的措施,部分原因在於其已運作超過20年的「長城防火牆」(Great Firewall)網路審查系統,但考量到透明度和資訊公開遵循的壓力巨大,其內外部效力仍有待觀察,未來可能持續受到質疑。
深偽相關技術自初期以來就強調合成內容需要附上標籤,但實際上如何確保標籤卻始終存在不明確的限制。此外,正如「網路永恆」一詞所反映的,一旦製作的內容散播出去,就極難完全刪除。更進一步地,即使內容被刪除,觀眾的集體意識也不會消失,這點從影響白紙運動的上海封控政策批評內容「4月之聲」的案例中便可證實。
歷史上,技術融入社會的趨勢是無法阻擋的。全球95%的深偽影片為色情內容的統計數據、俄羅斯入侵初期烏克蘭總統的假投降聲明影片,以及罹患失語症的布魯斯·威利斯(Bruce Willis)出演廣告等案例,都明確顯示了深偽技術對整個社會構成的危險現實。然而,我們真正需要警惕的可能並非該技術的規範方式。事實上,操縱事實的新方法層出不窮,每次都將注意力放在最新技術上,終究只會輸。相反地,我們應該關注的是,相關作品為何被製作,以及如何散播,也就是說,應集中關注支持虛假敘事的社會因素。
「深偽技術在道德上令人懷疑,但本質上並非錯誤。」
倫理學家兼政治哲學家艾德里安·德·雷特(Adrienne de Ruiter)在其研究中提出,『未經同意而對他人進行的表達』、『故意欺騙觀眾的行為』以及『有害的意圖』使得該技術的產物變得不道德。她指出,與該技術分離的製作者和觀眾,也就是人類的意圖才是需要警惕的主體。特別是針對藝人、政治人物等社會影響力相對較大對象的微目標深偽內容,在規範製作者意圖的表達上必然會面臨許多困難。
那麼,未來相關的解決方案該如何制定?可以從兩個主要方向提出。
首先,我們必須意識到並承認自己身處於攝影機和辨識系統的世界之中。撰寫本文的作者,以及閱讀本文的您,大多數時間都在配備攝影機的行動電話和筆記型電腦前度過。從系統的角度來看,人類的行為是為了演算法而存在的物質。
用來確認是否妥善照顧孩子的攝影機,雖然存在於維護父母與保母理想關係的目標下,但也同時是學習並執行限制人類行為的非人性主體。意識到我們與這些新興主體共存的事實,有助於管理和應對與深偽相關的不道德意圖。
其次,必須建立並推廣以社群為單位的相關教育。我們傾向於在數位體系中脆弱的連結中尋找歸屬感。這與疫情強化後社團歸屬感的缺失有關,人們渴望相信自己與某些看不見的人透過喜好或興趣連結在一起。凌晨2點不斷檢查TikTok、不求準確的頻繁瀏覽維基百科、持續查看Instagram限時動態、置之不理的冷清群組聊天室等等,都是例子。
深偽容易刺激來自這些脆弱連結的歸屬感,但由於缺乏對該主體的深刻關心,因此相對容易瓦解相關內容的影響力。雖然個人難以驗證旨在降低政治人物信譽的深偽內容真偽,但政黨層級的專案驗證出虛假內容,證明了基於社群觀點、價值觀和慣例的教育計畫能夠成為有效的解決方案。這也意味著,分享深偽內容的平台服務公司可以制定並提出針對用戶的獨特社群因應措施,從而創造戰略機會。
例如,利用深偽技術將因意外身亡的保羅·沃克(Paul Walker)的臉部合成到其弟弟的替身演員身上,並使其在電影《玩命關頭》中復活,這是一個深偽技術的正面應用案例。但另一方面,針對某位女記者製作的假性愛影片導致其人生毀滅的案例,也確實發生在現實生活中。
需要記住的是,在電影產業中,演員目前是受到深偽技術保護最多的人。當目標對象變成一般民眾時,當今社會似乎還無法給出應對方法。在期待法律規範之前,或許最需要的是先覺察到自己在TikTok等社群平台上把深偽相關內容當成娛樂來觀看,這或許是最重要的第一步。
*本文為2023年2月14日電子時報署名專欄刊登內容的原文。
參考資料
將深偽用於社會科學實驗——一項試點研究
评论0