चीन ने 10 तारीख से 'डीपफेक' निर्माण को सीमित करने वाले व्यापक नियम लागू कर दिए हैं।
यह हालिया खाली कागज प्रदर्शन (व्हाइट पेपर प्रोटेस्ट) से जुड़े विरोधी जनमत को रोकने के उपाय के तौर पर देखा जा रहा है। यह यूरोपीय संघ या अमेरिका जैसे देशों से अलग है, जहां इस तरह के मुद्दे पर सिफारिशों तक सीमित रहते हुए, मीडिया की स्वतंत्रता के हनन का हवाला दिया जाता है। चीन का यह कदम दिलचस्प है क्योंकि यह एक वास्तविक प्रतिबंधात्मक कदम है। निश्चित रूप से, चीन का यह कदम 'ग्रेट फ़ायरवॉल' नामक इंटरनेट सेंसरशिप सिस्टम पर आधारित है जो 20 से ज़्यादा वर्षों से काम कर रहा है। लेकिन पारदर्शिता और सूचना प्रकाशन के पालन से जुड़ा बोझ बेहद ज़्यादा है, इसलिए इसके घरेलू और बाहरी प्रभावशीलता पर सवाल उठते रहने की संभावना है।
डीपफेक से जुड़ी तकनीक की शुरुआत से ही सिंथेटिक कंटेंट को लेबल करने की ज़रूरत पर ज़ोर दिया गया है, लेकिन असल में इसे सुनिश्चित करने का कोई ठोस तरीका नहीं है। इसके अलावा, जैसा कि कहा जाता है कि इंटरनेट हमेशा के लिए रहता है, एक बार बनाया गया कंटेंट फैल जाने पर उसे पूरी तरह से मिटाना बेहद मुश्किल होता है। और कंटेंट को हटा दिए जाने के बाद भी दर्शकों के सामूहिक मन में उसका असर बना रहता है, जैसा कि खाली कागज प्रदर्शन पर असर डालने वाले शंघाई लॉकडाउन नीति की आलोचना करने वाले 'अप्रैल की आवाज़' कंटेंट के उदाहरण से पता चलता है।
ऐतिहासिक रूप से, तकनीक का समाज में प्रवेश रोकना असंभव है। दुनिया भर में 95% डीपफेक वीडियो अश्लील सामग्री हैं, रूस के आक्रमण की शुरुआत में यूक्रेन के राष्ट्रपति का झूठा आत्मसमर्पण वीडियो और अपहजिया (एपेजिया) से पीड़ित ब्रूस विलिस का विज्ञापन में दिखना – ये डीपफेक तकनीक के खतरनाक व्यावहारिक उदाहरण हैं जो समाज पर प्रभाव डालते हैं। लेकिन हो सकता है कि हमें जिस चीज़ से सच में सावधान रहने की ज़रूरत है, वह इस तकनीक को नियंत्रित करने का तरीका न हो। सच्चाई में हेरफेर करने के नए तरीके हमेशा से मौजूद रहे हैं और हर बार नवीनतम तकनीक पर ध्यान केंद्रित करने से अंततः हमेशा नुकसान ही होता है। इसके बजाय, हमें इस पर ध्यान देना चाहिए कि ये कंटेंट क्यों बनाए जाते हैं और कैसे फैलते हैं, यानी झूठे बयानों (नैरेटिव) के प्रसार को बढ़ावा देने वाले सामाजिक कारकों पर ध्यान देना चाहिए।
“डीपफेक तकनीक नैतिक रूप से संदिग्ध है, लेकिन मूल रूप से गलत नहीं है।”
नैतिकताविद् और राजनीतिक दार्शनिक एड्रियन डी रूइटर (Adrienne de Ruiter) ने अपने शोध में पाया कि 'बिना सहमति के किसी व्यक्ति का प्रतिनिधित्व करना', 'दर्शकों को जानबूझकर गुमराह करना' और 'हानिकारक इरादा' इस तकनीक के परिणामों को अनैतिक बनाते हैं। उन्होंने यह भी कहा कि इस तकनीक से अलग निर्माता और दर्शक, यानी इंसानों का इरादा ही वह चीज़ है जिससे सावधान रहने की ज़रूरत है। खासकर मशहूर हस्तियों या राजनेताओं जैसे सामाजिक रूप से प्रभावशाली लोगों पर केंद्रित डीपफेक कंटेंट को नियंत्रित करना मुश्किल है, क्योंकि यह निर्माता के इरादे को दर्शाता है।
तो आगे का रास्ता क्या है? इसे मुख्य रूप से दो तरीकों से देखा जा सकता है।
पहला, हमें यह समझना होगा और स्वीकार करना होगा कि हम कैमरा और पहचान प्रणाली की दुनिया में रहते हैं। इस लेख को लिखने वाला मैं भी, और इसे पढ़ने वाला आप भी, अपने ज़्यादातर समय मोबाइल फोन और लैपटॉप जैसे कैमरा युक्त उपकरणों के सामने बिताते हैं।प्रणाली की दृष्टि से, मानव व्यवहार एल्गोरिदम के लिए पदार्थ है।
बच्चों की देखभाल ठीक से हो रही है या नहीं, यह देखने वाला कैमरा माता-पिता और देखभाल करने वाले के बीच आदर्श संबंध के लिए है, लेकिन यह एक गैर-मानवीय इकाई भी है जो मानव को नियंत्रित करने के इरादे को सीखती और करती है। इन नए विषयों के साथ हमारे जीवन में होने का अहसास डीपफेक से जुड़े अनैतिक इरादों को नियंत्रित करने और उनका सामना करने में मदद कर सकता है।
दूसरा, समुदाय के स्तर पर संबंधित शिक्षा का निर्माण और प्रसार होना चाहिए। हम डिजिटल व्यवस्था के भीतर कमजोर संबंधों में अपनेपन की तलाश करते हैं। यह महामारी के कारण बढ़ी हुई सामाजिक समूहों से जुड़ाव की कमी और अपनी पसंद या रुचि के आधार पर किसी अदृश्य व्यक्ति से जुड़े होने की भावना से जुड़ा है। रात के 2 बजे तक टिकटॉक की बार-बार जांच, सटीकता की उम्मीद न रखने वाले विकिपीडिया (नमूना विकिपीडिया) पर बार-बार जाना, इंस्टाग्राम पर लगातार स्टोरी देखना और कम रुचि रखने वाले समूह चैट में शामिल रहना – ये सब इसी का उदाहरण हैं।
डीपफेक इन कमजोर संबंधों से अपनेपन को बढ़ावा देने का काम करता है, लेकिन संबंधित विषय के प्रति गहरी रुचि नहीं होने के कारण, इसके प्रभाव को कम करना अपेक्षाकृत आसान है। किसी राजनेता की साख को कम करने के लिए बनाए गए डीपफेक कंटेंट की सच्चाई की जांच करना व्यक्तिगत रूप से मुश्किल हो सकता है, लेकिन किसी राजनीतिक दल के स्तर पर झूठ को पहचाना जा सकता है, जैसा कि एक प्रोजेक्ट के परिणामों से पता चलता है। समुदाय के नज़रिए, मूल्यों और प्रथाओं पर आधारित शिक्षा कार्यक्रम एक प्रभावी उपाय हो सकते हैं। इसका मतलब है कि डीपफेक कंटेंट को साझा करने वाले प्लेटफ़ॉर्म सर्विस कंपनियां यूजर के लिए खास समुदाय-आधारित उपाय बनाकर और सुझाव देकर रणनीतिक अवसर पैदा कर सकती हैं।
फिल्म 'फास्ट एंड फ्यूरियस' में दुर्घटना में मारे गए पॉल वॉकर को उनके भाई के बदले के रूप में केवल चेहरे को सिंथेटिक रूप से जोड़कर वापस लाया गया था। यह डीपफेक तकनीक का एक सकारात्मक उदाहरण है। दूसरी ओर, एक महिला पत्रकार को निशाना बनाकर बनाया गया नकली यौन संबंध वीडियो उसके जीवन को बर्बाद कर सकता है। यह एक ऐसा उदाहरण है जो वास्तविक जीवन में घटित होता है।
यह याद रखना ज़रूरी है कि फिल्म उद्योग में अभिनेता वर्तमान में डीपफेक तकनीक से सबसे ज़्यादा सुरक्षित हैं। अगर यह आम लोगों के साथ होने लगे तो समाज क्या जवाब देगा, यह अभी तक स्पष्ट नहीं है। टिकटॉक जैसे सोशल चैनल पर डीपफेक से जुड़े कंटेंट को मनोरंजन के तौर पर देखने वाले हम खुद को पहचानने की ज़रूरत है – क्या यह पहला कदम नहीं है?
*यह लेख 23 फ़रवरी 14 को इलेक्ट्रॉनिक न्यूज़पेपर का हस्ताक्षरित स्तंभ में प्रकाशित सामग्री का मूल संस्करण है।
संदर्भ
टिप्पणियाँ0