![translation](https://cdn.durumis.com/common/trans.png)
यह एक AI अनुवादित पोस्ट है।
भाषा चुनें
durumis AI द्वारा संक्षेपित पाठ
- चीन ने डीपफेक निर्माण को सीमित करने के लिए एक व्यापक विनियमन लागू किया है, यूरोपीय संघ और संयुक्त राज्य अमेरिका से अलग एक मजबूत उपाय, जो हाल ही में खाली शीट विरोध प्रदर्शन से संबंधित विपक्षी राय को दबाने के लिए माना जाता है।
- डीपफेक तकनीक नैतिक विवाद को जन्म देती है, खासकर जब सामाजिक प्रभाव वाले व्यक्तियों पर केंद्रित सामग्री बनाने की बात आती है, तो इसके दुरुपयोग की संभावना के बारे में चिंताएं जताई गई हैं।
- डीपफेक तकनीक के नियमन के बजाय, सामग्री निर्माण की पृष्ठभूमि और प्रसार प्रक्रिया का विश्लेषण करना अधिक महत्वपूर्ण है, और सिस्टम के दृष्टिकोण से मानव को देखने के दृष्टिकोण में बदलाव और समुदाय स्तर पर शिक्षा कार्यक्रमों के माध्यम से समस्याओं का समाधान किया जा सकता है।
चीन ने 10 दिनों से 'डीपफेक' निर्माण को सीमित करने वाले व्यापक नियमों को लागू करना शुरू कर दिया है।
यह हाल ही में हुए खाली कागज के विरोध प्रदर्शनों से जुड़े विपक्षी जनमत को रोकने के लिए एक कदम है, जो यूरोपीय संघ या संयुक्त राज्य अमेरिका जैसे देशों के विपरीत है, जो प्रेस की स्वतंत्रता के उल्लंघन के आधार पर सिफारिश के स्तर पर ही बने हुए हैं। यह एक वास्तविक प्रतिबंधात्मक उपाय है। ज़ाहिर है, चीन की यह कार्रवाई पिछले 20 वर्षों से चल रहे इंटरनेट सेंसरशिप सिस्टम के कारण संभव हुई है, जिसे ग्रेट फ़ायरवॉल के रूप में जाना जाता है, लेकिन पारदर्शिता और सूचना प्रकटीकरण के अनुपालन पर दबाव बहुत अधिक है, इसलिए आंतरिक और बाहरी दोनों तरह की प्रभावशीलता पर सवाल उठने की संभावना है।
डीपफेक से संबंधित तकनीक शुरुआत से ही संश्लेषित सामग्री को लेबल करने की आवश्यकता पर बात कर रही है, लेकिन वास्तव में इसे सुनिश्चित करने के तरीके स्पष्ट नहीं हैं। इसके अलावा, जैसे कहा जाता है कि इंटरनेट हमेशा के लिए रहता है, एक बार सामग्री बन जाने के बाद उसे पूरी तरह से हटाना बेहद मुश्किल है। इसके अलावा, सामग्री हटाए जाने के बाद भी दर्शकों की सामूहिक चेतना गायब नहीं होती है, जैसा कि शंघाई लॉकडाउन नीतियों की आलोचना करने वाली 'अप्रैल की आवाज' सामग्री के मामले में देखा गया था, जिसने खाली कागज के विरोध प्रदर्शनों को प्रभावित किया था।
ऐतिहासिक रूप से, प्रौद्योगिकी को समाज में घुसपैठ करने से रोकना असंभव है। दुनिया भर में डीपफेक वीडियो का 95% अश्लील सामग्री होने का आंकड़ा, रूस के आक्रमण की शुरुआत में यूक्रेनी राष्ट्रपति के नकली आत्मसमर्पण वीडियो और ब्रूस विलिस के बोलने में असमर्थ होने के बावजूद एक विज्ञापन में उनकी उपस्थिति, डीपफेक तकनीक के खतरनाक वास्तविक दुनिया के उदाहरण हैं जो पूरे समाज को प्रभावित करते हैं। लेकिन वास्तव में हमें जो सतर्क रहना चाहिए, वह इस तकनीक को नियंत्रित करने का तरीका नहीं हो सकता है। वास्तव में, सच्चाई को हेरफेर करने के नए तरीके हमेशा मौजूद रहे हैं, और हर बार नवीनतम तकनीक पर ध्यान केंद्रित करना अंततः एक हारने वाली खेल बन जाता है। इसके बजाय, हमें इस बात पर ध्यान देना चाहिए कि ऐसे उत्पाद क्यों बनते हैं और कैसे फैलते हैं, यानी सामाजिक कारकों पर जो झूठे कथनों के प्रसार को बढ़ावा देते हैं।
“डीपफेक तकनीक नैतिक रूप से संदिग्ध है, लेकिन स्वाभाविक रूप से गलत नहीं है।”
नैतिकताविद् और राजनीतिक दार्शनिक एड्रिएन डे रुइटर (Adrienne de Ruiter) ने अपने शोध में बताया है कि 'उन लोगों की अभिव्यक्ति जिनसे सहमति नहीं ली गई है', 'दर्शकों को जानबूझकर धोखा देने का कार्य' और 'हानिकारक इरादे' इस तकनीक के परिणाम को अनैतिक बनाते हैं। उन्होंने यह भी बताया है कि यह तकनीक और उससे अलग निर्माता और दर्शक, यानी मानव इरादा ही वह चीज है जिससे हमें सावधान रहना चाहिए। खासकर मनोरंजनकर्ता या राजनेता जैसे सामाजिक प्रभाव वाले लोगों को लक्षित करने वाले माइक्रो-टारगेट डीपफेक सामग्री निर्माता के इरादे की अभिव्यक्ति को नियंत्रित करना मुश्किल हो सकता है।
तो भविष्य में इस संबंध में क्या विकल्प तैयार करने चाहिए? इसे मुख्य रूप से दो दिशाओं में प्रस्तुत किया जा सकता है।
पहला, हमें स्वीकार करना चाहिए कि हम कैमरों और पहचान प्रणालियों की दुनिया में रहते हैं। यह लेख लिखने वाला मैं भी और आप भी जो इस लेख को पढ़ रहे हैं, हम में से ज़्यादातर लोग अपने दिनचर्या का ज़्यादातर समय कैमरों से लैस मोबाइल फ़ोन और लैपटॉप के सामने बिताते हैं।सिस्टम के नजरिए से इंसान का व्यवहार एल्गोरिदम के लिए सामग्री है।
जो कैमरा यह देखता है कि बच्चों की अच्छी देखभाल हो रही है या नहीं, वह माता-पिता और नानी-नानी के बीच आदर्श संबंध के लिए मौजूद है, लेकिन यह एक गैर-मानवीय इकाई भी है जो मानव को सीमित करने के इरादे को सीखता है और निष्पादित करता है। इस बात का एहसास कि हम इन नए इकाइयों के साथ रह रहे हैं, डीपफेक से जुड़े अनैतिक इरादों का प्रबंधन और उनका सामना करने में मदद कर सकता है।
दूसरा, समुदाय के स्तर पर संबंधित शिक्षा का निर्माण और प्रसार होना चाहिए। हम एक कमजोर संबंधों वाले डिजिटल ढाँचे के अंदर अपनेपन की तलाश करते हैं। यह महामारी के कारण मजबूत हुए सामाजिक समूहों से अपनेपन की कमी से संबंधित है, जिसमें हम किसी अनदेखे व्यक्ति के साथ जुड़े हुए महसूस करना चाहते हैं, जो हमारे स्वाद या रुचियों के समान है। सुबह 2 बजे तक टिकटॉक की बार-बार जाँच करना, विकिपीडिया पर सटीकता की उम्मीद नहीं करना, इंस्टाग्राम पर लगातार कहानियों की जाँच करना, कम दिलचस्पी वाले समूह चैट की उपेक्षा करना, इसके उदाहरण हैं।
डीपफेक इन कमजोर संबंधों से अपनेपन को उत्तेजित करने का प्रयास करता है, लेकिन यह इस विषय के प्रति गहरी रुचि का अभाव है, जो इस तरह की सामग्री के प्रभाव को कम करना अपेक्षाकृत आसान बनाता है। एक राजनेता की विश्वसनीयता को कम करने के लिए डीपफेक सामग्री की सत्यता की जाँच व्यक्तिगत रूप से मुश्किल हो सकती है, लेकिन एक राजनीतिक दल द्वारा किए गए एक प्रोजेक्ट के नतीजों से पता चलता है कि शिक्षा कार्यक्रम, जो समुदाय के दृष्टिकोण, मूल्यों और प्रथाओं पर आधारित हैं, एक प्रभावी विकल्प हो सकते हैं। इसका मतलब यह है कि डीपफेक सामग्री साझा करने वाले प्लेटफ़ॉर्म सेवा कंपनियां उपयोगकर्ता के लिए विशिष्ट समुदाय प्रतिक्रिया योजनाएँ तैयार कर सकती हैं और उन्हें प्रस्तावित करके रणनीतिक अवसर बना सकती हैं।
'फ्यूरियस 7' जैसी फिल्म, जिसमें दुर्घटना में मरने वाले पॉल वॉकर को अपने भाई के शरीर पर केवल चेहरा मिलाकर वापस लाया गया था, डीपफेक तकनीक के सकारात्मक उपयोग का एक उदाहरण है। दूसरी ओर, एक महिला पत्रकार को निशाना बनाकर बनाई गई नकली यौन संबंधों की वीडियो के कारण एक व्यक्ति का जीवन बर्बाद हो गया है, जो वास्तविक जीवन में भी हो रहा है।
हमें याद रखना चाहिए कि फिल्म उद्योग के अभिनेता वर्तमान में डीपफेक तकनीक से सबसे अधिक सुरक्षित हैं। जब यह आम जनता के लिए हो जाता है, तो वर्तमान समाज अभी तक जवाब नहीं दे पाया है कि क्या संभव है। कानूनी विनियमन की उम्मीद से पहले, टिकटॉक जैसे सोशल चैनलों पर डीपफेक से संबंधित सामग्री को मनोरंजन के रूप में देखने वाले हम स्वयं को जागरूक करने की आवश्यकता है, यह सबसे पहला कदम है।
*यह लेख 14 फरवरी, 2023 को प्रकाशित हुआ थाइलेक्ट्रॉनिक न्यूज़पेपर का नामित कॉलम मूल सामग्री है।
संदर्भ