![translation](https://cdn.durumis.com/common/trans.png)
นี่คือโพสต์ที่แปลด้วย AI
เทคโนโลยีดีพเฟกและเจตนาของมนุษย์
- ภาษาที่เขียน: ภาษาเกาหลี
- •
-
ประเทศอ้างอิง: ทุกประเทศ
- •
- เทคโนโลยีสารสนเทศ
เลือกภาษา
สรุปโดย AI ของ durumis
- จีนได้ดำเนินการควบคุมที่ครอบคลุมเพื่อจำกัดการสร้างดีพเฟก ซึ่งเป็นมาตรการที่เข้มงวดกว่าสหภาพยุโรปและสหรัฐอเมริกา ซึ่งดูเหมือนจะเป็นการปราบปรามความคิดเห็นที่ต่อต้านรัฐบาล ที่เกี่ยวข้องกับการประท้วงกระดาษเปล่าล่าสุด
- เทคโนโลยีดีพเฟกทำให้เกิดข้อถกเถียงทางจริยธรรม โดยเฉพาะอย่างยิ่งในกรณีของการสร้างเนื้อหาที่มุ่งเป้าไปที่บุคคลที่มีอิทธิพลทางสังคม ซึ่งมีความเสี่ยงสูงต่อการถูกนำไปใช้ในทางที่ผิด
- การวิเคราะห์พื้นหลังของการสร้างเนื้อหาและกระบวนการแพร่กระจายนั้นสำคัญกว่าการควบคุมเทคโนโลยีดีพเฟก และการเปลี่ยนแปลงมุมมองในการมองมนุษย์ในมุมมองของระบบ และโปรแกรมการศึกษาในระดับชุมชนสามารถช่วยแก้ไขปัญหาได้
จีนได้นำมาตรการควบคุมแบบครอบคลุมเกี่ยวกับการสร้าง 'Deepfake' มาใช้ตั้งแต่วันที่ 10 ที่ผ่านมา
นี่เป็นส่วนหนึ่งของมาตรการในการป้องกันความคิดเห็นต่อต้านรัฐบาล ที่เกี่ยวข้องกับการประท้วงแผ่นกระดาษขาวล่าสุด ซึ่งแตกต่างจากสหภาพยุโรปหรือสหรัฐอเมริกา ที่ยังคงเป็นเพียงคำแนะนำในระดับแนวทางปฏิบัติ เนื่องจากมีการละเมิดเสรีภาพของสื่อ การห้ามจริง ๆ นี้จึงน่าสนใจ แน่นอนว่ามาตรการของจีนดังกล่าวนั้นเป็นไปได้ เนื่องจากมีระบบเซ็นเซอร์อินเทอร์เน็ต ที่เรียกว่า Great Firewall ซึ่งดำเนินการมาแล้วกว่า 20 ปี แต่ความกดดันต่อการปฏิบัติตามความโปร่งใส และการเปิดเผยข้อมูลนั้นมหาศาล ดังนั้นจึงมีความเป็นไปได้สูงที่จะมีการตั้งคำถามอย่างต่อเนื่อง เกี่ยวกับประสิทธิผลภายในและภายนอก
เทคโนโลยีที่เกี่ยวข้องกับ Deepfake ได้พูดถึงความจำเป็นในการติดฉลากเนื้อหาที่สังเคราะห์ ตั้งแต่ช่วงเริ่มต้น แต่ข้อจำกัดที่ชัดเจนคือไม่มีวิธีการใด ที่รับประกันสิ่งนี้ได้อย่างชัดเจน นอกจากนี้ เนื่องจากอินเทอร์เน็ตนั้นถาวร จึงยากมากที่จะลบเนื้อหาที่สร้างขึ้น หลังจากการเผยแพร่ไปแล้ว ยิ่งไปกว่านั้น แม้ว่าเนื้อหาจะถูกลบไปแล้ว จิตสำนึกของผู้ชมก็ยังคงอยู่ ซึ่งยืนยันได้จากกรณีของเนื้อหา 'เสียงแห่งเดือนเมษายน' ที่วิพากษ์วิจารณ์นโยบายการปิดล้อมเซี่ยงไฮ้ ซึ่งมีผลกระทบต่อการประท้วงแผ่นกระดาษขาว
ในทางประวัติศาสตร์ เป็นไปไม่ได้ที่จะหยุดยั้งเทคโนโลยี จากการแทรกซึมเข้าสู่สังคม สถิติที่แสดงให้เห็นว่า 95% ของวิดีโอ Deepfake ทั่วโลก เป็นเนื้อหาโป๊ วิดีโอปลอมของประธานาธิบดียูเครน ประกาศยอมแพ้ในช่วงเริ่มต้นของการรุกรานของรัสเซีย และการปรากฏตัวในโฆษณาของ Bruce Willis ผู้ป่วยโรคอัมพาตทางภาษา ล้วนเป็นตัวอย่างที่ชัดเจน ของความเสี่ยงที่เกิดขึ้นจริง ของเทคโนโลยี Deepfake ที่ส่งผลกระทบต่อสังคมโดยรวม แต่สิ่งที่เราควรระวังจริงๆ อาจไม่ใช่รูปแบบของการควบคุมเทคโนโลยีนี้ ความจริงแล้ว วิธีการใหม่ๆ ในการปลอมแปลงข้อมูล มีอยู่เสมอ และการจดจ่ออยู่กับเทคโนโลยีที่ทันสมัย จะเป็นการเล่นเกมที่แพ้ตลอดไป ในทางกลับกัน สิ่งที่เราควรให้ความสนใจ คือการสร้างสรรค์สิ่งเหล่านี้ มีเหตุผลอย่างไร และแพร่กระจายอย่างไร กล่าวคือ การมุ่งเน้นไปที่ปัจจัยทางสังคม ที่สนับสนุนการแพร่กระจายของเรื่องเล่าปลอม
“เทคโนโลยี Deepfake อาจน่าสงสัยในแง่ศีลธรรม แต่ไม่ได้ผิดในสาระสำคัญ”
Adrienne de Ruiter นักจริยธรรมและนักปรัชญาการเมือง ได้เสนอในงานวิจัยของเธอว่า 'การแสดงออกโดยไม่ได้รับความยินยอม' 'การกระทำที่ทำให้ผู้ชมเข้าใจผิดโดยเจตนา' และ 'เจตนาที่เป็นอันตราย' ทำให้ผลลัพธ์ของเทคโนโลยีนี้ผิดศีลธรรม เธอยืนยันว่า เจตนาของมนุษย์ ไม่ว่าจะเป็นผู้สร้างหรือผู้ชม ที่แยกออกจากเทคโนโลยีนี้ เป็นสิ่งที่ควรระวัง โดยเฉพาะเนื้อหา Deepfake ที่มุ่งเป้าหมาย ไปที่กลุ่มเป้าหมายขนาดเล็ก เช่น ดาราหรือบุคคลสาธารณะ ที่มีอิทธิพลต่อสังคมค่อนข้างมาก อาจเป็นเรื่องยาก ที่จะควบคุมการแสดงออกของเจตนาของผู้สร้าง
แล้วจะสร้างทางเลือกที่เกี่ยวข้อง ในอนาคตอย่างไร สามารถนำเสนอได้สองทาง
ประการแรก เราต้องรับรู้และยอมรับว่า เราเป็นสิ่งมีชีวิต ในโลกแห่งกล้องและระบบการรับรู้ ผู้เขียนบทความนี้ และคุณผู้อ่าน ใช้เวลาส่วนใหญ่ในชีวิตประจำวัน อยู่หน้าโทรศัพท์มือถือและแล็ปท็อป ที่ติดตั้งกล้องจากมุมมองของระบบ พฤติกรรมของมนุษย์คือ วัสดุสำหรับอัลกอริธึมนี่คือ
กล้องที่ตรวจสอบว่า ดูแลเด็กดีแค่ไหน มีอยู่เพื่อความสัมพันธ์ในอุดมคติ ระหว่างพ่อแม่กับพี่เลี้ยง แต่ก็เป็นสิ่งมีชีวิตที่ไม่ใช่มนุษย์ ที่เรียนรู้และปฏิบัติตามเจตนา ของมนุษย์ในการจำกัดมนุษย์ ความตระหนักรู้ของเรานั้น ว่าเรามีชีวิตอยู่ร่วมกับสิ่งมีชีวิตใหม่ๆ เหล่านี้ สามารถช่วยในการจัดการและตอบสนองต่อ เจตนาที่ไม่ถูกต้อง ที่เกี่ยวข้องกับ Deepfake
ประการที่สอง จำเป็นต้องมีการสร้างและเผยแพร่ การศึกษาที่เกี่ยวข้องในระดับชุมชน เรามักมีแนวโน้ม ที่จะแสวงหาความรู้สึกเป็นเจ้าของ ภายในเครือข่ายที่อ่อนแอ ภายในระบบดิจิทัล ซึ่งเกี่ยวข้องกับการขาดความรู้สึกเป็นเจ้าของ จากองค์กรทางสังคม ที่เข้มแข็งขึ้นในช่วงการระบาด และความปรารถนาที่จะเชื่อ ว่าเราเชื่อมต่อกับคนอื่น ที่เรามองไม่เห็น ผ่านความชอบหรือความสนใจ การตรวจสอบ TikTok ซ้ำๆ ตลอดทั้งคืน การเข้าถึง Wiki ที่ไม่คาดหวังความถูกต้อง การตรวจสอบเรื่องราวอย่างต่อเนื่องบน Instagram การละเลยห้องแชทกลุ่ม ที่มีความสนใจน้อย ล้วนเป็นตัวอย่าง
Deepfake มักกระตุ้นความรู้สึกเป็นเจ้าของ จากการเชื่อมต่อที่อ่อนแอเหล่านี้ แต่เนื่องจากไม่มีความสนใจอย่างลึกซึ้ง ต่อบุคคลนั้น จึงค่อนข้างง่าย ที่จะทำลายอิทธิพลของเนื้อหาที่เกี่ยวข้อง สำหรับบุคคล การตรวจสอบความถูกต้องของเนื้อหา Deepfake ที่มุ่งทำลายความน่าเชื่อถือของนักการเมือง เป็นเรื่องยาก แต่ผลลัพธ์ของโครงการหนึ่ง ที่แยกความจริงออกจากความเท็จ ในหน่วยงานของพรรคการเมือง พิสูจน์แล้วว่า โปรแกรมการศึกษาที่อิงตามมุมมอง คุณค่าและธรรมเนียมปฏิบัติของชุมชน เป็นทางเลือกที่ได้ผล นี่หมายความว่า บริษัทผู้ให้บริการแพลตฟอร์ม ที่แชร์เนื้อหา Deepfake สามารถสร้างโอกาสเชิงกลยุทธ์ ได้โดยการกำหนดนโยบายตอบสนอง แบบเฉพาะสำหรับชุมชน ของผู้ใช้และเสนอแนวทางเหล่านั้น
มีตัวอย่างการใช้งานเทคโนโลยี Deepfake ในเชิงบวก เช่น ภาพยนตร์ Fast & Furious ที่นำ Paul Walker ซึ่งเสียชีวิตจากอุบัติเหตุ กลับมาแสดงในหนัง โดยการซ้อนใบหน้าของเขา บนร่างของน้องชาย แต่ในขณะเดียวกัน ในชีวิตจริงก็มีกรณี ที่วิดีโอปลอมเกี่ยวกับเซ็กส์ ของนักข่าวหญิงคนหนึ่ง ทำลายชีวิตของเธอ
จำเป็นต้องจำไว้ว่า นักแสดงในวงการภาพยนตร์ เป็นกลุ่มคนที่ได้รับการปกป้อง จากเทคโนโลยี Deepfake มากที่สุดในปัจจุบัน สังคมในปัจจุบัน ยังไม่สามารถตอบได้ ว่าจะรับมือกับสถานการณ์ อย่างไรหากเป้าหมายเป็นคนธรรมดา ก่อนที่จะมีการคาดหวังเกี่ยวกับกฎระเบียบทางกฎหมาย การตระหนักรู้ในตัวเอง โดยเฉพาะอย่างยิ่ง ในตัวเอง ที่กำลังตรวจสอบเนื้อหา Deepfake บนช่องทางโซเชียลเช่น TikTok เพื่อความบันเทิง อาจเป็นขั้นตอนแรก ที่จำเป็นที่สุด
*บทความนี้ตีพิมพ์ในคอลัมน์ชื่อของหนังสือพิมพ์อิเล็กทรอนิกส์ เป็นต้นฉบับของเนื้อหาที่เผยแพร่เมื่อวันที่ 14 กุมภาพันธ์ 2023
อ้างอิง