Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

นี่คือโพสต์ที่แปลด้วย AI

Byungchae Ryan Son

เทคโนโลยีดีพเฟกและเจตนาของมนุษย์

เลือกภาษา

  • ไทย
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

สรุปโดย AI ของ durumis

  • จีนได้ดำเนินการควบคุมที่ครอบคลุมเพื่อจำกัดการสร้างดีพเฟก ซึ่งเป็นมาตรการที่เข้มงวดกว่าสหภาพยุโรปและสหรัฐอเมริกา ซึ่งดูเหมือนจะเป็นการปราบปรามความคิดเห็นที่ต่อต้านรัฐบาล ที่เกี่ยวข้องกับการประท้วงกระดาษเปล่าล่าสุด
  • เทคโนโลยีดีพเฟกทำให้เกิดข้อถกเถียงทางจริยธรรม โดยเฉพาะอย่างยิ่งในกรณีของการสร้างเนื้อหาที่มุ่งเป้าไปที่บุคคลที่มีอิทธิพลทางสังคม ซึ่งมีความเสี่ยงสูงต่อการถูกนำไปใช้ในทางที่ผิด
  • การวิเคราะห์พื้นหลังของการสร้างเนื้อหาและกระบวนการแพร่กระจายนั้นสำคัญกว่าการควบคุมเทคโนโลยีดีพเฟก และการเปลี่ยนแปลงมุมมองในการมองมนุษย์ในมุมมองของระบบ และโปรแกรมการศึกษาในระดับชุมชนสามารถช่วยแก้ไขปัญหาได้

จีนได้นำมาตรการควบคุมแบบครอบคลุมเกี่ยวกับการสร้าง 'Deepfake' มาใช้ตั้งแต่วันที่ 10 ที่ผ่านมา


นี่เป็นส่วนหนึ่งของมาตรการในการป้องกันความคิดเห็นต่อต้านรัฐบาล ที่เกี่ยวข้องกับการประท้วงแผ่นกระดาษขาวล่าสุด ซึ่งแตกต่างจากสหภาพยุโรปหรือสหรัฐอเมริกา ที่ยังคงเป็นเพียงคำแนะนำในระดับแนวทางปฏิบัติ เนื่องจากมีการละเมิดเสรีภาพของสื่อ การห้ามจริง ๆ นี้จึงน่าสนใจ แน่นอนว่ามาตรการของจีนดังกล่าวนั้นเป็นไปได้ เนื่องจากมีระบบเซ็นเซอร์อินเทอร์เน็ต ที่เรียกว่า Great Firewall ซึ่งดำเนินการมาแล้วกว่า 20 ปี แต่ความกดดันต่อการปฏิบัติตามความโปร่งใส และการเปิดเผยข้อมูลนั้นมหาศาล ดังนั้นจึงมีความเป็นไปได้สูงที่จะมีการตั้งคำถามอย่างต่อเนื่อง เกี่ยวกับประสิทธิผลภายในและภายนอก


เทคโนโลยีที่เกี่ยวข้องกับ Deepfake ได้พูดถึงความจำเป็นในการติดฉลากเนื้อหาที่สังเคราะห์ ตั้งแต่ช่วงเริ่มต้น แต่ข้อจำกัดที่ชัดเจนคือไม่มีวิธีการใด ที่รับประกันสิ่งนี้ได้อย่างชัดเจน นอกจากนี้ เนื่องจากอินเทอร์เน็ตนั้นถาวร จึงยากมากที่จะลบเนื้อหาที่สร้างขึ้น หลังจากการเผยแพร่ไปแล้ว ยิ่งไปกว่านั้น แม้ว่าเนื้อหาจะถูกลบไปแล้ว จิตสำนึกของผู้ชมก็ยังคงอยู่ ซึ่งยืนยันได้จากกรณีของเนื้อหา 'เสียงแห่งเดือนเมษายน' ที่วิพากษ์วิจารณ์นโยบายการปิดล้อมเซี่ยงไฮ้ ซึ่งมีผลกระทบต่อการประท้วงแผ่นกระดาษขาว


ในทางประวัติศาสตร์ เป็นไปไม่ได้ที่จะหยุดยั้งเทคโนโลยี จากการแทรกซึมเข้าสู่สังคม สถิติที่แสดงให้เห็นว่า 95% ของวิดีโอ Deepfake ทั่วโลก เป็นเนื้อหาโป๊ วิดีโอปลอมของประธานาธิบดียูเครน ประกาศยอมแพ้ในช่วงเริ่มต้นของการรุกรานของรัสเซีย และการปรากฏตัวในโฆษณาของ Bruce Willis ผู้ป่วยโรคอัมพาตทางภาษา ล้วนเป็นตัวอย่างที่ชัดเจน ของความเสี่ยงที่เกิดขึ้นจริง ของเทคโนโลยี Deepfake ที่ส่งผลกระทบต่อสังคมโดยรวม แต่สิ่งที่เราควรระวังจริงๆ อาจไม่ใช่รูปแบบของการควบคุมเทคโนโลยีนี้ ความจริงแล้ว วิธีการใหม่ๆ ในการปลอมแปลงข้อมูล มีอยู่เสมอ และการจดจ่ออยู่กับเทคโนโลยีที่ทันสมัย จะเป็นการเล่นเกมที่แพ้ตลอดไป ในทางกลับกัน สิ่งที่เราควรให้ความสนใจ คือการสร้างสรรค์สิ่งเหล่านี้ มีเหตุผลอย่างไร และแพร่กระจายอย่างไร กล่าวคือ การมุ่งเน้นไปที่ปัจจัยทางสังคม ที่สนับสนุนการแพร่กระจายของเรื่องเล่าปลอม

“เทคโนโลยี Deepfake อาจน่าสงสัยในแง่ศีลธรรม แต่ไม่ได้ผิดในสาระสำคัญ”


Adrienne de Ruiter นักจริยธรรมและนักปรัชญาการเมือง ได้เสนอในงานวิจัยของเธอว่า 'การแสดงออกโดยไม่ได้รับความยินยอม' 'การกระทำที่ทำให้ผู้ชมเข้าใจผิดโดยเจตนา' และ 'เจตนาที่เป็นอันตราย' ทำให้ผลลัพธ์ของเทคโนโลยีนี้ผิดศีลธรรม เธอยืนยันว่า เจตนาของมนุษย์ ไม่ว่าจะเป็นผู้สร้างหรือผู้ชม ที่แยกออกจากเทคโนโลยีนี้ เป็นสิ่งที่ควรระวัง โดยเฉพาะเนื้อหา Deepfake ที่มุ่งเป้าหมาย ไปที่กลุ่มเป้าหมายขนาดเล็ก เช่น ดาราหรือบุคคลสาธารณะ ที่มีอิทธิพลต่อสังคมค่อนข้างมาก อาจเป็นเรื่องยาก ที่จะควบคุมการแสดงออกของเจตนาของผู้สร้าง


แล้วจะสร้างทางเลือกที่เกี่ยวข้อง ในอนาคตอย่างไร สามารถนำเสนอได้สองทาง


ประการแรก เราต้องรับรู้และยอมรับว่า เราเป็นสิ่งมีชีวิต ในโลกแห่งกล้องและระบบการรับรู้ ผู้เขียนบทความนี้ และคุณผู้อ่าน ใช้เวลาส่วนใหญ่ในชีวิตประจำวัน อยู่หน้าโทรศัพท์มือถือและแล็ปท็อป ที่ติดตั้งกล้องจากมุมมองของระบบ พฤติกรรมของมนุษย์คือ วัสดุสำหรับอัลกอริธึมนี่คือ

กล้องที่ตรวจสอบว่า ดูแลเด็กดีแค่ไหน มีอยู่เพื่อความสัมพันธ์ในอุดมคติ ระหว่างพ่อแม่กับพี่เลี้ยง แต่ก็เป็นสิ่งมีชีวิตที่ไม่ใช่มนุษย์ ที่เรียนรู้และปฏิบัติตามเจตนา ของมนุษย์ในการจำกัดมนุษย์ ความตระหนักรู้ของเรานั้น ว่าเรามีชีวิตอยู่ร่วมกับสิ่งมีชีวิตใหม่ๆ เหล่านี้ สามารถช่วยในการจัดการและตอบสนองต่อ เจตนาที่ไม่ถูกต้อง ที่เกี่ยวข้องกับ Deepfake


ประการที่สอง จำเป็นต้องมีการสร้างและเผยแพร่ การศึกษาที่เกี่ยวข้องในระดับชุมชน เรามักมีแนวโน้ม ที่จะแสวงหาความรู้สึกเป็นเจ้าของ ภายในเครือข่ายที่อ่อนแอ ภายในระบบดิจิทัล ซึ่งเกี่ยวข้องกับการขาดความรู้สึกเป็นเจ้าของ จากองค์กรทางสังคม ที่เข้มแข็งขึ้นในช่วงการระบาด และความปรารถนาที่จะเชื่อ ว่าเราเชื่อมต่อกับคนอื่น ที่เรามองไม่เห็น ผ่านความชอบหรือความสนใจ การตรวจสอบ TikTok ซ้ำๆ ตลอดทั้งคืน การเข้าถึง Wiki ที่ไม่คาดหวังความถูกต้อง การตรวจสอบเรื่องราวอย่างต่อเนื่องบน Instagram การละเลยห้องแชทกลุ่ม ที่มีความสนใจน้อย ล้วนเป็นตัวอย่าง


Deepfake มักกระตุ้นความรู้สึกเป็นเจ้าของ จากการเชื่อมต่อที่อ่อนแอเหล่านี้ แต่เนื่องจากไม่มีความสนใจอย่างลึกซึ้ง ต่อบุคคลนั้น จึงค่อนข้างง่าย ที่จะทำลายอิทธิพลของเนื้อหาที่เกี่ยวข้อง สำหรับบุคคล การตรวจสอบความถูกต้องของเนื้อหา Deepfake ที่มุ่งทำลายความน่าเชื่อถือของนักการเมือง เป็นเรื่องยาก แต่ผลลัพธ์ของโครงการหนึ่ง ที่แยกความจริงออกจากความเท็จ ในหน่วยงานของพรรคการเมือง พิสูจน์แล้วว่า โปรแกรมการศึกษาที่อิงตามมุมมอง คุณค่าและธรรมเนียมปฏิบัติของชุมชน เป็นทางเลือกที่ได้ผล นี่หมายความว่า บริษัทผู้ให้บริการแพลตฟอร์ม ที่แชร์เนื้อหา Deepfake สามารถสร้างโอกาสเชิงกลยุทธ์ ได้โดยการกำหนดนโยบายตอบสนอง แบบเฉพาะสำหรับชุมชน ของผู้ใช้และเสนอแนวทางเหล่านั้น


มีตัวอย่างการใช้งานเทคโนโลยี Deepfake ในเชิงบวก เช่น ภาพยนตร์ Fast & Furious ที่นำ Paul Walker ซึ่งเสียชีวิตจากอุบัติเหตุ กลับมาแสดงในหนัง โดยการซ้อนใบหน้าของเขา บนร่างของน้องชาย แต่ในขณะเดียวกัน ในชีวิตจริงก็มีกรณี ที่วิดีโอปลอมเกี่ยวกับเซ็กส์ ของนักข่าวหญิงคนหนึ่ง ทำลายชีวิตของเธอ


จำเป็นต้องจำไว้ว่า นักแสดงในวงการภาพยนตร์ เป็นกลุ่มคนที่ได้รับการปกป้อง จากเทคโนโลยี Deepfake มากที่สุดในปัจจุบัน สังคมในปัจจุบัน ยังไม่สามารถตอบได้ ว่าจะรับมือกับสถานการณ์ อย่างไรหากเป้าหมายเป็นคนธรรมดา ก่อนที่จะมีการคาดหวังเกี่ยวกับกฎระเบียบทางกฎหมาย การตระหนักรู้ในตัวเอง โดยเฉพาะอย่างยิ่ง ในตัวเอง ที่กำลังตรวจสอบเนื้อหา Deepfake บนช่องทางโซเชียลเช่น TikTok เพื่อความบันเทิง อาจเป็นขั้นตอนแรก ที่จำเป็นที่สุด


*บทความนี้ตีพิมพ์ในคอลัมน์ชื่อของหนังสือพิมพ์อิเล็กทรอนิกส์ เป็นต้นฉบับของเนื้อหาที่เผยแพร่เมื่อวันที่ 14 กุมภาพันธ์ 2023


อ้างอิง

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
ความคลุมเครือที่มุ่งสู่ความเป็นส่วนตัวในโลกดิจิทัล ข้อถกเถียงเกี่ยวกับการปกป้องข้อมูลส่วนบุคคลที่ล้อมรอบ TikTok เปิดเผยความกังวลเกี่ยวกับการเก็บรวบรวมและการใช้งานข้อมูลของผู้ใช้ บริษัทต่างๆ จำเป็นต้องตอบสนองต่อความต้องการด้านความเป็นส่วนตัวของผู้ใช้ โดยการให้ข้อมูลนโยบายความเป็นส่วนตัวที่ชัดเจนและง่ายต่อก

10 พฤษภาคม 2567

โลกที่ AI สร้างขึ้น: ทฤษฎีความไม่ลงรอยกันและกระบวนการ การพัฒนาเทคโนโลยี AI ที่สร้างสรรค์ได้จุดประกายคำถามใหม่เกี่ยวกับความสามารถในการแข่งขันของผู้สร้างในสาขา ศิลปะ การโฆษณา และสื่อ ในบทความนี้ เน้นย้ำถึงความจำเป็นที่ผู้สร้างจะต้องเน้นมุมมองที่อุดมสมบูรณ์เกี่ยวกับโลกแห่งความเป็นจริง และคุณค่าของกระบวนการสร้าง

9 พฤษภาคม 2567

AI ในยุคนี้ 'ร่างกาย': 섹สอพีล เป็นกลยุทธ์ที่มีประสิทธิภาพหรือไม่ 上 การแพร่กระจายของแอพพลิเคชั่นการถอดเสื้อผ้าที่ใช้ AI บนโซเชียลมีเดีย นำไปสู่การวิเคราะห์ปรากฏการณ์ที่ความต้องการทางเพศของบุคคลขยายไปสู่ชีวิตของผู้อื่น และบทบาทที่เปลี่ยนแปลงไปของ 섹สอพีล บทความนี้จะสำรวจปรากฏการณ์ที่ 섹สอพีลลดน้อยลง ในขอบเขตส่วนบุคคล ในขณะที

16 พฤษภาคม 2567

AI สร้างภาพ เทคโนโลยีปฏิวัติและความท้าทายในความเป็นจริง AI สร้างภาพเป็นเทคโนโลยีปฏิวัติที่สร้างภาพเหมือนจริงจากการป้อนข้อความเพียงอย่างเดียว เทคโนโลยีนี้ถูกนำมาใช้ในสาขาต่างๆ เช่น ศิลปะ การออกแบบ การตลาด แต่ยังคงมีข้อกังวลเกี่ยวกับทรัพย์สินทางปัญญา อคติ และการสร้างภาพปลอม เทคโนโลยีนี้กำลังพัฒนาไปเรื่อยๆ จึง
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 พฤษภาคม 2567

[คอลัมน์ของฮอเยองจู] ภัยคุกคามของ TikTok ในสหรัฐอเมริกา สภาผู้แทนราษฎรของสหรัฐอเมริกาได้ผ่านร่างกฎหมายห้าม TikTok ทำให้ TikTok มีความเสี่ยงที่จะถูกขับออกจากสหรัฐอเมริกา วงการการเมืองของสหรัฐฯ อ้างว่า TikTok เป็นภัยคุกคามต่อความมั่นคงแห่งชาติและความปลอดภัยของข้อมูล และกังวลว่าอิทธิพลของ TikTok ในสหรัฐฯ กำลังเพิ
허영주
허영주
허영주
허영주
허영주

26 มิถุนายน 2567

ความเข้าใจผิดและความจริงเกี่ยวกับบทความที่เขียนโดย AI แบบสร้างสรรค์ Google ไม่รวมเนื้อหาคุณภาพต่ำ รวมถึงเนื้อหาที่สร้างโดย AI ในผลการค้นหา เนื้อหาที่มีคุณภาพสำคัญ แม้จะใช้ AI การคัดลอกและวางแบบง่ายๆ อาจถือเป็นเนื้อหาคุณภาพต่ำ นั่นหมายความว่า ไม่ว่าจะสร้างโดย AI หรือไม่ เนื้อหาที่มีคุณภาพเท่านั้นที่จะปรากฏในผลการค้นหา
durumis official blog
durumis official blog
ภาพ FAQ ของ Durumis
durumis official blog
durumis official blog

21 กุมภาพันธ์ 2567

ความเสี่ยงของ TikTok TikTok อันตรายจริงหรือ? ด้วยความนิยมของ TikTok ปัจจัยเสี่ยงที่เกี่ยวข้องกับการใช้ TikTok เช่น อัลกอริธึมที่ปรับแต่งตามผู้ใช้ การเลื่อนดูแบบไม่สิ้นสุด การเสพติด ปัญหาความเป็นส่วนตัวและความปลอดภัย จะได้รับการตรวจสอบอย่างละเอียดและมีการเสนอเคล็ดลับเพื่อการใช้งานที่ปลอดภัย เรียนรู้เ
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 เมษายน 2567

วิธีหลอกลวงและการหลอกลวงทางโทรศัพท์ 7 วิธีที่คุณควรระวัง อาชญากรรมไซเบอร์รูปแบบใหม่ที่ใช้เทคโนโลยี AI กำลังปรากฏขึ้น ดังนั้นจึงจำเป็นต้องใช้ความระมัดระวังเป็นพิเศษเมื่อใช้บริการชำระเงินแบบ P2P การหลอกลวง การขโมยข้อมูลบัญชี การขายสินค้าปลอม เป็นต้นมีอยู่หลายวิธี โดยเฉพาะอย่างยิ่งการหลอกลวงผ่านโซเชียลมีเดียกำลังเ
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

30 มีนาคม 2567

[คอลัมน์ ฮอเยองจู] ศาสนาเทียมที่ใช้ประโยชน์จากยูทูบ ไปจนถึง แด็กึนมาเก็ต ค้นหาลักษณะทั่วไป 3 ประการของศาสนาเทียม กระบวนการล้างสมอง วิธีการเผยแผ่ในปัจจุบัน และวิธีการปกป้องตนเอง จากนั้นป้องกันตัวเองจากศาสนาเทียม บทความนี้เขียนขึ้นจากบทความที่ตีพิมพ์ในหนังสือพิมพ์เศรษฐกิจสตรี
허영주
허영주
허영주
허영주
허영주

18 มิถุนายน 2567