Byungchae Ryan Son

การเปลี่ยนแปลงความสัมพันธ์ของเรากับอัลกอริทึม

สร้าง: 2024-05-09

สร้าง: 2024-05-09 15:01

“ตอนนี้เรามีแบบจำลอง AI ที่สามารถวิเคราะห์ภาษาของมนุษย์และดึงเอาแบบจำลองของโลกออกมาได้แล้ว”


เมื่อวันที่ 19 เดือนที่ผ่านมา ณ งานการกุศลที่จัดขึ้นในเมืองออนแทรีโอ ประเทศแคนาดา ศาสตราจารย์จอร์แดน ปีเตอร์สัน นักจิตวิทยาคลินิกจากมหาวิทยาลัยโตรอนโต ได้กล่าวถึงความตึงเครียดใหม่ระหว่างมนุษย์กับอัลกอริทึมในอนาคต ผ่านตัวอย่างการใช้งานของ ChatGPT ที่ได้รับความสนใจเป็นอย่างมากในช่วงนี้ ศาสตราจารย์ปีเตอร์สันเตือนว่า แบบจำลองภาษาขนาดใหญ่หรือ AI เชิงสร้างสรรค์จะฉลาดขึ้นเรื่อยๆ จนสามารถใช้ภาพและการเคลื่อนไหวในการดึงเอาแพทเทิร์นออกมาเอง แล้วทดสอบกับโลกภายนอกได้ โดยทำได้เร็วกว่านักวิทยาศาสตร์มนุษย์หลายเท่าตัว


GPT-3, DALL-E, StableDiffusion ฯลฯ กำลังกลายเป็นพื้นฐานของระบบ AI เกือบทั้งหมด และกำลังทำให้การเปลี่ยนผ่านของ AI เป็นรูปธรรมมากขึ้น ระบบอันทรงพลังที่สร้างภาพและข้อความตามความต้องการของผู้ใช้เหล่านี้ ย่อมก่อให้เกิดความขัดแย้งกับผู้สร้างสรรค์ในอุตสาหกรรมเดิมๆ อย่างหลีกเลี่ยงไม่ได้ เมื่อเดือนพฤศจิกายนที่ผ่านมา บริษัทไมโครซอฟท์ถูกฟ้องร้องเป็นคดีกลุ่มจากผู้เขียนโค้ดจำนวนมากที่เผยแพร่โค้ดของตนเองภายใต้ใบอนุญาตโอเพนซอร์ส โดยกล่าวหาว่า GitHub Copilot (GitHubCopilot) ของไมโครซอฟท์ละเมิดสิทธิทางกฎหมายของพวกเขาขณะที่ใช้โค้ดเหล่านั้นในการฝึกฝน AI นอกจากนี้ สมาคมอุตสาหกรรมเพลงอเมริกัน (RIAA) ยังได้ออกแถลงการณ์เมื่อเดือนตุลาคมที่ผ่านมา โดยเน้นย้ำว่า การสร้างและรีมิกซ์เพลงโดยใช้ AI สามารถคุกคามทั้งสิทธิและสถานะทางการเงินของนักดนตรีได้


กรณีเหล่านี้ช่วยเตือนให้เรานึกถึงคำถามว่า “วิธีการฝึกฝนระบบและสร้างผลลัพธ์โดยใช้ชุดข้อมูลที่มีลิขสิทธิ์นั้นยุติธรรมกับทุกคนหรือไม่” แต่อย่างไรก็ตาม เราควรสังเกตว่าข้อถกเถียงเหล่านี้ส่วนใหญ่เน้นไปที่ด้านเทคโนโลยีใหม่ๆ เป็นหลัก ในท้ายที่สุด ผู้ที่ป้อนข้อความเข้าไปในแบบจำลอง AI เพื่อให้ได้ผลลัพธ์ที่ต้องการก็คือมนุษย์ ดังนั้น เราควรให้ความสนใจกับประเด็นที่ว่า “เราควรสร้างความสัมพันธ์กับอัลกอริทึมอย่างไร” มากกว่า ซึ่งเราสามารถค้นหาเบาะแสจากประสบการณ์ที่เราคุ้นเคยกับอัลกอริทึมการสร้างเนื้อหา (content-generating algorithm) ได้


อัลกอริทึมเป็นส่วนหนึ่งในการสร้างโลกของเราเช่นเดียวกับมนุษย์ เรามักจะพิจารณาการเฝ้าระวังทางสังคมเกี่ยวกับความไม่โปร่งใสของอัลกอริทึมมาโดยตลอด โดยเฉพาะอย่างยิ่ง เราทราบดีว่าการขาดความโปร่งใสทำให้การประเมินว่าใครควรเป็นผู้รับผิดชอบนั้นยากลำบาก และกังวลว่าอคติที่ซ่อนอยู่ภายในอาจส่งผลให้เกิดผลลัพธ์ที่ไม่เป็นธรรม ดังนั้น ‘เราควรปฏิบัติต่ออัลกอริทึมอย่างไร’ อาจเป็นคำถามที่สำคัญกว่า และเราสามารถค้นหาคำตอบเบื้องต้นจากความสัมพันธ์ที่เรามีกับอัลกอริทึมการสร้างเนื้อหาที่เราคุ้นเคยอยู่แล้ว


ประการแรก เราตระหนักถึงการมีอยู่ของอัลกอริทึม คำว่า ‘แนะนำ’ และ ‘เลือก’ มักปรากฏในบทสนทนาเกี่ยวกับเนื้อหาและโฆษณา ซึ่งบ่งบอกว่าผู้คนกำลังสร้างคำศัพท์ขึ้นมาโดยใช้ศูนย์กลางเป็นอัลกอริทึมในแพลตฟอร์มช้อปปิ้งออนไลน์หรือโซเชียลมีเดีย นอกจากนี้ เรามีความอยากรู้อยากเห็นเกี่ยวกับอัลกอริทึม เมื่อหน้าหลักของ YouTube เต็มไปด้วยเนื้อหาในหมวดหมู่ใดหมวดหมู่หนึ่ง หรือเมื่อเรารู้สึกว่าโพสต์ของเราได้รับการแสดงผลไม่เพียงพอ เรามักจะแสดงความสงสัยต่ออัลกอริทึมด้วยปฏิกิริยาที่ไม่เป็นมิตร


สุดท้าย เราต้องการให้อัลกอริทึมเป็นเหมือนสิ่งมีชีวิตที่มีชีวิตชีวาและดำเนินการอยู่เพื่อเรา เราคาดหวังกับอัลกอริทึมเพื่อสร้างนิสัยใหม่ๆ เรียนรู้ และจดจำสิ่งต่างๆ และพยายามควบคุมอัลกอริทึมอย่างสมบูรณ์เพื่อจุดประสงค์ดังกล่าว ไม่ว่าจะเป็นการลองใช้แฮชแท็กที่ไม่เกี่ยวข้อง การเปิดใช้งานโหมดห้ามรบกวน หรือการส่งข้อเสนอแนะเกี่ยวกับตัวเลือกโฆษณา และเมื่อความพยายามทั้งหมดเหล่านี้ล้มเหลว เราก็อาจพยายามตัดขาดจากอัลกอริทึม เช่น การดิจิทัลดีท็อกซ์หรือการอ่านเนื้อหาข่าวสารผ่านจดหมายข่าว


สรุปคือ เมื่อความสัมพันธ์กับอัลกอริทึมไม่เป็นไปตามที่ต้องการ ผู้คนมักจะแสดงออกถึงความไม่ไว้วางใจ การประเมินในแง่ลบ และความรู้สึกติดอยู่กับอดีต ซึ่งส่วนใหญ่คล้ายคลึงกับ‘ความสัมพันธ์ทางสังคม’ที่เรามีในชีวิตประจำวัน นอกจากนี้ ความสัมพันธ์กับอัลกอริทึมการสร้างเนื้อหาในอดีตส่วนใหญ่เป็นแบบทางเดียวในขอบเขตของ ‘การบริโภค’ แต่ความสัมพันธ์กับแบบจำลองภาษาขนาดใหญ่หรือ AI อัลกอริทึมในปัจจุบันนั้นสามารถนิยามได้ว่าเป็นแบบสองทางในขอบเขตของ ‘การสร้าง’ เนื่องจากผลลัพธ์ที่ผู้ใช้ต้องการนั้นไม่ได้มีเอกลักษณ์เฉพาะตัวอย่างสมบูรณ์ แต่เป็นผลมาจากการสร้างสรรค์ของใครบางคนในโลกนี้ ดังนั้น เราจึงจำเป็นต้องตระหนักว่าทัศนคติและวิธีการที่เราปฏิบัติต่ออัลกอริทึม AI เชิงสร้างสรรค์จำเป็นต้องเปลี่ยนแปลงไปในเชิงรากฐาน


แม้ว่าคุณจะเปิดหน้าต่าง ChatGPT ไว้ AI อัลกอริทึมก็จะรออยู่เฉยๆ บางทีความสามารถอันน่าทึ่งของมันอาจถูกบดบังไว้ และเมื่อคุณพิมพ์บางสิ่งบางอย่าง มันก็อาจเพียงแค่ช่วยสร้างความสัมพันธ์ทางสังคมที่ซ่อนเร้นกับอีกคนที่อยู่ในโลกเดียวกับคุณ


*บทความนี้เป็นบทความต้นฉบับที่ตีพิมพ์ในคอลัมน์ของ คอลัมน์ชื่อของหนังสือพิมพ์อิเล็กทรอนิกส์ เมื่อวันที่ 9 มกราคม 2566


เอกสารอ้างอิง


ความคิดเห็น0

การปฏิวัติของ AI ที่สร้างสรรค์ผลงานในการสร้างสรรค์บทความนี้กล่าวถึงผลกระทบอย่างมากของ AI ที่สร้างสรรค์ต่อการสร้างสรรค์ ตลอดจนตัวอย่างความสำเร็จมากมาย การเปลี่ยนแปลงของอุตสาหกรรม และประเด็นทางจริยธรรม บทความนี้เสนออนาคตและความเป็นไปได้ของการสร้างสรรค์โดยใช้ AI พร้อมกับการพิจารณาถึงความท้าทายต่างๆ เช่น ปั
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

April 11, 2025

พลังของเครื่องจักรที่ตีความภาษาของมนุษย์: ปัญญาประดิษฐ์และการประมวลผลภาษาธรรมชาติบทความวิเคราะห์เชิงลึกเกี่ยวกับหลักการ เทคนิคการใช้งาน ปัญหาทางจริยธรรม และการคาดการณ์ในอนาคตของเทคโนโลยีปัญญาประดิษฐ์และการประมวลผลภาษาธรรมชาติ รวมถึงตัวอย่างการประยุกต์ใช้งานที่หลากหลาย เช่น แชทบอท การแปลภาษา และคู่มือการใช้งานสำหรับนักพัฒนา
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

March 25, 2025

อนาคตของปัญญาประดิษฐ์: จุดตัดของอาชีพและความคิดสร้างสรรค์บทความที่เผยแพร่เมื่อวันที่ 25 มีนาคม 2025 นี้กล่าวถึงอนาคตของปัญญาประดิษฐ์ การเปลี่ยนแปลงของอาชีพและความคิดสร้างสรรค์ ยกตัวอย่างนวัตกรรม AI ในด้านการขับขี่อัตโนมัติ การดูแลสุขภาพ การเงิน และอื่นๆ พร้อมทั้งพูดถึงประเด็นทางจริยธรรม กลยุทธ์ของแต่ละประเทศ แ
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

March 25, 2025

วิธีที่ AI เปลี่ยนแปลงการทำงานร่วมกันของมนุษย์บทความนี้แสดงให้เห็นถึงนวัตกรรมและการคาดการณ์ในอนาคตของความร่วมมือระหว่าง AI และมนุษย์ ครอบคลุมถึงตัวอย่างการใช้ AI ในหลากหลายสาขา เช่น การแพทย์ การสร้างเนื้อหา และการผลิต พร้อมทั้งกล่าวถึงประเด็นด้านจริยธรรมและวิธีการสร้างความน่าเชื่อถือ
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

April 9, 2025

ปัญญาประดิษฐ์และจริยธรรม: ความกลมกลืนระหว่างเทคโนโลยีและมนุษย์บทความนี้กล่าวถึงประเด็นทางจริยธรรมของปัญญาประดิษฐ์และแนวทางการอยู่ร่วมกันอย่างยั่งยืน เน้นถึงความเสี่ยงต่างๆ เช่น ความลำเอียงของ AI การละเมิดความเป็นส่วนตัว พร้อมทั้งย้ำถึงความจำเป็นในการพัฒนาและการกำกับดูแลที่รับผิดชอบ
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

April 9, 2025

นโยบายจริยธรรมปัญญาประดิษฐ์บทความนี้กล่าวถึงประเด็นทางจริยธรรม ปัญหา และตัวอย่างของปัญญาประดิษฐ์ ครอบคลุมประเด็นสำคัญต่างๆ เช่น ความเป็นส่วนตัว อคติ ความรับผิดชอบ และความปลอดภัย รวมถึงการนำเสนอนโยบายที่เกี่ยวข้อง เช่น กฎหมาย AI พื้นฐาน หลักการ OECD เขียนเมื่อวันที่ 1 กุมภาพันธ์ 2
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

February 1, 2025