Byungchae Ryan Son

ข้อขัดแย้งของแบบจำลอง AI ชั้นนำ: ความโปร่งใส

สร้าง: 2024-05-14

สร้าง: 2024-05-14 16:03

การวิจัยที่เผยแพร่โดยคณะนักวิจัยจากมหาวิทยาลัยสแตนฟอร์ดเมื่อวันที่ 18 ที่ผ่านมาแสดงให้เห็นว่าความลับของ GPT-4 และระบบ AI ระดับสูงอื่นๆ ลึกซึ้งเพียงใด และมีความเสี่ยงที่อาจเกิดขึ้นได้มากแค่ไหน

ข้อขัดแย้งของแบบจำลอง AI ชั้นนำ: ความโปร่งใส

Introducing The Foundation Model Transparency Index, Stanford University


พวกเขาได้ทำการสำรวจระบบ AI ที่แตกต่างกันทั้งหมด 10 ระบบ ซึ่งส่วนใหญ่เป็นแบบจำลองภาษาขนาดใหญ่ (Large Language Model) ที่ใช้ใน ChatGPT และแชทบอทอื่นๆ เช่นเดียวกัน ซึ่งรวมถึงแบบจำลองเชิงพาณิชย์ที่ใช้กันอย่างแพร่หลาย เช่น GPT-4 ของ OpenAI, PaLM 2 ของ Google และ Titan Text ของ Amazon โดยการประเมินความโปร่งใสตามเกณฑ์ 13 ข้อ ซึ่งรวมถึงการพิจารณาว่าผู้พัฒนาเปิดเผยข้อมูลเกี่ยวกับข้อมูลที่ใช้ในการฝึกฝนแบบจำลอง (วิธีการรวบรวมและการจัดทำข้อมูล รวมถึงการใช้ข้อมูลที่มีลิขสิทธิ์หรือไม่) มากน้อยเพียงใด นอกจากนี้ยังได้ทำการสำรวจว่ามีการเปิดเผยข้อมูลเกี่ยวกับฮาร์ดแวร์ที่ใช้ในการฝึกฝนและดำเนินการแบบจำลอง โครงสร้างซอฟต์แวร์ที่ใช้ และการใช้พลังงานของโครงการหรือไม่


ผลลัพธ์ที่ได้คือ ไม่มีแบบจำลอง AI ใดที่ทำคะแนนด้านความโปร่งใสได้เกิน 54% ในทุกเกณฑ์ที่กล่าวถึง โดยภาพรวม Amazon Titan Text ได้รับการประเมินว่ามีความโปร่งใสต่ำที่สุด ขณะที่ Meta Llama 2 ได้รับการจัดอันดับว่ามีความโปร่งใสมากที่สุด ซึ่งเป็นเรื่องที่น่าสนใจที่ Llama 2 ซึ่งเป็นตัวแทนของโครงสร้างการต่อสู้ระหว่างแบบจำลองแบบเปิดและแบบปิดที่ได้รับความสนใจในช่วงไม่นานมานี้ ถึงแม้จะเป็นแบบจำลองโอเพนซอร์ส แต่ก็ไม่ได้เปิดเผยข้อมูลเกี่ยวกับข้อมูลที่ใช้ในการฝึกฝน วิธีการรวบรวมและจัดการข้อมูล เป็นต้น ซึ่งหมายความว่า แม้ว่า AI จะมีอิทธิพลต่อสังคมของเรามากขึ้นเรื่อยๆ แต่ก็ยังพบว่าอุตสาหกรรมมีความไม่โปร่งใสอย่างต่อเนื่องและแพร่หลาย


ซึ่งหมายถึงมีความเสี่ยงที่อุตสาหกรรม AI จะกลายเป็นอุตสาหกรรมที่เน้นผลกำไรมากกว่าความก้าวหน้าทางวิทยาศาสตร์ในเร็วๆ นี้ และอาจนำไปสู่การผูกขาดในอนาคตโดยบริษัทบางแห่งนั่นเอง

ข้อขัดแย้งของแบบจำลอง AI ชั้นนำ: ความโปร่งใส

Eric Lee/Bloomberg via Getty Images


ซาม อัลท์แมน ซีอีโอของ OpenAI ได้พบปะกับผู้กำหนดนโยบายทั่วโลกเพื่ออธิบายเกี่ยวกับปัญญาประดิษฐ์ (AI) ที่แปลกใหม่และกำลังพัฒนาอยู่ และแสดงความเต็มใจที่จะช่วยเหลือในการกำหนดกฎระเบียบที่เกี่ยวข้อง อย่างไรก็ตาม แม้ว่าเขาจะสนับสนุนแนวคิดในการจัดตั้งองค์กรระหว่างประเทศเพื่อดูแล AI เป็นหลัก แต่เขาก็เชื่อว่ากฎบางข้อ เช่น การห้ามใช้ข้อมูลที่มีลิขสิทธิ์ในชุดข้อมูล อาจเป็นอุปสรรคที่ไม่เป็นธรรม เหตุผลที่ชื่อบริษัท OpenAI ซึ่งสะท้อนถึง 'ความเปิดกว้าง' ดูเหมือนจะเปลี่ยนแปลงไปจากความโปร่งใสที่รุนแรงที่เคยเสนอในช่วงเริ่มต้น


อย่างไรก็ตาม จากผลการศึกษาของสแตนฟอร์ดในครั้งนี้ เราจำเป็นต้องใส่ใจกับข้อเท็จจริงที่ว่า ไม่จำเป็นต้องเก็บแบบจำลองของแต่ละบริษัทไว้เป็นความลับเพื่อการแข่งขัน ผลลัพธ์ที่ได้แสดงให้เห็นถึงประสิทธิภาพที่ลดลงของเกือบทุกบริษัท ตัวอย่างเช่น ไม่มีบริษัทใดที่ให้ข้อมูลสถิติเกี่ยวกับจำนวนผู้ใช้ที่พึ่งพาแบบจำลองของตน หรือส่วนของตลาดหรือภูมิภาคที่ใช้แบบจำลองของตน


ในหมู่องค์กรที่ยึดถือหลักการโอเพนซอร์ส มีสุภาษิตที่ว่า 'ยิ่งมีคนมองเห็นมากเท่าไหร่ ก็ยิ่งพบข้อผิดพลาดมากขึ้นเท่านั้น' (กฎของลินุส) ตัวเลขที่ดิบๆ สามารถช่วยในการค้นหาปัญหาและแก้ไขปัญหาที่สามารถแก้ไขได้


แต่แนวทางการปฏิบัติแบบโอเพนซอร์สยังมีแนวโน้มที่จะทำให้สถานะทางสังคมและการยอมรับคุณค่าทั้งภายในและภายนอกองค์กรที่เปิดเผยข้อมูลลดลงดังนั้น การเน้นย้ำอย่างไม่มีเงื่อนไขจึงไม่ค่อยมีความหมายมากนัก ด้วยเหตุนี้ แทนที่จะยึดติดกับกรอบการคิดเกี่ยวกับแบบจำลองแบบเปิดและแบบปิด เราควรเน้นไปที่การขยายการเข้าถึง 'ข้อมูล' ที่เป็นพื้นฐานของแบบจำลอง AI ให้กว้างขึ้นทีละน้อยซึ่งอาจเป็นทางเลือกที่ดีกว่า

ข้อขัดแย้งของแบบจำลอง AI ชั้นนำ: ความโปร่งใส


การพัฒนาทางวิทยาศาสตร์นั้นการตรวจสอบซ้ำ (Reproducibility) ว่าผลลัพธ์การวิจัยบางอย่างจะปรากฏขึ้นอีกหรือไม่เป็นสิ่งสำคัญหากไม่มีการกำหนดวิธีการที่ชัดเจนเพื่อให้แน่ใจว่ามีความโปร่งใสในองค์ประกอบหลักของการสร้างแบบจำลองแต่ละแบบ ในที่สุดอุตสาหกรรมก็อาจติดอยู่ในสถานการณ์ที่ปิดกั้นและหยุดนิ่ง ซึ่งเป็นสถานการณ์ที่เกิดจากการผูกขาด และนี่เป็นสิ่งที่ควรได้รับการพิจารณาอย่างจริงจังในฐานะลำดับความสำคัญที่สำคัญในปัจจุบันและอนาคต เนื่องจากเทคโนโลยี AI กำลังแพร่หลายในทุกอุตสาหกรรมอย่างรวดเร็ว


สำหรับนักข่าวและนักวิทยาศาสตร์ การทำความเข้าใจข้อมูลเป็นสิ่งสำคัญ และสำหรับผู้กำหนดนโยบาย ความโปร่งใสเป็นเงื่อนไขเบื้องต้นสำหรับความพยายามในด้านนโยบายที่วางแผนไว้ สำหรับประชาชนทั่วไป ความโปร่งใสก็มีความสำคัญเช่นกัน เนื่องจากในฐานะผู้ใช้ AI พวกเขาอาจเป็นผู้กระทำผิดหรือผู้เสียหายจากปัญหาระดับปัญญาประดิษฐ์ (AI) ที่เกี่ยวข้องกับทรัพย์สินทางปัญญา การใช้พลังงาน และอคติ ซาม อัลท์แมนกล่าวว่าความเสี่ยงจากการสูญพันธุ์ของมนุษย์จาก AI ควรเป็นลำดับความสำคัญระดับโลก เช่นเดียวกับภัยคุกคามในระดับสังคมอื่นๆ เช่น โรคระบาดหรือสงครามนิวเคลียร์ อย่างไรก็ตาม เราไม่ควรลืมว่าการดำรงอยู่ของสังคมของเราในการรักษาความสัมพันธ์ที่ดีกับ AI ที่กำลังพัฒนาขึ้นนั้นเป็นสิ่งที่ต้องมีก่อนที่จะเกิดสถานการณ์อันตรายที่เขากล่าวถึง


*บทความนี้เป็นต้นฉบับของคอลัมน์ที่ตีพิมพ์ในหนังสือพิมพ์อิเล็กทรอนิกส์เมื่อวันที่ 23 ตุลาคม 2566*


เอกสารอ้างอิง


ความคิดเห็น0

สร้าง AI Full Stack ด้วยโอเพนซอร์สบทความนี้จะแนะนำเครื่องมือต่างๆ สำหรับสร้าง AI 풀สแตก (Full Stack) ด้วยโอเพนซอร์ส รวมถึง LLM, เครื่องมืออนุมานและให้บริการ, เฟรมเวิร์ก และโซลูชันการตรวจสอบต่างๆ เรียนรู้การพัฒนาแอปพลิเคชัน AI โดยใช้ LangChain, LlamaIndex และอื่นๆ
RevFactory
RevFactory
RevFactory
RevFactory

February 5, 2024

Snowflake เปิดตัว LLM ระดับองค์กร Arctic ที่มีระดับความเปิดกว้างสูงสุดในอุตสาหกรรมSnowflake เปิดตัว Arctic LLM ระดับองค์กรแบบโอเพ่นซอร์สที่มีความเปิดกว้างสูงสุดในอุตสาหกรรม โดยใช้สิทธิ์การใช้งาน Apache 2.0 ทำให้สามารถรองรับเฟรมเวิร์กต่างๆ และปรับแต่งได้หลากหลาย
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

April 25, 2024

NetApp เผยแพร่รายงานความซับซ้อนของคลาวด์ปี 2024 … มองการณ์ไกลถึงยุคแห่งนวัตกรรม AI ที่จะก้าวไปสู่การเปลี่ยนแปลงครั้งใหญ่ทั่วโลกหรือล่มสลายรายงานความซับซ้อนของคลาวด์จาก NetApp ระบุว่าช่องว่างระหว่างผู้นำด้าน AI กับผู้ตามกำลังขยายตัว และเน้นย้ำว่าการรวมข้อมูลเป็นปัจจัยสำคัญต่อความสำเร็จของ AI
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

April 25, 2024

“[ข้อมูลเชิงลึกเกี่ยวกับ AI] ผู้ทรงอิทธิพลด้าน AI เตือน… ทางแยกของปัญญาเหนือมนุษย์ที่กำลังจะมาถึงภายใน 10 ปี"ดร. เจฟฟรีย์ ฮินตัน เตือนว่า AI อาจหลุดพ้นจากการควบคุมของมนุษย์ภายใน 10 ปี โดยเปรียบเทียบการเปิดเผยน้ำหนัก AI กับการรั่วไหลของแบบแปลนอาวุธนิวเคลียร์ เขากำลังมองหาการปฏิวัติ AI ในด้านการแพทย์ การศึกษา และสิ่งแวดล้อม และเน้นย้ำถึงความสำคัญของการควบคุมเทคโนโ
NEWS FDN (다큐)
NEWS FDN (다큐)
NEWS FDN (다큐)
NEWS FDN (다큐)

July 23, 2025

Snowflake เผยแพร่รายงานแนวโน้มข้อมูลปี 2024… นักพัฒนา AI พัฒนาแอปพลิเคชันเฉลี่ยวันละ 90 แอปรายงานของ Snowflake ระบุว่า นักพัฒนา AI พัฒนาแอปพลิเคชันเฉลี่ยวันละ 90 แอป โดยแอปพลิเคชันแชทบอทมีสัดส่วนเพิ่มขึ้น โดยเฉพาะอย่างยิ่ง Python เป็นที่นิยมและการใช้ข้อมูลที่ไม่มีโครงสร้างเพิ่มขึ้น
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

May 16, 2024