![translation](https://cdn.durumis.com/common/trans.png)
นี่คือโพสต์ที่แปลด้วย AI
ความขัดแย้งของแบบจำลอง AI ชั้นนำ ความโปร่งใส
- ภาษาที่เขียน: ภาษาเกาหลี
- •
-
ประเทศอ้างอิง: ทุกประเทศ
- •
- เทคโนโลยีสารสนเทศ
เลือกภาษา
สรุปโดย AI ของ durumis
- ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดได้วิเคราะห์ระบบ AI ชั้นนำ 10 ระบบ รวมถึง GPT-4 และพบว่าแบบจำลอง AI ขาดความโปร่งใส ในเรื่องชุดข้อมูล วิธีการฝึกฝน ฯลฯ
- โดยเฉพาะบริษัท AI หลัก เช่น OpenAI และ Google มีแนวโน้มที่จะไม่เปิดเผยข้อมูล เนื่องจากมุ่งเน้นไปที่แบบจำลองทางธุรกิจที่เน้นผลกำไร ซึ่งอาจส่งผลต่อการพัฒนาเทคโนโลยี AI และนำไปสู่การผูกขาดในอนาคต
- ผู้เชี่ยวชาญชี้ว่าจำเป็นต้องเพิ่มความโปร่งใสของแบบจำลอง AI เพื่อให้ได้มาซึ่งความสามารถในการทำซ้ำ และเสริมสร้างความรับผิดชอบ ต่อสังคม และเรียกร้องให้มีการหารือเกี่ยวกับข้อตกลงและข้อบังคับร่วมกันในสังคมควบคู่ไปกับการพัฒนาเทคโนโลยี AI
การศึกษาที่เผยแพร่โดยนักวิจัยจากมหาวิทยาลัยสแตนฟอร์ดเมื่อวันที่ 18 แสดงให้เห็นถึงความลับของ GPT-4 และระบบ AI ระดับสูงอื่นๆ ที่ลึกซึ้งและอาจเป็นอันตรายได้
Introducing The Foundation Model Transparency Index, Stanford University
พวกเขาได้ตรวจสอบระบบ AI ที่แตกต่างกัน 10 ระบบ ซึ่งส่วนใหญ่เป็นแบบจำลองภาษาขนาดใหญ่ เช่นเดียวกับที่ใช้ใน ChatGPT และแชทบอทอื่นๆ ซึ่งรวมถึงแบบจำลองเชิงพาณิชย์ที่ใช้กันอย่างแพร่หลาย เช่น GPT-4 ของ OpenAI, PaLM 2 ของ Google, Titan Text ของ Amazon โดยได้ประเมินความโปร่งใส โดยใช้เกณฑ์ 13 เกณฑ์ ซึ่งรวมถึงระดับความโปร่งใสที่นักพัฒนาได้เปิดเผยข้อมูลที่ใช้ในการฝึกฝนแบบจำลอง (เช่น วิธีการรวบรวมและการติดแท็กข้อมูล รวมถึงการรวมเนื้อหาที่มีลิขสิทธิ์) รวมถึงการเปิดเผยเกี่ยวกับฮาร์ดแวร์ ที่ใช้ในการฝึกฝนและเรียกใช้แบบจำลอง โครงสร้างซอฟต์แวร์ที่ใช้ และการใช้พลังงานของโครงการ
ผลลัพธ์แสดงให้เห็นว่าไม่มีแบบจำลอง AI ใดที่ทำคะแนนได้มากกว่า 54% ในมาตรวัดความโปร่งใส โดยรวมแล้ว Titan Text ของ Amazon ได้รับการจัดอันดับว่ามีความโปร่งใสต่ำสุด ในขณะที่ Llama 2 ของ Meta ถูกจัดอันดับว่ามีความโปร่งใสมากที่สุด สิ่งที่น่าสนใจคือ Llama 2 ซึ่งเป็นแบบจำลองแบบเปิด ที่ได้รับความสนใจอย่างมากในช่วงไม่นานมานี้และเป็นตัวแทนของโครงสร้างการต่อสู้กันระหว่างแบบจำลอง แบบเปิดและปิด ได้รับการเปิดเผยว่าไม่โปร่งใสเกี่ยวกับข้อมูลที่ใช้ในการฝึกฝน วิธีการรวบรวมและจัดการข้อมูล หมายความว่าแม้ว่า AI จะมีอิทธิพลต่อสังคมของเรามากขึ้น แต่ความไม่โปร่งใสในอุตสาหกรรมก็เป็นปรากฏการณ์ ทั่วไปและต่อเนื่อง
ซึ่งหมายความว่าอุตสาหกรรม AI มีความเสี่ยงที่จะกลายเป็นภาคธุรกิจที่มุ่งเน้นผลกำไรมากกว่า ความก้าวหน้าทางวิทยาศาสตร์ และอาจนำไปสู่การผูกขาดในอนาคตที่นำโดยบริษัทเฉพาะ.
Eric Lee/Bloomberg via Getty Images
แม้ว่า CEO ของ OpenAI ซาม อัลต์แมน จะพบกับผู้กำหนดนโยบายทั่วโลกเพื่ออธิบายเกี่ยวกับปัญญา ที่ไม่คุ้นเคยและใหม่นี้ และแสดงความตั้งใจที่จะช่วยกำหนดกฎระเบียบที่เกี่ยวข้อง แต่เขาก็สนับสนุนแนวคิด ของหน่วยงานระหว่างประเทศที่ดูแล AI แต่เขาก็คิดว่ากฎระเบียบบางอย่าง เช่น การห้ามการใช้เนื้อหาที่มีลิขสิทธิ์ ในชุดข้อมูล อาจเป็นอุปสรรคที่ไม่ยุติธรรม นี่เป็นเหตุผลที่ความโปร่งใสที่แสดงอยู่ในชื่อของบริษัท OpenAI ดูเหมือนจะเปลี่ยนไปจากความโปร่งใสเชิงรากที่นำเสนอในตอนเริ่มต้น
อย่างไรก็ตาม ผลลัพธ์ของรายงานสแตนฟอร์ดนี้แสดงให้เห็นว่าไม่จำเป็นต้องเก็บแบบจำลองของตนเองไว้เป็นความลับ เพื่อการแข่งขัน เพราะผลลัพธ์แสดงให้เห็นว่าเกือบบริษัททั้งหมดมีผลการดำเนินงานที่ไม่ดี ตัวอย่างเช่น ไม่มีบริษัทใดที่ให้สถิติเกี่ยวกับจำนวนผู้ใช้ที่พึ่งพาแบบจำลองของตนหรือส่วนแบ่งตลาดหรือภูมิภาค ที่ใช้แบบจำลองของตน
ในหมู่องค์กรที่ยึดหลักโอเพ่นซอร์ส มีสุภาษิตที่ว่า “ยิ่งมีดวงตามากเท่าไหร่ ยิ่งพบแมลงมากเท่านั้น” (กฎของไลนัส) ตัวเลขดิบสามารถช่วยในการค้นพบและแก้ไขปัญหาที่อาจเกิดขึ้น
แต่แนวทางแบบโอเพ่นซอร์สมีแนวโน้มที่จะลดสถานะและการยอมรับทางสังคมภายใน และภายนอกองค์กรที่เปิดเผยข้อมูลสาธารณะซึ่งเป็นสิ่งที่ไม่มีประโยชน์อย่างมาก ดังนั้น แทนที่จะมุ่งเน้นไปที่กรอบ ของแบบจำลองแบบเปิดหรือแบบปิด สิ่งที่น่าสนใจกว่าคือการเพิ่มความสามารถในการเข้าถึง ‘ข้อมูล’ ที่เป็นรากฐานของแบบจำลอง AI ที่ทรงพลังโดยการปรับปรุง
การพัฒนาทางวิทยาศาสตร์ต้องอาศัยการทำซ้ำ (Reproducibility)เพื่อยืนยันว่าผลการวิจัยบางอย่างจะปรากฏขึ้นอีกครั้ง หากเราไม่สร้างความชัดเจน เกี่ยวกับส่วนประกอบหลักของการสร้างแบบจำลองต่างๆ อุตสาหกรรมก็อาจจะติดอยู่ในสถานการณ์ ที่ปิดกั้นและซบเซา ซึ่งอาจนำไปสู่การผูกขาด สิ่งนี้ควรได้รับการพิจารณาเป็นลำดับความสำคัญสูงสุด ในสถานการณ์ปัจจุบันและในอนาคต เนื่องจากเทคโนโลยี AI กำลังแทรกซึมไปในทุกแวดวงของอุตสาหกรรม
สำหรับนักข่าวและนักวิทยาศาสตร์ การทำความเข้าใจข้อมูลมีความสำคัญมากขึ้น ในขณะที่ความโปร่งใส เป็นเงื่อนไขเบื้องต้นสำหรับการดำเนินนโยบายในอนาคต สำหรับสาธารณชน ความโปร่งใสมีความสำคัญ เพราะในฐานะผู้ใช้ปลายทางของระบบ AI พวกเขาอาจกลายเป็นผู้กระทำผิดหรือผู้ได้รับผลกระทบจากปัญหา ที่อาจเกิดขึ้นเกี่ยวกับทรัพย์สินทางปัญญา การใช้พลังงาน และอคติ ซาม อัลต์แมน อ้างว่าความเสี่ยง ของการสูญพันธุ์ของมนุษย์จาก AI ควรเป็นลำดับความสำคัญระดับโลกเช่นเดียวกับภัยคุกคามในระดับสังคม เช่น โรคระบาดและสงครามนิวเคลียร์ อย่างไรก็ตาม เราไม่ควรลืมว่าก่อนที่เราจะไปถึงสถานการณ์ที่อันตราย การดำรงอยู่ของสังคมของเรานั้นขึ้นอยู่กับความสัมพันธ์ที่แข็งแกร่งกับ AI ที่กำลังพัฒนา
*นี่คือเนื้อหาต้นฉบับของบทความที่ตีพิมพ์ในคอลัมน์ที่ลงนามในหนังสือพิมพ์อิเล็กทรอนิกส์เมื่อวันที่ 23 ตุลาคม 2566
References