Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

นี่คือโพสต์ที่แปลด้วย AI

Byungchae Ryan Son

ความขัดแย้งของแบบจำลอง AI ชั้นนำ ความโปร่งใส

เลือกภาษา

  • ไทย
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

สรุปโดย AI ของ durumis

  • ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดได้วิเคราะห์ระบบ AI ชั้นนำ 10 ระบบ รวมถึง GPT-4 และพบว่าแบบจำลอง AI ขาดความโปร่งใส ในเรื่องชุดข้อมูล วิธีการฝึกฝน ฯลฯ
  • โดยเฉพาะบริษัท AI หลัก เช่น OpenAI และ Google มีแนวโน้มที่จะไม่เปิดเผยข้อมูล เนื่องจากมุ่งเน้นไปที่แบบจำลองทางธุรกิจที่เน้นผลกำไร ซึ่งอาจส่งผลต่อการพัฒนาเทคโนโลยี AI และนำไปสู่การผูกขาดในอนาคต
  • ผู้เชี่ยวชาญชี้ว่าจำเป็นต้องเพิ่มความโปร่งใสของแบบจำลอง AI เพื่อให้ได้มาซึ่งความสามารถในการทำซ้ำ และเสริมสร้างความรับผิดชอบ ต่อสังคม และเรียกร้องให้มีการหารือเกี่ยวกับข้อตกลงและข้อบังคับร่วมกันในสังคมควบคู่ไปกับการพัฒนาเทคโนโลยี AI

การศึกษาที่เผยแพร่โดยนักวิจัยจากมหาวิทยาลัยสแตนฟอร์ดเมื่อวันที่ 18 แสดงให้เห็นถึงความลับของ GPT-4 และระบบ AI ระดับสูงอื่นๆ ที่ลึกซึ้งและอาจเป็นอันตรายได้

Introducing The Foundation Model Transparency Index, Stanford University


พวกเขาได้ตรวจสอบระบบ AI ที่แตกต่างกัน 10 ระบบ ซึ่งส่วนใหญ่เป็นแบบจำลองภาษาขนาดใหญ่ เช่นเดียวกับที่ใช้ใน ChatGPT และแชทบอทอื่นๆ ซึ่งรวมถึงแบบจำลองเชิงพาณิชย์ที่ใช้กันอย่างแพร่หลาย เช่น GPT-4 ของ OpenAI, PaLM 2 ของ Google, Titan Text ของ Amazon โดยได้ประเมินความโปร่งใส โดยใช้เกณฑ์ 13 เกณฑ์ ซึ่งรวมถึงระดับความโปร่งใสที่นักพัฒนาได้เปิดเผยข้อมูลที่ใช้ในการฝึกฝนแบบจำลอง (เช่น วิธีการรวบรวมและการติดแท็กข้อมูล รวมถึงการรวมเนื้อหาที่มีลิขสิทธิ์) รวมถึงการเปิดเผยเกี่ยวกับฮาร์ดแวร์ ที่ใช้ในการฝึกฝนและเรียกใช้แบบจำลอง โครงสร้างซอฟต์แวร์ที่ใช้ และการใช้พลังงานของโครงการ


ผลลัพธ์แสดงให้เห็นว่าไม่มีแบบจำลอง AI ใดที่ทำคะแนนได้มากกว่า 54% ในมาตรวัดความโปร่งใส โดยรวมแล้ว Titan Text ของ Amazon ได้รับการจัดอันดับว่ามีความโปร่งใสต่ำสุด ในขณะที่ Llama 2 ของ Meta ถูกจัดอันดับว่ามีความโปร่งใสมากที่สุด สิ่งที่น่าสนใจคือ Llama 2 ซึ่งเป็นแบบจำลองแบบเปิด ที่ได้รับความสนใจอย่างมากในช่วงไม่นานมานี้และเป็นตัวแทนของโครงสร้างการต่อสู้กันระหว่างแบบจำลอง แบบเปิดและปิด ได้รับการเปิดเผยว่าไม่โปร่งใสเกี่ยวกับข้อมูลที่ใช้ในการฝึกฝน วิธีการรวบรวมและจัดการข้อมูล หมายความว่าแม้ว่า AI จะมีอิทธิพลต่อสังคมของเรามากขึ้น แต่ความไม่โปร่งใสในอุตสาหกรรมก็เป็นปรากฏการณ์ ทั่วไปและต่อเนื่อง


ซึ่งหมายความว่าอุตสาหกรรม AI มีความเสี่ยงที่จะกลายเป็นภาคธุรกิจที่มุ่งเน้นผลกำไรมากกว่า ความก้าวหน้าทางวิทยาศาสตร์ และอาจนำไปสู่การผูกขาดในอนาคตที่นำโดยบริษัทเฉพาะ.

Eric Lee/Bloomberg via Getty Images


แม้ว่า CEO ของ OpenAI ซาม อัลต์แมน จะพบกับผู้กำหนดนโยบายทั่วโลกเพื่ออธิบายเกี่ยวกับปัญญา ที่ไม่คุ้นเคยและใหม่นี้ และแสดงความตั้งใจที่จะช่วยกำหนดกฎระเบียบที่เกี่ยวข้อง แต่เขาก็สนับสนุนแนวคิด ของหน่วยงานระหว่างประเทศที่ดูแล AI แต่เขาก็คิดว่ากฎระเบียบบางอย่าง เช่น การห้ามการใช้เนื้อหาที่มีลิขสิทธิ์ ในชุดข้อมูล อาจเป็นอุปสรรคที่ไม่ยุติธรรม นี่เป็นเหตุผลที่ความโปร่งใสที่แสดงอยู่ในชื่อของบริษัท OpenAI ดูเหมือนจะเปลี่ยนไปจากความโปร่งใสเชิงรากที่นำเสนอในตอนเริ่มต้น


อย่างไรก็ตาม ผลลัพธ์ของรายงานสแตนฟอร์ดนี้แสดงให้เห็นว่าไม่จำเป็นต้องเก็บแบบจำลองของตนเองไว้เป็นความลับ เพื่อการแข่งขัน เพราะผลลัพธ์แสดงให้เห็นว่าเกือบบริษัททั้งหมดมีผลการดำเนินงานที่ไม่ดี ตัวอย่างเช่น ไม่มีบริษัทใดที่ให้สถิติเกี่ยวกับจำนวนผู้ใช้ที่พึ่งพาแบบจำลองของตนหรือส่วนแบ่งตลาดหรือภูมิภาค ที่ใช้แบบจำลองของตน


ในหมู่องค์กรที่ยึดหลักโอเพ่นซอร์ส มีสุภาษิตที่ว่า “ยิ่งมีดวงตามากเท่าไหร่ ยิ่งพบแมลงมากเท่านั้น” (กฎของไลนัส) ตัวเลขดิบสามารถช่วยในการค้นพบและแก้ไขปัญหาที่อาจเกิดขึ้น


แต่แนวทางแบบโอเพ่นซอร์สมีแนวโน้มที่จะลดสถานะและการยอมรับทางสังคมภายใน และภายนอกองค์กรที่เปิดเผยข้อมูลสาธารณะซึ่งเป็นสิ่งที่ไม่มีประโยชน์อย่างมาก ดังนั้น แทนที่จะมุ่งเน้นไปที่กรอบ ของแบบจำลองแบบเปิดหรือแบบปิด สิ่งที่น่าสนใจกว่าคือการเพิ่มความสามารถในการเข้าถึง ‘ข้อมูล’ ที่เป็นรากฐานของแบบจำลอง AI ที่ทรงพลังโดยการปรับปรุง


การพัฒนาทางวิทยาศาสตร์ต้องอาศัยการทำซ้ำ (Reproducibility)เพื่อยืนยันว่าผลการวิจัยบางอย่างจะปรากฏขึ้นอีกครั้ง หากเราไม่สร้างความชัดเจน เกี่ยวกับส่วนประกอบหลักของการสร้างแบบจำลองต่างๆ อุตสาหกรรมก็อาจจะติดอยู่ในสถานการณ์ ที่ปิดกั้นและซบเซา ซึ่งอาจนำไปสู่การผูกขาด สิ่งนี้ควรได้รับการพิจารณาเป็นลำดับความสำคัญสูงสุด ในสถานการณ์ปัจจุบันและในอนาคต เนื่องจากเทคโนโลยี AI กำลังแทรกซึมไปในทุกแวดวงของอุตสาหกรรม


สำหรับนักข่าวและนักวิทยาศาสตร์ การทำความเข้าใจข้อมูลมีความสำคัญมากขึ้น ในขณะที่ความโปร่งใส เป็นเงื่อนไขเบื้องต้นสำหรับการดำเนินนโยบายในอนาคต สำหรับสาธารณชน ความโปร่งใสมีความสำคัญ เพราะในฐานะผู้ใช้ปลายทางของระบบ AI พวกเขาอาจกลายเป็นผู้กระทำผิดหรือผู้ได้รับผลกระทบจากปัญหา ที่อาจเกิดขึ้นเกี่ยวกับทรัพย์สินทางปัญญา การใช้พลังงาน และอคติ ซาม อัลต์แมน อ้างว่าความเสี่ยง ของการสูญพันธุ์ของมนุษย์จาก AI ควรเป็นลำดับความสำคัญระดับโลกเช่นเดียวกับภัยคุกคามในระดับสังคม เช่น โรคระบาดและสงครามนิวเคลียร์ อย่างไรก็ตาม เราไม่ควรลืมว่าก่อนที่เราจะไปถึงสถานการณ์ที่อันตราย การดำรงอยู่ของสังคมของเรานั้นขึ้นอยู่กับความสัมพันธ์ที่แข็งแกร่งกับ AI ที่กำลังพัฒนา


*นี่คือเนื้อหาต้นฉบับของบทความที่ตีพิมพ์ในคอลัมน์ที่ลงนามในหนังสือพิมพ์อิเล็กทรอนิกส์เมื่อวันที่ 23 ตุลาคม 2566


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
ละครการกำกับดูแลของ OpenAI อนาคตทางจริยธรรมของ AI เหตุการณ์ที่แซม อัลต์แมน ซีอีโอของ OpenAI ถูกไล่ออกโดยคณะกรรมการ แต่กลับมาดำรงตำแหน่งอีกครั้งหลังจาก 5 วันสะท้อนให้เห็นถึงโครงสร้างที่ไม่เหมือนใครของ OpenAI ซึ่งมุ่งมั่นเพื่อภารกิจเพื่อมนุษยชาติและความกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีขนาด

14 พฤษภาคม 2567

ความหมายของมนุษย์ในปี 2023 ของ AI ที่สร้างขึ้น ปี 2023 เป็นปีที่ AI เข้าครอบงำอุตสาหกรรมเทคโนโลยีโดยรวม นำไปสู่การเปลี่ยนแปลง แพลตฟอร์ม AI ที่สร้างขึ้น การเพิ่มขึ้นของความคุ้นเคยของสาธารณชน และข้อตกลงเกี่ยวกับกฎหมาย การกำกับดูแล AI เป็นการเปลี่ยนแปลงที่สำคัญ ปี 2024 จะเป็นช่วงเวลาที่สำคัญ สำหรับการพัฒ

16 พฤษภาคม 2567

แก่นแท้ของงานคือ 'ไฮบริด' OpenAI ผู้พัฒนา ChatGPT เป็นเว็บไซต์ยอดนิยมอันดับที่ 17 ของโลกในเดือนพฤษภาคม โดยมีจำนวนการเข้าชมมากกว่า Netflix และ Linkedin โดยเฉพาะอย่างยิ่งการเปิดตัวแอปบนมือถือทำให้ AI ที่สร้างขึ้นนั้นหลุดพ้นจากข้อจำกัดทางกายภาพของหน้าจอและเข้าใกล้ชีวิตประจำวันของเราม

13 พฤษภาคม 2567

สร้าง AI Full Stack ด้วยโอเพนซอร์ส ระบบนิเวศ AI กำลังเห็นการเปิดตัวโมเดล LLM (แบบจำลองภาษาขนาดใหญ่) โอเพนซอร์สใหม่ๆ อย่างต่อเนื่อง Mistral, Llama, phi-2 เป็นต้น เป็นแบบจำลองที่มีประสิทธิภาพสูงและมีใบอนุญาตแบบเปิด และมีการพัฒนาเครื่องมือต่างๆ เพื่อใช้ประโยชน์จากโมเดลเหล่านี้ LangChain, L
RevFactory
RevFactory
RevFactory
RevFactory

5 กุมภาพันธ์ 2567

สโนว์เฟลก เปิดตัว 'อาร์กติก' LLM ระดับองค์กร ที่มีการเปิดกว้างสูงสุดในอุตสาหกรรม สโนว์เฟลกเปิดตัว 'อาร์กติก' ซึ่งเป็นแบบจำลองภาษาขนาดใหญ่ (LLM) แบบโอเพ่นซอร์ส อาร์กติกมีให้ใช้งานเชิงพาณิชย์ฟรีภายใต้ใบอนุญาต Apache 2.0 และมีประสิทธิภาพและประสิทธิผลระดับชั้นนำในอุตสาหกรรม อาร์กติกนำเสนอประสิทธิภาพโทเค็นที่โดดเด่นและคุณภาพที่ดีที่สุด
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 เมษายน 2567

เปิดตัว OpenELM ของ Apple / Phi-3 ของ MS / Llama 3 ของ Meta บริษัทเทคโนโลยียักษ์ใหญ่ ได้แก่ Apple, Microsoft และ Meta กำลังนำลมหายใจใหม่เข้าสู่วงการ AI ด้วยการเปิดตัวแบบจำลองภาษาขนาดใหญ่ที่พัฒนาขึ้นเองในช่วงไม่นานมานี้ แบบจำลองที่เปิดตัวในครั้งนี้ได้มีวิวัฒนาการไปในทิศทางต่างๆ เช่น การลดขนาด การเพิ่มประสิทธิภาพข้อ
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 เมษายน 2567

Mr. Know-All – 2023.7 นิตยสารรายเดือน AI "Mr. Know-All" ฉบับเดือนกรกฎาคม 2023 ฉบับที่ 1 นำเสนอเทคโนโลยีและแนวโน้ม AI ล่าสุด เช่น Claude 2, Azure OpenAI, LangChain, LlamaIndex และอื่นๆ โดยเฉพาะอย่างยิ่ง บทความนี้ให้รายละเอียดเกี่ยวกับ LlamaIndex ซึ่งเป็นการฝังข้อมูลส่วนบุคคล แ
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 มีนาคม 2567

LLM (Large Language Model) คืออะไร? แบบจำลองภาษาขนาดใหญ่ (LLM) เป็นเทคโนโลยีหลักของปัญญาประดิษฐ์ ซึ่งเรียนรู้จากข้อมูลข้อความจำนวนมาก เพื่อให้มีความสามารถในการประมวลผลภาษาคล้ายมนุษย์ และสามารถนำไปใช้ในด้านต่างๆ เช่น แชทบอท การแปล การสร้างข้อความ LLM ทำงานบนพื้นฐานขององค์ประกอบหลัก ได้แก่ ก
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 เมษายน 2567

รายงานแนวโน้มข้อมูล Snowflake ปี 2024 เผยแพร่… นักพัฒนา AI พัฒนาแอปพลิเคชันเฉลี่ย 90 แอปต่อวัน Snowflake เปิดเผยผลการสำรวจความคิดเห็นจากลูกค้ามากกว่า 9,000 ราย พบว่าแอปพลิเคชัน LLM มีสัดส่วนของแชทบอทเพิ่มขึ้น และนักพัฒนานั้นชื่นชอบการใช้ภาษา Python และมีการประมวลผลข้อมูลที่ไม่มีโครงสร้างเพิ่มมากขึ้น Snowflake เปิดเผยข้อมูลเพิ่มเติมในรายงานแนวโน้มข้
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

16 พฤษภาคม 2567