Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

นี่คือโพสต์ที่แปลด้วย AI

Byungchae Ryan Son

ละครการกำกับดูแลของ OpenAI อนาคตทางจริยธรรมของ AI

เลือกภาษา

  • ไทย
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

สรุปโดย AI ของ durumis

  • เกิดเหตุการณ์ที่แซม อัลต์แมน ซีอีโอของ OpenAI ถูกไล่ออกโดยคณะกรรมการและกลับมาดำรงตำแหน่งซีอีโออีกครั้ง เหตุการณ์นี้สะท้อนให้เห็นถึงโครงสร้างที่ไม่เหมือนใครของ OpenAI ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่มีการจัดตั้งองค์กรแสวงหาผลกำไรภายในและการเน้นย้ำของคณะกรรมการเกี่ยวกับความปลอดภัย
  • เหตุการณ์นี้ได้เพิ่มความสนใจของสังคมเกี่ยวกับการพัฒนาและการควบคุม AI และเปิดเผยมุมมองและการตีความที่หลากหลายเกี่ยวกับอนาคตของ AI
  • โดยเฉพาะอย่างยิ่ง เหตุการณ์นี้แสดงให้เห็นว่าจินตนาการเกี่ยวกับอนาคตของ AI สามารถส่งผลกระทบต่อความเป็นจริงได้ และมีการเรียกร้องให้พิจารณาบริบททางสังคมและวัฒนธรรมที่หลากหลาย ในการตัดสินใจอนาคตของ AI

เมื่อไม่นานมานี้ หลังจากที่ ChatGPT เปิดตัวเพียงไม่กี่เดือน OpenAI ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่เติบโตจากไม่มีอะไรเลยไปสู่รายได้ต่อปี 1 พันล้านดอลลาร์ ได้เกิดเรื่องราวอันน่าทึ่งขึ้นในคณะกรรมการบริหาร บริษัท ได้ปลดแซม อัลท์แมน ซีอีโอของบริษัทออก และหลังจากประกาศย้ายไปทำงานที่ไมโครซอฟต์ เขาก็ได้กลับมารับตำแหน่งซีอีโอของ OpenAI อีกครั้ง โดยทั่วไป ซีอีโอผู้ก่อตั้งมักจะเป็นกำลังสำคัญที่สุดของบริษัท ดังนั้นกรณีที่คณะกรรมการบริหารปลดซีอีโอผู้ก่อตั้งจึงแทบ ไม่เกิดขึ้น และยิ่งไปกว่านั้น บริษัทขนาดใหญ่ที่มีมูลค่า 800 ล้านดอลลาร์ ก็จะไม่แตะต้องอย่างแน่นอน


อย่างไรก็ตาม ดราม่าอันน่าตื่นเต้นที่กินเวลานาน 5 วันนี้เกิดขึ้นได้เพราะโครงสร้างที่ไม่เหมือนใครของ OpenAI ซึ่งถูกผูกติดอยู่กับ พันธกิจที่ประกาศไว้ว่า "เพื่อมนุษยชาติ" คณะกรรมการบริหารอิสระสามคนซึ่งเป็นที่ทราบกันว่าเป็นผู้นำในการตัดสินใจปลดอัลท์แมน ต่างก็เกี่ยวข้องกับการกุศลที่มีประสิทธิภาพ (EA, effective altruism) ซึ่งเกี่ยวข้องกับพันธกิจของบริษัท โดยมีเป้าหมายคือ "เพื่อ ไม่ให้มนุษยชาติและทุกสิ่งทุกอย่างในจักรวาลที่สังเกตได้หายไป"

โครงสร้างคณะกรรมการของ OpenAI


ตลอดทั้งปีที่ผ่านมา อัลท์แมนได้เดินทางไปทั่วโลกเตือนสื่อและรัฐบาลเกี่ยวกับความเสี่ยงที่มีอยู่จริงของเทคโนโลยีที่เขาพัฒนาอยู่ เขากล่าวว่าโครงสร้างเฉพาะของ OpenAI ที่เป็นองค์กรไม่แสวงหาผลกำไรภายในองค์กรแสวงหาผลกำไรเป็นเหมือนการเตือนภัย ต่อการพัฒนา AI ที่ไร้ความรับผิดชอบ หากเขาทำอะไรที่เสี่ยงหรือไม่เป็นประโยชน์ต่อมนุษยชาติ คณะกรรมการบริหารก็สามารถไล่ เขาออกได้ ในการให้สัมภาษณ์กับบลูมเบิร์กเมื่อเดือนมิถุนายนที่ผ่านมา เขากล่าวว่า โครงสร้างนี้ถูกออกแบบมาเพื่อให้คณะกรรมการ บริหารที่ให้ความสำคัญกับความปลอดภัยมากกว่าเงินในเรื่องการเกิด AGI ที่ควบคุมไม่ได้ สามารถปลด CEO ได้ตลอดเวลา


แล้วเราควรจะมองสถานการณ์ปัจจุบันนี้ที่ซีอีโอคนใหม่ของ OpenAI เป็นเหมือนซีอีโอคนก่อนอย่างไร?


เหตุผลที่เราไม่สามารถจบเรื่องนี้ลงได้ง่ายๆ ว่าเป็นเพียงเหตุการณ์ที่ไม่มีการเปลี่ยนแปลงใดๆ นั้นอยู่ที่การยืนยันว่าการตัดสินใจ ที่เกี่ยวข้องกับการพัฒนาปัญญาประดิษฐ์ที่มีจริยธรรม ซึ่งอาจส่งผลกระทบต่อสังคมของเรามากที่สุดนั้นเกิดขึ้นโดยอิงจากความเห็นของ คนเพียงไม่กี่คน แซม อัลท์แมน กลายเป็นสัญลักษณ์ของยุคสมัยที่ทั่วโลกต่างจับตามองการพัฒนาและการควบคุม AI และเราได้เห็นกระบวนการที่แทบจะไม่มีใครสามารถหยุดยั้งการตัดสินใจและการกระทำของเขาในอนาคตได้ เราจึงได้เห็นความสำคัญ ของเครื่องมือภายนอกเพิ่มเติม


นอกจากนี้ เหตุการณ์นี้ยังทำให้มุมมองและการตีความของผู้ที่กังวลว่า AI จะทำลายมนุษยชาติ ผู้ที่เชื่อว่าเทคโนโลยีจะเร่งการมาถึง ของอนาคตแบบยูโทเปีย ผู้ที่เชื่อในระบบทุนนิยมแบบเสรี และผู้ที่สนับสนุนการควบคุมอย่างเข้มงวดของบริษัทเทคโนโลยีขนาดใหญ่ เพื่อลดความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีที่ร้ายแรงและความต้องการที่จะหาเงินนั้นชัดเจนขึ้น และสิ่งนี้จะนำไปสู่การยืนยันถึง ความต้องการชุมชนที่หลากหลายมากขึ้นในการตรวจสอบอนาคตของมนุษย์กับ AI ซึ่งเริ่มต้นจากความกลัวต่ออนาคตนั้นเอง


ศาสตราจารย์ชอย เยจิน จากมหาวิทยาลัยวอชิงตัน ซึ่งได้รับการจัดอันดับให้เป็นหนึ่งใน 100 บุคคลที่มีอิทธิพลมากที่สุดในสาขา AI ของโลก ได้กล่าวในงาน TED Talk ของเธอว่า เหตุผลที่ปัญญาประดิษฐ์ที่สามารถผ่านการสอบข้าราชการต่างๆ ได้นั้นทำการวัดปริมาณน้ำ 6 ลิตร โดยใช้กาต้มน้ำขนาด 12 ลิตร และ 6 ลิตร ซึ่งเป็นกระบวนการที่ไร้สาระและไม่จำเป็นนั้นเป็นเพราะ การขาดการเรียนรู้เกี่ยวกับสามัญสำนึก ที่ได้มาจากสังคม


เมื่อเราพยายามคาดการณ์อนาคต เรามักจะระบุสิ่งใหม่ๆ จากมุมมองของบุคคลภายนอกโดยอิงจาก "ขอบเขต" ซึ่งแสดงให้เห็นว่ากระแส หลักกำลังมุ่งหน้าไปในทิศทางใด ในกรณีนี้ สิ่งที่ดูเหมือนเป็นวิสัยทัศน์อนาคตที่มั่นคงจากภายนอกนั้นมักจะเป็น “ความคาดหวังที่เป็นนามธรรม” ที่ได้มาจากประสบการณ์ที่จับต้องได้ เสมอ ศาสตราจารย์ด้านมานุษยวิทยาชาวอเมริกัน อาจุน อัพพาดุไร ได้ยืนยันว่าจินตนาการไม่ได้เป็นเพียงความสามารถส่วนบุคคล แต่เป็นการปฏิบัติทางสังคม ซึ่งหมายความว่าจินตนาการในอนาคตที่หลากหลายสามารถเกิดขึ้นได้จริง เหตุการณ์นี้สามารถตีความได้ ว่าเป็นหนึ่งในภาพทิวทัศน์ที่สร้างขึ้นจากจินตนาการที่ไม่แน่นอนเกี่ยวกับการเกิดขึ้นของ AGI


เมื่อเราได้เห็นว่าความคาดหวังของผู้นำในอุตสาหกรรมต่ออนาคตมีความสำคัญทางการเมือง ดังนั้นในอนาคต เราจำเป็นต้องมีความเข้าใจ ที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับอนาคตที่เกิดขึ้นจากการจินตนาการและการสร้างสรรค์ร่วมกันในบริบททางสังคมและวัฒนธรรมที่หลากหลาย เพื่อตัดสินใจเกี่ยวกับอนาคตของ AI โอกาสในการนำเสนอความคาดหวังร่วมกันที่อิงจากประสบการณ์ที่จับต้องได้ในชุมชนที่หลากหลาย นั้นจะเกิดขึ้นได้อย่างไร



การอ้างอิง


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
ยุคของการสร้างแบรนด์อัลกอริทึมมาถึงแล้ว อีลอน มัสก์ ซีอีโอของ Google ซุนดาร์ พิชัย และแซม ออลต์แมน จาก OpenAI ต่างออกมาเตือนถึงอันตรายของปัญญาประดิษฐ์ และเสนอแนวทางแก้ปัญหาที่แตกต่างกันออกไปเพื่ออนาคตของมนุษยชาติ คอลัมน์ในหนังสือพิมพ์อิเล็กทรอนิกส์ วันที่ 24 เมษายน 2566 ได้ตรวจสอบข้อเรียกร้องขอ

10 พฤษภาคม 2567

ความหมายของมนุษย์ในปี 2023 ของ AI ที่สร้างขึ้น ปี 2023 เป็นปีที่ AI เข้าครอบงำอุตสาหกรรมเทคโนโลยีโดยรวม นำไปสู่การเปลี่ยนแปลง แพลตฟอร์ม AI ที่สร้างขึ้น การเพิ่มขึ้นของความคุ้นเคยของสาธารณชน และข้อตกลงเกี่ยวกับกฎหมาย การกำกับดูแล AI เป็นการเปลี่ยนแปลงที่สำคัญ ปี 2024 จะเป็นช่วงเวลาที่สำคัญ สำหรับการพัฒ

16 พฤษภาคม 2567

ความขัดแย้งของแบบจำลอง AI ชั้นนำ ความโปร่งใส การขาดความโปร่งใสในระบบ AI ที่ล้ำสมัยกำลังกลายเป็นปัญหาที่ร้ายแรง ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดได้วิเคราะห์ระบบ AI 10 ระบบ รวมถึง GPT-4 พบว่าไม่มีแบบจำลองใดที่เปิดเผยข้อมูลอย่างโปร่งใส เช่น แหล่งที่มาของข้อมูล วิธีการฝึกฝน และการใช้พลังงาน การขาดความโป

14 พฤษภาคม 2567

Mr. Know-All – 2023.7 นิตยสารรายเดือน AI "Mr. Know-All" ฉบับเดือนกรกฎาคม 2023 ฉบับที่ 1 นำเสนอเทคโนโลยีและแนวโน้ม AI ล่าสุด เช่น Claude 2, Azure OpenAI, LangChain, LlamaIndex และอื่นๆ โดยเฉพาะอย่างยิ่ง บทความนี้ให้รายละเอียดเกี่ยวกับ LlamaIndex ซึ่งเป็นการฝังข้อมูลส่วนบุคคล แ
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 มีนาคม 2567

ปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์ พรหรือภัยพิบัติในอนาคต? การพัฒนาปัญญาประดิษฐ์ (AI) กำลังเป็นที่ถกเถียงกันอย่างร้อนแรงว่าจะเป็นพรหรือภัยพิบัติต่อมนุษยชาติ AI สามารถนำไปสู่การปฏิวัติในหลายสาขา เช่น การแพทย์ วิทยาศาสตร์ และเศรษฐกิจ แต่ก็มีความเป็นไปได้ที่ AI จะหลุดออกจากการควบคุมของมนุษย์และนำไปสู่ความเสี่ยงได้ ม
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 พฤษภาคม 2567

รายงาน 'Global CEO Survey' จาก Deloitte Group เกาหลี 6 ใน 10 ของ บริษัท ทั่วโลกได้นำ AI แบบกำเนิดมาใช้เพื่ออัตโนมัติงาน และ CEO มองโลกในแง่ดีเกี่ยวกับการเติบโตของธุรกิจในปีนี้ โดย 46% วางแผนที่จะเปิดตัวบริการและผลิตภัณฑ์ใหม่ภายในหนึ่งปี ผลการสำรวจ Deloitte Global CEO Survey แสดงให้เห็นถึงผลลัพธ์ดังกล่าว
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 พฤษภาคม 2567

รายงานสถานการณ์ความปลอดภัยของ Splunk ปี 2024 รายงานสถานการณ์ความปลอดภัยของ Splunk ประจำปี 2024 ระบุว่า บริษัท 93% ใช้ AI แบบสร้างสรรค์ แต่ 34% ยังไม่มีนโยบาย AI แบบสร้างสรรค์ เปิดโอกาสใหม่สำหรับทั้งเจ้าหน้าที่รักษาความปลอดภัยทางไซเบอร์และผู้โจมตี การทำความเข้าใจความเสี่ยงและประโยชน์ ของเทคโนโลยีนี้จ
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 พฤษภาคม 2567

อนาคตอันใกล้ในมุมมองส่วนตัว AI จะก่อให้เกิดการเปลี่ยนแปลงครั้งใหญ่ในอนาคตของนักพัฒนาซอฟต์แวร์ AI จะเข้ามาช่วยในงานง่ายๆ เช่น การสร้างต้นแบบ การพัฒนา ส่วนหน้า แต่สำหรับนักพัฒนาที่มีทักษะจะมุ่งเน้นไปที่การแก้ไขปัญหาเชิงกลยุทธ์และการสร้างไอเดียที่สร้างสรรค์ ในขณะเดียวกัน ก็มีข้อกังวล
Mark Ball Blog
Mark Ball Blog
ภาพเกี่ยวกับอนาคตในมุมมองส่วนตัว
Mark Ball Blog
Mark Ball Blog

26 มีนาคม 2567

BSI ประกาศแนวทางระดับโลกฉบับแรกสำหรับการจัดการ AI อย่างมีความรับผิดชอบ BSI ได้เผยแพร่มาตรฐานสากล (BS ISO/IEC 42001) สำหรับการใช้งานปัญญาประดิษฐ์ (AI) อย่างปลอดภัยและมีความรับผิดชอบ มาตรฐานนี้ให้แนวทางแก่หน่วยงานในการจัดการ AI และลดความเสี่ยง โดยเน้นย้ำถึงความโปร่งใส ความรับผิดชอบ และการสร้างความไว้วางใจ
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 พฤษภาคม 2567