![translation](https://cdn.durumis.com/common/trans.png)
Đây là bài viết được dịch bởi AI.
Bi kịch quản trị của OpenAI, tương lai đạo đức của AI
- Ngôn ngữ viết: Tiếng Hàn Quốc
- •
-
Quốc gia cơ sở: Tất cả các quốc gia
- •
- CNTT
Chọn ngôn ngữ
Văn bản được tóm tắt bởi AI durumis
- Sự kiện CEO của OpenAI, Sam Altman, bị sa thải bởi hội đồng quản trị và sau đó được phục chức là CEO đã xảy ra, cho thấy cấu trúc phi lợi nhuận/lợi nhuận độc đáo của OpenAI và sự nhấn mạnh của hội đồng quản trị về an toàn.
- Sự kiện này đã khuếch đại sự quan tâm của xã hội đối với việc phát triển và quy định AI, đồng thời hé lộ nhiều quan điểm và cách giải thích khác nhau về tương lai của AI.
- Đặc biệt, điều này cho thấy sức tưởng tượng về tương lai của AI có thể ảnh hưởng đến thực tế, và điều này dẫn đến những lập luận cho rằng cần phải xem xét nhiều bối cảnh xã hội, văn hóa để quyết định tương lai của AI.
Cách đây không lâu, chỉ vài tháng sau khi ChatGPT ra mắt, một vở kịch đầy kịch tính đã diễn ra trong hội đồng quản trị của OpenAI, một tổ chức phi lợi nhuận đã tăng trưởng từ con số 0 lên doanh thu hàng năm 1 tỷ USD. Giám đốc điều hành của công ty, Sam Altman, đã bị sa thải, và sau khi công bố kế hoạch chuyển đến Microsoft, ông đã được bổ nhiệm lại làm Giám đốc điều hành của OpenAI. Thông thường, Giám đốc điều hành sáng lập là thế lực mạnh nhất trong công ty, vì vậy việc hội đồng quản trị sa thải Giám đốc điều hành sáng lập là điều rất hiếm gặp, đặc biệt là đối với một công ty khổng lồ trị giá 80 tỷ USD.
Tuy nhiên, vở kịch đầy kịch tính kéo dài 5 ngày này có thể xảy ra do OpenAI được xây dựng dựa trên một cấu trúc độc đáo gắn liền với tuyên bố nhiệm vụ “vì nhân loại”. Ba thành viên hội đồng quản trị độc lập, được cho là đã thúc đẩy quyết định sa thải Altman, đều có liên quan đến chủ nghĩa vị tha hiệu quả (EA, effective altruism) và mục tiêu “đảm bảo nhân loại và mọi thứ trong vũ trụ có thể quan sát được không bị xóa sổ”.
cấu trúc hội đồng quản trị của OpenAI
Trong suốt cả năm nay, Altman đã đi khắp thế giới, cảnh báo giới truyền thông và chính phủ về những nguy cơ tồn tại của công nghệ mà ông đang phát triển. Ông đã mô tả cấu trúc phi lợi nhuận đặc biệt của OpenAI là một lời cảnh tỉnh về việc phát triển AI một cách bất cẩn, và cho biết trong một cuộc phỏng vấn với Bloomberg vào tháng 6 rằng hội đồng quản trị có thể sa thải ông nếu ông có hành vi nguy hiểm hoặc hành động trái với lợi ích của nhân loại. Nói cách khác, đây là một cấu trúc được thiết kế có chủ ý để cho phép hội đồng quản trị, những người ưu tiên sự an toàn liên quan đến sự xuất hiện của AGI không thể kiểm soát hơn là tiền bạc, có thể sa thải Giám đốc điều hành bất cứ lúc nào.
Vậy chúng ta nên nhìn nhận thế nào về tình hình hiện tại, khi Giám đốc điều hành mới của Open AI giống hệt Giám đốc điều hành trước đây?
Khó có thể kết thúc mọi chuyện như một sự việc không có gì thay đổi bởi vì chúng ta đã chứng kiến việc các quyết định liên quan đến phát triển AI đạo đức có thể ảnh hưởng sâu sắc nhất đến xã hội của chúng ta hiện nay được đưa ra dựa trên ý kiến của một số ít người. Sam Altman giờ đây là biểu tượng của thời đại mà cả thế giới đều đổ dồn sự chú ý vào việc phát triển và quản lý AI. Và chúng ta đã thấy rằng cơ chế bên ngoài duy nhất có thể ngăn cản Altman đưa ra quyết định và hành động của mình thực tế đã bị loại bỏ, điều này cho thấy tầm quan trọng của các cơ chế bên ngoài bổ sung trong tương lai.
Sự kiện này cũng làm rõ lập trường và cách giải thích của những người theo chủ nghĩa diệt vong lo sợ AI sẽ hủy diệt nhân loại, những người theo chủ nghĩa siêu nhân tin rằng công nghệ sẽ đẩy nhanh tương lai lý tưởng, những người tin vào chủ nghĩa tư bản tự do phi kiểm soát, và những người ủng hộ quy định nghiêm ngặt nhằm kiềm chế các công ty công nghệ khổng lồ, những người tin rằng không thể cân bằng giữa những thiệt hại tiềm tàng của công nghệ phá hủy mạnh mẽ với khát vọng kiếm tiền. Và điều này cho thấy chúng ta cần có nhiều cộng đồng hơn để xác định chủ thể dự đoán tương lai, bởi vì tất cả đều bắt nguồn từ nỗi sợ hãi về tương lai con người chung sống với AI.
Giáo sư Choi Ye-jin, Đại học Washington, một trong 100 người có ảnh hưởng nhất trong lĩnh vực AI thế giới, trong bài phát biểu TED của mình đã giải thích lý do tại sao AI có thể vượt qua các kỳ thi quốc gia, nhưng lại thực hiện một cách ngớ ngẩn và không cần thiết khi đo lường lượng nước 6 lít bằng hai bình 12 lít và 6 lít: do thiếu học hỏi về kiến thức chung được tiếp thu trong xã hội.
Khi dự đoán tương lai, chúng ta thường xác định những điều mới lạ từ vị trí của người ngoài cuộc, dựa trên “giới hạn” cho thấy xu hướng của dòng chính. Khi đó, những gì được nhìn nhận từ bên ngoài như là một tầm nhìn tương lai ổn định thường là “trải nghiệm sống động” được khái quát hóa từ hiện tại. Nhà nhân loại học Mỹ Arjun Appadurai từng khẳng định rằng trí tưởng tượng không phải là khả năng cá nhân và riêng tư, mà là một hành động xã hội. Điều này có nghĩa là nhiều trí tưởng tượng về tương lai có thể trở thành hiện thực, và sự kiện này có thể được hiểu là một trong những cảnh quan do trí tưởng tượng về một tương lai bất ổn liên quan đến sự xuất hiện của AGI tạo ra.
Nhận thấy kỳ vọng của các nhà lãnh đạo ngành hướng đến tương lai có ý nghĩa chính trị quan trọng, chúng ta sẽ cần hiểu sâu sắc hơn về tương lai được tưởng tượng và xây dựng một cách tập thể trong nhiều bối cảnh xã hội và văn hóa khi quyết định về tương lai của AI. Đây là lúc đặt câu hỏi về việc làm thế nào để tạo ra cơ hội để trình bày những kỳ vọng tập thể dựa trên những trải nghiệm sống động trong nhiều cộng đồng khác nhau.
Tài liệu tham khảo