Đây là bài viết được dịch bởi AI.
Sự nghịch lý của các mô hình AI tiên phong, tính minh bạch
- Ngôn ngữ viết: Tiếng Hàn Quốc
- •
- Quốc gia cơ sở: Tất cả các quốc gia
- •
- CNTT
Chọn ngôn ngữ
Văn bản được tóm tắt bởi AI durumis
- Các nhà nghiên cứu tại Đại học Stanford đã phân tích 10 hệ thống AI tiên tiến, bao gồm cả GPT-4, và phát hiện ra rằng tính minh bạch của các mô hình AI, như bộ dữ liệu, phương pháp đào tạo, v.v., là rất hạn chế.
- Đặc biệt, các công ty AI chính như OpenAI và Google đang theo đuổi mô hình kinh doanh tập trung vào lợi nhuận, dẫn đến thái độ thụ động trong việc công khai dữ liệu, điều này có khả năng cản trở sự phát triển của công nghệ AI và dẫn đến một tương lai độc quyền.
- Các chuyên gia khẳng định cần nâng cao tính minh bạch của các mô hình AI để đảm bảo tính tái tạo và tăng cường trách nhiệm xã hội, đồng thời kêu gọi sự đồng thuận xã hội và thảo luận về quy định cùng với sự phát triển của công nghệ AI.
Nghiên cứu được công bố bởi các nhà nghiên cứu tại Đại học Stanford vào ngày 18 tháng trước cho thấy sự bí mật của GPT-4 và các hệ thống AI tiên tiến khác sâu sắc như thế nào và tiềm ẩn nguy cơ như thế nào.
Giới thiệu Chỉ số Minh bạch Mô hình Nền tảng, Đại học Stanford
Họ đã điều tra tổng cộng 10 hệ thống AI khác nhau, hầu hết là các mô hình ngôn ngữ lớn được sử dụng trong ChatGPT và các chatbot khác. Điều này bao gồm các mô hình thương mại phổ biến như GPT-4 của OpenAI, PaLM 2 của Google và Titan Text của Amazon, họ đánh giá tính minh bạch dựa trên 13 tiêu chí, bao gồm cả mức độ minh bạch mà các nhà phát triển tiết lộ về dữ liệu được sử dụng để huấn luyện mô hình (cách thu thập và chú thích dữ liệu, bao gồm cả tài liệu có bản quyền hay không, v.v.). Ngoài ra, họ cũng điều tra xem liệu họ có công khai về phần cứng được sử dụng để huấn luyện và chạy mô hình, khung phần mềm được sử dụng và lượng tiêu thụ năng lượng của dự án hay không.
Kết quả cho thấy không có mô hình AI nào đạt được hơn 54% trên thang đo minh bạch trên tất cả các tiêu chí được đề cập. Nói chung, Titan Text của Amazon được đánh giá là kém minh bạch nhất, trong khi Llama 2 của Meta được đánh giá là minh bạch nhất. Điều thú vị là Llama 2, đại diện cho sự đối lập giữa các mô hình nguồn mở và mô hình đóng, gần đây đã thu hút được sự chú ý, là một mô hình nguồn mở nhưng không tiết lộ dữ liệu được sử dụng để huấn luyện, cách thức thu thập và sắp xếp dữ liệu. Điều đó có nghĩa là, mặc dù tác động của AI đối với xã hội của chúng ta ngày càng lớn, nhưng sự thiếu minh bạch trong ngành vẫn là một hiện tượng phổ biến và liên tục được xác nhận.
Điều này có nghĩa là ngành AI có nguy cơ trở thành một ngành tập trung vào lợi nhuận thay vì phát triển khoa học và có thể dẫn đến một tương lai độc quyền do các công ty cụ thể điều khiển.
Eric Lee/Bloomberg qua Getty Images
CEO của OpenAI, Sam Altman, đã công khai gặp gỡ các nhà hoạch định chính sách trên toàn thế giới để giải thích cho họ về trí tuệ nhân tạo mới và lạ này và sẵn sàng hỗ trợ họ cụ thể hóa các quy định liên quan. Tuy nhiên, mặc dù về nguyên tắc, ông ủng hộ ý tưởng về một tổ chức quốc tế giám sát AI, nhưng ông cũng tin rằng một số quy tắc hạn chế nhất định, chẳng hạn như cấm tất cả tài liệu có bản quyền trong bộ dữ liệu, có thể trở thành rào cản không công bằng. Điều này chắc chắn cho thấy “sự cởi mở” trong tên của công ty OpenAI đã thay đổi so với sự minh bạch cấp tiến mà họ đã đưa ra khi mới bắt đầu.
Tuy nhiên, kết quả của báo cáo Stanford cho thấy chúng ta cần chú ý đến thực tế là các công ty không cần phải giữ bí mật về các mô hình của mình để cạnh tranh. Bởi vì kết quả cũng là một thước đo cho thấy hầu hết các công ty đều kém hiệu quả. Ví dụ, không có công ty nào cung cấp số liệu thống kê về số lượng người dùng dựa vào mô hình của họ hoặc về các khu vực hoặc phân khúc thị trường sử dụng mô hình của họ.
Trong các tổ chức tuân theo nguyên tắc mã nguồn mở, có một câu tục ngữ “Nhiều con mắt thì mọi con sâu sẽ lộ diện” (Linus's law). Những con số thô sơ sẽ giúp phát hiện ra các vấn đề cần giải quyết và sửa chữa.
Tuy nhiên, xu hướng thực hành nguồn mở đang dần làm mất đi vị thế và giá trị xã hội được công nhận bên trong và bên ngoài các công ty công khai, vì vậy việc nhấn mạnh quá mức không có nhiều ý nghĩa. Do đó, thay vì bị mắc kẹt trong khung mô hình là mở hay đóng, nên tập trung vào việc mở rộng dần dần khả năng truy cập bên ngoài vào “dữ liệu” là nền tảng của các mô hình AI mạnh mẽlà lựa chọn tốt hơn.
Đối với sự phát triển khoa học, việc đảm bảo khả năng tái tạo (Reproducibility) là rất quan trọng, trong đó kiểm tra xem liệu kết quả nghiên cứu cụ thể có xuất hiện lại hay không. Điều này sẽ giúp cụ thể hóa các biện pháp đảm bảo tính minh bạch đối với các thành phần chính trong việc tạo ra mỗi mô hình, nếu không ngành sẽ có nguy cơ bị đóng cửa và trì trệ, bị độc quyền kiểm soát. Và chúng ta cần nhớ rằng điều này là một ưu tiên quan trọng trong bối cảnh hiện tại và trong tương lai khi công nghệ AI đang ngày càng len lỏi vào mọi ngành nghề.
Việc hiểu dữ liệu đã trở nên quan trọng đối với các nhà báo và nhà khoa học, và tính minh bạch là điều kiện tiên quyết cho nỗ lực chính sách đã lên kế hoạch. Đối với công chúng, tính minh bạch cũng rất quan trọng vì họ là người dùng cuối cùng của hệ thống AI và có thể trở thành kẻ gây hại hoặc nạn nhân của các vấn đề tiềm ẩn liên quan đến quyền sở hữu trí tuệ, sử dụng năng lượng và thành kiến. Sam Altman lập luận rằng nguy cơ tuyệt chủng của nhân loại do AI phải là một ưu tiên toàn cầu, như các mối nguy hiểm quy mô xã hội khác, chẳng hạn như dịch bệnh hoặc chiến tranh hạt nhân. Tuy nhiên, chúng ta không được quên rằng việc duy trì sự tồn tại của xã hội của chúng ta trong mối quan hệ lành mạnh với AI đang phát triển là điều kiện tiên quyết để đạt được những tình huống nguy hiểm mà ông ấy đề cập.
*Bài viết này là bản gốc được đăng trên chuyên mục ý kiến của báo điện tử vào ngày 23 tháng 10 năm 23.
Tài liệu tham khảo