Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Đây là bài viết được dịch bởi AI.

Byungchae Ryan Son

Sự nghịch lý của các mô hình AI tiên phong, tính minh bạch

  • Ngôn ngữ viết: Tiếng Hàn Quốc
  • Quốc gia cơ sở: Tất cả các quốc gia country-flag

Chọn ngôn ngữ

  • Tiếng Việt
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Văn bản được tóm tắt bởi AI durumis

  • Các nhà nghiên cứu tại Đại học Stanford đã phân tích 10 hệ thống AI tiên tiến, bao gồm cả GPT-4, và phát hiện ra rằng tính minh bạch của các mô hình AI, như bộ dữ liệu, phương pháp đào tạo, v.v., là rất hạn chế.
  • Đặc biệt, các công ty AI chính như OpenAI và Google đang theo đuổi mô hình kinh doanh tập trung vào lợi nhuận, dẫn đến thái độ thụ động trong việc công khai dữ liệu, điều này có khả năng cản trở sự phát triển của công nghệ AI và dẫn đến một tương lai độc quyền.
  • Các chuyên gia khẳng định cần nâng cao tính minh bạch của các mô hình AI để đảm bảo tính tái tạo và tăng cường trách nhiệm xã hội, đồng thời kêu gọi sự đồng thuận xã hội và thảo luận về quy định cùng với sự phát triển của công nghệ AI.

Nghiên cứu được công bố bởi các nhà nghiên cứu tại Đại học Stanford vào ngày 18 tháng trước cho thấy sự bí mật của GPT-4 và các hệ thống AI tiên tiến khác sâu sắc như thế nào và tiềm ẩn nguy cơ như thế nào.

Giới thiệu Chỉ số Minh bạch Mô hình Nền tảng, Đại học Stanford


Họ đã điều tra tổng cộng 10 hệ thống AI khác nhau, hầu hết là các mô hình ngôn ngữ lớn được sử dụng trong ChatGPT và các chatbot khác. Điều này bao gồm các mô hình thương mại phổ biến như GPT-4 của OpenAI, PaLM 2 của Google và Titan Text của Amazon, họ đánh giá tính minh bạch dựa trên 13 tiêu chí, bao gồm cả mức độ minh bạch mà các nhà phát triển tiết lộ về dữ liệu được sử dụng để huấn luyện mô hình (cách thu thập và chú thích dữ liệu, bao gồm cả tài liệu có bản quyền hay không, v.v.). Ngoài ra, họ cũng điều tra xem liệu họ có công khai về phần cứng được sử dụng để huấn luyện và chạy mô hình, khung phần mềm được sử dụng và lượng tiêu thụ năng lượng của dự án hay không.


Kết quả cho thấy không có mô hình AI nào đạt được hơn 54% trên thang đo minh bạch trên tất cả các tiêu chí được đề cập. Nói chung, Titan Text của Amazon được đánh giá là kém minh bạch nhất, trong khi Llama 2 của Meta được đánh giá là minh bạch nhất. Điều thú vị là Llama 2, đại diện cho sự đối lập giữa các mô hình nguồn mở và mô hình đóng, gần đây đã thu hút được sự chú ý, là một mô hình nguồn mở nhưng không tiết lộ dữ liệu được sử dụng để huấn luyện, cách thức thu thập và sắp xếp dữ liệu. Điều đó có nghĩa là, mặc dù tác động của AI đối với xã hội của chúng ta ngày càng lớn, nhưng sự thiếu minh bạch trong ngành vẫn là một hiện tượng phổ biến và liên tục được xác nhận.


Điều này có nghĩa là ngành AI có nguy cơ trở thành một ngành tập trung vào lợi nhuận thay vì phát triển khoa học và có thể dẫn đến một tương lai độc quyền do các công ty cụ thể điều khiển.

Eric Lee/Bloomberg qua Getty Images


CEO của OpenAI, Sam Altman, đã công khai gặp gỡ các nhà hoạch định chính sách trên toàn thế giới để giải thích cho họ về trí tuệ nhân tạo mới và lạ này và sẵn sàng hỗ trợ họ cụ thể hóa các quy định liên quan. Tuy nhiên, mặc dù về nguyên tắc, ông ủng hộ ý tưởng về một tổ chức quốc tế giám sát AI, nhưng ông cũng tin rằng một số quy tắc hạn chế nhất định, chẳng hạn như cấm tất cả tài liệu có bản quyền trong bộ dữ liệu, có thể trở thành rào cản không công bằng. Điều này chắc chắn cho thấy “sự cởi mở” trong tên của công ty OpenAI đã thay đổi so với sự minh bạch cấp tiến mà họ đã đưa ra khi mới bắt đầu.


Tuy nhiên, kết quả của báo cáo Stanford cho thấy chúng ta cần chú ý đến thực tế là các công ty không cần phải giữ bí mật về các mô hình của mình để cạnh tranh. Bởi vì kết quả cũng là một thước đo cho thấy hầu hết các công ty đều kém hiệu quả. Ví dụ, không có công ty nào cung cấp số liệu thống kê về số lượng người dùng dựa vào mô hình của họ hoặc về các khu vực hoặc phân khúc thị trường sử dụng mô hình của họ.


Trong các tổ chức tuân theo nguyên tắc mã nguồn mở, có một câu tục ngữ “Nhiều con mắt thì mọi con sâu sẽ lộ diện” (Linus's law). Những con số thô sơ sẽ giúp phát hiện ra các vấn đề cần giải quyết và sửa chữa.


Tuy nhiên, xu hướng thực hành nguồn mở đang dần làm mất đi vị thế và giá trị xã hội được công nhận bên trong và bên ngoài các công ty công khai, vì vậy việc nhấn mạnh quá mức không có nhiều ý nghĩa. Do đó, thay vì bị mắc kẹt trong khung mô hình là mở hay đóng, nên tập trung vào việc mở rộng dần dần khả năng truy cập bên ngoài vào “dữ liệu” là nền tảng của các mô hình AI mạnh mẽlà lựa chọn tốt hơn.


Đối với sự phát triển khoa học, việc đảm bảo khả năng tái tạo (Reproducibility) là rất quan trọng, trong đó kiểm tra xem liệu kết quả nghiên cứu cụ thể có xuất hiện lại hay không. Điều này sẽ giúp cụ thể hóa các biện pháp đảm bảo tính minh bạch đối với các thành phần chính trong việc tạo ra mỗi mô hình, nếu không ngành sẽ có nguy cơ bị đóng cửa và trì trệ, bị độc quyền kiểm soát. Và chúng ta cần nhớ rằng điều này là một ưu tiên quan trọng trong bối cảnh hiện tại và trong tương lai khi công nghệ AI đang ngày càng len lỏi vào mọi ngành nghề.


Việc hiểu dữ liệu đã trở nên quan trọng đối với các nhà báo và nhà khoa học, và tính minh bạch là điều kiện tiên quyết cho nỗ lực chính sách đã lên kế hoạch. Đối với công chúng, tính minh bạch cũng rất quan trọng vì họ là người dùng cuối cùng của hệ thống AI và có thể trở thành kẻ gây hại hoặc nạn nhân của các vấn đề tiềm ẩn liên quan đến quyền sở hữu trí tuệ, sử dụng năng lượng và thành kiến. Sam Altman lập luận rằng nguy cơ tuyệt chủng của nhân loại do AI phải là một ưu tiên toàn cầu, như các mối nguy hiểm quy mô xã hội khác, chẳng hạn như dịch bệnh hoặc chiến tranh hạt nhân. Tuy nhiên, chúng ta không được quên rằng việc duy trì sự tồn tại của xã hội của chúng ta trong mối quan hệ lành mạnh với AI đang phát triển là điều kiện tiên quyết để đạt được những tình huống nguy hiểm mà ông ấy đề cập.


*Bài viết này là bản gốc được đăng trên chuyên mục ý kiến ​​của báo điện tử vào ngày 23 tháng 10 năm 23.


Tài liệu tham khảo


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Bi kịch quản trị của OpenAI, tương lai đạo đức của AI Sự kiện CEO của OpenAI, Sam Altman, bị sa thải bởi hội đồng quản trị nhưng sau đó được phục chức chỉ sau 5 ngày đã phơi bày cấu trúc độc đáo của OpenAI, một tổ chức tự xưng mang sứ mệnh cho nhân loại, và nỗi lo ngại về những rủi ro tiềm ẩn của công nghệ k

14 tháng 5, 2024

Bản chất của công việc là 'Hybrid'. OpenAI, nhà phát triển ChatGPT, là trang web phổ biến thứ 17 trên thế giới tính đến tháng 5, ghi nhận lượng truy cập nhiều hơn Netflix và Linkedin. Đặc biệt, với việc ra mắt ứng dụng di động, AI sáng tạo đã thoát khỏi giới hạn vật lý là ngồi trước màn hìn

13 tháng 5, 2024

Sự tiến hóa của AI sáng tạo năm 2023, ý nghĩa của con người sau đó Năm 2023 là năm AI thống trị toàn bộ ngành công nghiệp công nghệ, mang đến những thay đổi quan trọng như chuyển đổi nền tảng AI sáng tạo, sự quen thuộc ngày càng tăng của công chúng và sự đồng thuận về luật pháp điều chỉnh AI. Năm 2024, cùng với sự phát t

16 tháng 5, 2024

Hoàn thành AI Full Stack bằng mã nguồn mở Các mô hình LLM (mô hình ngôn ngữ lớn) mã nguồn mở mới đang xuất hiện trong hệ sinh thái AI. Mistral, Llama, phi-2, v.v., là những mô hình có hiệu suất mạnh mẽ và giấy phép mở được công khai, và nhiều công cụ khác đang được phát triển để sử dụng chúng. La
RevFactory
RevFactory
RevFactory
RevFactory

5 tháng 2, 2024

Mr. Know-All – 2023.7 Tạp chí AI hàng tháng "Mr. Know-All" số 1 tháng 7 năm 2023 giới thiệu Claude 2, Azure OpenAI, LangChain, LlamaIndex và các công nghệ và xu hướng AI mới nhất. Đặc biệt, bài viết cung cấp hướng dẫn chi tiết về LlamaIndex - công cụ nhúng dữ liệu cá nhân và k
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 tháng 3, 2024

Snowflake ra mắt 'Arctic', mô hình ngôn ngữ lớn cấp doanh nghiệp với tính mở cao nhất ngành Snowflake đã ra mắt mô hình ngôn ngữ lớn nguồn mở 'Arctic'. Được cấp phép Apache 2.0, cho phép sử dụng thương mại miễn phí, Arctic nổi bật với hiệu suất và hiệu quả hàng đầu ngành. Cung cấp hiệu quả mã thông báo vượt trội và chất lượng tốt nhất, hỗ trợ nh
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 tháng 4, 2024

Công khai OpenELM của Apple / Phi-3 của MS / Llama 3 của Meta Apple, Microsoft, Meta và các công ty công nghệ lớn khác đang tạo ra luồng gió mới trong ngành AI bằng cách phát hành các mô hình ngôn ngữ lớn do chính họ phát triển gần đây. Các mô hình được phát hành lần này đang tiến hóa theo nhiều hướng khác nhau như
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 tháng 4, 2024

LLM (Large Language Model) là gì? Mô hình ngôn ngữ lớn (LLM) là một công nghệ cốt lõi của trí tuệ nhân tạo, được đào tạo trên lượng dữ liệu văn bản khổng lồ để có khả năng xử lý ngôn ngữ tương tự con người, có thể được sử dụng trong nhiều lĩnh vực như chatbot, dịch thuật, tạo văn bản,...
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 tháng 4, 2024

Báo cáo tình hình bảo mật Splunk năm 2024 Theo báo cáo tình hình bảo mật năm 2024 của Splunk, 93% doanh nghiệp đang sử dụng AI tạo sinh, nhưng 34% trong số họ vẫn chưa xây dựng chính sách. AI tạo sinh mang đến cơ hội mới cho cả chuyên viên an ninh mạng và kẻ tấn công, điều quan trọng là phải hiểu
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 tháng 5, 2024