这是AI翻译的帖子。
选择语言
durumis AI 总结的文章
- 史丹佛大學的研究人員分析了包括 GPT-4 在內的 10 個最先進的 AI 系統,發現 AI 模型缺乏數據集、訓練方法等方面的透明度。
- 特別是 OpenAI、Google 等主要 AI 公司以營利為主的商業模式,導致其對數據公開持消極態度,這阻礙了 AI 技術的發展, 並可能導致壟斷的未來。
- 專家們主張提高 AI 模型的透明度,以確保可重複性,並加強社會責任,並呼籲隨著 AI 技術的發展,進行社會共識和 監管討論。
斯坦福大學研究團隊於 18 日發布的研究報告,揭示了 GPT-4 及其他頂尖 AI 系統的秘密有多麼深奧,以及潛在的危險性。
Introducing The Foundation Model Transparency Index, Stanford University
研究團隊調查了總計 10 個不同的 AI 系統,其中大多數是大型語言模型,例如 ChatGPT 和其他聊天機器人所使用的模型。這些系統包括廣泛使用的商業模型,如 OpenAI 的 GPT-4、Google 的 PaLM 2 和 Amazon 的 Titan Text。研究團隊根據 13 個標準評估了這些模型的公開程度,包括開發人員在模型訓練數據方面公開的透明度(數據收集和標註方法,是否包含受版權保護的資料等)。研究團隊還調查了模型訓練和執行中使用的硬體、使用的軟體框架以及項目能源消耗情況是否公開。
研究結果表明,在所有評估標準中,沒有任何 AI 模型在透明度指標中達到 54% 以上。總體而言,Amazon 的 Titan Text 被評估為透明度最低的模型,而 Meta 的 Llama 2 被評估為最公開的模型。有趣的是,Llama 2 作為最近備受關注的開源和封閉模型對立結構的代表,儘管是一個開源模型,但它沒有公開訓練中使用的數據、數據收集和整理方法等信息。這意味著,儘管 AI 對我們社會的影響越來越大,但該行業的相關不透明性卻是一個普遍且持續存在的現象。
這意味著 AI 行業有可能變成以營利為中心的領域,而不是科學進步,這可能會導致特定企業主導的壟斷未來。這意味著 AI 行業可能會變成以營利為中心的領域,而不是科學進步,這可能會導致特定企業主導的壟斷未來。。
Eric Lee/Bloomberg via Getty Images
OpenAI 的執行長山姆·奧特曼已經與全球的政策制定者會面,積極地向他們解釋這種陌生而新穎的智能,並表示願意協助制定相關法規。然而,儘管他原則上支持監管 AI 的國際組織的想法,但他認為一些限制性的規則,例如禁止數據集中所有受版權保護的資料,可能會成為不公平的障礙。這表明 OpenAI 公司名稱中的「開放性」已經偏離了其成立之初提出的激進透明性。
然而,斯坦福大學這份報告的結果也值得注意,因為它表明,為了競爭,企業沒有必要將自己的模型保密。因為這個結果也反映了幾乎所有企業的不足之處。例如,據說沒有任何公司會提供有關多少用戶依賴其模型的統計數據,以及使用其模型的區域或市場部分。
在以開源為原則的組織中,有一句俗語「眼睛多,則蟲子就容易被發現」。原始數據有助於發現、解決和修復問題。
然而,開源慣例也逐漸導致公眾對企業內部和外部的社會地位和價值認可下降。因此,過於強調開源並沒有太大的意義。因此,与其將注意力集中在模型是開源還是封閉上,不如將討論重點放在如何逐步擴大外部對AI 模型背後「數據」的訪問權限上,這將是一個更好的選擇。
科學進步需要確保特定研究結果的可重複性。這需要確保模型生成的關鍵組成部分的透明度,否則該行業最終可能會陷入封閉且停滯的壟斷狀態。在 AI 技術快速滲透到整個產業的當下和未來,這是一個需要優先考慮的關鍵問題。科學進步需要確保特定研究結果的可重複性。。這需要確保模型生成的關鍵組成部分的透明度,否則該行業最終可能會陷入封閉且停滯的壟斷狀態。在 AI 技術快速滲透到整個產業的當下和未來,這是一個需要優先考慮的關鍵問題。
新聞工作者和科學家需要理解數據,而對政策制定者而言,透明度是預計的政策努力的先決條件。對於公眾而言,透明度也很重要,因為作為 AI 系統的最終用戶,他們可能會成為與知識產權、能源使用以及偏見相關的潛在問題的加害者或受害者。山姆·奧特曼主張,由 AI 導致的人類滅絕風險應該成為全球性的優先事項,與傳染病或核戰爭等社會規模的風險同等重要。然而,我們不應忘記,在他提到的危險情況出現之前,我們社會的持續存在是維持與不斷發展的 AI 之間健康關係的先決條件。
* 本文是 2023 年 10 月 23 日刊登在《電子時報》上的簽名專欄文章的原文。
References