「我們現在擁有一個能夠分析人類語言並提取世界模型的 AI 模型。」
上個月 19 日,在加拿大安大略省舉辦的一場慈善機構活動中,臨床心理學家、多倫多大學教授喬丹·彼得森提到了最近備受關注的 ChatGPT 使用案例,並談到了未來演算法將帶來的全新的人機緊張關係。彼得森教授警告,大型語言處理模型(生成式 AI)不久的將來將能夠利用圖像和動作自行提取模式,然後在世界上進行測試,其智能程度將足以在幾秒鐘內完成人類科學家的工作。
GPT-3、DALL-E、Stable Diffusion 等現已成為幾乎所有 AI 系統的基礎,並使 AI 的範式轉變可視化。並且,這些能夠根據用戶需求生成圖像和文本的強大系統必然會引起與既有產業內創作者之間的衝突。去年 11 月,微軟公司的「GitHub Copilot」面臨集體訴訟,被控侵犯了大量將代碼發佈到開源許可證下的編寫者的法律權利,這些代碼被用於 AI 學習。此外,美國唱片業協會(RIAA)去年 10 月在一份聲明中強調,基於 AI 的音樂生成和混音可能會威脅音樂人的權利,甚至危及他們的財務狀況。
這些案例提醒我們,對於使用基於版權材料的數據集來訓練系統並生成輸出方法的「公平性」問題。但是,我們需要注意到,這些爭議很大程度上集中在新的技術中心方面。畢竟,在 AI 模型中輸入文本以獲得其預期輸出的始終是人類,因此,我們首先需要關心的是未來人類與演算法之間的關係應該是什麼。
演算法已經成為了與人類一樣創造我們世界的支柱之一。我們從以前開始就一直在考慮許多關於演算法不透明性的社會監控問題。特別是,我們知道由於缺乏透明度,很難評估誰應該為此負責,並且我們擔心隱藏的偏見會持續存在,從而導致不公平的結果。因此,「我們應該如何對待演算法」可能是更重要的問題,我們可以從我們熟悉的內容生成演算法(content-generating algorithm)的關係中找到線索。
首先,我們意識到演算法的存在。在與內容和廣告相關的對話中,經常出現「推薦」、「選擇」等詞語,這表明人們正在圍繞線上購物和社群媒體中的演算法構建詞彙。此外,我們對演算法充滿好奇。當 YouTube 首頁充滿特定類別的內容時,或者當我們認為自己發佈的內容曝光量不足時,我們常常會表現出不友善的反應,以此表達我們對演算法的好奇心。
最後,我們希望演算法像一個活躍且有生命的實體一樣為我們存在。為了培養新的習慣、學習以及保持記憶,我們依賴演算法,並為了達到這個目的,我們也試圖完全控制演算法。例如,試圖使用看似不相關的標籤、啟用勿擾模式或發送有關廣告選項的反饋。當所有這些嘗試都失敗時,我們甚至會嘗試斷開與演算法的聯繫,例如進行數位排毒或閱讀電子報內容。
總而言之,當人們與演算法的關係沒有按照他們希望的方式發展時,他們往往會表現出缺乏信任、負面評價以及執著於過去的行為。這在很大程度上與我們日常生活中建立的「社會關係」相似。此外,如果說傳統的內容生成演算法與我們的關係大多數是「消費」領域的單向關係,那麼當前的大型語言處理模型(AI 演算法)與我們的關係則可以被定義為「生成」領域的雙向關係。由於用戶要求的輸出並非完全原創,而是基於世界上某個人的創作,因此我們需要意識到,我們與生成式 AI 演算法的互動方式和態度也需要從根本上發生改變。
即使打開 ChatGPT 窗口,AI 演算法也只會等待。也許,它那令人驚嘆的能力只是被掩蓋了,當你寫下某些東西時,它只不過是在幫助你與你所屬世界的另一個看不見的人建立起尚未被發現的社會關係。
*本文為 2023 年 1 月 9 日電子新聞專欄發表的內容原文。
參考資料
评论0