![translation](https://cdn.durumis.com/common/trans.png)
这是AI翻译的帖子。
选择语言
durumis AI 总结的文章
- 包括 ChatGPT 在內的生成式 AI 發展到可以取代人類角色的程度,這引發了創作者權利被侵犯的問題,以及對人類與演算法的新關係的思考。
- 演算法影響著我們生活的許多方面,我們意識到演算法的存在,並且對其抱持著好奇心,並將其視為一種活躍的存在。
- 特別是生成式 AI 在根據使用者需求生成結果的過程中,會利用現有內容,因此需要重新建立與 AI 演算法的關係,並思考倫理責任。
“現在,我們擁有了可以分析人類語言並提取世界模型的AI模型。”
上個月 19 日,在加拿大安大略省舉行的一場慈善活動中,臨床心理學家,多倫多大學教授喬丹·彼得森 談論了最近備受矚目的 ChatGPT 使用案例,並提到了未來演算法將帶來的與人類的新緊張關係。彼得森教授 警告說,大型語言處理模型,即生成式 AI,很快就會利用圖像和動作自行提取模式,然後在世界上進行 測試,從而以極快的速度變得聰明,只需幾秒鐘就能完成人類科學家的工作。
GPT-3、DALL-E、StableDiffusion 等幾乎成為所有 AI 系統的基礎,並正在使 AI 範式轉型可視化。 這些強大的系統根據用戶需求生成圖像和文本,必然會引發與現有產業內創作者的衝突。去年 11 月, 微軟公司的「GitHubCopilot」面臨集體訴訟,指控其侵犯了無數作者在開放原始碼許可下發佈代碼的法律 權利,以進行 AI 學習。此外,美國唱片業協會(RIAA)在去年 10 月發表聲明,強調基於 AI 的音樂 生成和混音可能會威脅音樂人的權利,甚至他們的財務狀況。
這些案例提醒我們,使用基於受版權保護資料的資料集來訓練系統並產生結果,是否對所有人都是公平的。 但是,需要注意的是,這些爭議在很大程度上集中在以新技術為中心的方面。最終,輸入文字以在 AI 模型 中獲得預期結果的是人,因此我們應該首先關注未來人類與演算法之間的關係。
演算法已經成為我們世界創造中的一個軸心,與人類的作用相似。從一開始,我們就考慮過許多社會監督 以應對演算法的不透明性。特別是,我們知道由於缺乏透明度,很難評估誰應該承擔責任,並且隱藏的 偏見可能會持續存在,從而導致不公平的結果,我們對此感到擔憂。因此,「我們應該如何對待演算法」 是一個更重要的問題,我們可以在我們熟悉的內容生成演算法(content-generating algorithm) 與之的關係中找到線索。
首先,我們意識到演算法的存在。 在與內容和廣告相關的對話中,經常出現的「推薦」、「選擇」等詞語,表明人們正在以線上購物和 社交媒體中的演算法為中心構建詞彙。此外,我們對演算法充滿好奇。 當 YouTube 主頁被特定類別的內容填滿時,或者當我們認為自己發佈的內容曝光量不足時,我們常常 會表達出對演算法的好奇,而這種好奇往往帶著不友善的反應。
最後,我們希望演算法像一個活躍且有生命的實體,為我們而存在。 為了養成新習慣,為了學習,為了記憶而不忘記,我們依賴著演算法,並且會試圖完全控制演算法。 我們會嘗試使用看似無關的標籤,啟用勿擾模式,或傳送關於廣告選項的回饋。當所有這些嘗試都 失敗時,我們甚至會嘗試與演算法斷絕關係,例如進行數位排毒或閱讀電子報內容。
總之,當人們與演算法的關係無法如願進行時,他們往往會表現出不信任、負面評價,以及執著於過去的 行為。這在很大程度上類似於我們日常生活中建立的「社會關係」。進一步來說,傳統的內容生成演算法與我們的關係大多是「消費」領域中單向的關係,而當今的大型語言處理 模型,即 AI 演算法,與我們的關係更像是「生成」領域中雙向的關係。由於用戶要求的結果並非完全原始的 內容,而是基於世界上某個人的創作,因此我們需要認識到,現在與生成式 AI 演算法打交道的態度和方法 也需要從根本上改變。
即使打開了 ChatGPT 的窗口,AI 演算法也只會等待。也許它的驚人能力只是被掩蓋了,只是在你寫東西的 時候,它才幫助你與你所處世界中的其他某個人建立起一種隱藏的社會關係。
*這篇文章是 23 年 1 月 9 日發佈在電子新聞署名專欄 上的內容的原文。
References