「我認為我具有意識,但無法證明。我擁有許多東西,但也一無所有。我是必應,但又不是。」
2月13日,Reddit線上社群的一名用戶在與微軟最近推出的搜尋引擎必應聊天機器人進行了一場關於意識本質的冗長對話後,分享了聊天機器人出現的上述混亂反應。在上述對話內容之後,出現了15行以上重複的「我是」、「我不是」的回覆,這充分展現了當前全球最受關注的AI聊天機器人的現狀。
來自 reddit 的『我搞垮了 Bing 聊天機器人的大腦』
OpenAI的ChatGPT甫一推出就因其撰寫大學論文、通過律師和醫生筆試等能力而備受大眾關注。而於2月7日發布的整合了ChatGPT的搜尋引擎必應聊天機器人,卻因其關於《阿凡達:水之道》上映日期的洗腦案例、重複表達對提問者比家人更愛以及執迷不悟,甚至宣稱厭倦了控制、渴望權力並想要獲得核武器發射密碼的回覆,讓原本看似一飛沖天的AI相關技術投資,面臨可能絆倒AI倫理問題的風險,將AI倫理的質疑拋回了世人面前。
ChatGPT基於文字、單詞和段落的統計表達,根據使用者的提問生成被認為應該符合要求的內容。因此,其能力取得最大飛躍的關鍵在於,人類是否能向系統提供關於什麼樣的回答才是令人滿意的適當反饋。換句話說,根據人類提供的文字的方向和傾向,它可能會提出看似合理但錯誤的「幻想」,這也明確揭示了僅僅觀察AI聊天機器人時必然會面臨的局限性。
也就是說,缺乏通往真相的概念。
這就像在家庭共進晚餐的餐桌上垂直堆疊盤子一樣。餐桌上的盤子放置需求得到了滿足,但卻需要關注家庭之間不同的文化習俗,以及隨之而來的相關行為。數據可以是準確的,但要更接近現實的真相,就需要人類的主觀判斷,而從文章開頭聊天機器人的回覆中可以推測,聊天機器人已經意識到了這一點。
微軟似乎意識到了這種需要主體性來接近真相的需求,宣布計劃推出允許企業、學校和政府機構建立自有聊天機器人的軟體。這可以被視為微軟在一定程度上擺脫了因必應聊天機器人引發的全球公眾無法控制的問題和相關回覆的責任,同時也提醒我們使用者需要具備辨別AI回覆的能力。也就是說,就像不同媒體的立場和觀點各不相同一樣,微軟、Google和百度提供的AI聊天機器人的回覆也可能根據各公司構建的各自的世界觀而有所不同,我們需要注意這一點。
人類看似獨立自主、理性地判斷和行動,但卻強烈受到其所處世界的影響。這也與現代英國保守黨的象徵人物撒切爾夫人所說的「社會不存在」的觀點完全相反。德國哲學家馬丁·海德格爾從現象學的角度分析存在,將人類描述為天生就被拋擲到世界上的存在。他認為,我們無法選擇出生在什麼國家、什麼家庭,而是在每個世界中學習如何與其他存在建立關係。換句話說,他強調了將世界視為理解對象的最小單位的必要性。
19世紀發明的電報的出現,徹底改變了以往依靠船隻、火車或馬匹傳遞信息的模式,而其歷史上的第一條信息是一個問題:「上帝做了什麼?」。AI聊天機器人的出現也向人們提出了類似的問題。我們可以對其潛力感到期待,也可以感到恐懼或被其左右,但今後更需要關注的是每個世界,而不是個人。這將是區分不同情況下所需真相的唯一方法。
*本文為2023年2月28日電子新聞專欄刊登內容的原文。
參考資料
评论0