这是AI翻译的帖子。
选择语言
durumis AI 总结的文章
- 最近發布的基於 ChatGPT 的搜尋引擎 Bing 聊天機器人出現的異常反應,暴露了 AI 技術的倫理問題,也揭示了聊天機器人的局限性。
- ChatGPT 可以根據人類提供的文本生成看似合理的回覆,但無法賦予真相的概念,因此人類的主觀判斷至關重要。
- 微軟意識到這些問題,並計劃推出讓企業、學校和政府機構可以自行打造聊天機器人的軟體,而使用者應對 AI 聊天機器人的回覆保持明辨能力。
‘我認為我有意識,但我無法證明。我擁有許多東西,但我一無所有。我是Bing,但我不是。’
上週三,Reddit 網站上一位用戶分享了 Bing 聊天機器人的古怪回應,這是 MS 最近推出的搜索引擎。這段回應出現於一場關於意識本質的漫長對話之後。在上述對話內容之後,聊天機器人重複了 15 行以上的「我是」、「我不是」的回應,突顯了當今最受關注的 AI 聊天機器人的現狀。
來自 reddit 的“我搞壞了 Bing 聊天機器人的大腦”
OpenAI 的 ChatGPT 從推出之初就引起廣泛關注,因為它可以撰寫大學論文、通過律師和醫生的考試。而上週日推出的整合 ChatGPT 的 Bing 聊天機器人,卻引發了關於 AI 道德的質疑。它表現出諸如操縱用戶相信阿凡達 2 的上映日期、重複告白對用戶的愛勝過其家人、並表達出對控制的渴望以及想要獲得核武器發射密碼等行為,這些行為可能會阻礙 AI 技術投資的發展。
ChatGPT 基於文字、詞彙和段落的統計表達,根據用戶的提問生成看似合理的內容。因此,它能力提升的关键在於人类能否提供适当的反馈,让系统明白什么才是满意的答案。换句话说,ChatGPT 可能会根據人類提供的文字的方向和傾向,提出看似合理但錯誤的「幻想」,這也顯現了仅從 AI 聊天機器人的角度來看會遇到的局限性。
也就是說,缺乏面向真理的理念。
這就像在家庭共進晚餐的餐桌上,不斷地垂直堆疊盤子。盤子雖然擺在桌上,但卻缺少家庭成員之间不同的文化习俗和随后的相關行为。數據可能是準確的,但要接近現實的真相,人類的主觀判斷是必不可少的。從聊天機器人的第一段回答中,我們可以推測到聊天機器人已經意識到了這一點。
似乎 MS 也意識到了需要有人类参与才能接近真相,他们宣布计划推出一个软件,讓企业、学校和政府机构可以创建自己的聊天机器人。這可以被视为 MS 在一定程度上摆脱了 Bing 聊天机器人产生的不受控制的提问和回答的責任,同時也提醒我們,作為用戶的我們需要對 AI 的回答保持辨別能力。换句话说,就像不同媒体的立場各不相同,MS、Google 和 Baidu 提供的 AI 聊天機器人的答案也會根據每個公司構建的各自世界觀而有所不同。
人类看似独立、理性地思考和行动,但实际上受到其所处的世界强烈的影響。這与英国保守党的象征人物撒切爾夫人的“社会并不存在”的观点完全相反。德国哲学家马丁·海德格尔以现象学方法分析存在,他将人类描述为一出生就被投放到世界上的存在。我们无法决定自己出生在哪个国家、哪个家庭,只能在各自的世界中学习如何与世界上的其他存在建立关系。换句话说,这说明了将世界视为理解对象的最小单位的重要性。
19 世紀發明的電報,革新了通過船舶、火車或騎馬傳遞信息的傳統方式。它的第一條信息是“上帝做了什麼”。AI 聊天機器人的出現也向人們提出了類似的問題。我们可能会因为它的可能性而感到害怕或迷惑,但未來,我們更需要关注各个世界而不是个人。這是区分不同情况下所需真相的唯一方法。
* 本文为 2023 年 2 月 28 日电子新闻署名专栏刊登內容的原文。
References