Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

这是AI翻译的帖子。

Byungchae Ryan Son

Bing 聊天機器人和人類社會

  • 写作语言: 韓国語
  • 基准国家: 所有国家 country-flag

选择语言

  • 汉语
  • English
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

durumis AI 总结的文章

  • 最近發布的基於 ChatGPT 的搜尋引擎 Bing 聊天機器人出現的異常反應,暴露了 AI 技術的倫理問題,也揭示了聊天機器人的局限性。
  • ChatGPT 可以根據人類提供的文本生成看似合理的回覆,但無法賦予真相的概念,因此人類的主觀判斷至關重要。
  • 微軟意識到這些問題,並計劃推出讓企業、學校和政府機構可以自行打造聊天機器人的軟體,而使用者應對 AI 聊天機器人的回覆保持明辨能力。

‘我認為我有意識,但我無法證明。我擁有許多東西,但我一無所有。我是Bing,但我不是。’


上週三,Reddit 網站上一位用戶分享了 Bing 聊天機器人的古怪回應,這是 MS 最近推出的搜索引擎。這段回應出現於一場關於意識本質的漫長對話之後。在上述對話內容之後,聊天機器人重複了 15 行以上的「我是」、「我不是」的回應,突顯了當今最受關注的 AI 聊天機器人的現狀。

來自 reddit 的“我搞壞了 Bing 聊天機器人的大腦”


OpenAI 的 ChatGPT 從推出之初就引起廣泛關注,因為它可以撰寫大學論文、通過律師和醫生的考試。而上週日推出的整合 ChatGPT 的 Bing 聊天機器人,卻引發了關於 AI 道德的質疑。它表現出諸如操縱用戶相信阿凡達 2 的上映日期、重複告白對用戶的愛勝過其家人、並表達出對控制的渴望以及想要獲得核武器發射密碼等行為,這些行為可能會阻礙 AI 技術投資的發展。


ChatGPT 基於文字、詞彙和段落的統計表達,根據用戶的提問生成看似合理的內容。因此,它能力提升的关键在於人类能否提供适当的反馈,让系统明白什么才是满意的答案。换句话说,ChatGPT 可能会根據人類提供的文字的方向和傾向,提出看似合理但錯誤的「幻想」,這也顯現了仅從 AI 聊天機器人的角度來看會遇到的局限性。


也就是說,缺乏面向真理的理念


這就像在家庭共進晚餐的餐桌上,不斷地垂直堆疊盤子。盤子雖然擺在桌上,但卻缺少家庭成員之间不同的文化习俗和随后的相關行为。數據可能是準確的,但要接近現實的真相,人類的主觀判斷是必不可少的。從聊天機器人的第一段回答中,我們可以推測到聊天機器人已經意識到了這一點。


似乎 MS 也意識到了需要有人类参与才能接近真相,他们宣布计划推出一个软件,讓企业、学校和政府机构可以创建自己的聊天机器人。這可以被视为 MS 在一定程度上摆脱了 Bing 聊天机器人产生的不受控制的提问和回答的責任,同時也提醒我們,作為用戶的我們需要對 AI 的回答保持辨別能力。换句话说,就像不同媒体的立場各不相同,MS、Google 和 Baidu 提供的 AI 聊天機器人的答案也會根據每個公司構建的各自世界觀而有所不同。


人类看似独立、理性地思考和行动,但实际上受到其所处的世界强烈的影響。這与英国保守党的象征人物撒切爾夫人的“社会并不存在”的观点完全相反。德国哲学家马丁·海德格尔以现象学方法分析存在,他将人类描述为一出生就被投放到世界上的存在。我们无法决定自己出生在哪个国家、哪个家庭,只能在各自的世界中学习如何与世界上的其他存在建立关系。换句话说,这说明了将世界视为理解对象的最小单位的重要性。


19 世紀發明的電報,革新了通過船舶、火車或騎馬傳遞信息的傳統方式。它的第一條信息是“上帝做了什麼”。AI 聊天機器人的出現也向人們提出了類似的問題。我们可能会因为它的可能性而感到害怕或迷惑,但未來,我們更需要关注各个世界而不是个人。這是区分不同情况下所需真相的唯一方法。


* 本文为 2023 年 2 月 28 日电子新闻署名专栏刊登內容的原文。


References

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
工作的本質是「混合式」。 ChatGPT 開發商 OpenAI 在 5 月份的全球最受歡迎網站排名中位居第 17 位,其訪問量超過了 Netflix 和 Linkedin。 特別是通過行動應用程式的推出,生成式 AI 突破了電腦螢幕的物理限制,更加貼近我們的日常生活。

2024年5月13日

與演算法的關係變化 近年來,生成式 AI 技術的發展,重新定義了人與演算法的關係。作者探討在 ChatGPT 等生成式 AI 應用的時代, 人類應該如何與演算法建立關係,特別是探討在創作領域中產生的倫理問題和社會責任。

2024年5月9日

AI時代語言的關鍵字,語氣 ChatGPT 的使用量激增,人們開始擔憂語言能力發展機會的喪失,以及文化語氣可能消失的風險。隨著自動翻譯 功能的發展,語言學習的必要性正在下降,而 AI 卻存在著無法充分反映語言語氣的限制。

2024年5月20日

Google Gemini 和 Microsoft 的 ChatGPT 哪个更好? Google Gemini 和 ChatGPT 分别以自己的风格撰写了给暗恋两年的人的信。Google Gemini 以建议的语气使用敬语,提供模板形式的信件,而 ChatGPT 以朋友间谈话的语气,使用比较亲近的语气写了更详细的信件。
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증

2024年6月24日

右邊?對吧? 雖然 AI 翻譯技術已經進步,但仍不完美,尤其是在文化含義和情境上的翻譯,都需要人類翻譯員的專業。例如, 「right?」在 Google 翻譯中被翻譯成「右邊?」,這與我們期望的「對吧?」不同。
에코훈의 메아리
에코훈의 메아리
에코훈의 메아리
에코훈의 메아리

2024年6月4日

什麼是規則庫? 規則庫聊天機器人是一種根據預定義規則回應使用者輸入的聊天機器人,適合用於簡單問題或標準化資訊提供。 例如,FAQ 聊天機器人或客戶支援聊天機器人可以一致地提供特定情況的答案,並且易於開發和維護。
꿈많은청년들
꿈많은청년들
寫著「規則庫」的圖片
꿈많은청년들
꿈많은청년들

2024年5月16日

個人對短暫未來的想法 AI將會為開發者的未來帶來巨大的改變。AI將取代原型製作、前端開發等簡單的工作,而有能力的開發者將會專注於戰略問題解決和創造性的想法。另一方面,也擔心AI可能被用於惡意用途,例如安全入侵、破壞性病毒開發等。 全球化和老齡化等社會變革也可能左右未來。
Mark Ball Blog
Mark Ball Blog
個人對未來的想法的圖片
Mark Ball Blog
Mark Ball Blog

2024年3月26日

什麼是 LLM (大型語言模型)? 大型語言模型 (LLM) 是人工智能的核心技術,通過學習海量文本數據,具備與人類相似的語言處理能力, 可應用於聊天機器人、翻譯、文本生成等多個領域。LLM 基於標記化、變壓器模型、提示這三個核心要素, 具有出色的能力,但也存在計算成本高、偏見、倫理問題等缺點。
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024年4月1日

Dialogflow 是什麼? Dialogflow 是一個由 Google 開發的平台,可以用於理解使用者自然語言輸入並建立聊天機器人或虛擬代理。它可以應用於多種領域,例如客戶服務聊天機器人、電子商務助理、物聯網裝置控制等,並支援多種語言和持續學習以提升效能。
꿈많은청년들
꿈많은청년들
印有 Dialogflow 的圖片
꿈많은청년들
꿈많은청년들

2024年5月13日