Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

这是AI翻译的帖子。

Byungchae Ryan Son

與演算法的關係變化

  • 写作语言: 韓国語
  • 基准国家: 所有国家 country-flag

选择语言

  • 汉语
  • English
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

durumis AI 总结的文章

  • 包括 ChatGPT 在內的生成式 AI 發展到可以取代人類角色的程度,這引發了創作者權利被侵犯的問題,以及對人類與演算法的新關係的思考。
  • 演算法影響著我們生活的許多方面,我們意識到演算法的存在,並且對其抱持著好奇心,並將其視為一種活躍的存在。
  • 特別是生成式 AI 在根據使用者需求生成結果的過程中,會利用現有內容,因此需要重新建立與 AI 演算法的關係,並思考倫理責任。

“現在,我們擁有了可以分析人類語言並提取世界模型的AI模型。”


上個月 19 日,在加拿大安大略省舉行的一場慈善活動中,臨床心理學家,多倫多大學教授喬丹·彼得森 談論了最近備受矚目的 ChatGPT 使用案例,並提到了未來演算法將帶來的與人類的新緊張關係。彼得森教授 警告說,大型語言處理模型,即生成式 AI,很快就會利用圖像和動作自行提取模式,然後在世界上進行 測試,從而以極快的速度變得聰明,只需幾秒鐘就能完成人類科學家的工作。


GPT-3、DALL-E、StableDiffusion 等幾乎成為所有 AI 系統的基礎,並正在使 AI 範式轉型可視化。 這些強大的系統根據用戶需求生成圖像和文本,必然會引發與現有產業內創作者的衝突。去年 11 月, 微軟公司的「GitHubCopilot」面臨集體訴訟,指控其侵犯了無數作者在開放原始碼許可下發佈代碼的法律 權利,以進行 AI 學習。此外,美國唱片業協會(RIAA)在去年 10 月發表聲明,強調基於 AI 的音樂 生成和混音可能會威脅音樂人的權利,甚至他們的財務狀況。


這些案例提醒我們,使用基於受版權保護資料的資料集來訓練系統並產生結果,是否對所有人都是公平的。 但是,需要注意的是,這些爭議在很大程度上集中在以新技術為中心的方面。最終,輸入文字以在 AI 模型 中獲得預期結果的是人,因此我們應該首先關注未來人類與演算法之間的關係。


演算法已經成為我們世界創造中的一個軸心,與人類的作用相似。從一開始,我們就考慮過許多社會監督 以應對演算法的不透明性。特別是,我們知道由於缺乏透明度,很難評估誰應該承擔責任,並且隱藏的 偏見可能會持續存在,從而導致不公平的結果,我們對此感到擔憂。因此,「我們應該如何對待演算法」 是一個更重要的問題,我們可以在我們熟悉的內容生成演算法(content-generating algorithm) 與之的關係中找到線索。


首先,我們意識到演算法的存在。 在與內容和廣告相關的對話中,經常出現的「推薦」、「選擇」等詞語,表明人們正在以線上購物和 社交媒體中的演算法為中心構建詞彙。此外,我們對演算法充滿好奇。 當 YouTube 主頁被特定類別的內容填滿時,或者當我們認為自己發佈的內容曝光量不足時,我們常常 會表達出對演算法的好奇,而這種好奇往往帶著不友善的反應。


最後,我們希望演算法像一個活躍且有生命的實體,為我們而存在。 為了養成新習慣,為了學習,為了記憶而不忘記,我們依賴著演算法,並且會試圖完全控制演算法。 我們會嘗試使用看似無關的標籤,啟用勿擾模式,或傳送關於廣告選項的回饋。當所有這些嘗試都 失敗時,我們甚至會嘗試與演算法斷絕關係,例如進行數位排毒或閱讀電子報內容。


總之,當人們與演算法的關係無法如願進行時,他們往往會表現出不信任、負面評價,以及執著於過去的 行為。這在很大程度上類似於我們日常生活中建立的「社會關係」。進一步來說,傳統的內容生成演算法與我們的關係大多是「消費」領域中單向的關係,而當今的大型語言處理 模型,即 AI 演算法,與我們的關係更像是「生成」領域中雙向的關係。由於用戶要求的結果並非完全原始的 內容,而是基於世界上某個人的創作,因此我們需要認識到,現在與生成式 AI 演算法打交道的態度和方法 也需要從根本上改變。


即使打開了 ChatGPT 的窗口,AI 演算法也只會等待。也許它的驚人能力只是被掩蓋了,只是在你寫東西的 時候,它才幫助你與你所處世界中的其他某個人建立起一種隱藏的社會關係。


*這篇文章是 23 年 1 月 9 日發佈在電子新聞署名專欄 上的內容的原文。


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
生成式AI的2023年,以及人类意义的未来 2023年是AI主宰整个科技产业的一年,带来了生成式AI平台转型、公众熟悉度提高、AI监管法案达成等重大变化。 2024年,随着AI技术的发展,我们将进入一个重要的时期,在这个时期,我们将思考人类意义的问题,时间和空间的价值,以及人类与AI共存的形式。

2024年5月16日

AI 时代的“身体”:看穿屏幕的人类躯体 UMG 与 TikTok 之间的许可协议终止引发了关于 AI 技术发展及其带来的社会变革的讨论。从达尔文的进化论角度预测 AI 的自主性并警告潜在风险, 但强调人机相互依存关系的行动者网络理论提供了更现实的视角。

2024年5月16日

生成式 AI 滲透的世界:失衡理論與流程 生成式 AI 技術的發展,在藝術、廣告、媒體等領域,對創作者的競爭力提出了新的疑問。本文強調,在快速變化的數位環境中,創作者為了實現差異化,需要強調對真實世界的豐富觀點以及製作過程的價值。

2024年5月9日

個人對短暫未來的想法 AI將會為開發者的未來帶來巨大的改變。AI將取代原型製作、前端開發等簡單的工作,而有能力的開發者將會專注於戰略問題解決和創造性的想法。另一方面,也擔心AI可能被用於惡意用途,例如安全入侵、破壞性病毒開發等。 全球化和老齡化等社會變革也可能左右未來。
Mark Ball Blog
Mark Ball Blog
個人對未來的想法的圖片
Mark Ball Blog
Mark Ball Blog

2024年3月26日

什麼是 LLM (大型語言模型)? 大型語言模型 (LLM) 是人工智能的核心技術,通過學習海量文本數據,具備與人類相似的語言處理能力, 可應用於聊天機器人、翻譯、文本生成等多個領域。LLM 基於標記化、變壓器模型、提示這三個核心要素, 具有出色的能力,但也存在計算成本高、偏見、倫理問題等缺點。
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024年4月1日

AI 時代來臨,技術創新與倫理間的和諧 谷歌和 OpenAI 分別推出全新 AI 模型「Gemini」和「GPT-4」,展示了 AI 技術的革新性進展。Gemini 可以接收多種形式的輸入,進行資訊摘要,提供問題解答,並將整合到谷歌照片、工作空間和搜尋引擎中,以提升使用者體驗。
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024年5月18日

AI 时代的必备技能就是写作。 相信数据和时间的力量,学习成为生产者的方法。通过博客写作,准备未来的食物来源,并在 AI 时代前进。
카니리 @khanyli
카니리 @khanyli
카니리 @khanyli
카니리 @khanyli

2024年6月11日

AI揭示的 人工智慧未來與展望! 人工智慧 (AI) 正改變我們生活的許多面向,對日常生活的影響,產業以及經濟結構都很廣泛。本文將探討人工智慧的歷史、現今的應用案例、未來展望,以及倫理問題等,並強調社會合作和倫理考量的重要性,以使人工智慧能夠為我們帶來積極的影響。
qed
qed
qed
qed

2024年6月17日

圖像生成 AI,其革命性技術與現實挑戰 圖像生成 AI 是一種革命性技術,僅需輸入文字即可生成逼真的圖像。它被應用於藝術、設計、行銷等多個領域,但也存在著智慧財產權、偏見、假圖像生成等問題。隨著這項技術的發展,需要努力解決社會問題。
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024年5月6日