![translation](https://cdn.durumis.com/common/trans.png)
这是AI翻译的帖子。
选择语言
durumis AI 总结的文章
- Payman AI推出了向人类支付工资的AI服务,展示了AI委托人类工作并支付工资的新型招聘市场的可能性。
- 为了确保AI的可靠性,Payman AI引入了人类参与的过程,以减少AI的错误可能性,并强调了提高工作可靠性的重要性。
- 在AI驱动的就业环境中,算法的透明度和公平性,数据的准确性,个人工作职位的定义等都成为了新兴就业市场的核心要素。
正在出現一種新型招聘市場。
幾週前,Payman AI 推出了正在進行私人測試的 AI 服務(AI that Pays Humans),該服務向人類支付報酬。 該服務說明,委託人向 Payman 的 AI 代理的帳戶付款,並授予 AI 訪問權限,從而能夠執行人類在現實中才能完成的任務。
舉例來說,「在客戶管理工作中收集 10 個評價」的專案中,AI 會將委託人要求的評價的最小組成部分具體化和整理後,在平台上分享,對該委託感興趣的人實際上會出去收集和提交評價,然後 AI 會對其適當性進行判斷,並向分配到每個個人身上支付分配的費用,從而展示了該流程。
這種方法可能仍然只是一種簡單的 AI 應用案例。 但是,從至少在 AI 採用方面解決了最常見、最難解決的瓶頸問題「信任」方面提供了線索來看,這值得注意。
防止由於學習錯誤的數據模式而執行有偏見的工作的擔憂,是 AI 採用中最典型的恐懼。 今年 2 月,谷歌的生成式 AI 模型 Gemini 在 1943 年的德國軍隊圖片中,將白人男性替換成了亞裔女性和黑人男性,而遭到批評,並暫停了該服務。 這是由於過度重視最近強調的多元化而導致的結果,而不是對歷史事實的確認。
但是,與 Payman 提供的案例一樣,如果將人類參與和審查步驟納入委託的執行過程中,就可以找出錯誤,提高整個專案的責任感,從而提高對該服務的信任度。 總之,從這個案例中可以確認的普遍共識是,AI 僱用人類,「可以完成超出 AI 能力範圍的工作」。
但是,隨著這種方法的普及,人類需要適應與以前不同的標準,以便以工作者的身份展示自己的能力和經驗。
首先,在 AI 充當雇主的情況下,信任的來源轉移到演算法的準確性和數據的可靠性上。 由於 AI 如何評估和選擇人,會決定信任的程度,因此人類作為工作者申請專案時,會要求提供外部可驗證的標準,證明相關演算法是否透明且公平,數據是否準確且沒有偏見。
此外,在傳統的招聘市場中,信任是在人與人之間的直接關係中形成的,因此評價或推薦信會影響招聘決策。 在基於 AI 的招聘平台中,只有內部信譽體系才能成為信任的來源。 這預示著使用者對其他使用者通過合作等方式建立的關係所留下的反饋或評論,將比以往發揮更決定性的作用。 這意味著,在就業環境中也可能出現像「外送平台」中因「惡意評價」而導致實際上的自營商遭受嚴重損失的情況。
為了更好地理解,可以思考一下「職位名稱」。
在就業環境中,「職位名稱」不僅僅是表示職務,也是申請者展示自己的價值和能力的重要象徵。 特別是在基於 AI 的招聘模型中,「職位名稱」可以被用作判斷申請者角色的關鍵指標。 正如我們已經熟悉了大型企業招聘流程中,書類審查通過與否的判斷依賴於以關鍵字為中心的技術標準一樣。
據說,在 90 年代中期,一些以人為中心的研發人員對名片上寫著的Understander感到困惑。 考慮到目前 AI 研究人員、UX 設計師等各行業對角色的明確劃分,可以確認,在判斷申請者自己在哪些領域擔任過哪些角色方面,需要基於對自我認知和市場需求的共識理解來定義「職位名稱」。
這意味著,當基於 AI 的招聘環境到來時,人類作為申請者定義的「職位名稱」,將與 AI 判斷和評估的市場和行業的理解程度相匹配,以及如何將相關的各種判斷標準普及化的問題。 也許現在是我們需要更認真地思考在變革中的招聘市場中「信任」的意義的時候了。
參考