2024-11-24 01:33:38 1
鞭牛士報道,11月23日訊息,據外電報道,OpenAI 正在資助能夠預測人類道德判斷的演算法的學術研究。
在提交給美國國稅局的檔案中,OpenAI 的非盈利組織 OpenAI Inc. 披露,它向杜克大學的研究人員提供了一項名為研究人工智慧道德的專案資助。
在接受採訪時,OpenAI 的一位發言人指出,一份新聞稿表明,該獎項是向杜克大學教授提供的一項為期三年、金額高達 100 萬美元的資助的一部分,這些教授正在研究製造道德人工智慧。
關於 OpenAI 資助的這項道德研究,除了資助將於 2025 年結束之外,很少有公開的訊息。
該研究的首席研究員、杜克大學實用倫理學教授 Walter Sinnott-Armstrong 透過電子郵件告訴 TechCrunch,他無法談論這項工作。
Sinnott-Armstrong 和該專案的聯合研究員 Jana Borg 已經完成了幾項研究,並出版了一本書,探討了人工智慧作為道德 GPS幫助人類做出更好判斷的潛力。作為大型團隊的一員,他們建立了一種道德一致的演算法來幫助決定誰接受腎臟捐贈,並研究了在哪些情況下人們更希望人工智慧做出道德決定。
根據新聞稿,OpenAI 資助的研究工作的目標是訓練演算法,以在涉及醫學、法律和商業中的道德相關特徵衝突的場景中預測人類的道德判斷。
但目前還不清楚,像道德這樣微妙的概念是否在當今技術所能及的範圍內。
2021 年,非營利性機構艾倫人工智慧研究所 (Allen Institute for AI) 開發了一款名為 Ask Delphi 的工具,旨在提供符合道德的建議。它能夠很好地判斷基本的道德困境——例如,該機器人知道考試作弊是錯誤的。但稍微改寫和重新措辭問題就足以讓 Delphi 批准幾乎任何事情,包括窒息嬰兒。
原因與現代人工智慧系統的工作方式有關。
機器學習模型是統計機器。透過對來自網路的大量示例進行訓練,它們會學習這些示例中的模式以進行預測,例如短語致誰通常位於可能相關之前。
人工智慧不理解道德概念,也不理解道德決策中涉及的推理和情感。這就是為什麼人工智慧傾向於附和西方受過教育和工業化國家的價值觀——網路以及人工智慧的訓練資料中充斥著支援這些觀點的文章。
毫不奇怪,許多人的價值觀並沒有在人工智慧給出的答案中得到體現,特別是如果這些人沒有透過線上釋出來為人工智慧的訓練集做出貢獻。人工智慧會吸收西方人以外的一系列偏見。德爾菲說,異性戀比同性戀更“在道德上可接受”。
OpenAI 及其支援的研究人員面臨的挑戰因道德固有的主觀性而變得更加棘手。數千年來,哲學家們一直在爭論各種倫理理論的優點,但目前還沒有一個普遍適用的框架。
克勞德支援康德主義(即專注於絕對的道德規則),而 ChatGPT 則略微偏向功利主義(優先考慮大多數人的最大利益)。兩者孰優孰劣?這取決於你問的是誰。
預測人類道德判斷的演算法必須將所有這些因素考慮在內。這是一個非常高的標準——假設這種演算法是可能的。
2024-11-25 0 人在看
2024-11-25 0 人在看
2024-11-24 2 人在看
2024-11-24 1 人在看
2024-11-24 1 人在看
2024-11-23 1 人在看
2024-11-20 3 人在看
2024-11-16 2 人在看