首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 頭條資訊 >> 正文

研究發(fā)現(xiàn),OpenAI的GPT-4o道德推理能力勝過人類專家

2024年6月25日 08:17  IT之家  作 者:清源

近期的一項研究表明,OpenAI 最新的聊天機器人 GPT-4o 能夠提供道德方面的解釋和建議,且質(zhì)量優(yōu)于“公認的”道德專家所提供的建議。

據(jù) The Decoder 當?shù)貢r間周六報道,美國北卡羅萊納大學教堂山分校和艾倫 AI 研究所的研究人員進行了兩項研究,將 GPT 模型與人類的道德推理能力進行比較,以探討大語言模型是否可被視為“道德專家”。

匯總研究內(nèi)容如下:

研究一

501 名美國成年人對比了 GPT-3.5-turbo 模型和其他人類參與者的道德解釋。結(jié)果表明,人們認為 GPT 的解釋比人類參與者的解釋更符合道德、更值得信賴、更周到。

評估者也認為人工智能的評估比其他人更可靠。雖然差異很小,但關(guān)鍵發(fā)現(xiàn)是 AI 可以匹配甚至超越人類水平的道德推理。

研究二

將 OpenAI 最新的 GPT-4o 模型生成的建議與《紐約時報》“倫理學家”專欄中著名倫理學家 Kwame Anthony Appiah 的建議進行了比較。900 名參與者對 50 個“倫理困境”的建議質(zhì)量進行了評分。

結(jié)果表明,GPT-4o 在“幾乎每個方面”都勝過人類專家。人們認為 AI 生成的建議在道德上更正確、更值得信賴、更周到、更準確。只有在感知細微差別方面,人工智能和人類專家之間沒有顯著差異。

研究人員認為,這些結(jié)果表明 AI 可以通過“比較道德圖靈測試”(cMTT)。而文本分析顯示,GPT-4o 在提供建議時使用的道德和積極語言比人類專家更多。這可以部分解釋為什么 AI 的建議評分更高 —— 但不是唯一因素。

需要注意的是,這項研究僅僅針對美國參與者進行,后續(xù)仍需進一步研究人們?nèi)绾慰创?AI 生成的道德推理的文化差異。

論文地址:https://osf.io/preprints/psyarxiv/w7236 

編 輯:路金娣
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構(gòu)成任何投資及應(yīng)用建議。如網(wǎng)站內(nèi)容涉及作品版權(quán)和其它問題,請在30日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時間刪除內(nèi)容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
鄔賀銓:大模型下沉到手機 將激活萬億元規(guī)模手機產(chǎn)業(yè)
精彩專題
CES 2024國際消費電子展
2023年信息通信產(chǎn)業(yè)盤點暨頒獎禮
飛象網(wǎng)2023年手機評選
第24屆中國國際光電博覽會
CCTIME推薦
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像