2023 年是人工智能的一年,從聊天機器人 ChatGPT,到 AI 創(chuàng)作的歌曲參加格萊美獎,再到好萊塢的演員和編劇抗議大制片公司過度使用自動化技術,人工智能已無處不在。
IT之家注意到,近日美國南佛羅里達大學的一項研究表明,AI 生成的文字內(nèi)容可能已經(jīng)無法與人類寫的區(qū)分開來。研究作者邀請了一些語言學專家參與了這個項目,他們都是世界頂級語言學期刊的專家,但即使是這樣的專業(yè)人士,也發(fā)現(xiàn)很難識別出 AI 寫的內(nèi)容。總的來說,他們只能正確區(qū)分出 39% 的情況。
南佛羅里達大學世界語言系的學者馬修 凱斯勒與孟菲斯大學應用語言學助理教授 J.埃利奧特 卡薩爾合作,讓 72 名語言學專家審閱一系列研究摘要,并判斷哪些是由人類寫的,哪些是由 AI 生成的。具體來說,每位參與的專家必須檢查四個寫作樣本。結果沒有一個專家能夠正確識別所有四個樣本,有 13% 的專家全部答錯了。
基于這些結果,研究作者不得不得出結論:大多數(shù)現(xiàn)代教授都無法區(qū)分學生自己寫的內(nèi)容和 AI 生成的內(nèi)容。研究者推測,在不久的將來可能需要開發(fā)軟件來幫助教授識別 AI 寫的內(nèi)容。
語言學專家們試圖使用一些理由來判斷寫作樣本,例如識別某些語言和風格特征。然而,最終這些方法基本上都失敗了 —— 導致整體正確識別率只有 38.9%。
總之,凱斯勒和卡薩爾都得出結論:像 ChatGPT 這樣的聊天機器人確實可以像大多數(shù)人類一樣(甚至在某些情況下更好地)寫出短篇文章。AI 通常不會犯語法錯誤。然而,研究作者指出,在長篇寫作方面,人類仍然占據(jù)優(yōu)勢。
“對于長文本,AI 已經(jīng)被證明會產(chǎn)生幻覺和虛構內(nèi)容,使得更容易識別出它是由 AI 生成的!眲P斯勒總結說。
凱斯勒希望這項工作能夠促進人們的討論,關注在研究和教育領域使用 AI 時建立明確的道德和指導原則的迫切需要。該研究發(fā)表在《應用語言學研究方法》雜志上。