2023 年是人工智能的一年,從聊天機(jī)器人 ChatGPT,到 AI 創(chuàng)作的歌曲參加格萊美獎(jiǎng),再到好萊塢的演員和編劇抗議大制片公司過度使用自動(dòng)化技術(shù),人工智能已無處不在。
IT之家注意到,近日美國南佛羅里達(dá)大學(xué)的一項(xiàng)研究表明,AI 生成的文字內(nèi)容可能已經(jīng)無法與人類寫的區(qū)分開來。研究作者邀請(qǐng)了一些語言學(xué)專家參與了這個(gè)項(xiàng)目,他們都是世界頂級(jí)語言學(xué)期刊的專家,但即使是這樣的專業(yè)人士,也發(fā)現(xiàn)很難識(shí)別出 AI 寫的內(nèi)容。總的來說,他們只能正確區(qū)分出 39% 的情況。
南佛羅里達(dá)大學(xué)世界語言系的學(xué)者馬修 凱斯勒與孟菲斯大學(xué)應(yīng)用語言學(xué)助理教授 J.埃利奧特 卡薩爾合作,讓 72 名語言學(xué)專家審閱一系列研究摘要,并判斷哪些是由人類寫的,哪些是由 AI 生成的。具體來說,每位參與的專家必須檢查四個(gè)寫作樣本。結(jié)果沒有一個(gè)專家能夠正確識(shí)別所有四個(gè)樣本,有 13% 的專家全部答錯(cuò)了。
基于這些結(jié)果,研究作者不得不得出結(jié)論:大多數(shù)現(xiàn)代教授都無法區(qū)分學(xué)生自己寫的內(nèi)容和 AI 生成的內(nèi)容。研究者推測(cè),在不久的將來可能需要開發(fā)軟件來幫助教授識(shí)別 AI 寫的內(nèi)容。
語言學(xué)專家們?cè)噲D使用一些理由來判斷寫作樣本,例如識(shí)別某些語言和風(fēng)格特征。然而,最終這些方法基本上都失敗了 —— 導(dǎo)致整體正確識(shí)別率只有 38.9%。
總之,凱斯勒和卡薩爾都得出結(jié)論:像 ChatGPT 這樣的聊天機(jī)器人確實(shí)可以像大多數(shù)人類一樣(甚至在某些情況下更好地)寫出短篇文章。AI 通常不會(huì)犯語法錯(cuò)誤。然而,研究作者指出,在長(zhǎng)篇寫作方面,人類仍然占據(jù)優(yōu)勢(shì)。
“對(duì)于長(zhǎng)文本,AI 已經(jīng)被證明會(huì)產(chǎn)生幻覺和虛構(gòu)內(nèi)容,使得更容易識(shí)別出它是由 AI 生成的!眲P斯勒總結(jié)說。
凱斯勒希望這項(xiàng)工作能夠促進(jìn)人們的討論,關(guān)注在研究和教育領(lǐng)域使用 AI 時(shí)建立明確的道德和指導(dǎo)原則的迫切需要。該研究發(fā)表在《應(yīng)用語言學(xué)研究方法》雜志上。