5月14日上午消息,趕在Google I/O開發(fā)者大會公布 AI 產(chǎn)品前夕,OpenAI又來搶風(fēng)頭了。
北京時(shí)間5月14日凌晨,OpenAI在一則簡短的視頻介紹中發(fā)布了可實(shí)時(shí)進(jìn)行音頻、視覺和文本推理的新一代AI模型GPT-4o,并將推出PC桌面版ChatGPT。
據(jù)介紹,GPT-4o里的“o”是Omni的縮寫,也就是“全能”的意思。在API使用方面,相比去年11月發(fā)布的GPT-4-turbo,GPT-4o價(jià)格下降50%,速度提升200%,未來幾周內(nèi)GPT-4o語音和視頻輸入功能也將隨之推出。
此外,OpenAI還宣布,GPT4-o與ChatGPT Plus會員版所有的能力,包括視覺、聯(lián)網(wǎng)、記憶、執(zhí)行代碼、GPT Store等,將對所有用戶免費(fèi)開放!
發(fā)布會上,OpenAI聯(lián)合創(chuàng)始人兼總裁格雷格·布羅克曼(Greg Brockman)還將舊版本只具備對話功能的ChatGPT,與基于GPT-4o發(fā)布的具備視覺能力的新版ChatGPT進(jìn)行了5分鐘的對話。
對話中,新版本ChatGPT不僅能通過視覺AI能力理解攝像頭中發(fā)生的事情,同時(shí)還能夠?qū)⒗斫獾膬?nèi)容通過語音與舊版本ChatGPT交互,進(jìn)行更加豐富有趣的互動。同時(shí)還支持中途打斷和對話插入,且具備上下文記憶能力。
對于此次發(fā)布,OpenAI CEO薩姆·奧爾特曼(Sam Altman)發(fā)實(shí)時(shí)推文表示,“新的GPT-4o模型是OpenAI有史以來最好的模型,它很智能,速度很快,是原生多模態(tài),并且可供所有ChatGPT用戶使用,無論是免費(fèi)版本還是付費(fèi)GPT-4版。”
“這對我們的使命很重要,我們希望將出色的AI工具交到每個(gè)人手中!彼_姆·奧爾特曼表示。
對于此次發(fā)布會,此前外媒傳言O(shè)penAI會發(fā)布會新的智能搜索能力,但隨后出現(xiàn)反轉(zhuǎn)——稱“散布發(fā)布搜索產(chǎn)品系抓捕公司內(nèi)部泄密者”。此次發(fā)布會,OpenAI沒有帶來新的AI搜索產(chǎn)品,而是在虛晃一槍后發(fā)布了升級后的GPT-4o。但除了新模型的性能提升外,OpenAI此次發(fā)布,在有了更多產(chǎn)品性能改進(jìn)之時(shí),也出現(xiàn)了一些問題。
OpeanAI發(fā)布會后,便有業(yè)內(nèi)專家表示,“GPT-4o的多模態(tài)能力只是看起來很好,實(shí)際上OpenAI并未展示對于視覺多模態(tài)來說真正算是突破的功能。”此外,在實(shí)時(shí)音頻交互方面,目前國內(nèi)諸如豆包、文心一言等產(chǎn)品也已具備類似通話功能。