首頁|必讀|視頻|專訪|運(yùn)營(yíng)|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|智能汽車|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片|報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁 >> 頭條資訊 >> 正文

AI年末“狂歡”!OpenAI、谷歌、Meta、李飛飛發(fā)布重磅產(chǎn)品

2024年12月9日 08:21  CCTIME飛象網(wǎng)  

OpenAI為期12天的年終“技術(shù)盛宴”已結(jié)束第二天的直播。從當(dāng)?shù)貢r(shí)間12月5日發(fā)布的“滿血版”o1模型和最貴ChatGPT Pro服務(wù),到6日發(fā)布的強(qiáng)化微調(diào)(Reinforcement Fine-Tuning),無不證明AI世界又將迎來一次全新的產(chǎn)品升級(jí)和迭代。

在AI的狂歡中,其他科技公司也不甘示弱。有著“AI教母”之稱的李飛飛創(chuàng)立的World Labs以及谷歌DeepMind團(tuán)隊(duì)本周先后發(fā)布重磅產(chǎn)品,讓用戶可以通過單張圖片生成交互式3D場(chǎng)景,展示了AI在虛擬世界構(gòu)建領(lǐng)域的巨大潛力。

Meta和馬斯克的xAI也來湊了個(gè)熱鬧。Meta推出了今年的壓軸AI大模型:Llama 3.3 70B,該模型據(jù)稱能實(shí)現(xiàn)和Meta最大Llama 模型——Llama 3.1 405B同樣的性能,成本還更低。xAI宣布Grok從今天起全球免費(fèi),但有使用限制。免費(fèi)用戶每2小時(shí)可以詢問最多10個(gè)問題,每天最多可分析3張圖片和生成4張圖片。

隨著各路玩家在AI領(lǐng)域競(jìng)賽的深入,AI的競(jìng)爭(zhēng)焦點(diǎn)也轉(zhuǎn)向了智能體和通用人工智能(AGI)。

據(jù)外媒6日的最新報(bào)道,OpenAI正在與微軟磋商放棄AGI條款,以釋放投資潛力。目前,最終決定尚未做出,OpenAI董事會(huì)將決定何時(shí)實(shí)現(xiàn)AGI。

清華大學(xué)電子工程系長(zhǎng)聘教授、清華大學(xué)精準(zhǔn)醫(yī)學(xué)研究院臨床大數(shù)據(jù)中心共同主任吳及告訴《每日經(jīng)濟(jì)新聞》記者,“基于多個(gè)大模型的AI智能體或多個(gè)智能體的協(xié)同,可能是未來AI技術(shù)發(fā)揮更大作用的一個(gè)重要趨勢(shì)。”

當(dāng)?shù)貢r(shí)間12月5日,OpenAI為期12天的圣誕季特別活動(dòng)開啟。

在第一天的活動(dòng)上,OpenAI發(fā)布了推理大模型o1的“滿血版”和進(jìn)階模式,以及每月收費(fèi)高達(dá)200美元(約合人民幣1450元)的ChatGPT Pro訂閱服務(wù)。

“滿血版”o1的特征是,在回答用戶提問時(shí)不是“脫口而出”,而是形成一個(gè)類似人類思維方式的內(nèi)部思維鏈條。該模型已面向ChatGPT Plus和團(tuán)隊(duì)用戶開放,企業(yè)和教育用戶則需要等到下周。

“滿血版”o1比9月發(fā)布的預(yù)覽版更快、更強(qiáng)大、更準(zhǔn)確,同時(shí)增加了多模態(tài)輸入(可以上傳圖片)的能力。OpenAI表示,現(xiàn)在的o1模型“思維已經(jīng)被訓(xùn)練得更加簡(jiǎn)潔”(大概快50%),而且在回答困難現(xiàn)實(shí)問題時(shí),出現(xiàn)重大錯(cuò)誤的概率減少了34%。

圖片來源:X

同時(shí)發(fā)布的ChatGPT Pro服務(wù)也引發(fā)了外界的廣泛關(guān)注,每月200美元的訂閱費(fèi)是目前ChatGPT Plus定價(jià)的10倍。不過,用戶可以無限量地使用o1模型(Plus用戶當(dāng)前有每周50條信息的限制),以及無限量使用o1 mini和高級(jí)語音模式,同時(shí)也能用上o1 pro模式,該模式“使用更多的計(jì)算來為最難的問題提供最佳答案”。

次日,OpenAI打出活動(dòng)“第二彈”,推出了強(qiáng)化微調(diào)(Reinforcement Fine-Tuning)。阿爾特(13.380, -0.51, -3.67%)曼表示:“強(qiáng)化微調(diào),效果出奇地好;它是我2024年最大的驚喜之一!

圖片來源:X平臺(tái)

強(qiáng)化微調(diào)與標(biāo)準(zhǔn)微調(diào)不同,利用強(qiáng)化學(xué)習(xí)算法,研究者可以強(qiáng)化產(chǎn)生正確答案的思路,抑制產(chǎn)生錯(cuò)誤答案的思路,只需要“幾十個(gè)例子”(a few dozen examples)、甚至12個(gè)例子,模型就能以有效的新方式學(xué)習(xí)特定領(lǐng)域的推理,提升模型在特定領(lǐng)域任務(wù)中的推理能力和準(zhǔn)確性。

據(jù)介紹,它甚至可以讓簡(jiǎn)易版推理模型o1 mini的效果超過前一天剛發(fā)布的“滿血版”o1。OpenAI預(yù)計(jì)將于2025年初公開發(fā)布強(qiáng)化微調(diào)功能。

除了OpenAI的首批年末“王炸”外,本周還有諸多AI相關(guān)的重磅產(chǎn)品出爐。

作為AI領(lǐng)域影響力最大的女性和華人之一,斯坦福大學(xué)教授李飛飛于當(dāng)?shù)貢r(shí)間12月2日公布了其首個(gè)創(chuàng)業(yè)項(xiàng)目World Labs的成果——能用單張靜態(tài)圖片生成3D世界的AI產(chǎn)品。

在World Labs網(wǎng)站的演示里,由AI生成的場(chǎng)景均通過瀏覽器實(shí)時(shí)渲染而成,用戶可以使用箭頭鍵或鍵盤(WASD)鍵移動(dòng),然后單擊并拖動(dòng)鼠標(biāo)實(shí)現(xiàn)交互,從而自由探索場(chǎng)景。World Labs的AI工具配備了可操控的滑塊來調(diào)節(jié)模擬景深(DoF)與模擬推拉變焦(dolly zoom),當(dāng)使用者將景深效果調(diào)至越強(qiáng)時(shí),背景中的物體便會(huì)越發(fā)模糊,為整個(gè)視覺體驗(yàn)增添了更多層次感與真實(shí)感。

圖片來源:World Labs推特截圖

但World Labs目前只向公眾發(fā)布了關(guān)于該技術(shù)的博客,外界能夠體驗(yàn)的功能極為有限,而且并未放出任何代碼和模型。

在單圖生成3D世界領(lǐng)域探索的還有谷歌。北京時(shí)間12月5日凌晨,谷歌DeepMind在官網(wǎng)發(fā)布了大型基礎(chǔ)世界模型Genie 2,可通過單張圖片和文字描述生成種類多樣的游戲3D世界,標(biāo)志著AI在虛擬世界生成領(lǐng)域的又一次突破。

圖片來源:谷歌Deepmind官網(wǎng)截圖

簡(jiǎn)單來說,給Genie 2一張圖片,它可以生成供人類游玩、可實(shí)時(shí)渲染、可控和可交互的無限3D世界,不需要借助任何游戲引擎。例如,輸入“森林中的可愛人形機(jī)器人(22.460, 0.03, 0.13%)”,模型便可構(gòu)建一個(gè)包含機(jī)器人角色和可探索環(huán)境的動(dòng)態(tài)場(chǎng)景。用戶可以通過鍵盤或鼠標(biāo)操作角色在世界中進(jìn)行跳躍、游泳等互動(dòng)。

和Genie 1相比,Genie 2擁有長(zhǎng)期記憶,即使是角色短暫離開畫面,在重新進(jìn)入視野后,依舊能被精準(zhǔn)還原出來。

清華大學(xué)電子工程系長(zhǎng)聘教授、清華大學(xué)精準(zhǔn)醫(yī)學(xué)研究院臨床大數(shù)據(jù)中心共同主任吳及在接受《每日經(jīng)濟(jì)新聞》記者采訪時(shí)表示,“從學(xué)術(shù)研究的角度來看,能否將文本意義上的世界模型與物理意義上的世界模型關(guān)聯(lián)起來,把真正的物理世界進(jìn)行建模,是AI技術(shù)能否取得突破的關(guān)鍵!

World Labs和谷歌之后,Meta也來湊了個(gè)熱鬧,于當(dāng)?shù)貢r(shí)間12月6日推出了今年的壓軸AI大模型:Llama 3.3 70B。Meta 生成式AI副總裁 Ahmad Al-Dahle在X發(fā)帖表示,純文本的 Llama 3.3能實(shí)現(xiàn)和Meta最大Llama模型——Llama 3.1 405B同樣的性能,成本還更低。

Al-Dahle還附上了一張圖表,顯示包括針對(duì)大模型語言理解能力的測(cè)試MMLU在內(nèi),Llama 3.3在一系列行業(yè)基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)于谷歌的Gemini 1.5 Pro、OpenAI 的 GPT-4o和亞馬遜本周稍早發(fā)布的Nova Pro。

圖片來源:X

隨著大模型競(jìng)賽的深入,AI的風(fēng)又更多地吹向了智能體和通用人工智能(AGI)。

吳及告訴每經(jīng)記者,目前,盡管單個(gè)大模型在某些方面表現(xiàn)出色,但也存在諸多不足,例如幻覺和遺忘效應(yīng)等問題。他強(qiáng)調(diào),“基于多個(gè)大模型的AI智能體或多個(gè)智能體的協(xié)同,可能是未來AI技術(shù)發(fā)揮更大作用的一個(gè)重要趨勢(shì)!

吳及認(rèn)為,智能體融合將成為AI應(yīng)用解決特定場(chǎng)景問題的一個(gè)重要技術(shù)前景或發(fā)展方向。

在《紐約時(shí)報(bào)》于當(dāng)?shù)貢r(shí)間12月4日舉辦的DealBook峰會(huì)上,阿爾特曼表示,“智能體是現(xiàn)在每個(gè)人都在談?wù)摰脑掝},我認(rèn)為這背后是有充分理由的。設(shè)想一下,你可以讓AI系統(tǒng)完成一項(xiàng)相當(dāng)復(fù)雜的任務(wù),比如需要一位非常聰明的人,花費(fèi)一段時(shí)間,借助各種工具來完成并產(chǎn)出有價(jià)值成果的任務(wù)。我預(yù)計(jì),這樣的場(chǎng)景將在明年成為現(xiàn)實(shí)!

他同時(shí)指出,AI行業(yè)即將迎來的發(fā)展將比預(yù)期更具沖擊力。他將AI的影響力比作晶體管的發(fā)明,認(rèn)為AI的推理功能未來將走向普及化和商業(yè)化!暗2025年,我們可能會(huì)首次見到具備AGI能力的系統(tǒng)。這類系統(tǒng)可以像人類一樣完成復(fù)雜任務(wù),甚至能運(yùn)用多種工具來解決問題,”他說。

據(jù)外媒12月6日最新報(bào)道,OpenAI正在與微軟磋商放棄AGI條款,以釋放投資潛力。根據(jù)目前的條款,當(dāng)OpenAI創(chuàng)建AGI時(shí),微軟對(duì)這種技術(shù)的使用權(quán)將失效。目前,最終決定尚未做出,OpenAI董事會(huì)將決定何時(shí)實(shí)現(xiàn)AGI。

編 輯:路金娣
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對(duì)于經(jīng)過授權(quán)可以轉(zhuǎn)載,請(qǐng)必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請(qǐng)?jiān)谙嚓P(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時(shí)間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中國(guó)移動(dòng)王曉云:6G已經(jīng)進(jìn)入面向產(chǎn)業(yè)技術(shù)創(chuàng)新的全新階段
精彩專題
2024中國(guó)算力大會(huì)
2024年國(guó)際信息通信展
中國(guó)信科亮相2024年國(guó)際信息通信展
第25屆中國(guó)國(guó)際光電博覽會(huì)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像