當?shù)貢r間7月26日,亞馬遜云科技數(shù)據(jù)庫、數(shù)據(jù)分析和機器學習全球副總裁斯瓦米·西瓦蘇布拉馬尼安在紐約峰會上講話。
在亞馬遜云科技(AWS)年度峰會之一的紐約峰會上,多項發(fā)布都緊緊圍繞生成式人工智能。“這項技術已經達到了臨界點。” 亞馬遜云科技數(shù)據(jù)庫、數(shù)據(jù)分析和機器學習全球副總裁斯瓦米·西瓦蘇布拉馬尼安(Swami Sivasubramanian)說。
美東時間7月26日,在紐約峰會上,AWS推出生成式AI服務Amazon Bedrock的Agents(代理)功能,助力基礎模型完成復雜任務!斑@將使公司能夠構建可以自動執(zhí)行特定任務的AI應用程序,例如預訂餐廳,而不僅僅是得到去哪里吃飯的建議。”西瓦蘇布拉馬尼安表示。
除此之外,AWS還推出了新的人工智能工具,包括編程助手Amazon CodeWhisperer正式可用、用于在患者就診后生成臨床記錄的智慧醫(yī)療新服務Amazon HealthScribe以及分析服務Amazon Entity Resolution等。同時其宣布,加速生成式AI和高性能計算應用Amazon EC2 P5實例正式可用。
亞馬遜云科技生成式AI全球副總裁瓦西·菲羅明(Vasi Philomin)對澎湃科技記者(www.thepaper.cn)分享道,在所有的發(fā)布中,他最關注和引以為傲的就是代理(Agents)功能!昂芏嗳硕既绱司劢褂谶@些模型和模型的大小,但我認為真正重要的是如何利用它們構建應用,這也是今天發(fā)布代理(Agents)功能的一個重要原因!
人工智能代理競賽
像OpenAI的GPT-4或Meta的Llama 2等生成式AI模型功能強大,但在沒有額外幫助(例如插件)的情況下,實際上其無法為用戶自動執(zhí)行某些任務。
Amazon Bedrock提供了一種通過初創(chuàng)公司以及亞馬遜云科技本身的預訓練模型來構建生成式AI應用程序的方法,而無需投資服務器。Amazon Bedrock的代理(Agents)功能讓公司可以使用自己的數(shù)據(jù)來教授基礎模型,然后構建其他應用程序來完成任務。開發(fā)人員可以選擇使用哪個基礎模型,提供一些說明,并選擇模型讀取哪些數(shù)據(jù)。
這類似于OpenAI最近為GPT-4和ChatGPT推出的插件系統(tǒng),該系統(tǒng)通過讓模型利用第三方API和數(shù)據(jù)庫來擴展模型的功能。事實上,最近出現(xiàn)了一種“個性化”生成模型的趨勢,Contextual AI等初創(chuàng)公司構建了工具來利用企業(yè)數(shù)據(jù)增強模型。
舉個例子,如旅游公司可以使用生成式人工智能來提供旅行建議,然后構建另一個代理(Agents)來接收用戶的旅行歷史和興趣,再利用一個代理來查找航班時刻表,最后構建一個代理來預訂所選航班。
對代理(Agents)有熱情的不止AWS。4月,Meta首席執(zhí)行官馬克·扎克伯格 (Mark Zuckerberg) 也告訴投資者,他們有機會將人工智能代理(Agents)“以有用且有意義的方式帶給數(shù)十億人”。7月,OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)在接受《大西洋月刊》采訪時深入探討了人工智能代理以及如何最好地實現(xiàn)。
路透社在7月報道稱,“自主”人工智能代理(Agents)的競賽席卷了硅谷。其以一家初創(chuàng)公司為例,Inflection AI在6月底籌集了13億美元資金。據(jù)其創(chuàng)始人在播客中透露,該公司正在開發(fā)一款私人助理,據(jù)稱可以充當導師或處理諸如在旅行延誤后獲得航班積分和酒店等任務。
7月26日,西瓦蘇布拉馬尼安在接受媒體采訪時表示,索尼 ( SONY )、瑞安航空 (Ryanair)、永明(Sun Life)等客戶都已經試用了Amazon Bedrock。西瓦蘇布拉馬尼安表示,Amazon Bedrock將“很快”向所有客戶開放。他拒絕透露具體時間,并補充說公司的目標是首先解決成本分配和企業(yè)控制方面的問題。
Amazon Bedrock服務于四月份推出,當時Amazon Bedrock提供Amazon Titan(AWS自己的基礎模型)以及由stable.ai、AI21Labs 和Anthropic創(chuàng)建的模型。
此次在紐約峰會上,AWS宣布新增Cohere作為基礎模型供應商,加入Anthropic和Stability AI的最新基礎模型聊天機器人。Cohere的命令文本生成模型經過訓練可以遵循用戶提示并返回摘要、副本和對話,該工具還可以提取信息并回答問題。
AWS平臺可調用英偉達H100芯片
在紐約峰會上,AWS也推出由英偉達H100芯片提供支持的Amazon EC2 P5實例。某種程度上,這是AWS與英偉達十多年合作的一個重要里程碑。
H100 GPU的顯著特點之一是對Transformer的優(yōu)化,這是大型語言模型所采用的一項關鍵技術。Amazon EC2 P5實例提供8個英偉達H100 GPU,具有640 GB高帶寬GPU內存,同時提供第三代AMD EPYC處理器、2TB系統(tǒng)內存和30 TB本地NVMe存儲,用于加速生成式AI和高性能計算應用。
Amazon EC2 P5與上一代基于GPU的實例相比,訓練時間最多可縮短6倍(從幾天縮短到幾小時)。據(jù)AWS介紹,與上一代相比,這一性能提升將降低40%的訓練成本。
實際上,從2013年推出首顆Amazon Nitro芯片至今,AWS是最先涉足自研芯片的云廠商,已擁有網絡芯片、服務器芯片、人工智能機器學習自研芯片3條產品線。2023年初,專為人工智能打造的Amazon Inferentia 2(可通過芯片之間的直接超高速連接支持分布式推理)發(fā)布,最多可支持1750億個參數(shù),這使其成為大規(guī)模模型推理的有力競爭者。
對于是否擔心提供英偉達H100芯片會降低AWS自研芯片的吸引力,菲羅明對澎湃科技回應道,“我們對競爭持歡迎態(tài)度。硬件每隔幾年都會變得更好,這是一種常態(tài)。目前一個重要問題是生成式AI的成本相當高,這就是為什么沒有人真正將其投入到生產工作負載中,每個人都還在試驗階段。一旦將其真正投入生產工作負載中,他們會意識到90%的成本都是由其產生。最好的情況是,每次調用都不會虧錢,而是真正賺錢。為了實現(xiàn)這一點,我認為我們需要競爭!