天天看點

亞馬遜雲推出AI代理功能,讓AI成為助理而不僅是聊天

作者:澎湃新聞

·Amazon Bedrock的Agents(代理)功能将使公司能夠建構可以自動執行特定任務的AI應用程式,例如預訂餐廳,而不僅僅是得到去哪裡吃飯的建議。

亞馬遜雲推出AI代理功能,讓AI成為助理而不僅是聊天

當地時間7月26日,亞馬遜雲科技資料庫、資料分析和機器學習全球副總裁斯瓦米·西瓦蘇布拉馬尼安在紐約峰會上講話。

在亞馬遜雲科技(AWS)年度峰會之一的紐約峰會上,多項釋出都緊緊圍繞生成式人工智能。“這項技術已經達到了臨界點。” 亞馬遜雲科技資料庫、資料分析和機器學習全球副總裁斯瓦米·西瓦蘇布拉馬尼安(Swami Sivasubramanian)說。

美東時間7月26日,在紐約峰會上,AWS推出生成式AI服務Amazon Bedrock的Agents(代理)功能,助力基礎模型完成複雜任務。“這将使公司能夠建構可以自動執行特定任務的AI應用程式,例如預訂餐廳,而不僅僅是得到去哪裡吃飯的建議。”西瓦蘇布拉馬尼安表示。

除此之外,AWS還推出了新的人工智能工具,包括程式設計助手Amazon CodeWhisperer正式可用、用于在患者就診後生成臨床記錄的智慧醫療新服務Amazon HealthScribe以及分析服務Amazon Entity Resolution等。同時其宣布,加速生成式AI和高性能計算應用Amazon EC2 P5執行個體正式可用。

亞馬遜雲科技生成式AI全球副總裁瓦西·菲羅明(Vasi Philomin)對澎湃科技記者(www.thepaper.cn)分享道,在所有的釋出中,他最關注和引以為傲的就是代理(Agents)功能。“很多人都如此聚焦于這些模型和模型的大小,但我認為真正重要的是如何利用它們建構應用,這也是今天釋出代理(Agents)功能的一個重要原因。”

人工智能代理競賽

像OpenAI的GPT-4或Meta的Llama 2等生成式AI模型功能強大,但在沒有額外幫助(例如插件)的情況下,實際上其無法為使用者自動執行某些任務。

Amazon Bedrock提供了一種通過初創公司以及亞馬遜雲科技本身的預訓練模型來建構生成式AI應用程式的方法,而無需投資伺服器。Amazon Bedrock的代理(Agents)功能讓公司可以使用自己的資料來教授基礎模型,然後建構其他應用程式來完成任務。開發人員可以選擇使用哪個基礎模型,提供一些說明,并選擇模型讀取哪些資料。

這類似于OpenAI最近為GPT-4和ChatGPT推出的插件系統,該系統通過讓模型利用第三方API和資料庫來擴充模型的功能。事實上,最近出現了一種“個性化”生成模型的趨勢,Contextual AI等初創公司建構了工具來利用企業資料增強模型。

舉個例子,如旅遊公司可以使用生成式人工智能來提供旅行建議,然後建構另一個代理(Agents)來接收使用者的旅行曆史和興趣,再利用一個代理來查找航班時刻表,最後建構一個代理來預訂所選航班。

對代理(Agents)有熱情的不止AWS。4月,Meta首席執行官馬克·紮克伯格 (Mark Zuckerberg) 也告訴投資者,他們有機會将人工智能代理(Agents)“以有用且有意義的方式帶給數十億人”。7月,OpenAI首席執行官山姆·奧特曼(Sam Altman)在接受《大西洋月刊》采訪時深入探讨了人工智能代理以及如何最好地實作。

路透社在7月報道稱,“自主”人工智能代理(Agents)的競賽席卷了矽谷。其以一家初創公司為例,Inflection AI在6月底籌集了13億美元資金。據其創始人在播客中透露,該公司正在開發一款私人助理,據稱可以充當導師或處理諸如在旅行延誤後獲得航班積分和酒店等任務。

7月26日,西瓦蘇布拉馬尼安在接受媒體采訪時表示,索尼 ( SONY )、瑞安航空 (Ryanair)、永明(Sun Life)等客戶都已經試用了Amazon Bedrock。西瓦蘇布拉馬尼安表示,Amazon Bedrock将“很快”向所有客戶開放。他拒絕透露具體時間,并補充說公司的目标是首先解決成本配置設定和企業控制方面的問題。

Amazon Bedrock服務于四月份推出,當時Amazon Bedrock提供Amazon Titan(AWS自己的基礎模型)以及由stable.ai、AI21Labs 和Anthropic建立的模型。

此次在紐約峰會上,AWS宣布新增Cohere作為基礎模型供應商,加入Anthropic和Stability AI的最新基礎模型聊天機器人。Cohere的指令文本生成模型經過訓練可以遵循使用者提示并傳回摘要、副本和對話,該工具還可以提取資訊并回答問題。

AWS平台可調用英偉達H100晶片

在紐約峰會上,AWS也推出由英偉達H100晶片提供支援的Amazon EC2 P5執行個體。某種程度上,這是AWS與英偉達十多年合作的一個重要裡程碑。

H100 GPU的顯着特點之一是對Transformer的優化,這是大型語言模型所采用的一項關鍵技術。Amazon EC2 P5執行個體提供8個英偉達H100 GPU,具有640 GB高帶寬GPU記憶體,同時提供第三代AMD EPYC處理器、2TB系統記憶體和30 TB本地NVMe存儲,用于加速生成式AI和高性能計算應用。

Amazon EC2 P5與上一代基于GPU的執行個體相比,訓練時間最多可縮短6倍(從幾天縮短到幾小時)。據AWS介紹,與上一代相比,這一性能提升将降低40%的訓練成本。

實際上,從2013年推出首顆Amazon Nitro晶片至今,AWS是最先涉足自研晶片的雲廠商,已擁有網絡晶片、伺服器晶片、人工智能機器學習自研晶片3條産品線。2023年初,專為人工智能打造的Amazon Inferentia 2(可通過晶片之間的直接超高速連接配接支援分布式推理)釋出,最多可支援1750億個參數,這使其成為大規模模型推理的有力競争者。

對于是否擔心提供英偉達H100晶片會降低AWS自研晶片的吸引力,菲羅明對澎湃科技(www.thepaper.cn)回應道,“我們對競争持歡迎态度。硬體每隔幾年都會變得更好,這是一種常态。目前一個重要問題是生成式AI的成本相當高,這就是為什麼沒有人真正将其投入到生産工作負載中,每個人都還在試驗階段。一旦将其真正投入生産工作負載中,他們會意識到90%的成本都是由其産生。最好的情況是,每次調用都不會虧錢,而是真正賺錢。為了實作這一點,我認為我們需要競争。”