天天看點

銀行大模型研發算力瓶頸如何破局?

作者:王琦 785

今年以來,越來越多國内銀行積極擁抱大模型技術,并将其廣泛應用在衆多金融場景。與之同時,算力瓶頸正成為布局大模型技術的一大挑戰。

“算力的基礎,是先進的AI晶片。但由于美國限制對華出口先進的AI晶片(包括GPU晶片),國内銀行在研發金融大模型方面普遍遇到算力瓶頸。”一位股份制銀行IT部負責人向記者透露。

記者多方了解到,為了解決算力瓶頸挑戰,衆多銀行各顯神通。

具體而言,大型銀行幹脆直接自建算力,盡管這種做法的成本投入相當昂貴,但好處在于銀行具有較高的自主性與安全性,還能根據自身業務需求“定制化”地研發金融大模型。

中小銀行則紛紛試水算力混合部署,即他們先在公有雲的基礎上,調用大型網際網路企業或電信裝置服務商的大模型算力服務接口,再通過私有化部署的方式開展自有資料的大模型預訓練。

“目前,中小銀行已形成相對成熟的雲+算力服務方案,主要是引入大型網際網路企業與電信裝置服務商的算力資源,解決前者的大模型資料預訓練與調優工作。”一位中小銀行資訊科技部主管向記者透露。

在他看來,随着大模型疊代頻率加快,加之AI Agent與多模态入參等新興大模型業态的興起,銀行需要更強大的算力支援,才能趕上大模型技術的最新發展應用趨勢。尤其在美國限制對華出口先進AI晶片的情況下,銀行仍需尋找更具穩定性與安全性的算力解決方案。

記者多方了解到,目前部分銀行已嘗試通過分布式架構與算法優化,将美國先進AI晶片與國産AI晶片進行整合形成新的算力聚合,在解決算力瓶頸同時實作算力“自主化”。

此外,部分地方政府也在積極搭建“算力池”,為衆多企業研發行業大模型提供“底層算力支援”。

“我們正密切關注地方政府的算力池具體使用規則,或許它是銀行疊代金融大模型過程的新型算力解決方案。”上述中小銀行資訊科技部主管告訴記者。但在實際操作環節,這項工作仍面臨諸多挑戰,包括如何遵守“資料不出行”的合規操作要求,如何有效避開衆多企業的算力資源争奪等。

部分中小銀行IT部門人士建議,相關金融監管部門不妨建立一個面向銀行等金融機構的算力池,供不同規模銀行開展金融大模型資料預訓練,如此既能解決衆多銀行普遍遭遇的“算力瓶頸”,又能盡可能縮小大模型技術所帶來的銀行之間金融服務“落差”。但是,誰來出資購買或租賃算力,如何做好算力配置設定,如何搭建比對不同銀行調入接口的底層基礎設施,都面臨一定的實際操作挑戰。

不同規模銀行的差異化解決方案

記者獲悉,目前有能力自建算力的,主要是國有大型銀行與部分股份制銀行。

究其原因,這些銀行已儲備一定數量的先進AI晶片,廣泛用于自身金融大模型資料預訓練。

“考慮到單顆先進AI晶片價格相當昂貴,若要儲備一定數量的晶片,将是一筆不小的開支,這也隻有大型銀行與部分股份制銀行有能力做到。”前述中小銀行資訊科技部主管告訴記者。他還聽說個别大型銀行已将先進AI晶片作為重要的算力資源進行儲備。

與此對應的是,大型銀行在自研金融大模型方面的步伐更快。

一位大型銀行IT部人士向記者透露,目前他們已建立了異構的GPU算力資源池,并基于雲服務部署實作算力靈活排程。

“這讓我們很快基于算力算法,建構了基礎大模型、金融行業大模型與場景大模型。”他直言。目前這些大模型已廣泛應用在智能客服、文本生成、輔助研發、智能投顧、智能催收、大資料風控等場景。

他坦言,受美國限制對華出口先進AI晶片影響,加之銀行内部金融大模型疊代速度加快,他們也發現自身的GPU晶片正在快速“消耗”。是以他們也嘗試與一些大型網際網路企業開展算力合作——比如共同建構算力叢集與計算網絡存儲等底層基礎設施,進一步借助外部算力資源開展金融大模型的調優疊代工作。

一位股份制銀行IT部人士對此感同身受。

他透露,銀行此前儲備的一批先進AI晶片主要用于搭建千億參數級别大模型與圖像識别NLP等領域,目前所剩的算力資源不多,但随着多模态入參與AI Agent等大模型新發展趨勢的興起,銀行需要更強大的算力資源支援。是以他們也在嘗試與大型網際網路企業與電信裝置服務商開展合作,引入他們的算力資源研發新的大模型技術。

相比而言,絕大多數中小銀行基本采用算力租賃或算力混合部署等方式,解決自身研發大模型技術的算力瓶頸。

“目前,我們主要通過租賃大型網際網路企業的算力資源(即通過雲端部署調用後者的算力)開展銀行内部資料的大模型預訓練,但每年這項算力投入仍達到數百萬元。”前述中小銀行資訊科技部主管向記者坦言。是以他每年需向銀行高層證明大模型技術在智能客服、智能投顧、文本生成、輔助研發等場景發揮日益顯著的降本增效作用,才能說服他們同意繼續追加算力租賃投入。

他告訴記者,為了盡可能減輕算力成本投入,他們正考慮研發輕量級的大模型,即在第三方金融科技平台所研發的大模型産品基礎上進行調優與場景适配,再結合銀行内部資料的預訓練成效,研發适用特定任務或特定場景的大模型,如此既能有效減少資料預訓練工作量與算力投入,又能省去不少大模型研發方面的“重複性工作”。

記者了解到,為了進一步節省算力投入,部分中小銀行還采取“大模型+小模型”的做法推進大模型技術在金融場景的應用。具體而言,一是大模型起任務分解和排程作用,通過大模型排程小模型,可以實作更智能化的工作并減少海量資料預訓練所帶來的算力投入;二是由大模型對特征向量化進行賦能,進而替代小模型所需完成的特征工程工作,也能減輕不少算力投入。

在多位銀行人士看來,盡管衆多銀行采取諸多措施解決算力瓶頸,但在金融大模型疊代速度越來越快與大模型技術日新月異的趨勢下,要真正解決算力瓶頸,最好的辦法是積極擁抱國産AI晶片。

目前,部分銀行已嘗試引入國産GPU晶片,作為他們進一步研發金融大模型的新算力資源支援。

但是,由于國産GPU晶片與美國先進AI晶片采取的技術路線與軟體生态有所差别,加之國産GPU晶片仍在進一步提升算力性能,如何将國産GPU晶片适配現有的金融大模型研發技術架構,仍需花費一定的工作量與時間。

試水地方政府算力池“成效幾何”

為了解決衆多企業研發行業大模型的算力瓶頸,近期不少地方政府也在積極搭建“算力池”。

這也引起多家銀行的濃厚興趣。

“若能通過地方政府的算力池解決資料預訓練問題,或将加快我們金融大模型的疊代更新程序,讓大模型技術更好地應用在更多金融場景。”上述中小銀行資訊科技部主管向記者感慨說。

但他很快發現,這項工作所面臨的最大挑戰,就是如何做到“資料不出行”。

以往,他們與大型網際網路企業開展算力租賃合作時,都是由後者在中小銀行本地部署大模型資料預訓練所需的算力資源,如此銀行使用本地部署的算力資源進行海量資料預訓練時,就不存在“資料出行”的煩惱。如今,如何在“資料不出行”的情況下,又能引入地方政府的算力池算力資源,目前他們正在研究合規的可行性操作方案。

“與此同時,我們也在評估地方政府算力池的使用成本效益,萬一其他企業占據較大的算力資源,我們就得重新評估使用剩餘的算力,能否有效解決自身金融大模型疊代更新所需的資料預訓練算力需求。”他直言。此外,銀行高層還希望地方政府算力池所設定的算力租賃費用能夠顯著低于第三方網際網路企業,給銀行研發疊代金融大模型創造更好的降本作用。

記者獲悉,算力瓶頸正影響衆多銀行對大模型前沿技術的應用程序。

一位城商行IT部負責人向記者透露,他們也注意到AI Agent業态日益火熱,且銀行高層也認為AI Agent大模型技術能在衆多金融場景發揮更智能化的服務成效,但受制于算力瓶頸,目前他們不大會對這項前沿大模型技術開展探索性研究。

AI Agent也被稱為AI智能體,與LLM屬于截然不同的兩個概念,LLM本質就是大語言模型,包括GPT、GLM等基于自然語言處理且參數量巨大的生成式預訓練大模型,但AI Agent側重于AI與環境互動、并根據目前環境特征,由AI自主決策并采取行動。

某種程度而言,LLM是通往AI Agent的關鍵一環。但目前AI Agent尚未成熟,存在不少錯誤與問題。但可以預見的是,若AI Agent技術日益成熟并形成各種實踐應用,是可以幫助金融機構更高效、低成本地使用AI技術。

記者多方了解到,目前國内衆多銀行尚未研發AI Agent這項前沿的大模型技術,不僅僅是受制于算力瓶頸,還有着合規操作的考慮。畢竟,國内金融機構對資料使用的監管要求相當嚴格,令他們更傾向将LLM大語言模型應用在衆多金融場景。究其原因,是開源的LLM大語言模型技術既可以在本地環境進行部署,且能夠更好地控制與管理資料以滿足監管要求。在使用LLM大語言模型過程中,金融機構也可以落實更高的合規性和安全性要求,包括資料隐私保護、資料加密和通路控制等。相比而言,由于AI Agent技術尚不成熟,加之金融機構對業務資料準确性與業務合規性的高要求,是以AI Agent仍較難被納入實際業務場景,隻能在銀行内部某些基礎、簡單、通用、不涉及使用者資料外洩風險的應用層面使用。

多位中小銀行人士直言,随着AI Agent技術日益成熟,加之資料加密調取技術的不斷進步、未來他們或将引入AI Agent大模型技術,嘗試應用在更多金融場景,因為AI Agent的确能發揮更強大的智能化服務與降本增效作用。但這項工作能否開展的一大前提,是銀行能否建構自主的、安全性、穩定的、強大的算力資源以支援AI Agent等前沿大模型技術的研發應用。

更多内容請下載下傳21财經APP

繼續閱讀