DoNews1月29日消息,1月29日,百川智能釋出超千億參數的大語言模型Baichuan 3。在多個權威通用能力評測如CMMLU、GAOKAO和AGI-Eval中,Baichuan 3都展現了出色的能力,尤其在中文任務上更是超越了GPT-4。
而在數學和代碼專項評測如MATH、HumanEval和MBPP中同樣表現出色,證明了Baichuan 3在自然語言處理和代碼生成領域的強大實力。
不僅如此,其在對邏輯推理能力及專業性要求極高的MCMLE、MedExam、CMExam等權威醫療評測上的中文效果同樣超過了GPT-4,是中文醫療任務表現最佳的大模型。
Baichuan 3還突破“疊代式強化學習”技術,進一步提升了語義了解和生成能力,在詩詞創作的格式、韻律、表意等方面表現優異,領先于其他大模型。
基礎能力全面提升,多項權威評測中文任務成績超越GPT-4
Baichuan 3在多個英文評測中表現出色,達到接近GPT-4的水準。而在CMMLU、GAOKAO、HumanEval和MBPP等多個中文評測榜單上,更是超越GPT-4展現了其在中文任務上的優勢。
此外,在MT-Bench、IFEval等對齊榜單的評測中,Baichuan 3超越了GPT-3.5、Claude等大模型,處于行業領先水準。
與百億、幾百億級别參數模型訓練不同,超千億參數模型在訓練過程中對高品質資料,訓練穩定性、訓練效率的要求都高出幾個量級。為更好解決相關問題,百川智能在訓練過程中針對性地提出了“動态資料選擇”、“重要度保持”以及“異步CheckPoint存儲”等多種創新技術手段及方案,有效提升了Baicuan 3的各項能力。
高品質資料方面,傳統的資料篩選依靠人工定義,通過濾重篩選、品質打分、Textbook篩選等方法過濾資料。而百川智能認為,資料的優化和采樣是一個動态過程,應該随着模型本身的訓練過程優化,而非單純依靠人工先驗進行資料的采樣和篩選。
為全面提升資料品質,百川智能設計了一套基于因果采樣的動态訓練資料選擇方案,該方案能夠在模型訓練過程中動态地選擇訓練資料,極大提升資料品質。
訓練穩定性方面,超千億參數的模型由于參數量巨大,訓練過程中經常會出現梯度爆炸、loss跑飛、模型不收斂等問題。對此,百川智能提出了“重要度保持”(Salience-Consistency)的漸進式初始化方法,用以保證模型訓練初期的穩定性。
并且優化了模型訓練過程的監控方案,在梯度、Loss等名額上引入了參數“有效秩”的方法來提早發現訓練過程中的問題,極大加速對訓練問題的定位,確定了最後模型的收斂效果。
此外,為了確定在數千張GPU上高效且穩定地訓練超千億參數模型,百川智能同步優化了模型的訓練穩定性和訓練架構,并采用“異步CheckPoint存儲”機制,可以無性能損失地加大存儲的頻率,減少機器故障對訓練任務的影響,使Baichuan 3的穩定訓練時間達到一個月以上,故障恢複時間不超過10分鐘。
訓練效率方面,百川智能針對超千億參數模型的并行訓練問題進行了一系列優化,如高度優化的RoPE, SwiGLU計算算子;在資料并行中實作參數通信與計算的重疊,以及在序列并行中實作激活值通信與計算的重疊,進而有效降低了通信時間的比重;在流水并行中引入了将激活值解除安裝至GPU的技術,解決了流水并行中顯存占用不均的問題,減少了流水并行的分段數量并顯著降低了空泡率。通過這些技術創新,Baichuan 3的訓練架構在性能方面相比業界主流架構提升超過30%。
醫療資料集Token數超千億,醫療能力逼近GPT-4
大模型醫療背後蘊含着巨大的社會價值和産業價值,從疾病的診斷、治療到患者護理與藥物研發,大模型不僅能夠幫助醫生提高診療效率和品質,幫助患者獲得更好的服務和體驗,還能幫助社會降低醫療成本和風險,助力醫療資源實作普惠和平權。
并且醫療問題專業性強、知識更新速度快、準确性要求高、個體差異大,能充展現大模型的各項能力,被百川智能稱為“大模型皇冠上的明珠”。是以,諸如OpenAI、谷歌等頭部大模型企業都将醫療作為模型的重點訓練方向和性能評價的重要體系。
ChatGPT早在2023年2月便已認證了美國醫學執照考試(USMLE),顯示出其在醫學領域的強大能力。而谷歌對醫療領域的重視更甚,基于PaLM模型打造了醫療大模型Med-PaLM,疊代後的Med-PaLM 2在醫學考試 MedQA中的成績超過80分,達到了專家水準。
在醫療領域,大模型的全能特性發揮着至關重要的作用。首先,其多模态學習能力能夠整合文本、影像、聲音等多種類型的醫療資料,提供更全面、準确的分析和診斷。其次,大模型的深層推理能力有助于複雜醫療決策的制定。
此外,穩定的性能和知識更新能力確定了醫療建議的可靠性和時效性。同時,大模型的語言了解和生成能力使其能夠處理專業術語和複雜句式。最後,模式識别與學習能力在大模型中的應用,使其能夠從複雜的醫療資料中學習和識别出重要的模式和特征。
是以,大模型想要在醫療領域擁有良好效果并不容易,既需要豐富的醫療知識、合适的Prompt,還需要模型本身具備過硬的邏輯推理能力。
為了給Baichuan3注入豐富的醫療知識,百川智能在模型預訓練階段建構了超過千億Token的醫療資料集,包括醫學研究文獻、真實的電子病曆資料、醫學領域的專業書籍和知識庫資源、針對醫療問題的問答資料等。該資料集涵蓋了從理論到實際操作,從基礎理論到臨床應用等各個方面的醫學知識,確定了模型在醫療領域的專業度和知識深度。
針對醫療知識激發的問題,百川智能在推理階段針對Prompt做了系統性的研究和調優,通過準确的描述任務、恰當的示例樣本選擇,讓模型輸出更加準确以及符合邏輯的推理步驟,最終不僅提升了Baichuan 3在多項醫療考試上的成績,并且在真實的醫療問答場景下也能給使用者提供更精準、細緻的回報。
邏輯推理方面,Baichuan 3在數學和代碼等多個權威評測上中文任務超越GPT-4的優異成績,已經充分證明了其強大的基礎邏輯推理能力。在擁有豐富高品質專業醫療知識,并能通過調優後的Prompt對這些知識進行充分激發的基礎上,結合超千億參數的推理能力,Baichuan 3在醫療領域的任務效果提升顯著,在各類中英文醫療測試中的成績提升了2到14個百分點。
Baichuan 3在多個權威醫療評測任務中表現優異,不僅MCMLE、MedExam、CMExam等中文醫療任務的評測成績超過GPT-4,USMLE、MedMCQA等英文醫療任務的評測成績也逼近了GPT-4的水準,是醫療能力最強的中文大模型。
突破“疊代式強化學習”技術,創作精準度大幅提升
語義了解和文本生成,作為大模型最基礎的底層能力,是其他能力的支柱。為提升這兩項能力,業界進行了大量探索和實踐,OpenAI、Google以及Anthropic等引入的RLHF(基于人類回報的強化學習)和RLAIF(基于AI回報的強化學習)便是其中的關鍵技術。
基于強化學習對齊後的模型不僅可以更精準地了解使用者指令,尤其是多限制以及多輪對話下的指令,還能進一步提升生成内容的品質。但是在大模型中充分發揮強化學習的作用不僅需要穩定且高效的強化學習訓練架構和高品質的優質偏序資料,還需要在“探索與利用”兩者間進行平衡,實作模型能力持續爬坡。
對于以上問題,百川智能進行了深入研究,并給出了針對性的解決方案。強化學習訓練架構方面,百川智能自研了訓練推理雙引擎融合、多模型并行排程的PPO訓練架構,能夠很好支援超千億模型的高效訓練,訓練效率相比業界主流架構提升400%。
偏序資料方面,百川智能創新性的采用了RLHF與RLAIF結合的方式來生成高品質優質偏序資料,在資料品質和資料成本之間獲得了更好的平衡。在此基礎上,對于“探索與利用”這一根本挑戰,百川智能通過PPO探索空間與Reward Model評價空間的同步更新,實作“疊代式強化學習”(iterative RLHF&RLAIF)。基于強化學習的版本爬坡,可以在SFT的基礎上進一步發揮底座模型的潛力,讓Baichuan 3的語義了解和生成創作能力大幅提升。
以文本創作中最具挑戰的唐詩宋詞為例,作為中國傳統文化的瑰寶,詩詞不僅在格式、平仄、對偶、韻律等方面均有着嚴格的限制條件,并且内容高度凝練、寓意深遠。
如果僅通過SFT的微調學習,一方面高品質詩詞的創作資料需要極高的專家成本,另一方面不能在平仄、對偶、韻律等多個方面實作較好的限制了解和遵循。此外,傳統的單次RLHF範式在唐詩宋詞面前也遇到極大挑戰,PPO在訓練過程中生成的Response有可能超出Reward Model的評價範圍導緻“探索”的過程失控。
Baichuan 3結合“RLHF&RLAIF”以及疊代式強化學習的方法,讓大模型的詩詞創作能力達到全新高度。可用性相比目前業界最好的模型水準提升達500%,文采遠超GPT-4。對于宋詞這種格式多變,結構深細、韻律豐富的高難度文體,生成的内容亦能工整對仗、韻腳和諧。其精準、深厚的創作功底,将讓每個人都能夠輕松創作出詠物、寄思的五言律詩、七言絕句,寫下的言志、抒情的“沁園春”、“定風波”,這不僅可以提升大衆的人文素養,還能助力中華傳統文化在大模型時代真正地“活”起來。
作為參數規模超過千億的大語言模型,Baichuan 3不僅英文效果達到接近GPT-4的水準,還在多項通用中文任務的表現上實作了對GPT-4的超越,是百川智能的全新裡程碑。
Baichuan 3全面的通用能力以及在醫療領域的強大表現,将為百川智能打造“超級應用”,把大模型技術落地到諸多複雜應用場景提供有力支撐。