天天看點

百度交出一款“貪吃蛇”和一個文心一言“加強版”

作者:品玩

時間是殘酷遊戲,比如當驚豔的Apple Vision Pro終于出場,早已無人惦記遙遠的諾基亞。

但包括未來将要登陸Apple Vision Pro的遊戲開發者Ryan McLeod在内,一切手機遊戲都需要向諾基亞在1997年首次将《貪吃蛇》内置的決定緻敬,這個動作真正打開了手機遊戲的曆史。

《貪吃蛇》的遊戲邏輯很簡單,吃果子可以得分但身體會變長,控制方向不撞到邊界或自己。時至今日諾基亞已經幾乎離開大衆視線,以《貪吃蛇》為根源的遊戲仍然活躍,甚至“如何用最短的代碼寫出一個貪吃蛇遊戲”至今仍然是開發者社群裡有吸引力的話題。

這個現在古典而充滿美感的遊戲也變成了大模型時代度量AI能力的尺子。百度智能雲AI平台副總經理施恩在一個新的代碼助手Comate幫助下,從畫布開始搭建《貪吃蛇》,直到最終貪吃蛇扭動着出現,AI完成了其中大半的代碼工作。

整個過程不到5分鐘。

開發者的Comate

大模型短暫而劇烈的競争直到現在,黑箱的迷霧仍未散去,外界的注意力正在變化。各種宏大願景開始冷靜下來,轉換成對更具體事物的關注。比如生成式AI在當下究竟可以為行業帶來什麼新的生産力。

6月6日,在成都舉行的文心大模型技術交流會上,百度開放了代碼助手Comate邀測。這是一個與GitHub Copilot等代碼編寫助手相似,但用了更多中文注釋和開發文檔作為訓練資料煉成的智能開發工具。在編碼過程中,Comate可以根據開發者目前在編寫的内容,推理出接下來可能的輸入選擇。

文心大模型是宏大的,Comate是具體的。

對于《貪吃蛇》的遊戲開發(網頁版本)過程來說,開發者首先要在畫布上畫底,然後設定鍵盤的操作方式以及遊戲結束條件的判斷,除此之外,就是爬行速度等環境要素的控制。對于Comate來說,隻需要輸入“canvas”,以及“彈性布局,水準居中,垂直居中”的中文備注,就可以完成遊戲畫布代碼的生成。然後輸入“param color”、“left”、”food=”等顔色、方向、食物的簡單詞,Comate會自動聯系上下文了解指令,補全代碼,并在多條推薦代碼之間切換,選擇合适代碼後,直接生成了可運作的《貪吃蛇》遊戲。

據百度介紹,目前Comate能力已經率先內建在百度所有業務線中并實作了很好的使用效果:核心研發部門中50%的代碼可通過Comate生成。從去年開始Comate已經在百度内部進行了大量測試。測試結果顯示,在“Comate”輔助編寫的代碼中,近50%的建議代碼被開發者采納,目前在百度内部已經廣泛應用到各類産品開發中。

Comate深度學習的對象除了百度内部的代碼庫也包括高品質Github代碼庫。現在這個代碼助手可以實作代碼自動生成、代碼自動補全、代碼智能搜尋、高品質代碼推薦、測試代碼自動生成等多種智能功能。推理速度上單請求可實作300ms左右,這意味着開發者不需要停下來等待代碼生成,Comate完全可以比對上開發者的編碼速度。

目前Comate代碼助手支援主流開發語言/架構30餘種,對于C/C++、Java、Python等主流語言Comate專門做了資料優化,可達到更好的代碼推薦效果。此外,Comate還支援前後端、軟硬體不同場景、以及程式員常用的多種IDE。

從這個角度來看,《貪吃蛇》是一次直覺卻并不充分的示範。施恩也表示,《貪吃蛇》的代碼開發其實已經可以完全依靠大模型來不加幹涉的自動生成。隻不過有趣的是,Comate從原本百度内部智能工作平台推出的一個“代碼推薦工具”到現在的“代碼生成助手”,本身也得益于大模型的能力加持。

百度交出一款“貪吃蛇”和一個文心一言“加強版”

百度智能雲AI平台副總經理施恩 圖源:百度

Comate的孵化開始于2018年左右,百度内部在尋找提升開發效能的辦法時已經提到了代碼生成。但技術不夠成熟,是以先選擇通過檢索算法并做算法推薦的方式來提效。“那時候技術探索已經在嘗試了。但在文心大模型出現之後,我們才把真正的代碼生成在更廣泛的場景應用起來”,百度智能雲AI平台副總經理李景秋對品玩表示。

Comate從搜尋邏輯過渡到生成邏輯,大模型的能力開始在開發環節呈現出生産力變革的姿态。而如果說Comate是文心大模型對開發者的一次回答,那“文心一言- Turbo”則是文心一言上線兩個月後,百度給産業交出的一個新方案。藏于其後的,是文心千帆大模型平台在兩個月後逐漸清晰的疊代路線。

文心千帆的疊代方向:效果+效率

百度将文心千帆定義為全球首個一站式的企業級大模型平台。具體來看,文心千帆不僅提供包括文心一言底層模型(Ernie bot)在内的大模型服務,還提供了各種AI開發工具鍊和整套開發環境。此外,大模型平台還支援各類第三方的開源和閉源的大模型。自3月27日首次啟動内測開始,在文心千帆的支撐下,文心一言在兩個月内完成了四次技術疊代。

在4月25日的一場技術交流會上,百度集團副總裁侯震宇透露自内測以來,通過算法和模型的持續優化,文心一言推理效率提升10倍,推理成本降為原來十分之一。一個半月後,文心一言的高性能模式“文心一言- Turbo”作為文心千帆第一階段疊代的結語成果出現。在一些高頻、核心場景,在滿足同樣客戶需求的情況下,推理服務的整體性能總共提升了50倍。

多次疊代後,文心千帆的兩個進化方向也已經顯現出來:效果和效率。

在效果上,除了推理性能的大幅提升外,“文心一言- Turbo”支援SFT訓練,同時針對不同場景和效果提供多種訓練方式,Bloom7B(70億參數)第三方大模型可支援 P-tuning、SFT、Lora等不同訓練方式。并且由于企業對于大模型再訓練的需求以及私有化部署的考慮,文心千帆将開放插件協定,能夠讓第三方企業基于插件協定共享插件,通過插件的方式,把内部的資料完全接入,同時實作更好的大模型效果。

除此之外,文心千帆将會提供一部分預制的Prompt模闆,同時支援Prompt模闆的增删改查以及支援參數插值的調用模闆,支援通過服務接口形式調用Prompt模闆,用于獲得更好的推理效果。

與效果并行的則是效率,或者也可以了解成成本效益。

“文心一言- Turbo”推理效率的50倍增長意味着大模型推理成本的大幅下降,這将是文心一言大模型内測僅一個月後,大模型推理成本降為原來1/10之後的又一次提升。并且在資料标注方面,“文心一言- Turbo”未來能夠批量生成标注資料并快速用于後續訓練,相比于此前手動的資料标注形式将會大大降低資料标注成本。

在部署方式上,文心千帆也在逐漸增加應對客戶的靈活度。

文心千帆對外提供“3+3”的傳遞方式。在公有雲服務側提供推理(直接調用大模型的推理能力)、微調(通過高品質精标業務資料,高效訓練出特定行業的大模型)、托管(将模型釋出在百度智能雲,以實作更加穩定高效的運作)三種服務來降低企業部署大模型的門檻。

而在頗受關注的私有化部署側,文心千帆支援軟體授權(提供在企業環境中運作的大模型服務)、軟硬一體(提供整套大模型服務及對應的硬體基礎設施)以及租賃服務(提供機器和平台的租賃滿足客戶低頻需求)。其中最新加入的租賃服務意在滿足預算有限,或對模型訓練需求更低頻的客戶。

文心千帆大模型平台在兩個月内急速的疊代腳步,以及在效果和效率兩端清晰的路線規劃,并不隻是算力的優勢作用,背後展現出更多的是百度AI四層架構的整體優勢。

百度交出一款“貪吃蛇”和一個文心一言“加強版”

李彥宏 圖源:搜狐

李彥宏曾公開表示,百度是全球唯一在晶片、架構、模型和應用這四層進行全棧布局的人工智能公司。昆侖芯作為百度在底層晶片上的布局,已經有兩代産品實作數萬片的部署,第三代預計在明年年初量産;飛槳已經是國内綜合市場佔有率第一的深度學習架構;文心大模型家族中除了文心一言,還有包括NLP、CV、跨模态等通用大模型及11行業大模型,并與應用層的豐富積累互為羽翼卷起資料飛輪。這個完整布局也讓當下文心千帆在面對300家生态夥伴以及400多個企業内部場景時有了靈活進化的前提條件。

文心千一言每一次技術演進都是從晶片層到架構層、到模型層以及應用層多個團隊的共同努力。“我們内部會拉一個工作群,這裡有昆侖晶片的人,有飛槳架構團隊的人,有大模型NLP算法政策的人,也有我們大模型平台工具鍊的人,還有終端應用智能客服的人。每個月會設定共同的目标,比如這個月性能必須提升到什麼樣的水準。”李景秋表示。

也如百度集團副總裁侯震宇在5月初的一次閉門會上所說,“大模型時代下,企業的創新要脫穎而出,不但需要智能的算力、靈活的架構平台、豐富的大模型體系以及優質的應用方案,還需要這四者之間端到端的适配與優化,這是一個‘既要、又要、還要’的端到端創新工程。”

而幾乎所有人都能感覺到,百度在大模型這一仗上,開始顯出後勁了。

繼續閱讀