天天看點

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

作者:壽與天齊

大模型的興起

大模型(large model是指參數量極大、訓練資料規模龐大的人工智能模型。這種模型通過預先在海量無标注資料上進行大規模訓練,學習資料中蘊含的豐富模式,進而獲得通用的表示能力。之後隻需在特定任務上進行少量資料的微調,即可完成該任務。

大模型之是以能夠成為人工智能發展的重要方向,主要得益于三個關鍵因素的共同推動:大資料、大算力和強算法。

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

大資料時代的到來,使得訓練大模型所需的海量資料得以擷取。算力硬體的飛速發展,例如GPU等專用AI晶片的出現,為訓練大規模模型提供了必要的計算能力。再次是深度學習等機器學習算法的創新突破,使得訓練大模型成為可能。

大模型最早在自然語言處理領域取得突破性進展。2018年,谷歌釋出BERT模型,首次将Transformer編碼器應用于語言了解任務,取得了卓越的效果。2020年,OpenAI釋出GPT-3大模型,參數量高達1750億,展現出強大的文本生成能力。

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

随後,大模型技術在計算機視覺、語音識别、多模态等領域也取得長足進展。例如OpenAI的DALL-E 2可以根據自然語言描述生成逼真的圖像,DeepMind的AlphaFold 2能夠準确預測蛋白質的三維結構。

大模型的現狀

目前,大模型技術正在全球範圍内快速發展,成為人工智能領域的主導方向。以下是一些代表性的大模型:

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

GPT系列(OpenAIGPT-3(1750億參數、GPT-4(1.8萬億參數,具備強大的自然語言了解和生成能力。

LaMDA(Google對話式大語言模型,參數量達1.8萬億。

PanGu-Alpha(華為中文大模型,參數量達2000億。

文心一言(百度中文大模型,參數量達1.7萬億。

通義千問(阿裡中文大模型,參數量達7200億。

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

除了上述通用大模型,各行業也在積極探索大模型在垂直領域的應用,例如金融、醫療、制造等。一些公司還在嘗試将大模型部署在移動端等終端裝置上。

大模型技術正在全球範圍内加速發展和落地應用。但大模型也面臨着一些重大挑戰和瓶頸。

大模型面臨的挑戰

算力瓶頸

訓練大規模大模型需要極高的算力支援,對GPU等專用AI晶片的需求激增。以GPT-4為例,其訓練成本高達6300萬美元。目前國内尚未能完全自主可控地提供足夠的算力支援大模型訓練。

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

資料瓶頸

大模型對高品質訓練資料的需求巨大。以GPT-3為例,其訓練所用資料量高達近500億個token。擷取如此規模的高品質資料并非易事,也存在資料隐私等風險。

模型可解釋性

大模型内部的工作機理往往是一個"黑箱",缺乏可解釋性,給其在關鍵領域的應用帶來了障礙和風險。如何提高大模型的可解釋性和可信賴性,是一個亟待解決的問題。

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

能耗和碳排放

訓練大模型需要消耗大量能源,導緻高昂的碳排放。據估算,GPT-3的碳排放量相當于駕車行駛57圈環繞地球。如何降低大模型的能耗是一個重要的可持發展考量。

知識産權和倫理風險

大模型訓練所需的海量資料可能涉及知識産權等法律風險。大模型的輸出結果也可能帶有偏見、虛假資訊等倫理風險,需要加強監管。

大模型的未來發展方向

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

算力創新

加快國産AI晶片的研發和産業化,提供自主可控的算力支援大模型訓練。同時推動算力硬體和軟體算法的協同創新,提高算力利用效率。

資料賦能

建設高品質資料集,促進資料要素跨領域、跨場景流通。探索隐私計算等技術手段,保護個人隐私。同時加強資料治理,規範資料采集和使用。

模型可解釋性提升

加強對大模型内部機理的研究,提出新的可解釋AI理論和方法。結合人工智能與因果推理等技術,增強大模型的可解釋性和可信賴性。

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

綠色智能發展

推動算力設施綠色低碳發展,加大可再生能源在算力中心的使用比例。研究高效低碳的模型訓練算法,降低大模型的能耗和碳排放。

倫理和監管

加強人工智能倫理研究,制定相關法律法規。建立大模型輸出内容的審查和監管機制,防範虛假資訊、有害内容的傳播。

大模型技術正在引領人工智能發展進入新階段,但仍需要持創新突破,解決一系列技術和社會挑戰,才能真正釋放其巨大潛能,造福人類社會。

甩英偉達一條街!中國自研GPU出爐,比27萬億參數晶片還要牛

繼續閱讀