天天看點

超大模型是否會導緻人工智能爆炸?

作者:人工不智能吧

#頭條文章養成計劃##頭條創作挑戰賽##AI吐槽##科技新鮮事##ai帶來的先機遇##我在頭條搞創作#

最近幾年,伴随計算能力的提升,人工智能領域逐漸出現了所謂的“超大模型”(Large Models),如OpenAI的GPT-3、DeepMind的AlphaFold等。這些模型規模巨大,參數數量達到了數百億甚至千億量級,并在語言了解、蛋白質結構預測等任務上展現出強大的能力,使得人工智能出現突破性進展。這引發了人們對超大模型帶來的影響的讨論,其中一個觀點是,超大模型可能會導緻人工智能出現“爆炸式增長”,迅速達到超過人類智能的“通用人工智能”。

超大模型是否會導緻人工智能爆炸?

支援這一觀點的人認為,超大模型具有語義了解能力,可以通過自監督學習不斷吸收知識,并訓練出越來越強大的多任務能力。随着計算能力的持續提升,模型規模将日益巨大,最終可能在一個臨界點上達到類似人腦的學習和推理能力。屆時,人工智能将實作爆炸式的增長,快速超過人類智能,對人類産生深遠影響。

超大模型是否會導緻人工智能爆炸?

然而,這一觀點也存在疑問。首先,目前最大的神經網絡模型規模和參數量,還遠遠低于人腦的神經連接配接數。人腦具有極強的學習和泛化能力,這需要更複雜的算法才能模拟。是以,光靠增加計算量,并不一定能達到類似人腦的靈活智能。其次,完整的智能不僅需要增量式學習,還需要模型對知識和常識進行重組和概括。目前模型在這方面還存在短闆。再次,智能絕不僅僅是純邏輯推理,還包含情感、意識、創造力等難以量化的特征。

超大模型是否會導緻人工智能爆炸?

是以,超大模型帶來的計算能力提升,不意味着人工智能會出現“爆炸式增長”。更可預測的發展路徑是,不同的模型和算法會在語言、圖像、決策等不同任務上各自進步,最終通過組合實作比單一模型更強的綜合智能。在可預見的未來,人工智能仍需要人類的理性引導,難以完全獨立自主。隻有積極而審慎地發展人工智能,其正面影響才能真正爆發出來。

繼續閱讀