天天看點

SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

在昨天的推文中,我和大家分享了英特爾的一款神經拟态研究晶片 Loihi,這款晶片之是以厲害是因為具備了一定的“嗅覺”能力,可以根據生物信号來識别“嗅”到的氣味,這屬于強人工智能必備的能力之一,也讓我們離複制大腦更進了一步。

但因為篇幅有限,文章中對人工智能覺醒的引申,也就是人工智能出現意識的情況隻做了一個簡單的分析,但大家似乎對這個老生常談的問題依舊很感興趣,尤其是經曆了 2020 年這個艱難的開局,讓我們進一步意識到了人的脆弱和無力。

今天,我們就來詳細的讨論一下具備意識的強人工智能到底發展到了什麼程度,到底會有哪些風險,我們人類能不能和強人工智能共存?

強人工智能的概念與定義

SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

1985 年 9 月 26 日,諾貝爾實體學獎得主,也被稱為愛因斯坦之後最睿智的理論實體學家,第一位提出納米概念的人 —— 理查德·費曼(Richard Feynman)在一次講座中第一次提出了強人工智能的概念。

一般而言,弱人工智能不需要具有人類完整的認知能力,甚至是完全不具有人類所擁有的感官認知能力,隻要設計得看起來像有智慧就可以了。

是以,過去我們所認知到的人工智能大多是弱人工智能,并且人們一度覺得強人工智能是不可能實作的。

強人工智能也稱通用人工智能(artificial general intelligence,AGI),一般需要具備執行智慧行為的能力。強人工智能通常把人工智能和意識、感性、知識和自覺等人類的特征互相連結。

那麼,這樣的具備意識的強人工智能能夠真的實作?

目前來說,模拟出簡單的一個生物頭腦已經不是不可能的事,一如化學技術累積發展下,現在許多研發藥品已經使用計算機模型來推演藥物效果,以減少受試動物的痛苦等,或者就像昨天的文章中所說,英特爾已經讓晶片有了“嗅覺”。

這得益于電腦技術的發展。

從前在使用電腦語言的時代,原先電腦被認為不可能具備自我解決能力,電腦隻是看起來聰明,實質上還是按照設計好的規則行事,并不能應付突如其來的狀況,仍舊會犯下錯誤。

而近年來從電腦在摩爾定律與神經科學研究的協助下,透過在電腦上對生物神經元系統複雜的電位沖動模拟上取得了明顯的突破,使人工智能越過發展中的坎 —— 神經處理機制的發現。

SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

因為生物的獨特是在于刺激與反應下會強化其回饋作用,這類能夠透過試錯學習經驗并總結,以回應各種刺激的系統(例如重複玩一款遊戲便能熟能生巧),還能從每種回饋中又觸發其他回路來更新改進思考結構,做出更複雜的精細反應(例如在對話中選擇誠實、說謊、漠然之後考慮其不同行為的後果等),這樣的仿生領域已經得到長足的進步,使人腦與人工智能的差別逐漸變得模糊。

但是,在機器是否存在有自主“思想”上的議題,将還會一直是人們争辯的對象,特别是在智能理性與心理感性部分要如何差別、統合,更需要進一步引導其具有人性,來為人類提供最佳解,目前這些方法都還沒有探索出來。

在一些能夠自動推理出最佳解的工具已經出現,如 Google 旗下的 DeepMind 在此領域進展最多,成功開發出了初級的通用思考機器,他們将其類人腦神經程式稱「人工通用智慧技術」,而「通用」一詞就代表者這是一個可以透過自主「進化發展」的通用智慧。

強人工智能的标準
SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

人們提出過很多人工智能的定義(例如能夠通過圖靈測試),但是沒有一個定義能夠得到所有人的認同然而,人工智能的研究者們普遍同意,以下特質是一個智能所必須要擁有的:

  • 自動推理,使用一些政策來解決問題,在不确定性的環境中作出決策;
  • 知識表示,包括常識知識庫;
  • 自動規劃;
  • 自主學習、創新;
  • 使用自然語言進行溝通;
  • 以及,整合以上這些手段來達到同一個的目标;

還有一些重要的能力,包括機器知覺(例如計算機視覺),以及在智能行為的世界中行動的能力(例如機器人移動自身和其他物體的能力)。它可能包括探知與回避危險的能力。

許多研究智能的交叉領域(例如認知科學、機器智能和決策)試圖強調一些額外的特征,例如想象力(不依靠預設而建構精神影像與概念的能力)以及自主性。

基于計算機的系統中的确已經存在許多這樣的能力,例如計算創造性、自動推理、決策支援系統、機器人、進化計算、智能代理,然而并未達到人類的水準。

回到具體的檢驗強人工智能的上手段,科學家們也有着很多不同的想法,其中最被廣泛認知的是下面的這四種:

1. 圖靈測試(圖靈)

如果一個人(代号 C)使用測試對象皆了解的語言去詢問兩個他不能看見的對象任意一串問題。對象為:一個是正常思維的人(代号 B)、一個是機器(代号 A)。如果經過若幹詢問以後,C 不能得出實質的差別來分辨 A 與 B 的不同,則此機器 A 通過圖靈測試。

2. 咖啡測試 (格策爾)

生活中空間、操作技能的測試。将一部機器帶到任何一個普通的美國家庭中,讓它在不經刻意設計的條件下,懂得泡好一杯咖啡。它需要主動在陌生空間中認識咖啡機、辨識咖啡和水、找到合适的杯子并放好,然後按正确的鍵和操作以沖泡咖啡。這需要仰賴機器人學、圖像辨識的演算。

3. 機器人學生測試 (格策爾)

透過機器學習,分析和回答單一問題的測試 。讓一個機器去注冊一所大學,參加和人類學生同樣的考試,然後通過并獲得學位。例如日本的東大 AI 或是 IBM 參加搶答節目的華生。

4. 雇員測試 (尼爾森)

測試統籌、推斷、發想、規劃解決複雜問題的能力。讓機器處在一個經濟上重要的職位,需要它能夠和同樣職位的人類做得同樣好或者更好。

這些測試雖然都不盡相同,但目的都是評定創造出的人工智能能不能解決人類的問題。

如果可以解決,那麼就認定該人工智能屬于強人工智能,也就是和人類一樣聰明,稱之為「人工智能完備」。

現在業界假定的人工智能完備的問題包括計算機視覺、自然語言了解,以及處理真實世界中的意外情況。目前為止,人工智能完備的問題仍然不能單靠人工智能來解決,依然需要介入人類的計算。

強人工智能的研究曆史

SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

現代人工智能研究開始于 1950 年代中期。當時有一批狂熱的人工智能愛好者,他們相信強人工智能不僅是可以實作的,并且将在幾十年内就能實作。

人工智能先驅司馬賀在 1965 年寫道:“在20年之内,機器就能夠做到一個人能做到的任何事。”

然而,到了 1970 年代早期,研究者們意識到他們遠遠低估了其中的困難。資助 AI 項目的機構開始對強人工智能産生懷疑,向研究者們施壓要求他們轉向更有用的技術,所謂的「應用 AI」。

在 1980 年代初,因為電腦産品的疊代發展科學界重拾了對強人工智能的興趣,并制定了一個十年計劃 ——比如十年内實作人工智能的「日常對話」。 這也讓當時的工業界以及政府機構重新往人工智能的領域中投入資金。

然而,人工智能的市場在 1980 年代晚期發生劇烈崩塌,20 年内實作強人工智能的遠景終究是沒有實作。

到了 1990 年代,人工智能研究者背上了無法實作自己承諾的名聲,他們拒絕再作出任何預言,并且避免提到任何「人類水準」的人工智能,以免被貼上「白日夢」的标簽。

在 1990 年代和 21 世紀初,主流的人工智能在商業成果和學術地位上已經達到了一個新高度,依靠的是專注于細分的專門問題的解決。他們可以提供許多方案和商業應用,例如人工神經網絡、機器視覺以及資料挖掘。

這些「應用人工智能」今天已經在工業技術和研究中得到廣泛和深入應用,在學術和産業方面都得到了許多資助。

大多數主流的人工智能研究者希望,能夠通過将解決局部問題的方法組合起來實作強人工智能,例如将智能體架構、認知架構或者包容式架構整合起來。漢斯·莫拉維克在 1988 年寫道:

"我相信,有一天人工智能的自下而上的研究路線,會與傳統的自上而下的路線半途相遇,進而獲得真實世界中的能力,以及對于推理程式來說極其困難的常識知識庫。這兩種方向結合在一起的時刻,會成為了産生真正智能機器的所謂「金釘子」。"

然而,在人工智能研究者之間也存在一些争論,甚至涉及這個領域的技術理論基礎;例如,普林斯頓大學的 S.Harnad 在 1990 年關于符号基礎假設的論文中這樣寫道:

"人們期待,人工智能的自下而上的研究路線,會與傳統的自上而下的路線半途相遇。但是如果這篇文章的基礎是正确的,那麼這個希望不會實作。

關于強人工智能的争論
SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

除了技術理論層面的分歧,關于強人工智能的争論,不同于更廣義的一進制論和二進制論的争論。其争論要點是:如果一台機器的唯一工作原理就是轉換編碼資料,那麼這台機器是不是有思維的?

希爾勒認為這是不可能的。他舉了著名的「中文屋」的例子來說明,如果機器僅僅是轉換資料,而資料本身是對某些事情的一種編碼表現,那麼在不了解這一編碼和這實際事情之間的對應關系的前提下,機器不可能對其處理的資料有任何了解。

基于這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有思維和意識。

但也有哲學家持不同的觀點。

丹尼爾·丹尼特(Daniel C. Dennett)在其著作《意識的闡釋》裡認為,人也不過是一台有靈魂的機器而已,為什麼我們認為:“人可以有智能,而普通機器就不能”呢?他認為像上述的資料轉換機器是有可能有思維和意識的。

這個讨論,至今仍沒有定論。但強人工智能的研究,并未因分歧而停滞。

強人工智能,科技企業的下一個戰場

SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

谷歌有一個神秘的部門 —— 谷歌大腦,這是谷歌在人工智能領域開發出的一款模拟人腦的軟體,通過開發具體的算法協助改進了谷歌的搜尋引擎、谷歌翻譯、谷歌地圖和雲計算基礎設施。

同樣,2015 年,馬斯克和 Y Combinator 前總裁薩姆·奧爾特曼(Sam Altman)聯合創辦了 OpenAI,目标也是開發通用人工智能,確定「造福全人類」的前提下開發技術。2016 年微軟也加入了這一項目。

2019 年微軟宣布出資 10 億美元,讓 OpenAI 在微軟 Azure 雲平台開發 AI 技術。

除了加入 OpenAI 之外,納德拉在 2014 年被任命為微軟的首席執行官後不久,就開始圍繞人工智能重新定位。納德拉宣稱,微軟旗下的所有産品和服務都會“加入人工智能”,還宣布人工智能是塑造未來的三項基本技術之一(另外兩項是“混合現實”和量子計算)。

此外,Facebook 也投資了人工智能實驗室,國内的阿裡巴巴、騰訊、百度等科技企業也紛紛成立目标為強人工智能的實驗室。根據研究公司 Mind Commerce 釋出報告顯示,預計到 2023 年,通用人工智能的投資将達到 500 億美元。

目前,科技企業與研究機構對強人工智能的研究基本上分為兩大陣營:一方陣營認為隻有深度學習才可以實作強人工智能,另一個陣營則認為必須與其他方面(如邏輯規則)結合。在深度學習陣營中,還有進一步的劃分:一群強調算法創新,另一群則更關注建構神經網絡的規模以及提供的資料量。比如 OpenAI 就是堅定的「資料黨」。

但無論如何,強人工智能或者說是通用人工智能,已經成為了全球科技企業的戰場,這不僅關乎市場佔有率,也是會不會被未來的市場淘汰的問題。

人類可以和強人工智能相容麼?
SFKP • 計算機百科丨強人工智能的覺醒與人類的未來

已故的斯蒂芬·霍金将強人工智能稱為對人類的最大威脅,前文提到的馬斯克雖然通過 DeepMind 獲得了豐厚的收益以及行業影響力,但他也曾經将通用人工智能的研究比作「召喚魔鬼」。

馬斯克與谷歌的聯合創始人拉裡·佩奇也是朋友。他在一次采訪中告訴記者,擔心佩奇的公司在可能成功地開發出超人智能後失去控制。即便這不會發生,一家公司控制如此強大的技術還是令人擔心。

既然這麼擔心,他為什麼不停止人工智能的研究?

原因可能是,結束人工智能研究不僅意味着放棄了解我們人類的智能到底是如何工作的,還意味着放棄了改善人類狀況的機會,也就是使人類文明更加美好或者維持下去的機會。

未來避免強人工智能帶來的潛在風險,計算機科學家斯圖爾特·拉塞爾(Stuart Russell)在他的最新著作《人類相容:人工智能與控制問題》中提出了一個解決方案,可以讓強人工智能對人類有益,并且永遠不會失控:

“理想的強人工智能系統是其唯一的目标,是實作人的偏好而不是其自身目标的系統。隻有這樣人工智能才不會為了實作目标,而不顧其他的原因一意孤行。

最後一點非常重要,因為這正是目前人工智能所缺少的。現階段驅動人工智能的系統不是讓其了解人類的偏好,而是實作系統設定的固定目标,比如獲得更多的廣告點選、最優化行為路徑,而不會估計對人類可能造成的危害和是否違背了程式設定的初心。

正因為這種設定,目前的人工智能系統已經逐漸顯露出很多的問題,比如算法偏差、種族歧視等問題。

随着人工智能在執行任務時變得更加高效,這些問題可能會加劇。固定于實作一個目标的強人工智能系統,最終可能會為了實作他的目标而犧牲整個人類社會。

但單純的了解人類意圖也并非完美的解決方案,因為設定者并不能代表全人類,如何處理不同人類的偏好沖突和人類本身的邪惡思想,仍是無法規避的風險。

畢竟人類也不是完美的,人類的決策也存在着很多的争議。

隻要回顧一下我們人類如何憑借自身超然的智慧來控制整個世界,就能想象當強人工智能的智慧超過我們時會發生什麼。對此羅素在書的最後提出了一個問題,也作為本文最後的一個話題來和大家探讨:

在一個存在更高等智慧的非生物世界中,我們人類還能保持類似現在這樣的控制權麼?如果可以的話,我們的依仗将是什麼?

繼續閱讀