宇宙中充滿了一些非常酷的東西:例如,每一小匙重達一噸的中子星,連光都能吞噬的特大品質黑洞,恰好能夠流穿過脫氧鋼的無窮小的中微子,以及地球上那些奇異的動植物們…不過,在宇宙所有已知的事物裡,最神奇的莫過于人腦。
人類大腦能夠了解中子星,了解黑洞、中微子,以及地球上衆多的動植物。人類大腦能夠計算出數學真理,能夠辨識出道德上半真半假的陳述,也能夠思考出哲學上的模棱兩可。它能夠從我們腳下的泥土中,提取出原材料,建構城市,能建造汽車、飛機和火箭,以及有線和無線信号,并将這些迥然不同的“意識”彙聚成創造力、知識、甚至是殘酷行為的“母巢”。
如果說我們的大腦是宇宙中最酷的産物,絕不會引起争論,畢竟如果沒有大腦,也就不可能有這些争論。它們是所有争論和辯論的基礎。
至少到目前為止,大腦是宇宙中最酷的東西了。或許将來有一天,人類會發現或創造出其他能夠去發現、創造、争論、讨論、哄騙的事物,它們可能來自于遙遠星球的飛船(這種可能性微乎其微),也可能會出現在某個實驗室裡(這一點幾乎是可以肯定的)——而一些人認為,這些新型“會思考的機器(thinking machines)”可能發生在人工智能裡。
人工智能早在六十年前已經問世。在世界各地的實驗室,小巧可愛的AI們正煥發着生機。有的AI下棋可以勝過人類最強棋手,有的AI正在學習駕駛一百萬輛汽車行駛一百萬英裡,而有的AI正在學習拯救更多的生命,甚至超過大多數醫生或急救醫護人員在其整個職業生涯拯救過的生命數量,有的AI會確定我們的餐具幹燥且無污漬,或確定我們的衣服穿着得體且沒有起皺。人們正在打造無數的人工智能,為其編寫程式,它們隻會變得更加智能、更加無處不在,它們會變得更好,但它們永遠不會像我們人類一樣。而這是一件好事。
我們的自我意識程度是将人類與地球上其他生命形态區分的關鍵所在。大多數動物是有意識的,甚至有許多動物是有自我意識的,但是人類擁有的是高度的自我意識。人類的大腦中有一個連接配接到我們意識的放大器,并且轉到了最大值。
在人工智能領域,充斥着各種對人類智能的不同特性的複制或模仿工作。其中他們必做的一件事是,複制人類意識的打開方式。也許從人工智能研究中,我們收獲的最佳産物不是對計算機的了解,而是對人類自己的了解。
是以,我們不妨大膽設想一下,具備自我意識的機器人的打開方式,我們暫且把它稱作一個藍圖。
“藍圖”三要素
一個有自我意識的機器人聽起來很簡單,實則很複雜,我們需要:
機器身體或裝置對外界刺激作出回應。這就好比是一輛車在感覺到下雨時會啟動擋風玻璃刮水器,或是當車前經過一個孩子時汽車會刹車一樣——然而這些都不是問題,因為這些我們都已建構好了。 其次,一種語言引擎。(這同樣也不是什麼問題。它可以通過在汽車上裝數百種不同的訓示燈來實作,也可以選擇在語音識别系統,如IBM Watson、訊飛聽見)。 第三項也是最後一個元件則有一點不同尋常,這是一個獨立于機器的元件,用來觀察機器身體的其餘部分并發出行動指令。
綜上,我們需要三個要素:(1)會對刺激因素做出回應的身體;(2)一種通信方法;(3)一種算法,用以推斷出這些通信的原因和動機。
機器思維與人腦思維仍相差甚遠
要了解人類意識,我們需要深入研究心理理論(Theory of Mind)。不過遺憾的是,這個概念是模糊的,因為它在我們的日常生活中消耗了我們大部分的計算能力——我們的大腦一緻都被認為幾乎與心理理論機器一樣。那麼心理理論到底是什麼?
說白了,心理理論是一個人的大腦試圖了解另一個人的大腦在想什麼的一種理論,是個體對他人心理狀态及其與他人行為關系的推理或認知。例如,小紅想知道小明在思考什麼,于是小紅就會對小明目前的思想狀态建立理論進行推理,這樣做是為了猜測出小明下一步要做什麼。
在這個例子中,我們暫且把“小紅猜測小明在想什麼”稱之為一級心理理論,它也将變得越來越複雜。小紅也可能會很好奇小明是怎樣看待她的,這就屬于二級心理理論了,它是人類大多數的神經症和想法固執的根源。“小明認為我聰明嗎?”“小明喜歡我嗎?”“小明會希望我受傷嗎?”“小明是因為我做了什麼才變得心情好或心情壞嗎?”這類問題我們聽起來或許會覺得很熟悉,畢竟我們的生活中充滿了這樣的想法。而這僅僅是一個開始。
如果小紅想知道小明對于露西對湯姆的想法有什麼看法,那麼這就屬于三級心理理論了。再簡單地說,湯姆知道露西喜歡他嗎?或者,小紅可能想知道露西認為小明對小紅有什麼想法。這樣聽起來已經開始有點混亂,畢竟摻雜了好幾個名字,并且都用“思考”這個詞将其連在一起,但這恰恰就是我們的思想比任何其他層面上的意識思考更加迷人的所在。我們幾乎無法停止這樣思考。我們可以将其稱之為閑聊或社交活動,但我們的大腦認為這是它們的主要職責——也是它們的主要功能。有人推測,心理理論而非工具的使用,是一開始造成我們的人腦相對大小的原因所在。
以上聽起來頗有些哲學範疇了。而在橫沖直撞的人類世界裡,人腦良好的處理能力可以計算軌迹,形成一種意識,試圖了解另一個人的大腦在想什麼,是以有人發明了一個抛物線式的公式:F=ma,速度的平方。
不光是人類意識,大量研究表明,許多動物呈現出了不同程度的自我意識。譬如,動物可以辨識出鏡子裡自己的臉。動物和其他動物會就如何解決一個難題進行交流,然後獲得雙赢。甚至有大量證據顯示,章魚也擁有自我意識。但是,正如獵豹是陸地上跑得最快的動物一樣,人類是心理理論界的皇後與國王。
我曾經看到過我的狗在觀察我并猜測我接下來要做什麼。它或許在想,我是要把棍子扔掉呢還是不扔?我是要把最後一口食物吃掉呢還是分享給它?我甚至還見過狗狗在設法解決二級心理理論的問題。當它與一個小夥伴玩耍時,它就會來估計我的意圖是什麼。我突然打開包了嗎?或者這是另一個遊戲?我的狗應該站哪一邊?在動物世界裡,狗是一個很好的心理理論例子,因為狗經過多年的進化,與人類接觸的比較多,漸漸學會了一些人類行為線索。
随着機器人已經成為我們馴化的夥伴,要發展擁有自我意識的AI,就要繼續密切關注這個模型。他們中的一部分機器已經開始試圖猜測人類的想法,以及人類下一步會做什麼了。目前已經有人在開發一種汽車:能夠通過識别使用者臉部表情來确定使用者的注意力在哪裡、是否昏昏欲睡,這屬于一級心理理論,目前已被應用于上路的自動化駕駛汽車。
然而,對這些能力的進一步發展并不會引起自我意識的産生。下文有一個非常簡單的原因解釋了人類意識的神秘,盡管我們如今可以很輕松地在實驗室裡制造出“有意識”的機器,但并非有“自我意識”或“類似于人類意識”。
人腦子產品之間并非協同工作,這正是機器的誤區
與我們了解的相悖,人腦不是一個單一的、完整的實體,而是一個內建了成千上萬不同子產品的中心,隻有極少的部分互連。我們喜歡把大腦比作一個計算機晶片,甚至進一步将其精确地想象成一台電腦,有着獨立的中央處理單元,将RAM(短期記憶)、硬碟(長期記憶)、冷卻風扇(自主神經功能)、電源(消化)等等分離開來。
這雖是一個有趣的類比,但也是一個不可思議的誤導。電腦是一個有着一體化标準設計的精密裝置,各個部分的幾乎都是出于同樣的目的在同一時間設計,而且他們的設計目的在于與其他電腦能夠協同工作。但這些都與人類思維毫不類似,甚至相差甚遠。
人類思維更像是華盛頓特區或大型公司,龐大而複雜。大腦的某些功能在數億年前便已建立,例如它可以為單個細胞提供能量,也可以通過細胞膜提供鈉和鉀。而幾百萬年前建成的神經元,可以確定血液的注入和氧氣的吸入。大腦裡的每個子產品就像是一個擁擠的城市裡一個個單獨的建築一樣。其中的一些子產品甚至與其他子產品完全沒有交流。血液循環系統和呼吸系統可自由發展,但其他系統很容易發生争吵、擡杠、異議、對其他系統造成破壞等,緻使身體出問題。下面是一個例子:
幾個月前,我和女友從加拉帕戈斯群島動身去法國玻利尼西亞,需要花費兩星期到一個月的時間來穿越這片3000英裡的大海。我女友不常暈船,但在南太平洋一個稱為輻合區的區域,洶湧的海面使我們的帆船進入了奇怪且不平穩的節奏,她感到非常難受,而這種可怕的感覺持續了幾天。
暈船就是我們的大腦子產品之間不與彼此交流(或自己做自己的事)的一個例子。當我們周圍環境運動的視覺線索與我們的内耳(感覺平衡的所在)發出的信号不比對時,大腦就會認為我們被人投了毒。而毒素會擾亂我們的大腦處理,導緻其無能、産生異常資料,我們又不是水手,是以當我們看到的與運動不比對時,我們的身體會認為我們已經失去了用兩條腿保持平衡的能力,結果就是,我們清空了腸胃(去除了毒素),并躺下來,完全不想動彈(這阻止了我們因搖晃而從高處摔倒,進而導緻死亡的可能性發生)。
将人類大腦比作完美設計的台式電腦,這種類比顯然很失敗,而這個失敗的比喻将會引起一些可怕的立法和社會習俗的出現,因為我們似乎不能容忍與不同于我們自己(或平均水準)的設計。如果他們想要模仿人類行為的話,它還将會把人工智能研究者引向錯誤的方向,不可靠且雜亂脫節的自然處理系統将不得不通過設計内建,我們也将不得不故意打破系統,将它們自然随意地拼湊在一起。此外,我們還要模拟一個該子產品最奇特的功能,它用一種非常特殊的方式結合了心理理論。而正是這種結合引起了人類意識的産生,在我們為有自我意識的機器打造的藍圖中,它是最重要的一項功能。
機器還犯了一個最重要的錯誤
有了心理理論的概念,以及大腦子產品之間是不可靠且分離的這些知識,我們已經準備好去了解人類的意識,探索它是如何出現,以及它為什麼出現了。
就這一點指出了一個簡單的事實:人類意識并不是任何一種實物,它的出現沒什麼目的,也不會因進化而産生規模效益,但是在人腦的某兩個獨立子產品都非常有用時,它出現了,是以自我意識出現了。
其中的一個子產品是心理理論。而前文已經提到,心理理論将比任何其他進階的神經活動消耗更多大腦處理能力。而它又極其重要。是以這個子產品存在的問題在于,它不能用它的力量(心理力量)做選擇,而是将心理理論能力轉為身體指令。譬如,人覺得太冷就會起身調高空調。
fMRI機器的受試者展現出了一個心理理論特質。在實時觀察他們的大腦時,我們可以看到,每下一個決定,都在大腦的更高層次子產品意識到這個決定之前就做出了。過程大概如此:做出行動→然後觀察自己行動→最後告訴自己為什麼會這樣做(過程中,非常有用的心理理論工具仍将繼續運作,并整理自己的行動)。
更為明顯的例子來自于各種神經系統障礙患者。測試對象要麼是在視覺處理上有問題,要麼是兩個大腦半球之間是斷絕的,緻使其每隻眼睛可以顯示出不同的圖檔。例如,他們的一隻眼睛會看到一個耙子,而另一隻眼睛則會看到一堆雪。而他能夠看到耙子的那隻眼睛實際上是失明的,但由于子產品處理的圖像仍然是活躍的,是以當測試者被問及他所需要處理的圖像(看到雪的那隻眼)看到了什麼時,他會回答看到了“耙子”。是不是很有趣?然而真正有趣的是,盡管我們已經将整個過程解釋給了他們,這個人依然認為自己的答案是對的。
也就是說,執意建立一個有自我意識的機器,可能在浪費時間,也是以讓我認為所謂的“人工智能威脅論”可能性極小。我能想到建構這樣機器的唯一原因,就是要雇用更多的精神病學家。
“藍圖”回顧
回顧整個藍圖的起因,曾有一個艾倫·圖靈的圖靈測試粉絲找到我,她認為建立自我意識的機器将産生一種超級智慧的頭腦,能夠給出治愈癌症以及冷核聚變的方法,那麼我們要如何實際組裝出這個具有自我意識的機器呢?
應用我們所知道的頭腦理論和不相連的子產品,我們首先要建立的是一個意識方案(這些都很簡單,并且肯定已經存在了)。使用現成的技術,理想中第一台機器應該看起來像一輛自動駕駛車輛一樣,而且工作方式也類似。多年來,實作真正自主駕駛車輛的最大限制是意識裝置:傳感器讓車輛知道周圍将發生什麼情況,為機器裝上了眼睛和耳朵。
有了這些基本的感官,我們就使用機器學習算法來建構人工智能車輛要學習的各種行為。與大多數自動駕駛車輛的研究方向不同——那些工程師們通常想要教會他們的汽車如何安全地做某些事情——我們的團隊聚焦于教會一個城市網格中的傳感器陣列觀察其他車輛,并猜測它們想做什麼:
-那輛藍色的日産車想要去雜貨店,因為“它餓了”。 -那輛紅色的貨車正打算進入一個加油站,因為“它需要能量”。 -那輛汽車“喝醉了”,它似乎視力不太好。 -而那一輛汽車反應速度比較慢,它充滿了腎上腺素。
成千上萬的這些需求和拟人化的描述被建立在一個巨大的短語或指令資料庫中。如果我們正在建造一個人形機器人,那麼我們将做同樣的事情來觀察人,并為人類似乎在執行的各種行為建立一個詞彙庫。傳感器們将會通過掃描眼睛(這就是人類和動物的方式)來觀察意識對象。它們将通過我們的面部表情和身體姿勢(目前的系統已經能夠做到)來學習了解我們的心情。這個庫和傳感器陣列将形成我們的頭腦理論子產品。其目的隻是講述其他對象的行為。當我們讓它轉向自己的時候,魔法就會發生了。
我們的庫隻是按照一階概念開始的,但是建立在二階、三階的想法之上。譬如下列思考方式:
-那輛黃色的福特車看到灰色的雪佛蘭沖着它來了嗎?-它稍微轉動了一下方向,那麼是的。 -那輛面包車是否會認為這輛改裝過的高速汽車開得太過咄咄逼人?-它給它讓出的空間比給路上其他的汽車讓出的空間更大,那麼它确實是這麼認為的。 -那輛面包車是否認為所有改裝過的高速汽車開得過于激進?-它正在給Corvette讓出了同樣大小的空間,這輛車上的裡程表顯示它離開經銷商隻開出了兩英裡,哦,那麼答案就是肯定的。
到目前為止,我們需要使我們的機器能夠具備自我感覺,是以我們教它在城裡自己駕駛。然後,我們要求這輛人工智能汽車觀察自己的行為,并猜出它在做什麼。這裡的關鍵是,不要給予完美的意識。譬如,不要讓它通路已經标記好雜貨店位置的GPS單元。不要讓它知道車主手機的内容,丈夫發給妻子短信,要她在回家工作的路上接上孩子。為了模仿人類的行為,無知是關鍵。這樣就能確定最初的猜測,或者我們可能會稱之為“偏見”。
在我們的算法中,“早期的假設”被賦予“相對較晚得出的理論”更高的權重,那個時候已經有了更多的資料(克服初始偏差需要資料優勢。50%的可能性足以初步建立想法,但是要克服初始猜測就需要更高的可能性,比如需要75%)。然後錯誤的猜測會被調整,并為未來的錯誤建立雲端圖檔。是以,當一輛汽車每天停在加油站并插入電源插座時,即使汽車隻充到85%的電量,頭腦算法也假設它是安全的,或者足以為可能到來的飓風做好了撤離準備,就像三年前I-95那次瘋狂的逃跑,不會出現燃料耗盡的情況。
但它不知道的是,這輛汽車的乘客每天都在加油站吃一個微波爐加熱過的奶酪“小胖子”,還有一大堆炸薯條和半升蘇打水。後來,當這輛汽車經常去醫院的時候,它會認為這是一個關于汽車檢查的指令,而不會想到是車主充血性心力衰竭的發作。而所有機器的錯誤、困惑以及它對自己猜測的确定,又将給“人工智能威脅論”帶來熱議。
意識也有語言
人工智能算法可能先于人工智能誕生,算法反映了一種人類意識的秘方成分,這種成分就是語言。語言比任何其他特質都更能夠讓我們覺得自己的大腦是一個單一的子產品,是一個單一的裝置。
在提出“人類大腦不是一個單一的實體”引發争議之前,讓我們來看看我們的身體,大腦是其中的一部分。我們的身體由數萬億個不同的細胞組成,其中許多細胞可以在我們的身體之外生活和延續。我們的身體可以在實驗室裡活上幾十年(甚至無限期,可以搜尋Henrietta Lacks了解更多這方面的情況)。整個器官都可以住在别人的身體裡。而且我們體内還有更多的細胞并不是我們的,數量比那些組成我們身體的細胞還要多,因為有更多的微生物生活在我們的消化道裡、皮膚上以及其他地方,數量比實際上構成我們身體的細胞總數還要多。這不僅僅是一種搭便車的行為。它們會影響我們的心情、健康、思想和我們的行為。它們是我們認為的“自我”的重要方面。
這可能就像聽起來一樣恐怖,但的确是事實。有人可以在沒有胳膊、腿和大部分軀幹的情況下生活,有人失去了一半的大腦,卻還過着還算正常的生活。想想看:人到三十,幾乎每一個細胞已經都被不同的細胞所取代了,幾乎沒有一個剛出生時候的細胞會殘留下來。然而,我們仍然覺得這是同一個人。了解所有這些生物性以及人腦理性化“同一性”的方式,對于識别人工智能至關重要。
那麼語言到底有什麼了不起?
我上面提到,語言是意識的關鍵因素。這是在人工智能領域開展工作的一個非常重要的概念。然而,我們的大腦當中有許多子產品,會為了擷取我們的注意力和我們的語言進行中心(它緊緊地圍繞着我們的注意力,幾乎成為一體,或者可以說是一樣的)而争鬥不休。作為這方面的一個測試,你可以嘗試在聆聽有聲讀物或播客的同時與其他人交談,對于并發通信流來說,最為接近的場景是實時的同傳翻譯。
語言和注意力是我們大腦倒置的漏鬥上的窄口。成千上萬的不同子產品正在投入到這個漏鬥之中。荷爾蒙湧入、我們所處環境的特征、視覺和聽覺線索,甚至幻覺和不正确的假設。大堆大堆的資料隻能以單一流的方式被提取,因為受到注意力系統和語言系統的限制,這也正是顯示器為桌上型電腦提供的工作方式,所有的并行處理在最後一刻都是串行的。
這種做法會帶來非常可怕的後果。我已經記不起我曾經有多少次覺得自己好像忘記了什麼事情,結果在幾小時或者幾天之後才意識到忘記的是什麼事。譬如,曾有一次我把筆記本落在了房間,等到房門關上我才想起來忘記了什麼事。那是淩晨四點,而我要趕着去搭乘早班飛機。我也找不到可以——當時,我大腦一部分子產品在尖叫着“危險”,但單一的輸出流則按部就班地進行,輸出了一片空白。
所有這一切的奇妙之處在于,我知道這是如何發生的——危險子產品知道情況,可是它無法通過意識的管道發送出來,是以我還是關上了房門,隻有當它發出能夠聽見的“咔嗒”聲的時候,資訊才通過,是以我才想起來——在我腦海裡響起的警報是我的一部分,但是不是我的整體,隻有通過狹窄的語言走廊的東西才能被看到——這就是為什麼大腦語言中心受到傷害會影響正常生活和記憶子產品受損是一樣的道理。我應該在這裡說明一下,語言不隻是口語。
當Watson在智力競賽節目Jeopardy中勝出的時候,讓“他”在人工智能中獨一無二的是“他”的序列化輸出流,這使我們能夠與“他”聯系、聽他說話,我們可以在他的小藍色顯示器上閱讀他的答案,這最終爆發的輸出讓Watson看起來很像人類,但它終究不是人類。我們的自動駕駛人工智能車輛将不會擁有完全的自我意識,除非我們程式設計讓它告訴我們和它自己關于它的行為的故事,核心就在于,機器将會為它正在做的事情形成故事,但我們不應該讓它将這些故事與他人聯系起來。
譬如,谷歌人工智能可以畫畫、翻譯,并且在幾乎所有已經被創造出來的遊戲中擊敗了人類最好的對手,還可以比人類更好地駕駛汽車,谷歌已經閱讀并記住了幾乎所有被寫出來的書,并可以為你大聲朗讀這些書,它也像人類一樣犯錯誤,它容易産生偏見(或許是從環境和程式員那裡吸收來的),然而它缺少兩樣東西,就是自我引導循環(self-referential loop)和串行輸出流(serial output stream)。
一個更好的想法
為了讓我們的機器獲得類似人類的自我意識,我們必須讓它不顧上文所提到的“那台鎖在房間的筆記本”。這可能偶爾需要耗盡能量,通過程式設計為數以百計的輸入子產品配置設定權重,然後人為限制做出最終決定和頭腦理論故事所花費的時間和處理能力,這樣做比較容易。我們自己的大腦的建構方式就是通過擁有千兆位分辨率的傳感器,而每個輸入子產品都有兆次級吞吐量,但是輸出卻受到限制。然而我們不會将人工智能視為人類,因為我們永遠也不會建構這樣的限制。
IBM的Watson中建立了一個這樣的限制,這是為了适應節目Jeopardy的規則。Jeopardy需要速度,Watson不得不快速确定他的答案是否确定,以知道是否要按搶答器搶答。事實證明,按搶答器的時機是赢得Jeopardy的關鍵。經常讓Watson看起來非常接近于人類的不是它給出的正确答案,而是在它的顯示器上看到它的第二、第三和第四個猜測是什麼,每個猜測後面都有确定程度的百分比。真正讓Watson接近于人類的是它犯錯的時刻,就好像節目Jeopardy最後一個答案是屬于“美國的城市”這個類别,而Watson對這個問題給出的答案卻是一個加拿大的城市。(這裡值得注意的是,對我們人類來說,機器人在失敗的時候顯得最為人性化。)
汽車制造商正忙着制造我們永遠不會稱之為具有自我意識的車輛,那或許是因為他們把它打造得太好了。而我們的藍圖是使機器在對其動機一無所知的同時提供關于這些動機的運作對話,一個更好的主意是建立一個知道其他汽車在做什麼的機器,沒有猜測,而且也完全沒有運作的對話。
這意味着通路GPS單元、智能手機的文本、家用電腦的電子郵件,而且還可以通路其他的車輛和所有城市的傳感器資料。日産車告訴福特車,它将要去商場。每輛車都知道其他的每輛車都在做什麼。是以沒有碰撞。在高速公路上,具有相似目的地的汽車聚集在一起,磁性保險杠連接配接起來,共享一個滑流,并集體性地将每輛車的能量使用量減半。機器運作整齊劃一。它們顯示出車輛的所有能力特征。它們知道它們需要知道的一切,而且有了新的資料,它們就會立即改變主意。沒有偏見。
我們很幸運,這是人工智能研究人員今天建造的方向,它不會有那些我們在科幻故事中看到的怪癖,它将提供的是一個精心設計的系統,幾乎總是在做它的設計者讓它做的事情。事故将是非常罕見的,造成事故的原因能夠被了解,這種經驗将在機器當中廣泛分享,而且會不斷改進。
我們假設人工智能将給予我們更多的智力和創意産品(它們已經在這樣做了),通過疊代學習的算法(使用機器學習的神經網絡)變得更好,實際上它們在每一個我們已經提供資源的領域都已經證明了自己比我們更好。谷歌alphago在第三場比賽中的有一步棋是如此不尋常,令圍棋專家們大為震驚,它的下法被描述為“富有創意”和“巧妙的”。谷歌有另一種算法,可以畫出它所認為的貓的樣子,不是從其他地方複制的貓圖像,而是在學習了數百萬隻真實的貓的樣子後,畫出了一隻貓的“感覺”。
我們建造的大多數人工智能都不會出現像人類的這種情況。他們或許會更智能,也更不偏心:智能汽車将會殺死和傷害更少的人,使用更少的資源,并解放我們無數個小時的時間;智能醫療在組織掃描發現癌症方面已經做得更好了。人工智能律師在預審研究方面做得更好。——沒有什麼是人類能夠與人工智能競争的了,而是協同工作。
未來
未來,人工智能的數量和複雜程度絕對可以擴充到令人難以置信的程度。許多将被設計的能夠模仿人類,因為它們能夠通過電話和聊天機器人提供有用的資訊,并且它們試圖向我們出售商品和服務。絕大多數的人工智能在單一任務中将是非常有效的,即使這項任務與駕駛汽車一樣複雜。幾乎沒有一個人工智能會變得具有自我意識,這不應該是自動化機器的世界中存在的東西,因為這會使它們的工作變得更糟。
未來也有可能是我們自己内部算法的擴充和改進,這個世界對于絕大多數人類來說每一天都在變得更加安全。或者說道德水準正在提升。我們的同情心正在擴大。我們每個人都是我們自己内部算法的程式員,完善自己完全取決于我們自身。首先要了解我們的建構是如此地不完美,學會不要相信我們告訴自己的那些關于我們自己行為的故事,并讓我們自己在這個過程中緻力于消除錯誤并安裝更新的功能。
是以,我們也許永遠不會建造一個像人類一樣的人工智能。但是,我們人類意識卻可以得到更好的完善。
原文出處:科技行者
轉載請與作者聯系,同時請務必标明文章原始出處和原文連結及本聲明。