電腦,可以擁有思維能力嗎?
“人工智能之父”,艾倫·麥席森·圖靈(A.M.Turing)認為可以,并且在20世紀50年代提出了一個概念:圖靈測試。如果一台機器可以通過圖靈測試,就說明這台機器擁有思維能力。
圖靈測試的具體過程是:
一個人通過某種方式和一個“對象”進行一系列問答,經過一段時間,如果人無法判斷“對象”是人還是機器,那麼機器就通過了圖靈測試。
艾倫·麥席森·圖靈(A.M.Turing)
直接問ChatGPT
ChatGPT可以直接了解成“聊天機器人”,我覺得關于圖靈測試的問題,可以問一問它“本人”,于是就有了下面的對話:
雖然ChatGPT已經做出了回答,但是這場對話還遠沒有結束。閑聊了一會兒之後,我又問起了圖靈測試的問題:
還是同樣的答案,隻是說得更詳細,不過有意思的事情才剛剛開始。又閑聊了一會兒,我再次問起了圖靈測試的問題,它的回答變了:
這讓我忍不住想再問一遍圖靈測試的問題。閑聊了一會兒,我又一次問起了同樣的問題:
這一次,ChatGPT的回答有些圓滑了,我沒有再問相同的問題,至于ChatGPT究竟能不能通過圖靈測試?
我算是有些懵,不過ChatGPT最後一次的回答似乎是在質疑圖靈測試的功能,這讓我又問了一個新問題:
我總覺得ChatGPT說的話有自相沖突的地方,我覺得我應該用一些人類遇到的難題去考驗ChatGPT的“思考能力”。
考驗ChatGPT的問答
理發師悖論:
從這個對話來看,ChatGPT根本就沒有了解理發師悖論,至少在這一局,ChatGPT并不智能。
電車難題:
從這個對話來看,ChatGPT也沒有了解電車難題,也算不上智能。不過這一次,我又問了一遍同樣的問題:
這一次确實有讓我意想不到的結果,ChatGPT開始狡辯了,展現了一點智能。
忒修斯之船:
這一次,ChatGPT沒有自相沖突,算是表現不錯。
之後,我還問了一些瑣碎的問題:
ChatGPT對這些問題的回答稱得上是中規中矩,可以算是展現了一點智能,不過我也發現了ChatGPT的一個“軟肋”:實體知識。
我通過上面兩個問題完全确定了ChatGPT根本就不知道“引力場能量的非定域性”是在說什麼。
而且,ChatGPT回複實體問題的時間總是比回複其它問題的時間長得多,這足以說明實體知識是ChatGPT的一個“軟肋”。
或許,其它專業學科的知識也都是ChatGPT的“軟肋”。
大家覺得ChatGPT的表現如何?
ChatGPT究竟能不能通過圖靈測試?
ChatGPT會不會形成自我意識?
ChatGPT會不會取代一些人的工作?