天天看點

2020科幻元年來了!面對愈發智能的機器,人類“最強大腦”有哪些建議?

雲栖号: https://www.aliyun.com/#module-yedOfott8 第一手的上雲資訊,不同行業精選的上雲企業案例庫,基于衆多成功案例萃取而成的最佳實踐,助力您上雲決策!
2020科幻元年來了!面對愈發智能的機器,人類“最強大腦”有哪些建議?

大資料文摘出品

作者:李佳芮

1982年《銀翼殺手》上映,電影中幻想着37年後的世界。現在是2019年12月,洛杉矶一切正常,我們沒有被“複制人”所帶來的倫理問題所困擾,也沒有擁有賽博朋克化的世界。

2017年,據《大西洋月刊》網站報道,Facebook人工智能研究實驗室使用機器學習來訓練聊天機器人程式,結果發現兩個機器人竟逐漸發展出了不同于人類語言的對話,研究人員不得不對其進行人工幹預。誠然,在人類看來,這些溝通不過是一堆亂碼。但是,從AI 智能體的角度看,這些内容是不是擁有詞義的“文字”呢?

2018年,一副人工智能畫出的肖像畫拍賣出了43.25萬美元的高價,機器算法背後是否有意識?是否可以欣賞美、進而創作美呢?

就現狀而言,人工智能産生情感與意志距離實作還有很長一段路要走,但是我們人類作為一個物種,真的有能力控制具有完全意識、不受監管、能自我完善的人工智能嗎?

由世界上最聰明的人組成的精英網絡沙龍Edge今年就圍繞“人工智能”這一主題進行了讨論,美國著名的文化推動者和出版人約翰·布羅克曼帶着25位頂尖思想家們溫故了維納的《人有人的用處:控制論與社會》後,撰寫文章,彙編成了一本文集《AI的25種可能》。這本書并不是評價人工智能的善惡,而是探讨人類與人工智能的關系。正如約翰·布羅克曼所言,“我們應該找到人工智能領域裡的主流者與持不同意見者,讓這些人都能闡發自己的觀點,以此來審視人工智能曆史的演變,以及人類和人工智能未來的幾種命運。”今天就讓我們先領略其中三位智者的觀點吧!

羅德尼·布魯克斯:人類在遭受剝削和攻擊

20世紀60年代,計算牢固地建立在圖靈和馮·諾伊曼奠定的基礎上,是以有限字母表為基礎的數字計算。在當時,圖靈和馮·諾伊曼既沒有預見到摩爾定律會帶來計算能力的指數增長,也沒有預見到計算機器會變得如此普及。他們還沒有預見到這兩個計算模型的發展,每一個都對人類社會構成巨大威脅。

第一個發展源于他們所采用的抽象概念。馮·諾伊曼在架構中将資料和指令存儲在統一存儲器的這一特征,被開辟了許多途徑。最常見的一種路徑稱為“緩沖區溢出”,它将一個大于程式員預期的輸入數字或長字元串溢出到存儲指令的地方。通過仔細設計一個迄今為止特别大的輸入數字,使用軟體的人可以用程式員不打算使用的指令感染它,進而改變它的行為。這是建立計算機病毒的基礎。現在人類幾乎一切都依靠計算機,從基礎設施到娛樂活動,所有這些都是脆弱得不堪一擊的。與此同時,我們社會的許多方面都可能受到惡性攻擊,不管攻擊來自職業罪犯還是民族國家的對手。這些及其他形式的數字攻擊使我們每天的日常生活不再有安全感。

第二個發展是計算不再是簡單的計算功能。機器不再簡單地計算一個函數,而是保持一種狀态,它可以通過呈現給它的請求序列,對人類進行推斷。當不同的程式在不同的請求流之間互相關聯,例如,将網頁搜尋與社交媒體網站相關聯,或者與在另一個平台上的支付服務相關聯。這時,由許多程式構成的總系統,由于程式之間互相溝通,以及它們與資料庫的通信,會帶來全新的隐私洩露。

人類已經陷入困境:我們正被一些公司剝削,這些公司提供了我們渴望的服務,但與此同時我們的生活卻依賴于許多軟體系統,這些軟體系統極易收到攻擊。讓人類擺脫困境将是一個長期任務。它将涉及工程、立法以及最重要的,道德上司力。

揚·塔裡安:人工智能風險資訊能夠拯救人類免于滅絕

我通過尤德考斯基的部落格接觸到了一個革命性的資訊:人工智能的持續發展會造成宇宙規模的變化,這個失控的過程可能會殺死每一個人。要避免這種結果,我們需要投入大量額外的努力。這個資訊太過瘋狂,不過這并不是科學幻想,而是一個非常嚴重的問題。

有一些人永遠不會承認人工智能有潛在的危險。否認人工智能風險的人通常都有經濟或其他的務實動機。其中一個主要動機是公司利潤。人工智能是有利可圖的,大公司追求自身利益,沒有人性,而這些利益可能與任何為他們工作的人的利益不一緻。另一個對人工智能風險視而不見的強烈動機是人類的好奇心。“當看到一些技術上會帶來甜頭的事情時,人們會想都不想隻管去做,隻是在技術成功之後才會争論該拿這個技術怎麼辦。人們就是這樣對待原子彈的。”羅伯特·奧本海默如是說。我們需要認識到進步未必一定會帶給我們一個美好的未來。

在我看來,人工智能風險的核心在于超級智能人工智能是一種環境風險。對于超級人工智能最關心的高效計算來說,地球目前的環境幾乎肯定不是最佳選擇。是以,我們可能會發現我們的星球突然從人為的全球變暖轉為機械化的全球冷卻。人工智能安全研究需要解決的一個重大挑戰,是如何使未來的超級智能人工智能——一種比我們人類的碳足迹大得多的人工智能,不要把我們的環境變得不适合生物生存。

我非常希望,世界上新一代的上司人把人工智能控制問題和人工智能了解為終極的環境風險,希望他們能夠超越通常的部落思維與零和博弈,引導人類越過這些危險地帶,進而打開通往太空的道路。它們已經等待我們幾十億年了。

阿萊克斯·彭特蘭:大資料的出現給了我們重鑄文明的機會

我們生活在一個史無前例的曆史時刻,一切都變得“資料化”,我們可以測量人類生活的大部分方面,乃至測量生活的所有方面。人類已經開始使用人工智能和機器學習來指導整個生态系統,包括人類的生态系統,進而創造人類-人工智能生态系統。我們要怎樣才能創造一個良好的人類-人工生态系統,一個不是機器社會,而是一個機器和人都能像人一樣生活在其中的網絡文明,一個具有人類感受的文明?

人工智能機制的關鍵就是分析它們的表現是否正确。我們需要真實的回報來使這個人類機制運轉良好,需要有好辦法來了解其他人在做什麼,以便我們能夠正确評估受歡迎程度,以及這個選擇正确與否的可能性。

下一步是為人類建立這個信度配置設定函數,有了這個回報功能,我們就可以建立一個良好的人類人工生态系統,也就是一個智能組織和一種智能文化。我們可以解決在許多不同的情景中建立準确的信度配置設定函數的問題。例如,在公司中,可以使用數字身份證來顯示誰與誰有聯系,這樣我們就可以每天或每周評估與公司結果相關的聯系模式。

接下來嘗試在更大規模上做同樣的事情,我稱之為建立資料信任網絡,你可以把它看成一個像網際網路一樣的分布式系統,但是它能定量測量,能傳遞人類社會特質,就像美國人口普查能告訴我們人口數量和預期壽命一樣。

在未來我們将如何通過建構人類-人工智能使人類更加智能化呢?有兩個方向:一個是我們可以信任的資料,這些資料已經被廣泛的社群審查過,這些資料的算法是已知的和可以監控的,就像我們完全信賴人口普查資料一樣,至少我們相信它們是近似正确的;

第二個方向是公正地以資料為導向對公告規範、政策和政府進行評估,這要基于描述目前情況的可信資料。可信的資料加上對規範、政策和政府的以資料為導向的評估,共同創造出一個信度配置設定函數,它可以提高社會的整體健康度和智能化。

本文部分節選自《AI的25種可能》

原文釋出時間:2019-12-09

本文作者:李佳芮

本文來自雲栖社群合作夥伴“

大資料文摘

”,了解相關資訊可以關注“