
斯蒂芬·威廉·霍金(Stephen William Hawking,1942年1月8日—2018年3月14日),男,出生于英國牛津,英國劍橋大學著名實體學家,現代最偉大的實體學家之一、20世紀享有國際盛譽的偉人之一。在很早之前,這位偉大的實體學家就曾經留給人們三條忠告
第一、不要以犧牲環境為代價來換取發展,保護好地球的環境
第二、不要過度發展人工智能技術
第三、不要試圖尋找外星文明,更不要去回複外星人的信号
并且在這之後,對世人說出了最後的警告,那就是:人類必須要在千年以内離開地球!
對于科學家霍金給出的警告,我們是否真的需要做好在千年後離開地球的準備呢?以目前的科技水準來看,現今的人類是根本無法在太空移民的路途中實作自給自足的。
為什麼即便霍金明知這會是一次沒有希望的旅程,還要如此堅定地要求我們離開地球,甚至還給除了離開的明确期限——1000年呢?!
在對于霍金的主張進行綜合考量之後,人們得出了這樣的結論,他之是以給出離開地球的警告,恐怕絕對離不開這三件事:氣候問題、核戰争和人工智能
第一、全球氣候變暖
關于氣候的影響,相信毋庸多言,大家都已經有切實的體會了。我們知道,地球70%的面積是海洋,但近年來随着溫度的不斷升高,海水含氧量的不停在降低,這直接導緻衆多海洋裡的生物,開始無法從海水中獲得足夠的氧氣來維持生存。
本以為能夠在海洋裡自由自在遨遊的生物,轉眼間面臨起了在海裡溺水而亡的威脅,地球氣候的不斷變化,冰川消融、海平面上升、降水規律變化,各種因極端氣候造成的災難頻繁發生,無法适應的物種逐漸被淘汰,走向滅絕
第二、核戰争
第二次世界大戰末期,美國在日本投下的原子彈而快速結束了這場戰争,這枚原子彈導緻了十萬人的死亡;曾經的諾爾切貝利事件,更是讓不少人開始變得談核色變。
著名科學家愛因斯坦見到日本被核爆後的慘狀之後也曾說,如果人類爆發了第三次世界大戰,那麼當第四次世界大戰爆發的時候,人們使用的武器恐怕就是木棍和石頭了,足可見核彈的可怕!
第三、人工智能技術
近年來,一切與AI技術相關的都是熱門話題,這是毋庸置疑的。的确,AI為人類的生活帶來了非常多的便利;但與此同時随着AI技術的不斷更新換代,最終會不會真的出現與人類智慧相當甚至于超越人類智慧的人工智能出現呢?
這個問題我們目前無從得知,但AI的發展雖然出自于人類之手,但細心觀察後就能感覺到,AI技術的發展速度與人類知識進化的速度相比,确實是我們人類無法企及和超越的。
是以,霍金先生才坦言,要以謹慎的态度去發展人工智能。
截至目前,在浩瀚的宇宙當中,仍然沒有發現類似地球或是比地球更适合人類居住的星球;是以,即便是千年之後人類真的想要進行太空殖民,恐怕在太陽系中也根本沒有我們的歸處。
未來的人類隻能着眼于太陽系之外的遼闊宇宙,在浩如煙海的群星中,給地球人類尋找下一個家園。不過話說回來,現今的人們與其擔憂未來的人類去哪兒,怎麼去;倒不如腳踏實地地好好解決好眼下地球的氣候變化問題,保持對人工智能的發展的謹慎态度,力争打造一個不會籠罩在核武威懾中的安樂家園。
朋友們你們認為呢,歡迎大家在下方留言讨論。