天天看點

新型腦仿半導體模仿人類智能

作者:Rain師兄
新型腦仿半導體模仿人類智能

受人腦啟發,研究人員開發了一種新型的突觸半導體,它具備進階思維能力。

這種裝置是由西北大學、波士頓學院和麻省理工學院(MIT)的研究人員設計的,它能像人腦一樣同時處理和存儲資訊。在最新的實驗中,研究人員證明,這種半導體不僅能完成簡單的機器學習任務對資料進行分類,還能執行關聯學習。

盡管以前的研究也利用類似的政策開發出了仿人腦的計算裝置,但那些半導體無法在低溫以外的環境中工作。相比之下,這種新裝置在常溫下也能穩定工作。它運作速度快,能耗極低,即使斷電也能保持存儲的資訊,非常适合實際應用。

該研究将于12月20日(周三)在《自然》雜志上發表。

“大腦的結構與數字計算機根本不同,”西北大學的馬克·C·赫薩姆說,他是該研究的共同上司者。“在數字計算機中,資料在微處理器和記憶體之間來回移動,這消耗了大量能源,并且在嘗試同時執行多個任務時會造成瓶頸。另一方面,在大腦中,記憶和資訊處理是共同位于一個位置且完全內建的,這導緻能效比數字計算機高出數個數量級。我們的突觸半導體同樣實作了記憶與資訊處理功能的并行,更加忠實地模仿了大腦。”

赫薩姆是西北大學麥考密克工程學院材料科學與工程的沃爾特·P·墨菲教授。他還是材料科學與工程系的主席,材料研究科學與工程中心的主任,以及國際納米技術研究所的成員。赫薩姆與波士頓學院的Qiong Ma和MIT的Pablo Jarillo-Herrero共同上司了這項研究。

新型腦仿半導體模仿人類智能

人工智能(AI)的最新進展激勵着研究人員開發更像人腦一樣運作的計算機。傳統的數字計算系統有獨立的處理和存儲單元,導緻處理資料密集型任務會消耗大量能源。随着智能裝置不斷收集大量資料,研究人員急于找到新的方法來處理這些資料,而不需要消耗越來越多的能源。目前,記憶電阻器,或“憶阻器”,是能夠執行結合處理和記憶功能的最成熟技術。但憶阻器仍然存在能源消耗高的問題。

“幾十年來,電子産品的設計範式一直是使用半導體建構一切,并使用相同的矽架構,”赫薩姆說。“通過在內建電路中簡單地裝入越來越多的半導體,已經取得了顯著的進展。你不能否認這種政策的成功,但它帶來了高能耗的代價,尤其是在目前大資料時代,數字計算預計将會壓垮電網。我們必須重新思考計算硬體,特别是對于AI和機器學習任務。”

為了重新思考這個範式,赫薩姆及其團隊探索了moire(莫爾)圖案實體學的新進展,這是一種當兩種圖案疊加在一起時産生的幾何設計。當二維材料疊加時,會出現一些在單層中不存在的新屬性。而當這些層被扭曲形成moire圖案時,電子屬性的前所未有的可調性成為可能。

對于新裝置,研究人員結合了兩種不同類型的原子級薄材料:雙層石墨烯和六角形硼氮化物。當這些材料疊加并有目的地扭曲時,它們形成了一個moire圖案。通過相對旋轉一層,研究人員甚至可以在石墨烯的每一層實作不同的電子屬性,盡管它們之間隻有原子級别的距離。通過正确選擇扭曲角度,研究人員利用moire實體學在常溫下實作了類腦功能。

“扭曲作為一種新的設計參數,其排列組合的可能性是巨大的,”赫薩姆說。“石墨烯和六角形硼氮化物在結構上非常相似,但有足夠的差異,使得你能夠獲得非常強大的moire效應。”

為了測試這個半導體,赫薩姆及其團隊訓練它識别相似但并不完全相同的模式。就在本月早些時候,赫薩姆介紹了一種新的納米電子裝置,它能夠以高能效的方式分析和分類資料,但他的新突觸半導體使機器學習和AI技術更進一步。

新型腦仿半導體模仿人類智能

“如果AI旨在模仿人類思維,最基礎的任務之一就是對資料進行分類,即簡單地将其分門别類,”赫薩姆說。“我們的目标是将AI技術推向更進階别的思維。現實世界的條件往往比目前AI算法可以處理的更複雜,是以我們在更複雜的條件下測試了我們的新裝置,以驗證它們的進階功能。”

研究人員首先向裝置展示了一個模式:000(連續三個零)。然後,他們要求AI識别類似的模式,例如111或101。“如果我們訓練它檢測000,然後給它111和101,它知道111與000的相似度比101高,”赫薩姆解釋道。“000和111不完全相同,但都是連續的三個數字。識别這種相似性是一種更進階别的認知形式,稱為關聯學習。”

在實驗中,新型突觸半導體成功地識别了相似模式,

展示了它的關聯記憶能力。即使研究人員給它不完整的模式,它仍然成功地展示了關聯學習的能力。

“目前的AI很容易被混淆,這在某些情況下可能導緻嚴重問題,”赫薩姆說。“想象一下,如果你正在使用自動駕駛車輛,天氣條件惡化了。車輛可能無法像人類駕駛員那樣準确解讀更複雜的傳感器資料。但即使我們給我們的半導體不完美的輸入,它仍然能夠識别出正确的響應。”

這項研究,“具有室溫類腦功能的莫爾突觸半導體”,主要得到了國家科學基金會的支援。

新型腦仿半導體模仿人類智能

繼續閱讀