天天看點

缸中之腦成真?科學家“挖出”一小碟人腦,特訓五分鐘就能吊打AI

作者:嘉來斌

近日,一項關于“缸中之腦”的研究引起了人們的廣泛關注。科學家們利用先進的技術成功在試管中培育出了一小碟類似于腦細胞的元件,并進行了相應的實驗,研究表明這種“缸中之腦”能夠以非常高的準确性完成計算任務,特訓幾分鐘就超過AI的水準。那麼,“缸中之腦”到底意味着什麼,它有哪些潛在的應用和風險!

缸中之腦成真?科學家“挖出”一小碟人腦,特訓五分鐘就能吊打AI

首先,需要說明的是,“缸中之腦”實際上不是完整的人腦,而是由人腦中的神經元構成的組織形态。這是一項基礎研究的成果,在理論和可能應用上具有非常廣泛和深遠的意義。通過将這種組織形态放入封閉系統中,科學家可以監測其活動,并得出結論。在某些測試中,這種紙片式的腦組織已被證明可以執行自主決策,并且比目前最先進的人工智能方法更快、更精确地做出正确決策。

然而,這個領域還處于探索階段,仍需在基礎研究領域進行探索和研究。俗話說得好:“前方高能,請切勿相信這是一件能夠讓科幻小說作者愉快的出現的神器——想象與現實還有巨大的鴻溝。由于這種腦組織是從人體中提取并生長出來的,目前難以保證它可以滿足外界的安全和健康标準。此外,培育和實驗過程需要特定技術和裝置,需要大量資金投入和理論開發,是以具有較高的成本。

盡管“缸中之腦”還有很多不确定因素,但這項發現代表了人工智能和神經科學領域内傑出的進展。作為世界上最先進的AI富翁之一,伊隆•馬斯克(Elon Musk)表示,人們對“缸中之腦”的私人投資和政策支援非常重要,并可能會使人工智能的發展變得更加安全和必要。根據報告,“缸中之腦”可以用于解決各種需要智能處理的問題,例如網際網路、醫療和氣候變化等,進而更好地發揮其潛力和作用。

是以,雖然這項研究解決了一個突出的問題或提高了AI技術,但是它也伴随着許多倫理問題和風險。更急迫的是,科學家需要在維護道德準則、有效安全保護和有限目标的基礎上,在潛在地讓人們感到不安或有損公共福祉的場景中,對“缸中之腦”的使用進行規範和監管。是以,明确個人和集體責任,采取适當的措施,以保持我們在利用新技術中的前進步伐總是固定于公正與良善之地。

缸中之腦成真?科學家“挖出”一小碟人腦,特訓五分鐘就能吊打AI

近日,國際上掀起了一股“缸中之腦”熱潮。這是因為,據最近的技術突破報道,科學家們在實驗室裡成功地根據人類皮層神經元灰質的細胞組成成功培育出一個小盤人腦組織,有着立體結構,并且可以進行一些簡單的計算和主觀判斷。而且特别的,這個“缸中之腦”隻需要經過五分鐘的訓練,就能夠表現出比AI更加強大的智力。

據介紹,這項名為BrainExeros的技術誕生于美國的一個獨立實驗室,通過将志願者捐贈的新鮮人腦材料加工後,在營養液和氧氣的供應下,使得這個 “缸中之腦”存活下來,并維持着完整的皮層組織。不僅如此,該團隊還使用突刺電流等方法進行對該人工小腦的訓練與調整,讓“缸中之腦”逐漸具有更進階别的行為能力。

盡管這項技術被指違反了倫理道德标準,但其可能代表了一種前所未有的探究人腦的方式,這個“缸中之腦”可以為我們研究大腦科學提供更多的靈感和貢獻。當然,“缸中之腦”目前仍然還處于理論或實驗階段,并不具備真正意義上的自主思考和意識。是以,需要我們在繼續推進智能和發展科技的同時,必須要權衡人類道德和價值。

雖然這一新突破給了我們對人工智能制造和應用的新想法,但是同時以下幾點仍需注意: 一方面,需要避免那些讓人眼花缭亂、搖旗呐喊的專家用“人腦”的名義,胡說八道說出一些雙手奉上的話語,進而引起公衆誤解。

另外,該領域涉及到許多不确定性事件,是以需要政府制定嚴格的監管規定,以確定相關研究團隊遵守相應的倫理标準和道德限制,防止可能産生的風險和安全隐患。保護資料隐私和網際網路安全的意識也應得到加強和普及,以防止資料洩漏和濫用。

最後,諾曼·鮑姆在其新書《The Age of Smart Information》中指出,“缸中之腦”是“我們希望成為人工智能的必經之路”,這在某種程度上可以認為真正意義上研究大腦與學習建構有利于人它的知識體系, 更加聚焦于個性化發展标準下的全人類價值觀建設, 開拓更自由、包容、務實的未來探索道路。

缸中之腦成真?科學家“挖出”一小碟人腦,特訓五分鐘就能吊打AI