如果研究成功率更高,将意味着未來“漸凍症”患者會擁有一種全新而又簡單的交流方式。
AI技術能夠破解我們的大腦嗎?最近,國外幾個科研小組給出了一個近似的答案。他們通過大腦資料訓練出了一種AI系統,在結合既有的深度學習以及語音相關技術,這套系統能夠将大腦活動資料“翻譯”為語音。

解讀大腦活動資訊主要是為了那些喪失語言功能的人服務,比如患上漸凍症的病人,他當他們喪失語言能力時候,基本上難以與外界交流,是以有不少研究學者在試圖攻克這塊難題,去解讀他們說話時的腦部信号。
據研究團隊介紹,收集大腦活動資料的過程非常艱難,研究所用到的神經網絡計算模型需要打開頭蓋骨植入電極的方式來擷取精準的資料,是以這套模型隻有在少數腦外科手術的過程中進行資訊收集。
在哥倫比亞大學計算機科學家Nima Mesgaran的研究中,他們先收集癫痫患者聽到聲音時候的聽覺皮層資訊,然後再用神經網絡計算模型轉換成相應的語音資訊,進而和原始資訊進行比較。另外來自加州大學舊金山分校的Gopala K Anumanchipalli 教授團隊也做了類似的試驗,最終一些内容的識别率超過了80%。
再加上另外一些科研小組的資料,總結來看,目前幾個科研小組在研的重建語音技術準确率在40%到80%之間。
不過,遺憾的是,目前研究還處于早期階段,隻可以收集解讀人們說話時候的大腦資訊,當他們在心裡默念或者思考時的大腦信号,目前AI還難以了解。
一方面,AI可以從人類大腦的構造中不斷地學習優化,比如利用大腦的一些原理,人工神經網絡可以實作學習和自主學習。另一方面,AI又反過來深入了解我們的大腦活動。這是一個相輔相成的結果,或許未來有一天,AI真的可以了解人類的情緒,成為有“情感”的技術。