AI正在破解人類大腦語言信號,最新研究表明轉化準確率高達80%
AI技術能夠破解我們的大腦嗎?最近,國外幾個科研小組給出了一個近似的答案。他們通過大腦數據訓練出了一種AI系統,在結合既有的深度學習以及語音相關技術,這套系統能夠將大腦活動數據“翻譯”為語音。
本文引用地址:http://www.ex-cimer.com/article/201901/396441.htm解讀大腦活動信息主要是為了那些喪失語言功能的人服務,比如患上漸凍癥的病人,他當他們喪失語言能力時候,基本上難以與外界交流,所以有不少研究學者在試圖攻克這塊難題,去解讀他們說話時的腦部信號。
據研究團隊介紹,收集大腦活動數據的過程非常艱難,研究所用到的神經網絡計算模型需要打開頭蓋骨植入電極的方式來獲取精準的數據,所以這套模型只有在少數腦外科手術的過程中進行信息收集。
在哥倫比亞大學計算機科學家Nima Mesgaran的研究中,他們先收集癲癇患者聽到聲音時候的聽覺皮層信息,然后再用神經網絡計算模型轉換成相應的語音信息,從而和原始信息進行比較。另外來自加州大學舊金山分校的Gopala K Anumanchipalli 教授團隊也做了類似的試驗,最終一些內容的識別率超過了80%。
再加上另外一些科研小組的數據,總結來看,當前幾個科研小組在研的重建語音技術準確率在40%到80%之間。
如果研究成功率更高,將意味著未來“漸凍癥”患者會擁有一種全新而又簡單的交流方式。
不過,遺憾的是,目前研究還處于早期階段,只可以收集解讀人們說話時候的大腦信息,當他們在心里默念或者思考時的大腦信號,目前AI還難以理解。
一方面,AI可以從人類大腦的構造中不斷地學習優(yōu)化,比如利用大腦的一些原理,人工神經網絡可以實現學習和自主學習。另一方面,AI又反過來深入理解我們的大腦活動。這是一個相輔相成的結果,或許未來有一天,AI真的可以理解人類的情緒,成為有“情感”的技術。
評論