許多患有神經疾病的患者因喪失語言能力,需要依賴特定的通訊設備進行溝通,這類設備大多利用腦機接口或者頭部、眼睛的動作來控制光標,以選擇螢幕上的字母,從而拼出他們想說的句子。但是,這個蹦單詞的過程,實在無法與人類的正常說話過程相比。
3 月 30 日,《自然 - 神經科學》發表了美國加州大學舊金山分校華裔教授 Edward Chang 及同事開發的一款腦電波 AI 解碼器,能夠將大腦活動信號直接轉化為句子文本。
當人類思考時,大腦皮層中的神經元會產生微小的電流,不同的思考活動,激活的神經元也不同——這就是腦機接口技術所依靠的原理。但始終以來,腦機接口在解碼神經活動方面只取得了有限的成功,其準確率仍然遠遠低於解碼自然言語——過去的腦機接口只能解碼口頭詞語的片段或口頭詞組中不到40%的詞語。
研究中,4名受試者此前顱內均被植入了用以監測癲癇的電極,電極會將他們大聲讀出句子時的神經活動記錄下來。之後,這些記錄被添加到一個循環神經網絡中,從而將規律性出現的神經特徵透露出來,這些神經特徵可能與言語的重複性特徵相關。接著,另一個循環神經網絡逐字解碼這種算法,形成句子。
這種機器翻譯方法將一名受試者的神經活動解碼為口頭句子的錯誤率,已經和專業級言語轉錄相當。此外,如果利用某人的神經活動和言語對循環網絡作出預訓練後再在另一名受試者身上作出訓練,最終的解碼結果有所改善,這意味著這種方法在不同人員之間或許是可轉移的。
讀完這項研究,第一個想起的是科幻小說《三體》中的三體人。
三體人無法掩藏內心的想法,說什麼就是什麼,思維透明,直來直去。若真有這樣一個靠腦電交流的社會,是會更加高效理性,還是乾脆就亂了套?當然,近期來說,機器解碼神經活動,並將其高準確率地翻譯成人類能理解的語言,能幫那些因各種原因無法開口的人重新和世界成立連接,是偉大的進步。只是這種「翻譯」的效率和可處理語言的複雜度,恐怕都需要相當長的時間才能達到可用的程度。
文章來源: https://twgreatdaily.com/zh-cn/dF6rOHEBnkjnB-0ztkVX.html