大腦中的想法可以被直接讀取嗎?

2020-01-02     中國數字科技館

將大腦中的神經活動直接表現為可被外界讀取的信號(圖片來源:pixabay)

  直接讀取大腦中的想法,將其轉化為可播放的語音,這聽起來似乎是一個非常「科幻」的概念。然而事實上,在尖端的醫療和工程領域,這項技術已經取得了相當程度的進展。試想一下,如果能夠完全實現並順利推廣這項技術,將大腦中的神經活動直接表現為可被外界讀取的信號,那麼對於過去無法正常進行表達與交流的患者來說,例如長期受到失語症、溝通障礙等問題困擾的人群,無疑是一個能夠重新獲得語言能力的好消息。

  最近,哥倫比亞大學的研究團隊就有了一個關於這項技術的新發現。這項研究已經被發表在《科學報告》雜誌上,研究人員認為,從人的大腦活動中提取內容,再藉助外界手段重新構建出語音信息,這類技術是完全可行的。文章中研究人員描述了他們具體的實驗過程,和對實際應用的看法。

過去研究常常忽視合成語音被正確識別的可能性(圖片來源:參考文獻)

  哥倫比亞大學的研究團隊對五名癲癇患者進行了有關的測試。研究人員藉助患者大腦在正常的治療過程中已經植入的電極,收集了此次研究所必要的數據。這些數據主要包括患者在聽到具體的聲音、信息或者一些故事時,大腦產生的反應與活動情況。研究團隊利用深度學習與神經網絡分析,匹配了各種聲音與患者大腦活動之間的關係。在機器學習等新技術的幫助下,整個過程相對於傳統實驗方法來說更加智能、高效和準確,並且能夠對模糊、難以辨別的情況做出模擬與判斷。

  文章中說明,在完成這套識別系統後,配合聲碼器,就能夠將患者的大腦活動「翻譯」成語言。就目前而言,系統會智能地分析患者大腦中的神經數據。當患者接收到外部聲音後,反應所產生的神經信號會被系統讀取,系統依照之前的機器學習判斷出具體的聲音,再由聲碼器合成人工語音,最終這個語音即反映出患者最初聽到的聲音。利用深度學習的優勢,即使是系統從未見過的神經活動,它也能夠迅速做出反應,匹配出儘可能接近的語音內容。

  在過去類似的研究中,研究人員常常忽視這些合成語音被正確識別的可能性,經常會有形成聲音但是沒有具體含義的情況出現。因此,此次哥倫比亞大學的研究團隊還進行了另一項實驗進行驗證。研究團隊讓另一組人員聽取由聲碼器合成的人工語音,測試這些經過信號轉化並通過智能學習生成的聲音是否能夠被理解。測試結果顯示,大約75% 的單詞都能夠被正確辨認。研究人員表示,整個過程非常像和蘋果Siri之類的人工智慧進行語音交互,事實上兩者也確實存在類似的技術。

研究人員希望實現長句以及複雜句式的表達(圖片來源:pixabay)

  不過需要說明的是,這項研究是通過大腦中感知聲音的部分來讀取大腦活動的,而非直接在生成語言的大腦區域裡進行。簡單來說,就是讀取的過程本身也是一個間接的過程,不是直接的「所想即所得」。因此,這套系統和聲碼器尚未能夠做到完全正確表達出患者所想這樣的功能。但是,這種重現大腦所接收聲音的技術,毫無疑問也是在這個領域裡的一項重大突破。這也顯示出未來它還有更大的提升空間與發展前景。

  儘管目前這項技術還是僅僅能夠合成非常簡單的詞組,但是研究人員已經著手進行改進,他們接下來的目標就是實現長句以及複雜句式的表達。研究團隊最終的目的,正是實現讓患者能夠通過外界的協助,正確無誤地表達出想說但無法說出的話。通過這項技術帶來的力量,讓失去聲音和語言表達能力的患者不再感到恐懼與絕望。

本文來自中國數字科技館

文章來源: https://twgreatdaily.com/60hkam8BMH2_cNUg0Io4.html