AI 可將大腦信號解碼成語音
到目前為止,它只能發出你聽到的信息,還無法讀懂你的想法或任何別的信息。
據一篇新的研究論文顯示,AI演算法可以幫助科學家們處理腦電波,並將其直接轉換成聲音。
每當我們聽人們說話時,或者甚至想像人們說話時,我們大腦聽覺皮層中的神經元就會興奮。當我們想像人們說話時,大腦究竟如何解讀雜亂的聲波或如何複製這個過程還是未知數。然而神經科學家們已經表明,執行任務期間發出的腦電波模式可以拼湊起來、重建所說的單詞。它促進了構建神經義肢(neuroprosthetics)這個想法,神經義肢這種裝置充當腦機介面。
這組研究人員使用神經網路,努力推進名為聽覺刺激重建的技術。首先,利用80小時長的語音錄音內容來訓練自動編碼器,將音頻信號轉換成聲譜圖,詳細描述聲音中的不同頻率。
接下來,研究人員將電極直接搭在五名因癲癇接受腦部手術的參與者的腦部上。他們的聽力都很正常。他們都聽了30分鐘的短篇小說朗誦。故事隨機暫停,這五名參與者被要求朗誦最後一句話,以訓練音碼器。音碼器可以將特定的腦電波模式對應成可聽見的語音。
參與者聽了朗誦的一連串40個個位數字(0到9)。記錄下來的腦信號通過音碼器以生成音頻信號,然後這些樣本反饋回到自動編碼器進行分析,那樣系統可以重複被重建的數字。
你聽下面這段例子:
它有點像機器人發出來的聲音,細聲細氣,重複的只是0到9。
Mesagarani說:「我們發現,這些人在大概75%的時間內可以理解並重複聲音,這遠遠超過任何以往的試驗。靈敏的音碼器和強大的神經網路呈現了患者最初聽到的聲音,準確性高得出奇。」
雖然這個實驗很有趣,但仍然很簡單。系統只能重建聽語音的參與者發出來的信號,所以這不是他們自己的想法。此外,它只是朗誦個位數字,而不是朗誦完整的數字或甚至句子。研究人員希望用更複雜的單詞來測試系統,看看能否通過讓人說話或想像說話來達到同樣的效果。
Mesagarani說:「在這種場景下,如果測試者想『我需要一杯水』,我們的系統可以接受這個想法生成的大腦信號,並將它們轉換成合成的口頭語音。這將是改變遊戲規則的技術。它有望讓任何喪失講話能力(無論受傷還是生病)的人重新有機會與周圍的世界聯繫。」
論文:


※科大訊飛 1523 萬元中標北京市檢察機關智能語音雲平台建設項目
※AI 是一個大謊言
TAG:雲頭條 |