6 月 16 日消息,據外媒 New Atlas 14 日報道,腦機接口技術迎來一項重大突破:加州大學戴維斯分校研發的新型植入系統,讓一位癱瘓患者不僅能順暢說話,甚至還能借助電腦“哼唱”旋律,幾乎沒有任何延遲。

研究團隊在一位漸凍癥患者身上試驗了這項技術。通過在大腦中控制發音的區域植入四組微電極陣列,系統能實時捕捉說話時產生的神經信號,再結合低延遲處理和 AI 解碼模型,將這些信號同步轉化為語音,在揚聲器中播放。
需要強調的是,這項技術并不是在“讀心”,而是識別出患者嘗試發聲時大腦發出的運動指令。系統合成出的聲音與患者本人極為相似 —— 這得益于在其發病前錄制的語音樣本訓練出的聲音克隆算法。
從信號采集到語音生成,全程只需 10 毫秒,幾乎可以實現實時對話。
系統還能識別出患者試圖唱歌的動作,判斷其想表達的音高,并據此合成旋律。在研究團隊發布的視頻中,這一功能尚顯初級,但對于那些逐漸失去表達能力的人來說,無疑是一種重獲聲音的希望。

該研究論文的資深作者 Sergey Stavisky 表示,這一進展為腦機語音合成帶來了轉折點。他說:“借助即時語音輸出,神經義體用戶能真正參與對話 —— 他們可以打斷別人,也更不容易被別人誤打斷。”
該系統能復現“啊”“喔”“嗯”等語氣詞,判斷句子是疑問還是陳述,甚至辨別出強調詞語的位置。研究團隊還指出,系統能準確合成此前從未見過的虛構詞語。這使得語音表達更自然、更具表現力。
從報道中獲悉,研究人員也指出,目前試驗僅在一位患者身上進行,下一步將拓展至其他因不同原因喪失語言能力的人群,以驗證技術的普適性。





京公網安備 11011402013531號