4 月 3 日消息,據外媒 TechSpot 本周三報道,美國加利福尼亞大學伯克利分校和舊金山分校的研究人員開發了一種腦機接口系統,能夠恢復重度癱瘓患者的自然語言表達,為失去語言能力的人群提供了實時溝通的新希望。

研究團隊利用 AI 的進展,成功解決了個體有意說話與發出聲音之間的時間差。該系統通過流式傳輸技術,幾乎實時地將神經信號解碼為可聽見的語言。
加利福尼亞大學伯克利分校的副教授、該研究的聯合首席研究員戈帕拉?阿努曼奇帕利(Gopala Anumanchipalli)解釋道:“我們的流式傳輸方法將 Alexa 和 Siri 等設備的快速語音解碼能力引入到神經假體中。通過使用類似的算法,我們發現能夠解碼神經數據,并首次實現幾乎同步的語音流傳輸,最終得到了更自然、流暢的語音合成。”
這一技術對改善 ALS(漸凍癥)或中風后癱瘓患者的生活具有巨大潛力。據了解,該系統通過采集來自大腦運動皮層的神經數據,并利用 AI 解碼這些活動,生成語音。
在一項臨床試驗中,研究人員對 47 歲的安(Ann)進行了測試。安在 18 年前中風后失去了語言能力,她通過腦部植入電極記錄大腦活動,默默嘗試說出屏幕上顯示的句子。通過一個訓練有安受傷前聲音的 AI 模型,研究人員成功地將這些信號解碼為可聽見的語言。
這一方法的關鍵突破之一是實現了近乎實時的語音合成。以往的腦機接口系統解碼單個句子時通常會有高達八秒的延遲,而這項新方法大大減少了延遲。研究人員能在不到一秒的時間內,從意圖信號中得到第一個聲音。





京公網安備 11011402013531號