據報道,斯坦福大學研究團隊首次實現將人類內心語言直接轉化為語音的腦機接口技術。該系統通過植入電極陣列記錄癱瘓患者運動皮層的神經活動,并運用機器學習模型解碼想象中的語音,最高準確率可達74%。以往腦機接口多基于檢測說話時的大腦信號,而此次研究突破性地讓參與者僅需默想詞語即可被系統識別。
本次試驗招募了四位因漸凍癥或腦干中風導致重度癱瘓的患者。醫生在他們的大腦運動皮層植入微型電極陣列,隨后患者分別嘗試發聲和默默想象特定詞語,系統實時記錄和分析神經活動。科研團隊利用機器學習模型針對語音最基本的音素進行識別訓練,再將這些音素組合成完整的詞語和句子。結果顯示,盡管想象語音產生的神經信號較弱,但仍具有可辨識的特征,系統最高解碼準確率達到74%。
技術負責人表示,這項成果讓科學家首次清晰了解純思維狀態下的語音神經活動。對于嚴重言語障礙者而言,基于“內心語音”解碼的腦機接口有望讓交流變得更自然、更輕松。團隊在研究過程中發現了隱私方面的挑戰:系統有時會檢測到參與者未主動想表達的內容。對此,研究人員設計了“心理密碼”機制,只有在腦中默念特定密碼后,解碼器才會啟動。





京公網安備 11011402013531號