IT之家 11 月 22 日消息,據新華社,天津大學人工智能學院于強教授團隊聯合國際科研人員,在理解大腦神經網絡信息處理機制方面取得研究進展。
該研究聚焦于神經網絡的基本單元 —— 突觸,首次揭示了其在處理時空信息過程中的核心工作機制。相關研究成果已于 11 月 22 日發表于國際權威學術期刊《美國科學院院刊》(PNAS)。
![]()
▲ 圖為神經網絡存儲容量和噪聲魯棒性分析結果
在大腦中,數量龐大的神經元通過稱為“突觸”的連接點,以脈沖形式傳遞和處理信息。對突觸工作機制的模擬與計算,是人工智能發展的重要借鑒方向。突觸具備兩種關鍵的調節能力:其一為“長時可塑性”,即其連接強度能夠長時間增強或減弱,這被視作長期記憶形成的基礎;其二為“短時可塑性”,指其在極短時間內動態調整信號強度的能力。這兩種可塑性均至關重要,但二者如何協同作用以共同影響大腦的學習效率與信息處理能力,此前尚未明確。
![]()
針對這一科學問題,研究團隊通過構建突觸計算與學習的理論模型開展研究。研究發現,當“長時可塑性”作用于“短時可塑性”時,大腦能夠將時間序列上的信息轉化為空間上的模式表達。這一機制的運作,被證實能顯著提升神經網絡的記憶容量、抗干擾能力以及對復雜時空信息的識別能力。該理論模型在小鼠和人類大腦皮層的突觸電生理觀測中得到了實驗驗證,顯示出較高的生物學合理性。
于強教授在介紹研究成果時比喻道,該發現如同找到了大腦在處理信息時的“協作密碼”。他指出,該研究不僅有助于闡釋大腦信息處理的底層原理,也為開發更具可解釋性、通用性的下一代人工智能方法提供了理論支撐。
IT之家附論文地址:https://doi.org/10.1073/pnas.2426290122





京公網安備 11011402013531號