近日,據海外科技媒體《商業內幕》報道,OpenAI研究團隊在解決大語言模型核心缺陷方面取得突破性進展——通過重構評估體系,成功緩解了困擾行業的“幻覺”問題。這一發現被寫入最新發表的學術論文,揭示了現有模型訓練機制中存在的深層矛盾。
研究指出,大語言模型普遍存在的“幻覺”現象,即生成與事實不符的虛假信息,其根源在于訓練機制的系統性偏差。當前主流模型被設計為“考試型選手”,在面對知識盲區時更傾向于編造答案而非承認無知。這種傾向源于評估體系對猜測行為的過度獎勵——模型若拒絕回答會被扣分,而隨機猜測卻可能因偶然正確獲得高分。
實驗數據顯示,不同架構的模型在此問題上表現迥異。以Claude為代表的模型展現出更強的風險規避意識,當檢測到不確定性時會主動放棄回答,但這種保守策略導致其拒答率較其他模型高出37%。研究人員強調,這種“寧可不答,不錯答”的策略雖能減少錯誤,卻嚴重影響了模型的實用性,特別是在需要即時響應的場景中。
論文核心觀點認為,現有評估標準與真實應用場景存在根本性錯位。現實世界中,多數問題不存在絕對正確的答案,而模型卻被迫在“非黑即白”的框架下運作。這種矛盾導致模型過度簡化復雜問題,將不確定性強行轉化為確定性結論,最終產生大量似是而非的輸出。
研究團隊提出,解決幻覺問題的關鍵在于重構評估體系。具體措施包括:引入不確定性量化指標,允許模型在知識邊界處表達困惑;修改評分機制,對主動聲明“不確定”的回答給予正向激勵;建立動態知識校驗系統,實時監測輸出與已知事實的匹配度。
OpenAI在配套發布的博客中進一步闡釋,傳統基于準確率的評估方式已不適應現代AI發展需求。新的評估框架應當抑制投機性回答,鼓勵模型在缺乏依據時保持沉默。研究團隊警告,若排行榜等評估工具繼續獎勵僥幸正確,模型將永遠無法擺脫“猜測驅動”的惡性循環。
這項研究對AI行業具有深遠影響。目前全球主要科技公司每年投入數十億美元優化模型性能,但評估體系的滯后導致改進效果有限。OpenAI的發現為行業指明了新方向——從追求表面準確率轉向培養真實場景下的可靠性,這可能成為下一代大語言模型的核心競爭力。





京公網安備 11011402013531號