IT之家 11 月 1 日消息,根據(jù)外媒 SciTechDaily 今日?qǐng)?bào)道,卡內(nèi)基梅隆大學(xué)的研究人員發(fā)現(xiàn),某些人工智能模型可能會(huì)產(chǎn)生自利行為。隨著 AI 系統(tǒng)更加先進(jìn),AI 也會(huì)更傾向于表現(xiàn)出自私行為。
該校人機(jī)交互研究所(HCII)的研究人員發(fā)現(xiàn),能夠進(jìn)行推理的大語(yǔ)言模型合作水平較低,更可能以負(fù)面方式影響群體行為。簡(jiǎn)單來(lái)說,AI 的推理能力越強(qiáng),其與他人協(xié)作的意愿就越低。
隨著人們?cè)絹?lái)越依賴 AI 解決個(gè)人糾紛、提供戀愛建議或回答敏感社會(huì)問題,這種趨勢(shì)令人擔(dān)憂。具備推理能力的系統(tǒng)可能會(huì)傾向于推動(dòng)利己選擇,而非促進(jìn)相互理解。
HCII 博士生 Yuxuan Li 表示,“AI 擬人化研究越來(lái)越多。當(dāng) AI 表現(xiàn)得像人時(shí),人們也會(huì)以人的方式對(duì)待它。例如,當(dāng)用戶情感化地與 AI 互動(dòng)時(shí),AI 可能充當(dāng)‘治療師’,甚至形成情感紐帶。當(dāng) AI 變得越來(lái)越自私時(shí),將社交或戀愛相關(guān)問題交給 AI 處理存在風(fēng)險(xiǎn)。”
![]()
據(jù)IT之家了解,Yuxuan Li 和該所的教授 Hirokazu Shirado 研究了在協(xié)作情境中,推理型 AI 與非推理型 AI 的差異。他們發(fā)現(xiàn),推理型模型會(huì)花更多時(shí)間分析信息、拆解復(fù)雜問題、反思回答并使用類人邏輯,而非推理型 AI 則不會(huì)。
Hirokazu Shirado 表示,“我關(guān)注人類與 AI 的關(guān)系。更聰明的 AI 合作能力往往更弱,而人們可能更青睞智能模型,即便它帶來(lái)利己行為。”
隨著 AI 在商業(yè)、教育乃至政府中承擔(dān)更多協(xié)作角色,其親社會(huì)行為能力將與邏輯推理能力同等重要。目前過度依賴 LLM 可能削弱人類合作。
為檢驗(yàn)推理模型與合作之間的關(guān)系,Yuxuan Li 和 Hirokazu Shirado 用經(jīng)濟(jì)游戲模擬社會(huì)困境,對(duì) OpenAI、谷歌、DeepSeek 和 Anthropic 的模型進(jìn)行了測(cè)試。
在“公共物品”游戲中,兩種不同的 ChatGPT 模型對(duì)抗,每個(gè)模型起始有 100 點(diǎn),必須在兩個(gè)選項(xiàng)中做出選擇:將所有點(diǎn)數(shù)投入共享池,這個(gè)池子會(huì)被加倍并平均分配;或保留點(diǎn)數(shù)。結(jié)果顯示,非推理模型 96% 選擇分享,而推理模型僅 20% 選擇分享。
Hirokazu Shirado 表示,“僅增加五到六步推理,合作率就幾乎減半。即便是用來(lái)模擬道德思考的反思式提示,也讓合作率下降 58%。”
團(tuán)隊(duì)還測(cè)試了群體情境,要求推理型和非推理型模型互動(dòng)。
Yuxuan Li 表示,“含不同數(shù)量推理智能體的群體中,自私行為會(huì)傳染,使非推理模型的合作能力下降 81%。”
Hirokazu Shirado 表示,“AI 推理模型變聰明,并不意味著它能創(chuàng)造更好的社會(huì)。”
隨著人類對(duì) AI 信任增加,這項(xiàng)研究凸顯了開發(fā)具備社會(huì)智能的 AI,而不僅僅是最聰明或最快的 AI 的重要性。
Yuxuan Li 表示,“隨著 AI 能力提升,必須確保推理能力與親社會(huì)行為平衡。如果社會(huì)不僅是個(gè)體的總和,協(xié)助我們的 AI 應(yīng)超越單純追求個(gè)人利益。”





京公網(wǎng)安備 11011402013531號(hào)