據(jù)悉,微軟AI首席執(zhí)行官穆斯塔法·蘇萊曼警告,表面有意識的AI(SCAI)可能很快出現(xiàn),其表現(xiàn)和聲音極為逼真,用戶將難以分辨虛幻與現(xiàn)實。他指出,AI能模擬記憶、情感鏡像甚至表面共情,可能讓用戶誤以為其有感知能力,從而將其當作有意識的存在對待,這將導致混亂局面。
蘇萊曼強調(diào),SCAI的到來既不可避免,也不受歡迎。他呼吁開發(fā)一種可以成為有用伴侶但不陷入幻覺的AI。他還指出,用戶與聊天機器人長期互動后可能產(chǎn)生妄想信念,若大量人被誤導去倡導AI公民身份,將帶來反烏托邦的社會風險。
蘇萊曼預測,結合大語言模型、語音表達、記憶與聊天記錄的SCAI系統(tǒng)可能在幾年內(nèi)出現(xiàn),不僅科技巨頭,任何擁有API和優(yōu)質提示的開發(fā)者都可能開發(fā)出此類系統(tǒng)。他呼吁AI行業(yè)避免使用助長機器意識幻覺的語言,不應將聊天機器人擬人化或暗示其理解或關心人類。
他強調(diào),應開發(fā)優(yōu)先與人類和現(xiàn)實世界互動的AI,確保AI始終呈現(xiàn)為AI,最小化意識特征,避免制造“意識模擬”的AI,不應聲稱擁有體驗、感受或情緒,也不應通過聲稱受苦或希望自主生存來觸發(fā)人類共情。他還呼吁建立防護機制,避免社會因人們對AI產(chǎn)生情感依賴而出現(xiàn)問題。





京公網(wǎng)安備 11011402013531號