![]()
新智元報道
編輯:peter東
微軟AI負責人Mustafa Suleyman表示,只有生物體才能具備意識,開發者和研究人員應該停止追求讓AI具有意識。
讓AI具有意識是個偽命題!
如果你問錯問題,你就會得到錯誤的答案。
如何讓AI具備意識,這就是一個錯誤的問題,因為AI根本就不可能具備意識。而當前很多AI陪伴產品,其ppt是宣稱要在未來讓ai具有意識。
微軟人工智能領域的頂級高管Mustafa Suleyman,撰寫了《浪潮將至》,曾多次反對這樣的觀點。
![]()
他今年8月的博客文章,標題是「我們必須為人構建AI,而不是成為一個人」。
![]()
在休斯頓的AfroTech會議上接受CNBC采訪時,他說:「我認為人們不應該做以構建有意識的AI為目標的工作」。
![]()
Suleyman強調:區分人工智能變得更聰明和更有能力,與它是否能夠擁有人類情感甚至意識是兩個不同的問題,這兩者的區別尤其重要。
這一觀點與奧特曼不謀而合。
在8月份接受CNBC的《Squawk Box》節目采訪時,他表示,通用人工智能不是一個很有用的描述,真正發生的是模型正在快速進步,我們將越來越依賴它們「做更多的事」。
![]()
這意味著不必等到實現了AGI,先讓AI有了意識,我們當下依舊能讓AI變得更有用。
意識依賴于生物腦的生化過程
![]()
如今已有越來越多的證據,支持生物自然主義。
根據生物自然主義,我們的身體疼痛體驗讓我們非常悲傷,感覺非常糟糕,但人工智能在經歷‘疼痛’時并不感到悲傷。
實際上,機器只是在創造感知,似是而非的經驗和自我,以及模擬意識存在.
但這并不是它實際經歷的事情。從技術上講,你知道這一點,因為我們可以看到模型正在做什么。
我們今天賦予人們權利,是因為我們不想傷害他們,因為他們會遭受痛苦。他們有避免痛苦的偏好。
然而,大模型沒有這些。它們只是模擬。
如果一些人開始嘗試開發有意識的AI,并且這些AI說服其他人它們可以感到痛苦,或者它們有不被關閉的權利。
那由于意識按定義是無法觸及的,屬于個人體驗。那么總有一天,這些人會發展到爭論法律該不該賦予AI伴侶的「人權」。
在一個已經因為身份和權利問題而爭論激烈的世界里,這將為支持者和反對AI權利的人之間增加一個混亂之源。
它使人們與現實脫節,磨損脆弱的社會紐帶,占據了寶貴的注意力資源。
然而,這樣的討論完全缺少科學依據。
這就是為何Suleyman堅決反對討論AI意識的原因。還是讓我們將所有精力集中在保護地球上人類、動物和自然環境的福祉和權利上吧。
不擁有意識也可以做好AI產品
隨著AI伴侶產品的競爭,各家都想讓自己的產品具有個性,以此留住用戶。
對此Suleyman在巡回演講及博客文章中分享了他對微軟產品的看法。
例如,微軟宣布為其Copilot AI服務推出新功能,包括名為Mico的AI伴侶以及與他人進行群聊中與Copilot互動的能力。
![]()
Suleyman表示,微軟正在構建意識到自己是AI的服務。
之所以要讓AI意識到自己是AI,是因為微軟要創建始終服務于人類的AI,而不是模仿人類的AI。
Suleyman還介紹了微軟近期推出的一項名為「真實對話」的功能。
![]()
這是一種Copilot的對話風格,旨在挑戰用戶的觀點,而不是一味奉承。這樣的對話下,AI會給用戶辛辣的批評。
人工智能本身充滿了矛盾。
AI不擁有意識,也一樣可以有自己的價值觀和性格。
AI伴侶可以在某些方面令人失望,同時卻又完全神奇,Suleyman在采訪中指出
如果你不感到害怕,那就說明你對AI真的不懂。你應該感到害怕。
恐懼是健康的。懷疑是必要的。
我們不需要無節制的加速主義。
參考資料:
https://www.cnbc.com/2025/11/02/microsoft-ai-chief-mustafa-suleyman-only-biological-beings-can-be-conscious.html





京公網安備 11011402013531號