隨著大語言模型的進化,關于“人工智能是否產生意識”的討論已從科幻電影走進了科學實驗室。然而,劍橋大學研究意識的哲學家湯姆·麥克萊蘭德(Tom McClelland)近日發(fā)表的一項研究卻給這股熱潮澆了一盆冷水。他指出,由于人類對意識本質的理解尚存巨大鴻溝,我們或許永遠無法得知機器是否真的“亮起了意識之燈”。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
麥克萊蘭德在《Mind & Language》期刊上分析稱,目前關于人工意識的討論存在嚴重的定義混淆。他認為,我們必須區(qū)分“基礎意識”(如感知世界)與“感受能力”(即經歷痛苦或愉悅的能力)。目前,科技行業(yè)正經歷一場“信仰式的飛躍”:有人相信只要模擬了大腦的信息處理結構,AI 就有意識;而有人則堅稱意識必須扎根于生物有機體。麥克萊蘭德認為,在這兩種立場找到確鑿證據之前,最理性的態(tài)度應當是“不可知論”。
AIbase 注意到,該報道還揭示了一個被忽視的倫理矛盾。目前,許多科技公司利用“AI 具有類人意識”的話術作為營銷賣點,誘導用戶建立深層情感紐帶。麥克萊蘭德警告稱,如果我們過度關注一個本質上是“高級烤面包機”的程序是否受委屈,反而會讓我們忽視現實中如對蝦等極具感痛能力、卻正遭受大規(guī)模傷害的生物。
麥克萊蘭德最后總結道,在下一次“范式革命”到來前,人類很難設計出真正可靠的機器意識測試。在無法證明的情況下,保持克制與謙遜,既是對科技發(fā)展的理性觀察,也是一種必要的倫理平衡。
劃重點:





京公網安備 11011402013531號