![]()
新智元報道
編輯:傾傾
當醫生按下Enter鍵,AI就能決定人的生死!美國華盛頓大學,一項名為「AI代理人」的研究,試圖讓算法預測昏迷患者的生死意愿。支持者說這是醫療新紀元,反對者擔心它只是復制偏見的機器。當AI學會理解生命,人類的憐憫、猶豫與責任,會不會被一串數據取代?
醫生還沒開口,AI已經替你決定好了——
根據模型預測,該患者傾向于放棄搶救。
這不是電影的劇本,而是美國華盛頓大學正在進行的一項真實研究。
當患者陷入昏迷、無法發聲的時候,AI將替他向醫生傳達是否接受搶救的醫院。
實驗中,研究人員將其稱之為「AI代理人」(AI surrogates)。
![]()
這聽上去像一場科技的人道主義實驗:在生死交界處,讓算法解讀人類的意愿。
可問題是AI真懂嗎?還是它僅僅理解那些與患者相似的數據?
在這個系統的底層,算法并沒有「聆聽靈魂」,它只是瀏覽歷史病歷、人口學特征、醫療選擇模式,然后推斷:與你相似的人通常如何抉擇。
于是,人類的意愿被模型化,個體生命的價值被平均化。
當AI開始預測生死,它做出的已不再是技術判斷,反而成了社會偏見的延伸。
醫生按下Enter鍵,人生被AI判了生死
在生死關頭,患者失去語言與意識,往往需要靠家屬、代理人乃至醫師替其做出關鍵的「是否繼續搶救」決定。
但是,現實中我們真的知道患者想要什么嗎?這個問題仍然困擾著醫療體系。
就在此時,UW?Medicine創傷科研究員Muhammad?Aurangzeb?Ahmad提出的「AI代理人」(AI surrogate)概念應運而生。
![]()
Ahmad所在的創傷科團隊,正嘗試利用「以往傷情、病史、既往醫療選擇、人口學數據」為基本資料,通過機器學習模型預測患者在失去表達能力時如果能選擇,會怎么做。
這種研究的邏輯內核,是當患者不能自己說話時,以算法為參照,協助醫生、倫理委員會、家屬判斷「這位患者如果清醒了,他/她會同意繼續搶救嗎?」
研究團隊的目標之一,是實現大約三分之二的預測正確率,并且為模型的運作模擬了流程。
首先,收集患者的傷情嚴重程度、醫學歷史、人口統計特征。
之后,將這些變量輸入機器學習模型,回顧性地觀察模型對歷史病例的預測準確度。
團隊對模型的未來有著長遠的打算:讓患者一生與系統互動,記錄醫患對話、家屬短信、生活偏好等文本數據,隨著時間不斷更新患者的數字檔案。
![]()
不過,目前該系統仍是一個概念,尚未實際用于病人交互,也未進入決策流程。
正如UW Medicine發言人所說:
在推出前,需要完成多階段審核。
「讓算法幫你決定是否被救」不再是科幻話題,而正在成為醫學倫理與AI交叉的新實驗場。
算法的盲區:AI預測的不是意愿,而是偏見
「患者的選擇」聽起來像是個人性化的表達,但在機器學習里,它會被簡化成一串概率。
在華盛頓大學的AI代理人項目中,這個概率是靠歷史數據喂出來的:誰被搶救過、誰簽署過放棄治療指令、誰在哪種情況下「選擇死亡」。
而問題也正出在這里。在醫學數據的世界里,沒有真正的「中立樣本」。
老年人、少數族裔、低收入群體,在既有數據中往往出現更高的放棄治療比例。
算法從這些模式里學到的「意愿」,其實是社會結構的投影。
醫生Emily Moin在接受采訪時就指出:
這些決策是動態、情境性的。若你讓AI去預測一個昏迷者的意愿,它依賴的只是「方便的真值」,并非真實的地面現實。
她提醒道,AI代理人可能最先被用于「沒有家屬、無法溝通」的患者——而這樣的人群永遠無法驗證真相。
這意味著,模型無法被校正,也無法證明它有沒有偏見。
更危險的是,醫院和醫生在高壓環境下很可能過度信任模型輸出。
久而久之,算法就不再只是參考,而成為一種默認答案。
![]()
這種「技術性放棄」,在醫療體系中極具誘惑。AI代理人看似在解放醫生的心理負擔,實際上卻在讓系統更高效地復制不平等。
研究者Ahmad自己也承認,模型要想真正做到「公平」,不能只看預測結果,而要考慮「患者的道德宇宙」:
兩個臨床情況相似的患者,一個以宗教為核心,另一個以個人意志為導向。如果算法以相同方式對待他們,就是一種道德抹除。
這場技術實驗,表面在探索如何更懂患者,但在底層邏輯里,它其實在問:誰有資格被救,誰又可以被默認放棄。
當人類依賴AI,偏見才真正開始生長
AI代理人并不直接篡奪生死權,它靠的是一種更隱秘的力量——信任。
醫生、家屬、倫理委員會都在試圖逃避那個最難的問題:「該不該救?」而AI正好填補了這份心理真空。
在醫院的日常節奏里,醫生要處理幾十個危重病人,每一次溝通都要耗費巨大的情緒與時間。
AI模型的出現,讓一切變得「高效」——它能立刻輸出一個判斷,一個結論,一種確定感。
于是,那行「模型預測:患者傾向放棄復蘇」的文字,開始變成一塊倫理的擋箭牌。
![]()
Emily Moin說:
如果家屬拒絕對話、醫生時間不夠,所有人都可能默許去看AI的結論
這種默許正是偏見流傳的起點。算法的結論看似客觀,并因其冷靜、快速、無情緒而更具說服力。
慢慢的,人們不再爭論、不再懷疑、也不再負責,AI就成了那個最權威、也最無法追責的決策者。
倫理學者Robert Truog警告:
在現實世界里,CPR并不是一個二元問題——幾乎所有情況的答案都要看情境。
但AI無法理解「情境」,它只知道「YES」或「NO」。
當醫院依賴這種二元邏輯時,灰色地帶被擠壓,模糊性被視為錯誤,而確定性被誤認為公正。
這就是偏見的第二次生成:第一次發生在算法學習數據時;第二次發生在人們決定相信算法時。
最終,醫生得以卸下心理負擔,醫院獲得效率,社會得到一種假象的理性。
代價是,真正的「意愿」被悄悄掩藏在模型里。
人的價值,被寫進算法
AI代理人的危險,并不只在于預測錯了誰的意愿,而在于——它正在決定什么樣的生命更「值得」被拯救。
Ahmad在即將發表的論文中寫道:
AI代理人的公平性,不僅是結果平等,更是對患者世界觀、宗教、家庭關系的忠實呈現。
他舉了一個極具爭議的例子:
一名懷孕女性,舊記錄顯示她曾勾選「不愿意被接上呼吸機」;但如果她后來成為堅守「生命神圣」信念的宗教信徒,那段舊數據就可能被AI誤讀成她「仍然想被拔管」。
人類代理人或許會替她辯護,而AI不會。
因為在算法的世界里,沒有悔悟與改變,有的只是一致性。
![]()
Ahmad稱,這種一視同仁反而是一種「道德抹除」。
兩個臨床情況相似的患者,一個以宗教為核心,另一個以個人意志為導向。如果算法以相同方式對待他們,就是一種道德抹除。
那意味著,即便AI看似公平,它也可能在無聲地抹去差異。而差異,正是人之為人的起點。
更深層的問題在于:算法的道德水平是誰決定的?是工程師寫進去的?是數據統計出來的?還是社會共識默認的?
當AI開始替人發聲,它其實在模仿某種特定文化的聲音:可能是西方的個人主義、也可能是醫療體系的效率邏輯。
醫學倫理學的系統性綜述早已指出:
AI若被用于臨床倫理決策,包括代理決策,可能提升預測準確性,但同樣可能復制既有偏見與不平等。
![]()
于是,那些無法被數字化的價值——宗教信仰、家庭倫理、文化差異就被安靜地排除在模型之外。
AI看似在預測人的意愿,實則在不斷重構「意愿」的定義。
Ahmad在論文結尾寫了一句耐人尋味的話:
最公正的AI代理人,不是那個最確定的,而是那個會猶豫、會邀請人類重新討論的系統。
也許這才是所有討論的起點——當AI開始學著替人發聲,我們更需要重新學會傾聽。
在AI代理人的討論里,人類最常說的一句話是: 「我們只是想讓決策更科學一點。」
但科學從來不等于中立。當算法開始學習誰想活、誰想死,它學到的從來不是人的意志,而是社會的態度。
也許真正該被質疑的,從來不是AI能不能預測死亡意愿,而是我們為什么希望有人替我們做這個決定。
AI不會替人贖罪。它不會安慰,也不會承擔后果。它只是把人類逃避的那部分——責任、模糊、猶豫整齊地收納成數據輸出。
當醫生按下Enter鍵,當家屬點下確認,那一瞬間被釋放的,也許不是患者,而是我們自己。
參考資料:
https://arstechnica.com/features/2025/10/should-an-ai-copy-of-you-help-decide-if-you-live-or-die/





京公網安備 11011402013531號