![]()
![]()
伴隨著人工智能迭代提速,“數字人”技術在場景落地與產業應用層面實現了關鍵突破。目前在電商直播、銷售客服等場景中,“數字人”已成為超級能干的“數字員工”。但與此同時,“數字人”的應用也帶來了亟待重視的倫理議題,其背后潛藏著技術深度嵌入現實所產生的倫理風險。為此,需要前瞻性地構建“數字人”發展的倫理治理框架,將以人為本、技術向善的理念轉化為可操作的規范與機制,共同塑造安全可信的數字未來。
“數字人”面臨的倫理困境
“數字人”作為以真人為藍本、在數字空間中生成的虛擬分身,既能精準復刻人類的外貌、聲音和行為舉止,達到“形似”,又能依靠算法注入的“類人心智”,具備近似人的思維、邏輯和價值判斷,實現“神似”。“形神兼備”的數字人正加速走進人類生活,化身帶貨主播、虛擬教師和情感顧問等多重角色,打通虛實邊界,深刻重塑人們的社交方式和勞動形態。
然而,當“數字人”愈發像人,甚至在某些維度超越人類之時,一連串追問也隨之而來:“數字人”算人嗎?應否被賦予獨立人格權?又能否承擔相應的倫理和法律責任?這些疑問集中折射出“數字人”面臨的倫理困境。不止于此,現實中“AI復活”逝者等做法,已引發較大關注。一旦“數字人”跨越生死邊界,必將深刻沖擊人類現有的倫理秩序。因此,“數字人”已成為當下緊迫的倫理議題,唯有在厘清風險的前提下實施有效治理,方能引導其健康發展。
“數字人”潛在的倫理風險
“數字人”在融入人類生活的過程中催生了主體弱化、情感異化和責任真空等倫理風險,給人們的自我認知、情感關系與責任意識帶來諸多挑戰。
人機邊界模糊造成主體弱化。“數字人”擁有近乎人類的外觀、思維和判斷力,可自主決策、自主行動。正是這種“像人”的特質,極易引起人們的信任和依賴,從而模糊人與工具的邊界,將其誤認為擁有獨立人格的“人”。這種誤認一旦形成,人與“數字人”之間的主體邊界就會發生松動,人可能向“數字人”讓渡自身的判斷和決策權,使得主客關系被倒置。而人一旦讓出主導權,便可能陷入技術依賴、認知退化的困境,最終在不知不覺中淪為“數字人”的附庸。
算法精準投喂引發情感異化。作為由算法驅動、可編碼的技術形態,“數字人”可按需定制各類近乎完美的人設,為人們量身織就帶有人性溫度的情感繭房,持續推送高度情緒化的內容,充分滿足人們的情感需求。當人們長期接受“數字人”的虛擬慰藉,蜷縮于彼此隔絕的繭房之中,便會對“數字人”產生情感依賴,進而忽視甚至放棄現實世界的社交和人際關系。
身份黑箱與平臺卸責形成“責任真空”。當“數字人”以高度類人形象活躍于數字空間時,其身份標識卻被算法黑箱和平臺機構層層遮蔽,難以有效溯源。一旦出現謠言、侵權言論等情況,平臺就有可能以技術原因進行推諉,致使責任主體難以鎖定,形成“無人可追、無責可負”的真空地帶。
“數字人”倫理風險的治理之道
為了推動“數字人”技術向善發展,需要為其設置底線:以風險預防原則構建治理框架,貫通技術合規、倫理干預和歸責機制三重防線,形成全鏈條、可監管、可追責的治理閉環。
一是堅持以人為本,重塑人機邊界。“數字人”作為人類創造的技術工具,需要被置于人類的主導和控制之下。為此,要明確“數字人”的工具屬性,所有應用場景均應嵌入不可移除的身份水印與實時風險提示,確保公眾能夠準確識別。要設置“人類最終決策權”機制,凡是涉及商業、金融、醫療等高風險場景,“數字人”僅能提供參考信息,最終決策權由人類掌握。要建立“數字人”發展的預警系統,實時追蹤其運行軌跡、決策邏輯與風險指標,防止其逾越倫理邊界。
二是筑牢情感護欄,拆解情感繭房。沖破“數字人”織就的情感繭房,離不開平臺和用戶的主動作為。平臺須履行首要責任,建立“數字人”交互的熔斷機制,實時監測用戶的使用時長與情感依賴指數,一旦超過設定閾值,立即中斷對話并提示回歸現實。當然,用戶也應具有“破繭”的清醒自覺,主動設定每日交互上限,定期審視情感依賴指數,一旦察覺沉溺跡象,就要實行“自我熔斷”,重返線下生活,用現實的人情溫暖取代虛擬的情感慰藉。
三是錨定責任主體,強化內容監管。破解“數字人”應用的責任真空狀況,需要建立“身份即責任”的約束機制。要建立“數字人”身份備案制度,以身份編碼對應運營主體。要推動算法透明化,規范保存運行日志,確保“可解釋、可審查、可追溯”。要加強平臺內容監管,對“數字人”產生的謠言、侵權言論及低俗信息實施實時攔截、人工復核、留檔備查,涉事主體依法即時追責,以剛性制度守護清朗數字空間。
(作者單位:上海交通大學馬克思主義學院)
原標題:《“數字人”越像人,我們越要守住這條線》
欄目主編:王珍
文字編輯:王珍
本文作者:馬尚明
題圖新華社記者 王全超 攝
圖片編輯:邵競
編輯郵箱:shhgcsxh@163.com





京公網安備 11011402013531號