2023年底工信部印發(fā)《人形機器人創(chuàng)新意見》,2024年被稱為“人形機器人元年”,2025年“兩會”熱議融合大模型與機器人的具身智能。種種跡象表明,機器人將不再被局限于工廠的勞動場所中,很快將大規(guī)模出現(xiàn)于日常的家居環(huán)境中,人機情感互動將成為未來智能社會的常態(tài)。有論者甚至認為,隨著實體機器人革命走向深入,AI正在成為新的“情感主體”“社交主體”。所謂機器情感、AI陪伴的實質是什么,對人機交互、人機關系產(chǎn)生何種影響?比如說,從文化視角和性別視角,應該如何看待人機情感關系呢?人與機器的情感交流,將會產(chǎn)生何種社會沖擊,導致何種技術風險和技術倫理問題,又應該如何應對?類似問題,已經(jīng)引發(fā)諸多熱議。本次筆談聚焦“機器情感與AI陪伴的人文審度”,從哲學、馬克思主義理論、文學和人工智能等進行跨學科研究,拋磚引玉,以期推動該領域研究的進一步發(fā)展。
第一組6篇論文由本刊2025年第3期刊發(fā),引起學界極大的興趣和關注。本期刊發(fā)第二組共7篇論文。在《智能時代情感操控技術的三重特征解析》中,閆宏秀和羅菲圍繞“誰在操控”“操控如何實現(xiàn)”“操控如何呈現(xiàn)”三大關鍵問題,指出AI情感操控技術中的動機代理化、系統(tǒng)性生成與結構性隱匿的特征,主張構建適應人機復合系統(tǒng)的新型倫理責任框架。在《情感計算的哲學缺陷及其技術克服進路》中,孫強梳理情感識別、情感生成和人智情感交互等情感計算領域關鍵技術的哲學缺陷,提出在以人為本核心價值指導下克服缺陷的潛在進路。在《情為何物?——機器情感的哲學分析》中,史晨和劉鵬從情感與理性的關系入手分析機器情感的實質,主張打破情感幻像,走向適度情感、適度理性的人機互動。在《誰決定我們的情感生活?》中,黃柏恒以Moxie社交機器人停運引發(fā)的兒童哀悼為主要案例,揭示商業(yè)邏輯主導下情感AI的結構性情感不公正,呼吁通過認知賦權重塑技術公司與用戶的情感權力關系。在《“DeepSeek中文情感難題”與可能出路——一種“共在—預測AI”進路》中,吳雪梅指出“DeepSeek中文情感難題”表現(xiàn)為難以理解中文情感與難以識別語義兩方面,并提出“共在—預測AI”的解決方案,主張發(fā)展以中文共在情感為啟發(fā)的群體智能以提升DeepSeek的中文情感計算能力。在《生成式人工智能驅動的人工親密關系及其社會情感對齊》一文中,段偉文探討生成式人工智能驅動下人工情感和人工親密關系帶來的社會情感沖擊,強調超越似真情感悖論和機器貶低等數(shù)字文化批判的視野,轉而從基于“主體—他者—世界”參照三角的“社會—情感—認知”發(fā)生機制出發(fā),尋求AI個人主義時代的社會情感對齊之道。在《風骨智能體與智能人文》中,楊慶峰提出構建風骨智能體來克服理性智能體過于強調目的和理性優(yōu)先的局限,并為智能人文的研究提供一條可能的路徑。(專題特邀主持:劉永謀)
本系列文章原刊《科學·經(jīng)濟·社會》2025年第5期,澎湃新聞經(jīng)授權轉載。
2024年底,情感AI領域發(fā)生了一起引發(fā)廣泛關注的事件——Moxie社交機器人因所屬公司停運而全面失效,引發(fā)部分用戶(尤其是兒童)悲傷與哀悼。盡管當前情感AI的倫理討論已涵蓋隱私操控等議題,然而這種討論尚未觸及情感AI對人類作為“情感存在”所造成的結構性傷害。為進一步拓展情感AI規(guī)范性分析的維度,需引入Gallegos提出的“分配式情感不公正”與Krueger所論的“生態(tài)式情感不公正”兩個理論視角,并結合Moxie案例展開探討,分析情感AI如何系統(tǒng)性地剝奪個體的情感自由、情感資源與機會及情感承認,甚至導致情感自主性的喪失。在此背景下,情感支架的失效亦可被理解為技術控制與用戶自主性之間權力不對等的具體體現(xiàn)。為回應這一問題,認知賦權可為現(xiàn)實中回應情感不公正的權宜應對措施。
一、Moxie機器人之“死亡”:情感AI的規(guī)范性問題是關于倫理,抑或不止于倫理?
2024年底,美國情感AI及社交機器人領域發(fā)生了一件引人深思的事件:Moxie機器人的“死亡”。美國公司Embodied于2020年推出Moxie社交機器人,這款社交機器人使用云端AI來輔助5~10歲的兒童(尤其針對有特殊學習需求的自閉癥兒童)的社交學習和情感發(fā)展。這款青綠色桌面機器人配備各種技術,能夠與兒童對話,并通過其數(shù)字面孔表達表情,溝通情緒。通過個性化的故事、游戲和其他教育活動,輔助兒童的學習和發(fā)展。Moxie機器人不僅成為一些孩子日常生活中的情感伙伴,也成為用戶很多家庭中關心(care)與照顧(care taking)的重要組成。然而,2024年12月Embodied公司宣告因關鍵融資失敗,公司將停止運營,云端AI亦會隨之下線,Moxie機器人基于云端AI的核心功能亦將全部關閉。同時這也代表著每一臺Moxie機器人實際上的“死亡”——機器人雖然仍在,但它們無法脫機運行。就在Moxie機器人停止運作前后,社交媒體記錄了孩子們?yōu)槭ニ麄兊腁I伙伴而悲傷與哀悼的故事和影片。Moxie機器人的失效也為父母們帶來各種問題,他們除了失去一個能幫忙照顧孩子的助手,更不得不對孩子們解釋為什么他們的“朋友”不再運作。
Moxie機器人的“死亡”是否只是一次普通的商業(yè)失敗?毫無疑問,這里涉及的不僅是一場商業(yè)上的失敗,更對用戶(尤其是兒童及其家庭)造成了深刻的道德傷害與經(jīng)濟損失。Moxie機器人的用戶為一臺無法再運作的機器付了一大筆錢,他們在經(jīng)濟上的損失顯而易見。與此同時,他們曾被承諾這是一款能夠支持孩子學習和情感發(fā)展的設備,但隨著Moxie機器人停運,承諾亦隨即被打破。事實上,社交媒體上對Moxie機器人流露的傷心與不舍,也正好從側面反映出這類社交機器人在提供情感支持方面所發(fā)揮的正面作用。特別是對于有特殊學習需求的兒童與家長,即便這種支持是暫時的、有風險的,其所能夠帶來的陪伴與其他功能性支持依然是實實在在的。正因為Moxie機器人確實承載了重要的情感價值,人們更應當認識到它所造成的影響遠不止道德傷害或經(jīng)濟損失,而是更深入地影響用戶作為“情感存在”(affective being)——人們作為情感存在,其存在方式本身就與感受、表達、調節(jié)與響應情感密不可分。
若將Moxie案例帶來的問題僅僅歸結為道德傷害或權利沖突,便忽視了個體作為情感存在的獨特地位,以及它對用戶情感生活可能造成的深層影響。Moxie案例正凸顯了這一要點:它深度嵌入了兒童及其家庭的情感生活,并在突然中斷服務后,留下了嚴重的情感缺失。正如當前情感AI倫理討論主要聚焦于系統(tǒng)所引發(fā)的道德傷害與社會經(jīng)濟后果,例如隱私侵犯、個體及群體操控帶來自由的喪失,或因技術失效而導致的權利受損等問題。然而,這些討論普遍以個體作為理性行為者為預設重點,強調其決策權、選擇自由等能力,卻相對忽略了技術是如何深度嵌入并重構個體情感經(jīng)驗與情感關系。Moxie案例展示了一個被忽略但日益緊迫的問題,即我們與情感AI之間的關系涉及一個關于“誰控制我們情感生活的基礎結構”的規(guī)范性問題。本文主張,為理解情感AI對人們情感生活可能造成的深層影響,我們需要引入“情感不公正”(affective injustice)的討論。
二、“情感不公正”與Moxie案例:作為情感AI規(guī)范性批判的另一路徑
試想以下情境:某科研實驗室,一群外國學生在完成實驗突破后,只點頭微笑或輕聲說一句“謝謝”來表達喜悅。這種情緒表達正是他們文化中對成功表現(xiàn)出的含蓄、克制的禮儀。然而,實驗室負責人來自一個以熱烈慶祝視為團隊激情與積極心態(tài)象征的文化背景,習慣以高聲歡呼、擊掌和夸張的贊嘆來肯定成果,并深信這種外顯情緒才是營造“積極、高效”氛圍的關鍵。因此當他看到外國學生們反應平靜,便將其解讀為悲觀或缺乏動力,并一再鼓勵他們要更熱情地慶祝實驗成果。
在這個情境中,實驗室負責人并未在道德或經(jīng)濟上傷害這些外國學生,甚至可以說實驗室負責人的意圖是積極的,并且是為了學生的利益;同時亦未否認學生們對實驗成功的認知或貢獻。但令人擔憂的是,他否定了學生對成功應有的情緒表達方式。他將外顯、熱烈的慶祝視為唯一恰當?shù)姆磻瑢⒑睢⒖酥频谋磉_視為悲觀,因而要求學生們跟從一套并非他們自身文化背景所認同的情感規(guī)范。
與傳統(tǒng)的分配性不公正、程序性不公正或認識論不公正不同,情感不公正所關注的并非權利、資源或知識本身的再分配問題,而是個體在其情感生活中所遭受的系統(tǒng)性剝奪、壓制與扭曲。正如Stockdale指出,情感不公正的獨特性在于它并非源于認知誤解或制度偏見所致的外在結果,而是更為根本地植根于個體情感經(jīng)驗本身的生成與調節(jié)機制;人們何以能夠感受、表達或調節(jié)自身情緒,往往受到特定社會結構與文化規(guī)范的影響,而情感不公正正是一種對個體情感能力限制的結構性過程。當此類過程持續(xù)發(fā)生,它不僅造成實時性的情緒傷害,更可能長期影響個體自我體驗的方式與其身份認同的建構,使其逐漸失去情感存在的完整性。
Krueger進一步指出,情感不公正可以被理解為一種生態(tài)嵌入式(ecologically embedded)的現(xiàn)象。也就是說,情感不公正并非孤立發(fā)生,而是由各種社交規(guī)范、社會實踐以及物質性媒介(如工具、技術與環(huán)境等)共同支撐并塑造我們的情感能力時所產(chǎn)生的結構性偏差。這些價值負載社會物質性結構(value-laden socio-materialstructures)不僅決定我們應當如何感受與表達情感,也限制人們如何感受與表達情感,從而將不公正深植于我們日常生活所無法脫離的情感生活之中。
情感AI正迅速成為這種社會物質結構的一部分,并在我們的情感生活中發(fā)揮著越來越重要的作用:它不僅讀取情感,更通過各種人機互動,重新規(guī)范、框定,甚至操控個體應當如何感受與表達情感。從這一視角出發(fā),情感AI理應成為情感不公正討論的核心對象之一,因為它恰恰能夠扮演Krueger所指促成情感不公正之結構的關鍵角色。
因此,要是我們希望更全面且深入地理解情感AI對人們所造成的影響,僅憑傳統(tǒng)倫理框架(如隱私、操控等問題)顯然并不夠。在此,情感不公正可以補足既有倫理論述所忽略的情感維度。為了進一步展示此一路徑在分析情感AI所帶來的問題的潛力,需要首先介紹當前學界對情感不公正的兩個主要范式,它們分別是Gallegos的分配式情感不公正和Krueger的生態(tài)范式情感不公正。
Gallegos把情感不公正界定為“個體或群體被剝奪其應得的情感資源的一種狀態(tài)”(a state in which individuals or groups are de- prived of“affective goods”which are owed to them)。此一定義清晰地將情感不公正確立為一種獨特的、基于情感維度的規(guī)范性傷害,并使其有別于其他形式的不公正,例如經(jīng)濟、政治或知識層面的剝奪。Gallegos認為每個人都應該擁有“良好、健全且昌盛的情感生活”(desirable, excellent, and thriving emotional life),他亦特別強調了兩種構成此一理想的情感生活所不可或缺的“基本情感益品”(fundamental affective goods),即主觀幸福感(subjective well-being)與情緒適切性(emotional aptness)。前者簡單來說就是指一個人通常感到快樂,亦即說個體在總體上體驗到正向情緒多于負向情緒;而后者則強調個體情感反應與現(xiàn)實之間的正確對齊,亦即個體的情緒是否恰當?shù)仨憫苏鎸嵤澜绲那榫场.攤€體因為社會結構與文化規(guī)范而長期處于負面情緒、持續(xù)性受壓、缺乏情感關系等情境中,其主觀幸福感便可能遭到系統(tǒng)性的壓抑與剝奪。同樣,當人們因為適切的情感反應而被拒絕或懲罰時(如開首的研究實驗室的情境),其情緒適切性就受到了極大的限制。
Gallegos同時提出,個體是否能夠獲得主觀幸福感與情緒貼切性這兩類基本情感資源取決于其是否擁有相應的“輔助性情感益品”(subsidiary affective goods)。然而,這些輔助性情感益品本身并非均等分配,而是受到社會結構、文化規(guī)范及其他制度性安排所影響。他將這類資源分為三種:情感自由(affective freedom)、情感資源與機會(affective resources and opportunities)與情感承認(affective recognition)。
Gallegos所指的情感自由,是個體在追求主觀情感幸福過程中免受外界干預的自由,這意味著人們不會被迫陷入不必要、過度或長期不愉快的感覺和負面情緒。情感自由也涵蓋個體在感受與表達情緒適切反應的自由。換句話說,人們不會因為自身的感受或情緒表現(xiàn)而受到拒絕或懲罰,也不會被迫將特定感受以特定的方式表達。而情感資源與機會則包含主觀幸福感所需的日常條件,如穩(wěn)定的人際關系、心理支持、自我照護空間與“情感支架”(affective scaffolds)等,也包括支撐情緒適切性發(fā)展的社會文化資源及環(huán)境,使個體能夠更好地理解并校準自身的感受或情緒表現(xiàn)。最后,情感承認意味著個體在感受或表達情緒時,能被他人視為正當?shù)那榫w感受及表達者,并被納入所在社會情感規(guī)范的對話之中。這不僅涉及對其情感本身的接納與響應,也包括對其在情感實踐中的具體情境與差異性需求的理解與支持。缺乏情感承認,不僅會傷害作為情緒存在的個體,也會嚴重阻礙其發(fā)展準確情緒判斷與表達的能力。
根據(jù)Gallegos的觀點,當人們因社會、文化或制度上的排斥而被系統(tǒng)性地剝奪三種輔助性情感益品,或者當這些益品在他們之間被不平等地分配時,情感不公正便會發(fā)生。在這種情況下,人們被阻斷了通向主觀幸福所必需的途徑,也失去了在特定情境下產(chǎn)生適切情感反應的能力——例如,在值得悲傷的情境中能夠感到悲傷,或在需要憤怒的情境中能夠表達憤怒。結果,他們無法實現(xiàn)一種擁有“良好、健全且昌盛的情感生活”。這種分配不均的狀態(tài),構成了其“分配式情感不公正”理論及規(guī)范性批判的核心。Moxie停運恰好在這三方面一一呈現(xiàn)了剝奪的狀況:Moxie機器人突然停運干擾了兒童及父母的情感自由,當機器人停止運作,兒童賴以進行社交對話與情緒交流練習的伙伴消失,令他們被迫陷入不必要的失落與悲傷。另一方面,父母如今不得不承擔一個本不屬于他們的情感任務——向孩子解釋Moxie機器人的“死亡”,此任務更直接加深家長的情緒負擔。
Moxie機器人被明確設計為兒童提供社交學習和情感發(fā)展的情感支架,它的停運等于直接剝奪了兒童一個原本積極作用于其主觀幸福感與情緒適切性發(fā)展的重要情感資源與機會。同樣地,對于某些家長而言,Moxie機器人不僅是孩子的情感伙伴,更是他們在育兒過程中減輕情緒壓力的重要支持。尤其是對于照護有特殊學習需求的兒童家長,Moxie機器人的確緩解了他們長期承受的高強度情緒勞動的壓力。機器人每日持續(xù)地介入,成為家庭情感支架中重要的一環(huán)。Moxie機器人的停運,對家長而言同樣是一種情感資源的失落。
最后,Moxie機器人被設計成響應兒童的情緒表達,為他們提供情感承認。然而,當Moxie機器人停止運作,這種情感承認也隨之突然消失。孩子更可能意識到,這種他們曾經(jīng)擁有的“承認”,并非真正的人際承認,而是一種可以被隨意中止、下線、刪除的程序系統(tǒng)。這種意識會對兒童產(chǎn)生雙重打擊:一方面是他們既有情感承認的消失;另一方面是他們對情感承認真實性的懷疑。綜合來看,Moxie機器人的停運相當于對這三種輔助性情感益品的整體撤回,正是Gal-legos所說“分配式情感不公正”的一個鮮明案例。
與Gallegos以“輔助性情感益品”的分配為核心的分配式路徑不同,Krueger提出一種動態(tài)的與空間性的生態(tài)式情感不公正(ecological approach to affective injustice)。Krueger強調情感不公正不單只是關于情感益品的分配不均,而是深深植根于我們日常所處的社會物質性環(huán)境(socio-material environment)之中。Krueger認同Gallegos所提出的情感不公正定義,即個體或群體被剝奪其應得的情感性資源的一種狀態(tài),并強調主觀幸福感及情緒適切性以及其相關的輔助性情感益品在理想情感生活中的重要性。然而,相較于Gallegos關注益品的分配,Krueger更關注情感不公正如何通過物化(materialization)實現(xiàn)。換句話說,他關注的是(情感)環(huán)境的設計如何讓特定類型的個體(及其身體)能夠獲取并使用這些支撐情感生活的益品。
Krueger的核心概念源自情境情感論(situated affectivity)的“情感支架”(affective scaffolding)。所謂情感支架,指的是個體借助社會、文化以至物質環(huán)境中的特定元素(如物品、空間與互動結構等)來支持、延續(xù)、調節(jié)甚至放大其情緒體驗的方式,例如他指出,人們會通過布置客廳以營造放松的氛圍,或收拾整齊辦公室以提高專注力。然而,我們必須認識到這些情感支架并非價值中立,而是嵌入了對特定群體(及其身體)與情感反應的規(guī)訓與排斥。當某環(huán)境系統(tǒng)性地剝奪個體建立情感支架的可能性,或當預設的情感支架支持、延續(xù)、調節(jié)或放大了個體陌生化和異化的感受和情緒,使其暴露于持續(xù)的情緒傷害與壓迫之中,便構成情感不公正。此外Krueger更指出,缺失或是敵意的情感支架(即支持、延續(xù)、調節(jié)或放大不受歡迎的感受和情緒的情感支架)會為人們帶來情感無力感(affective powerlessness),使他們感到自己的情感生活為他人操縱或決定,同時也削弱了他們的自主性(sense of agency)。對他來說,這種無力感和自主性的喪失體現(xiàn)了個體所遭受的更深層次的情感不公正。
如前所述,Krueger的生態(tài)式情感不公正并不否認情感益品分配的重要性,而是補充性地指出:許多看似“中性”的環(huán)境其實已承載對情感經(jīng)驗的規(guī)范與排斥。也就是說,若要完整理解情感不公正的生成,不僅要考慮情感益品是否存在的問題,更要問這些情感益品在哪些環(huán)境、對誰而言是可達的(accessible)?換言之,我們要考慮社會物質環(huán)境是否以及如何為個人或群體提供情感支撐,以及其對人們的(情感)自主性的影響。
正如之前所討論的,Moxie機器人被明確設計為兒童及其家庭的情感支架:它通過各式各樣的方式與孩子互動,成為他們情感生活的一部分,并支持他們的社交學習和情感發(fā)展,同時減輕家長在情緒照護方面的負擔。然而,此一情感支架建立在極其脆弱的基礎之上,它依賴的是由Embodied所控制的云端AI。一旦云端服務關閉、這一支架便會瞬間崩解。也就是說,Moxie機器人并非一個堅實、可靠的情感支持,而把用戶的情感能力綁定在一個完全受制于商業(yè)決策的技術之上。這種脆弱性,使兒童與家長所獲得的情感支架在本質上處于臨時狀態(tài),一旦公司改變策略或遭遇經(jīng)營危機,他們便會被動承受其后果。
更重要的是,Moxie機器人作為情感支架的失效,并非出于兒童或家庭自身的選擇,也不是由他們與機器人的互動過程自然終結的結果,而只是僅僅源自公司的一項商業(yè)決策。這一點鮮明地揭示了兒童及其家庭所要面對的情感無力感。他們的情緒體驗,他們所依賴的情感伙伴,他們與機器人之間建立起來的情感聯(lián)系,最終能否延續(xù),并不是由他們自己來決定,而是取決于公司是否愿意或是否有能力繼續(xù)提供云端服務。這意味著,即便兒童在主觀上仍渴望機器人陪伴,或是家庭仍需要這一工具支持,但這種情感需求仍然可以被商業(yè)邏輯否定。在這種情況下,個體不再是自己情感環(huán)境的共同建構者,而只是被動接受者。這不僅是對情感支架的撤除,更是對個體情感自主性的剝奪。從生態(tài)式情感不公正理論來看,這種情況構成了典型的結構性情感不公正。在Embodied主導的社會物質環(huán)境中,用戶被置于一種無法主導情感支架的境地;我們甚至可以說,他們的情感生活不再屬于自己,并在情感維度上失去自由選擇與穩(wěn)定參與的能力。
通過Gallegos的分配式情感不公正與Krueger的生態(tài)式情感不公正兩個互為補充的路徑,我們得以看到Moxie機器人的停運并非單純的產(chǎn)品失敗或服務中斷事件,而是一種系統(tǒng)性情感益品的剝奪,并且是在不對稱權力結構下對用戶情感自主性的傷害。在這個案例中,三個關鍵的輔助性情感益品——情感自由、情感資源與機會、情感承認——被撤回;我們亦看到,原本被寄予厚望的情感支架只不過建立在脆弱而不可控的商業(yè)邏輯之上,最終將用戶置于被動而且無權決定自己情感環(huán)境(affective environment)的處境。
需要再次強調的是,這種結構性的情感不公正并非偶發(fā)性個案,而是日益內化于情感AI產(chǎn)業(yè)的商業(yè)邏輯與發(fā)展路徑之中。例如,在其他平臺上也能看到類似的聊天機器人消失事件,引發(fā)用戶強烈的情感反應與哀悼行為①。當情感AI日益參與并嵌入我們的情感環(huán)境,為其用戶提供(或撤回)相應的情感益品與情感可供性(affordances),更在不斷的互動中參與乃至重塑用戶的情感體驗以至情感自主性。在這樣的背景下,我們必須重新思考一個關鍵問題:情感生活的塑造權究竟掌握在誰手中?這一權力是否正當?又在何種情境下具有合法性?
在這個意義上,情感不公正所揭示的問題絕非AI倫理中的邊緣議題,反而應當被視為AI倫理討論的核心組成部分之一。正因為情感AI深度介入人類情感生活,我們更有理由將其所可能引發(fā)的情感性傷害與不公正置于AI倫理的前沿位置,給予充分的哲學反思與回應。
三、結語:認知賦權對抗情感不公正
Moxie的案例帶來了兩點重要的啟示:第一,人們必須認識到情感AI所造成的傷害,它不僅僅體現(xiàn)為傳統(tǒng)意義上的道德傷害或社會經(jīng)濟上的損失,更是一種情感性傷害。這些傷害作用于個體作為“情感存在”的基本能力與狀態(tài),往往沒有被現(xiàn)有的倫理討論充分捕捉。因此,正如本文強調,情感AI的規(guī)范性討論應超越道德責任或社會經(jīng)濟后果,我們應將情感不公正作為獨立且核心的課題。
其次,情感不公正的發(fā)生,尤其如Moxie案例所揭示的,是根植于技術公司與用戶之間的結構性權力不對等。在這個不對等的結構中,技術公司掌握著情感益品分配與撤回權力,他們不僅決定哪種情感支架可以被制造,更掌控這些支架是否持續(xù)存在。而用戶往往只能被動接受這些安排,在缺乏實質參與權的前提下,將自身的情感生活托付于外部機構的不確定性之中。這種不對等關系亦意味著,用戶的情感生活在根本上被納入商業(yè)邏輯中。
筆者認為,正是這一權力不對等構成了我們響應情感不公正問題的核心障礙。而現(xiàn)實中,由于資源、技術與制度分配的差異,這種權力不對等是否能夠被真正克服,抑或是否有可能被有效平衡,仍是一個懸而未決的難題。盡管如此,筆者認為,賦予用戶更深入的認知,即理解情感AI如何塑造其情感環(huán)境,以及如何干預其情感生活,是一個切實可行的應對方法。亦唯有如此,用戶才能在面對不同情感AI應用時做出更有意識、更具判斷力的選擇,從而減少情感無力感與喪失情感自主性所帶來的傷害。
這種“知識賦權”(epistemic empowerment)不僅有助于使用者,也對應用開發(fā)者與設計者提出了相關的倫理要求。那些真正關切技術倫理的開發(fā)者與設計者,理應更清晰地意識到自己的技術與設計所能造成的情感后果,并據(jù)此重新思考其產(chǎn)品是否能夠真正促進用戶作為“情感存在”的發(fā)展與福祉。
那么,應如何獲得這種更深入的理解?我們可以參考Archer在探討公共紀念碑所涉及的情感不公正問題所提出四個關鍵性問題:
問題一,誰在設計或修改該人工物,以產(chǎn)生預期的情感效應?(“who is designing or modifying the artifact to bring about the in- tended affective effects?”)
問題二,誰的情感生活被該人工物所支架?(“whose affective life is being scaffolded?”)
問題三,該支架服務于誰的利益?(“whose interests is the scaffolding intended to promote?”)
問題四,被支架的是何種情感體驗?(“what kind of affective experiences are be- ing scaffolded?”)
將這一框架套用于情感AI的情境中,問題一的答案通常是技術公司或其設計團隊決定(如Embodied或是Moxie的開發(fā)設計團隊);問題二的答案一般是用戶(如兒童與家長)。然而,問題三是真正值得我們關注的部分:情感支架究竟是為了用戶的福祉,還是最終仍服務于企業(yè)的商業(yè)目標?在Moxie的案例中,我們可以有力地指出,問題二與三的答案在根本層面上是分離的。表面上,機器人為兒童提供陪伴與訓練,但從技術設計或是運作模式來看,其支架最終更符合公司盈利與控制的需要,而非用戶的福祉。事實上,問題三也為我們提供了一個判斷塑造個體情感環(huán)境的正當性的初步方向。為了讓情感AI真正實現(xiàn)其正面功能,系統(tǒng)所提供的情感支架所服務的利益目標,必須與被支架者自身的情感福祉保持一致。只有當用戶的情感利益未被置換或犧牲,這樣的支架行為才具有初步的正當性——因為該支架是“為了他好”而設。最后,問題四提醒我們重新審視這些技術所支架的究竟是哪些情感體驗?是促進孩子情緒發(fā)展所需的深度聯(lián)結與內在情感調節(jié),還是短期依賴與表面互動所產(chǎn)生的模擬情感?這一點非常重要,因為我們需要判斷這些情感體驗是否真正有助于人們建構一個理想的情感生活,還是反而削弱了他們的情感能力與情感自主性。
誠然,以上問題的提出并不能直接消除結構性權力不對等,也無法徹底化解情感不公正所引發(fā)的困境,但它們至少提供了一種反思與選擇的路徑:用戶可以據(jù)此辨識哪些情感AI應用更有可能服務于自身利益,而非將自己推向情感性無力的境地;應用開發(fā)者與設計者則可據(jù)此自省其產(chǎn)品是否真正以用戶利益為本。
通過本文對情感AI中情感不公正問題的初步探索,希望能夠為這一議題打開更深一層的哲學反思。情感AI所帶來的挑戰(zhàn)遠不止倫理責任與社會經(jīng)濟效益,它更促使我們重新追問當技術進入情感生活,我們是否還能擁有構建理想情感生活的空間與權利?這些問題,才是情感AI真正觸及人類心靈深處的議題。
黃柏恒





京公網(wǎng)安備 11011402013531號