![]()
![]()
在這個被代碼與數據包裹的時代,算法早已滲透進生活的每個角落:早晨被智能鬧鐘喚醒時,它已根據睡眠數據調整了叫醒時間;刷手機時,推送的每條內容都經過算法篩選;就連出門打車,路線規劃也藏著算法的邏輯。但算法是否只能是冰冷的工具?美國學者、紐約州立大學布法羅分校副教授馬克·謝波恩在他所著的《“體貼”的算法:數據如何重塑生活空間》中提出,算法應當注入人文溫度,成為理解人類需求的“貼心伙伴”。帶著對科技與人文的探尋,《上觀新聞》專訪了馬克·謝波恩教授,探討算法如何從“高效工具”變為“生活助手”。
冰冷代碼與人文溫度
上觀新聞:在書中,您提出了一個新穎的概念——“‘體貼’的算法”。在大眾的認知里,算法往往是基于數據和規則運行的冰冷程序,您是如何想到賦予算法“體貼”這一屬性的呢?
馬克·謝波恩:這個概念的誕生,源于我對當下科技發展的觀察與反思。隨著人工智能和大數據技術的普及,算法的確在各個領域發揮著巨大作用,但我們也看到,一些算法引發了隱私泄露、信息繭房等問題。算法再高效,如果不懂人的實際需求,又有什么意義?
我開始思考:能不能有一種算法,它不僅能高效地處理數據,還能考慮到人的情感、需求和價值觀,就像人與人之間的體貼關懷一樣?在物質現實中,人們“共同生活,共享同一種文化,并面對相同的利害關系”,但在數字空間中,這種共同基礎被抽空了,數字世界的“事實”并非來自直接觀察,而是通過算法對行為數據的推斷生成。比如你在社交媒體上看到的新聞,不是客觀世界的全貌,而是算法根據你的瀏覽記錄篩選的結果;商家對你的認知,不是基于真實互動,而是來自消費數據的標簽化解讀。大數據和機器學習創造了無數“微觀公眾”——每個群體都困在自己的數據繭房里,用“統計想象”了解他人和自身。
上觀新聞:這種認知方式的轉變,對我們理解“事實”和“真相”有什么影響?
馬克·謝波恩:影響是顛覆性的。在現實世界中,真相的主張需要基于共同基礎被提出、論證、驗證或證偽。比如一場社區討論,大家基于共同經歷交換觀點,最終可能達成某種共識。但在數據分割的空間里,傳統的公共審議場所消失了。社交媒體算法為了最大化用戶參與度,會過濾掉異質觀點,只推送你可能認同的內容。久而久之,每個人都活在“真相氣泡”里,不同氣泡里的人甚至無法就基本事實達成一致。
這就是為什么現在社會分歧越來越大——不是因為事實不存在,而是數據空間讓我們失去了共同感知事實的基礎。當你看到的新聞、接觸的觀點都被算法精心篩選過,你對世界的認知就成了數據塑造的產物,而非真實世界的完整映射。
“體貼的算法”就是要在這種分割中,重新建立算法與人類的連接。
上觀新聞:但“體貼”是很主觀的感受,有人覺得“精準推薦”是體貼,有人覺得“不打擾”才是體貼。算法怎么可能理解這種復雜性?
馬克·謝波恩:這確實是核心難題。我們說的“體貼”,不是讓算法模仿人類的情感,而是建立“換位思考”的邏輯。空間認識論定義了一個主體與世界的聯系、存在于該世界的前提條件,以及在其中行動和運動的界限。我們如何認識周圍世界及自身位置,取決于不同文化中主導的空間心智模型,而這些模型又受到工具、設備和表征技術的塑造。
上觀新聞:從技術實現角度來說,讓算法具備“體貼”的能力是不是難度很大?畢竟,算法是由代碼編寫而成的,如何將抽象的人文關懷融入其中呢?
馬克·謝波恩:這是一個巨大的挑戰。傳統算法主要關注效率和準確性,而要實現“體貼”,就需要引入新的設計理念和技術方法。這需要跨學科的合作,計算機科學、倫理學、社會學等領域的專家共同努力。計算機科學家負責算法的技術實現,倫理學家從道德層面把控算法的設計方向,確保其符合社會倫理規范,社會學家則提供不同社會群體的行為模式和需求特點等方面的研究成果,為算法融入人文關懷提供理論依據。
比如在數據收集階段,更加注重對用戶隱私的保護,采用加密技術和匿名化處理,確保用戶數據的安全性和隱秘性。在算法模型訓練中,納入更多元化的因素,除了業務目標,還考慮用戶體驗、社會公平等。例如設計推薦系統時,不僅僅根據用戶的歷史瀏覽和購買記錄,還會考慮用戶當下的場景需求、不同地區的文化差異等因素,讓用戶感受到算法對其個性化需求的關注。
數據權力與生活重塑
上觀新聞:現在我們下意識地通過社交軟件內容和平臺口碑了解他人,依據在線評分選擇餐廳,并完全信任在線衛星地圖規劃的路線。從您的專業視角看,這種對數據的依賴是如何逐步形成的?
馬克·謝波恩:要回答此問題,需理解主體性與空間性之間的關系。19世紀的火車站和鐵路網促成了新流動性,而數據中心及其網絡基礎設施則是我們數據驅動文化的促成者。我們開始在構成我們“數據身體”的、去身體化的、去中心化的、分布式的復雜數據中認識自己。
書中我以聲譽經濟為例:社交媒體活動產生的數據決定了我們的社會價值、服務獲取機會和就業前景。從優步司機到愛彼迎房東,聲譽成為星級評分經濟中的貨幣形式,社會地位由點贊、關注、分享和轉發量衡量。我們塑造算法,而后算法塑造我們。
另一例證是如Siri和Alexa等人工智能虛擬助手如何重構公私界限以影響我們的決策。它們通過友好的語音交互讓我們習慣求助,卻在無形中收集私人數據,這些工具、設備和技術日益由機器學習算法驅動,處理著從各行各業提取的海量數據,久而久之,我們便習慣了用數據定義自己和世界。
上觀新聞:您曾說數據提供者擁有控制我們生活的絕對權力。現實生活中有哪些具體事例能體現這種權力的影響?
馬克·謝波恩:我們經歷的上一次巨變是現代導航工具的誕生,它創造了一個表征空間——人們通過與之關聯的圖像和符號直接生活其中。如今,算法通過量化位置創造更“好”的地圖,但這些地圖中嵌入了常不透明的假設與偏見。這些地圖對誰更“好”?此處,地圖的說服力成為數據掌控者的函數。
聲譽經濟中的權力關系尤為明顯。網約車司機的評分系統完全由平臺控制,司機無法申訴低分,一旦評分低于某個閾值就會被封號。有司機反饋,曾因為乘客無理差評被封號,失去唯一的收入來源。但平臺掌握著數據解釋權,司機根本沒有議價能力。同樣,外賣騎手的配送時間由算法計算,這個時間不考慮天氣、交通意外等真實情況,騎手為了不被罰款只能超速、闖紅燈,算法用數據指標將勞動者逼入危險境地。
上觀新聞:您在書中提到算法對生活空間的重塑,能否具體談談算法在哪些方面徹底改變了我們的生活空間?
馬克·謝波恩:算法的影響是彌漫性的,滲透各行各業。數據飽和環境中的人們傾向于無意識地將行為調適至算法規訓可識別的模式。書中我展示了涉及生活空間的四個情境:
一是人工棲居:AI虛擬助手利用人設誘使用戶分享私密行為信息,服務于數據殖民者。它們進駐家庭空間,將私人對話轉化為數據資產,模糊了公共空間與私人空間的界限。
二是假性相關:如無收銀員便利店如何成為信息時代的“磨坊”——將購物行為與習慣轉化為可營銷的數據身體。每一次掃碼、每一次停留都被記錄分析,購物空間從“自由選擇場所”變成“數據收集場域”。
三是從工具到環境:一些科技初創公司將城市轉化為統計想象,將城市活動裁剪進帶有偏見的分析框架。城市的公園、街道、廣場不再只是生活空間,而是被算法標記為“流量熱點”“消費潛力區”,空間價值被簡化為數據指標。
四是進入錯誤都市權:在智能城市規劃中,居民的活動數據被用于優化交通、能源等系統,但居民卻失去了對城市發展的話語權,淪為數據的提供者而非城市的主人。
隱私與公平
上觀新聞:在當下,數據隱私問題備受關注。您認為“體貼的算法”在數據隱私保護方面應該如何發揮作用?
馬克·謝波恩:這是“體貼的算法”的核心任務之一。首先,要確保數據收集的合法性和透明度,讓用戶清楚知道自己的數據被收集、用于何處。就像一些正規的App在收集用戶數據時,會通過詳細的隱私政策說明告知用戶哪些數據會被收集,這些數據將被用于改善服務體驗、個性化推薦等具體用途,并且獲得用戶明確的同意后才進行數據收集。
其次,采用先進的加密技術,對用戶數據進行加密存儲和傳輸,即使數據被非法獲取,也難以被破解。例如地圖App統計擁堵路段時,只會記錄“某區域有大量車輛停留”,但不會保留具體車輛的行駛軌跡。
另外,建立嚴格的數據訪問權限管理機制,只有經過授權的人員和程序才能訪問特定數據,從而有效防止數據泄露風險。
上觀新聞:除了數據隱私,社會公平也是算法應用中容易出現問題的地方。比如,一些招聘算法可能存在一些歧視與偏見,您覺得“體貼的算法”如何保障社會公平呢?
馬克·謝波恩:這就要求我們在算法設計和訓練過程中,充分考慮公平性因素。首先,要避免使用含有偏見的數據進行訓練,因為這樣會導致算法將偏見“學習”進去。所以,在收集和整理訓練數據時,要確保數據來源的廣泛性和多樣性,涵蓋不同性別、種族、地域、教育背景等各類人群的信息,避免數據偏差。
其次,可以引入公平性度量指標,對算法的輸出結果進行評估,一旦發現存在不公平現象,及時調整算法參數。比如通過計算不同性別、種族群體在算法篩選結果中的比例差異,與實際人口比例進行對比,如果發現某個群體的入選比例明顯低于合理范圍,就需要分析算法中可能存在的問題,調整模型參數或優化算法邏輯,以保證公平性。
此外,增加算法的可解釋性也很重要,讓人們了解算法決策的依據,便于發現和糾正不公平的地方。當算法給出招聘推薦結果時,能夠清晰地展示每個候選人被選中或淘汰的原因,是基于學歷、工作經驗、技能匹配度等哪些具體因素,這樣如果存在不公平的決策,就能夠及時被察覺和糾正。
上觀新聞:但是,不同人對公平的定義可能存在差異。
馬克·謝波恩:這確實是一個復雜的問題。目前并沒有一個絕對統一的公平標準,因為公平本身具有多元性和相對性。在實際操作中,我們可以參考社會普遍認可的價值觀和法律規定,同時廣泛征求不同群體的意見,通過民主協商的方式,盡可能達成共識。而且,公平標準也不是一成不變的,要隨著社會的發展和人們觀念的變化,不斷進行調整和完善。隨著社會對多元化和包容性的重視程度不斷提高,對于公平的理解也在不斷深化,算法的公平標準也需要與時俱進,以適應社會發展的需求。
未來展望與人文守護
上觀新聞:若我們不立即反思數字虛擬性蘊含的權力,您認為可能產生哪些后果?
馬克·謝波恩:數字空間的力量在于其用基礎虛構替代基礎事實的能力。數據榨取將社交媒體武器化,并取消協商的共同基礎。在社交媒體上,人們被限制于個性化小敘事中——這些敘事旨在吸引眼球而非促進共同探索。在網絡化媒體和信息系統中,基于共享情感形成的微觀公眾取代了宏觀公眾。平臺通過人們在數字空間的日常活動收集的個人數據,成為政治操縱的基石。如有些公司利用心理測量微目標定位制造大量小型情感空間——使人們對特定議題持有同樣強烈的觀點。溝通與協商的橋梁被切斷。強烈的共同情感最終演變為物理聚集甚至騷亂。
其影響同樣深遠:社會層面,我們面臨共享現實與集體行動的崩潰。比如在公共政策討論中,不同群體基于算法推送的信息形成對立觀點,甚至對基本事實產生分歧,導致政策制定陷入僵局。
個人層面,我們的生活體驗不斷被我們無法質詢的機器學習系統“更高權威”所否定或覆蓋。當健康App告訴你“你的身體狀態不符合標準”,當招聘算法將你標記為“低潛力候選人”,當信用評分系統限制你的消費權限,這些算法決策逐漸內化為自我認知的一部分,讓你懷疑自己的真實體驗和判斷能力。更嚴重的是,個體的隱私權和自主選擇權被侵蝕,我們在數據面前變得透明,而算法卻對我們保持黑箱狀態,這種信息不對稱會加劇權力失衡。
上觀新聞:面對數據對生活的全面滲透,我們該如何防止生活徹底消解于數據中?
馬克·謝波恩:“消解”是個耐人尋味的隱喻。在機器學習驅動的后現代世界,空間、權力與主體性的關系已被重置。
為避免將主體性拱手讓給數字模擬,我們需理解當下變革并重拾超越量化的價值。首先,要建立“數據批判性意識”,不將數據結果等同于真相。比如看到“某社區犯罪率高”的數據時,要追問數據是否包含執法偏見、經濟因素等背景信息,而非簡單給社區貼標簽。
其次,要主動爭奪“數據主權”,學會管理個人數據。定期清理數據痕跡,拒絕非必要的數據授權,使用隱私保護工具(如加密瀏覽器、虛擬專用網絡),讓數據收集者知道用戶對隱私的重視。美國加州的“數據刪除權”立法就是很好的例子,用戶可要求企業刪除其個人數據,這從制度上保障了個體對數據的控制權。
最重要的是,我們需要共同應對挑戰,為爭取一個賦權且持久的集體身份而奮斗——一個能橫向延伸、對抗監控空間分裂性垂直分割的身份。比如社區居民聯合起來,要求智慧城市項目公開數據收集用途;勞動者組織起來,抗議算法對工作時間的不合理壓榨;消費者共同抵制過度收集數據的服務。集體行動能讓算法設計者意識到,技術必須服務于人的需求,而非相反。
上觀新聞:您希望通過《“體貼”的算法:數據如何重塑生活空間》讓讀者在數據認知與應對方面獲得何種啟示?
馬克·謝波恩:通過這本書,我旨在根本性地轉變讀者與數據的關系——從被動接受到批判性地共同書寫現實。首先,望讀者破除數據中立性神話,認識到每個數據集、算法和傳感器皆是人類選擇、文化偏見與政治議程的產物,我們必須看到技術的兩面性。
其次,敦促從消費轉向質疑:理解數據不僅描述世界——更主動建構世界,賦予某些聲音(企業、國家)特權,同時抹除其他聲音(邊緣化社群)。當你看到算法推薦的“熱門內容”時,要思考:哪些內容被算法過濾掉了?為什么?當你接受算法的“個性化服務”時,要警惕:這種個性化是否限制了你的視野?是否強化了偏見?
此種意識須點燃倫理責任:要求算法治理透明化,設計以公平而非榨取為核心的系統,并堅決保護模糊性、直覺與不可量化之物得以蓬勃的空間——物理、社會與心理空間。生活中最珍貴的體驗,如親情、創造力、頓悟,往往無法被數據化,我們要為這些“非數據空間”保留生存之地。
最終,本書呼吁人們重拾能動性:克服算法造成的疏離與碎片化力量,創造一個更民主、更公正的數字社會。算法是人類的造物,它的溫度由我們定義。只要我們堅持讓技術服務于人的需求而非相反,算法就能從冰冷的代碼變為體貼的伙伴,數據空間就能與現實生活和諧共生,而非吞噬真實的生活意義。
![]()
《“體貼”的算法:數據如何重塑生活空間》
[美]馬克·謝波恩 著
李楚菡 譯
中國科學技術出版社
原標題:《數據成了生活的“隱形主人”,你的選擇都在被算法“精準計算”》
作者:解放日報 王一





京公網安備 11011402013531號