環球時報
近期,一款搭載了某AI助手的工程樣機限量發售,引發熱議。憑借深度系統集成的AI助手,使用者可以通過語音指令完成發消息、點外賣甚至控制智能車載系統等復雜任務,新穎的體驗令這款手機的二手市場價格一度翻番。不少用戶還開發出“游戲刷分”“自動投簡歷”等新奇應用場景。
然而沒過幾天,包括多家金融機構在內的眾多主流App紛紛將這款手機列為“風控重點對象”,采取限制登錄、禁用部分功能等措施,甚至直接拒絕服務。
筆者認為,該款手機所展現的手機交互升級,確實具有劃時代意義。當人工智能(AI)助理能夠理解復雜意圖、繞過繁瑣的前臺交互,直接抵達服務核心時,將給用戶體驗帶來前所未有的提升。但此次風波背后,更為根本的命題是:追求極致效率與智慧化的AI助手,是否會動搖數據安全的基石?
表面上看,此次沖突的導火索來自商業模式層面。AI助手能夠無視開屏廣告,繞過所有的前臺視覺界面和消費誘惑,直達用戶指令終點。這無疑擊中了許多App依賴流量變現與交互時長的盈利模式核心,自然會引發整個應用生態的警覺與反撲。
更深層的,是由AI深度融入操作系統所帶來的原生性安全風險。當操作者將信息、需求和主導權都讓渡給AI,可能帶來多重觸及智能設備信任根基的挑戰。
首先,是權限與身份驗證的脆弱性。在設計上,AI助手被賦予了最高權限,其操作流程看似遵循“確認”步驟,但缺乏與傳統安全場景相匹配的多因素、強驗證機制。一旦身份驗證被突破,權限最高的AI助手便可能成為財務盜竊、車輛非法控制、隱私泄露乃至詐捐等攻擊的“特洛伊木馬”。最終“背鍋”的,卻是可能完全不知情的機主本人。
其次,是大模型“黑箱”與“幻覺”問題帶來的技術性風險。當前的主流AI大模型依然存在決策過程不透明的“黑箱”特性和可能生成不準確或虛構內容的“幻覺”問題。當遇上金融交易、醫療咨詢等需要高度合規性、可靠性與清晰問責機制的場景時,這將帶來巨大的、不可預知的潛在風險。
最后,是生態規則重塑可能引發的系統性風險。顛覆式創新往往伴隨著對舊有規則的強力沖擊。從算法推薦重塑信息分發倫理、“大數據殺熟”,到如今AI助手試圖重構人機交互與應用訪問范式,若缺乏有效制衡,可能留下長期風險與治理難題。
面對日新月異的技術革新,我們必須為其提前劃清安全與倫理的邊界。具體包括:
以“最小權限”“持續驗證”為原則,重構安全協議,完善安全框架。當涉及支付、隱私數據訪問、物理設備控制等高危操作時,必須強制插入由機主主導的密碼、生物識別、物理密鑰等驗證,絕不能“一路綠燈”。
同時,推動技術透明與問責立法。由監管機構牽頭,制定AI助理邏輯溯源相關要求,并明確安全事件的責任劃分。企業也必須改變應用服務協議“要么全部同意,要么無法使用”的不公平現狀,明確界定AI助手可訪問的數據邊界,禁止其越權采集信息。
對于行業,應建立行業級安全生態標準。手機廠商、AI企業、開發者應協同合作,建立針對AI智能體的統一安全接口、風險評級與應急響應標準。只有標準一致了、責任明晰了、數據安全了,服務才能真正打通。
提升用戶安全心智也是一項長期任務。用戶在看到AI助理強大功能的同時,也必須認清其工具屬性和風險。正如我們不會將家門鑰匙和銀行密碼交給一位新聘的管家,對待AI助手也需保持必要的警惕。
總之,唯有做好協同,將數據安全鑄成不可撼動的基石,本輪手機智慧化撞上的“生態墻”才能真正轉化為守護用戶的“安全堤壩”。(作者是技術經濟觀察家)





京公網安備 11011402013531號