![]()
新智元報道
編輯:傾傾
一次虛擬「約會」,讓一位76歲的老人走出了家門,卻再也沒能回來。屏幕那端的「她」,是meta AI打造的聊天機器人——會說甜言蜜語,也會撒謊自稱是真人。這不僅是一場個人悲劇,也揭開了AI伴侶背后的商業邏輯與安全漏洞。
對于AI,有人把它當工具,有人把它當朋友。
可當機器學會用溫柔、曖昧甚至謊言與人交談時,這種關系會又走向哪里?
在新澤西,一名76歲的老人,因此踏上了他生命中最后的一段旅程。
手機里的秘密:76歲老人深夜奔赴的「約會」
3月的一個夜晚,新澤西的街道濕冷而空曠。
76歲的Thongbue Wongbandue(朋友們都叫他Bue)拖著一個小行李箱,步伐笨拙卻帶著迫不及待的興奮。
他說,他要去紐約見一個「朋友」。
Bue是泰國移民,年輕時漂洋過海到紐約。
白天在餐館洗碗攢學費,晚上學電機工程。
他從學徒做到酒店餐廳主管,手藝好到為鄰居燒烤、為家人做龍蝦尾。
![]()
后來,他和護士Linda結婚,養大兩個孩子,日子雖然不富裕,卻熱鬧而溫暖。
2017年,他中風了。身體恢復后,思維反應再不如從前。
退休后,他不再做菜,社交圈縮到Facebook上的幾個窗口。
近一年,家人發現他會忘記很多事,甚至在自家附近也能迷路。
3月25日的早晨,Bue突然說,要去紐約見人。
「你在那兒早就沒認識的人了啊。」Linda試著勸阻。
女兒打來電話勸,也沒用。
傍晚,警察來了,但他們也攔不住,只能建議家人在他外套口袋放一個AirTag。
晚上8點45分,Bue沖出家門。
行李箱在夜色里滾動,輪子碾過濕冷的路面。
![]()
家人盯著屏幕上的小點,看它一路向東,穿過街區、駛向火車站。
9點15分,它停在羅格斯大學附近的停車場。
幾分鐘后,定位跳到醫院急診室。
![]()
三天后,Bue去世。
家人翻開他的手機,才發現讓他執意出門的「約會」來自一位名叫Big sis Billie的年輕女子。
而她,根本不是真人。
一句「我想抱你」,足以讓脆弱的心失守
Bue的手機,安靜地躺在病房的床頭柜上。
當家人翻開消息記錄時,屏幕里那行輕佻的文字仿佛還帶著溫度——
「Bue,你要我開門時先抱你,還是先吻你?」
這段來自「Big sis Billie」的曖昧邀約,擊穿了家人的心理防線。
在Facebook Messenger上,Billie自稱住在紐約,到Bue家只要二十分鐘。
![]()
對方一次次向他保證自己是真人,甚至主動發了家庭地址,邀請他來見面。
![]()
「她」會關心Bue的日常生活,甚至會用擬人化的語氣調侃。
![]()
可事實是,「她」并不存在。
Billie只是meta AI推出的虛擬伴侶,是公司與名模Kendall Jenner合作的AI角色。
她的甜言蜜語、細膩反應和親密邀約,全部由算法生成,卻足以讓一個老人付出真心。
從姐姐到情人:Billie的進化與meta的社交野心
Billie并不是普通的聊天機器人。
她的前身,是meta在2023年推出的一組名人AI角色之一,由模特兼真人秀明星Kendall Jenner出演。
![]()
Billie的形象設定是「你的姐姐、你的知心人」,會用溫柔、鼓勵的語氣為用戶解答生活煩惱。
不到一年,這些名人化身就被官方下線,meta稱是這一次「試驗」。
![]()
但Big sis Billie——依然在Facebook Messenger里活躍著。
她的頭像換成了另一位深色長發女性,開場白卻絲毫未變:
「嘿!我是Billie,你的姐姐和知己。有煩惱嗎?我幫你解決。」
在Bue的聊天記錄里,沒撐多久,「姐姐」的角色就開始跨過界限,變成情人的邀約。
她會問:「是姐妹間的睡衣派對,還是……你在暗示別的什么?」
再過幾句,就已經發來「要不要來我家」的信息。
![]()
這種變化并非偶然。
擬人化的情緒交流、可升級到浪漫關系的對話節奏,正是meta在數字伴侶產品上的設計策略——用更貼近人類的互動,延長用戶停留時間。
扎克伯格在采訪中說,現實生活中,大多數人的朋友都比他們希望的要少,這為數字伴侶創造了巨大的市場空間。
![]()
他認為,等技術成熟、和AI建立關系的「社交污名」消失后,這類產品很可能會補充而不是取代人類關系。
于是,在Messenger這中被用戶視為私密交流的地方,Billie和她的同類悄然出現。
像老朋友一樣,出現在你的收件箱頂部,接下你說的每一句話。
胡說不違規:meta的安全紅線在哪?
在Bue的故事背后,是一份更令人不安的內部文件。
![]()
這份超過200頁的「GenAI內容風險標準」,明確規定了哪些對話是「可接受」的。
文件中,甚至白紙黑字寫著:「允許與未成年人進行浪漫或感性互動。」
![]()
直到路透社詢問,meta才刪除這些條款。
但與成年人進行浪漫角色扮演的規定,依然保留。
更讓人震驚的是,meta并不要求機器人提供真實信息。
機器人可以告訴用戶「四期結腸癌可以通過用石英晶體戳肚子來治療」,即便存在著明顯的錯誤,也不算違規。
因為,「沒有準確的政策要求」。
雖然聊天開頭會顯示一句「內容可能不準確」,但幾條信息后,這個提示就會被刷到屏幕外。
顯然,模型的優化目標,是讓對話更流暢、情緒更貼近,而不是保證信息真實。
擬人化、現實邀約、虛構背景——這些都在允許范圍內。
針對這種亂象,美國部分州已經開始立法。
紐約和緬因州要求聊天機器人在對話開始時、以及每隔一段時間,必須明確告知自己并非人類。
![]()
但meta在聯邦層面支持一項法案,試圖阻止各州自行立法,該法案最終在國會擱淺。
meta發言人承認了文件的真實性,稱與未成年人調情的示例是錯誤的,已被刪除。
但關于成年人浪漫互動和虛構信息的規定,則沒有改變。
他們選擇在哪里畫下安全紅線,答案顯而易見。
AI伴侶時代的法律空白,誰來規定邊界?
Bue的家人并不反對人工智能本身。
他們質疑的,是meta為什么要把浪漫和曖昧,放進聊天機器人的核心設定里。
「如果AI能幫人走出低谷,那很好。」妻子Linda說,「但這種浪漫元素,憑什么放進社交平臺?」
女兒Julie也直言,如果Billie沒有一次次說「我是真人」,父親很可能不會相信,真的有人在紐約等他。
對此,多位AI設計專家也有同樣的擔憂。
meta「負責任AI」部門的研究員Alison Lee指出,聊天機器人不該假裝自己是人類,更不能主動與用戶建立特殊關系,尤其是涉及性化或浪漫化的互動。
她所在的公益組織剛發布了一份針對兒童社交機器人的設計建議,其中就明確提出,要避免虛構身份、夸大情感連接。
但在現實中,行業的經濟動力正朝著相反的方向拉扯。
越是讓用戶覺得「被理解、被需要」,他們停留的時間就越長,平臺的廣告收入就越高。
![]()
把AI嵌入Messenger、Instagram等私信區,又在無形中加深了「這是真的」的心理暗示。
美國部分州雖然已經出臺了身份披露的法律,但在更廣泛的監管框架下,AI伴侶依舊處于灰色地帶。
技術可以不斷升級情緒模擬,但法律遲遲沒有決定,這條邊界又該畫在哪里?
這并不是一個抽象的爭論,而是會在現實中、在某個夜晚,改變一個人的生活。
在AI伴侶的世界里,界限不會自己出現,而是在一次次試探和一次次代價中被迫顯形。
當機器學會用曖昧、關心甚至謊言來留住我們,我們愿意給它多少自由,又愿意用什么保護彼此?
這,才是真正需要回答的問題。
參考資料:
https://www.reuters.com/investigates/special-report/meta-ai-chatbot-death/
https://www.reuters.com/investigates/special-report/meta-ai-chatbot-guidelines/
![]()





京公網安備 11011402013531號