IT之家 12 月 9 日消息,美國聯邦調查局(FBI)近日發布一項新警告,指出一種日益猖獗的網絡犯罪手法:不法分子正利用人工智能(AI)技術生成高度逼真的“深度偽造”(deepfake)視頻,用于實施綁架勒索詐騙。犯罪分子通過 AI 生成的視頻冒充人質“活著的證據”,以此向受害者家屬施壓,迫使其迅速支付贖金。據稱,這些犯罪團伙會從互聯網上搜集目標家庭成員的照片和視頻素材,用來制作偽造內容。
根據 FBI 最新發布的安全通告,犯罪分子首先鎖定潛在受害者,隨后在社交媒體及其他數字平臺上搜尋其公開發布的圖像與視頻資料。一旦收集到足夠信息,他們便將這些素材輸入生成式 AI 工具,模擬出受害者被劫持的場景,并將偽造的音視頻作為所謂“人質尚在”的證據發送給家屬,要求立即付款,不給受害者留出核實真偽的時間。
FBI 指出,隨著 AI 技術以前所未有的速度發展,辨別此類視頻真偽正變得愈發困難。此外,犯罪分子還利用具有定時銷毀功能的通信工具發送信息,進一步壓縮受害者核查內容的時間窗口。
該機構強調,盡管偽造視頻日益逼真,但仍可能存在一些破綻,例如身體比例失真、面部特征異常或缺少特定身份標識等細節問題,可作為判斷內容是否是偽造的線索。FBI 強烈建議公眾切勿向不明身份者轉賬付款,并采取多項預防措施以降低遭遇此類 AI 驅動型綁架詐騙的風險。
IT之家注意到,具體防范建議包括:限制在互聯網上分享個人及家庭信息,尤其是在旅行期間;謹慎設置社交媒體隱私權限,僅允許可信人員查看家庭照片和視頻;最重要的是,在收到任何涉及贖金的要求后,務必先通過可靠渠道直接聯系所謂“被綁架者”本人,確認其安全狀況,再決定是否采取進一步行動。





京公網安備 11011402013531號