曾幾何時,“深度偽造”技術還只是公眾眼中的新奇數字“玩具”,靠其夸張的“漏洞“在短視頻平臺娛樂大眾。然而到了 2025 年,它已經完成從“數字玩具”到“網絡武器”的轉變,成為全球網絡犯罪分子的高效作案工具。《Check Point AI安全報告2025》指出,深度偽造技術如今已經進入高度成熟階段,從離線生成的合成視頻,到可實時互動的全自動擬人化系統,已具備在多平臺同步發起精準詐騙的能力。
技術演進帶來新型威脅
報告顯示,全球范圍內深度偽造已不再局限于提前渲染的視頻或音頻,而是發展出能夠實時換臉、實時語音克隆,甚至全自動與目標進行多輪對話的 AI代理系統。這些技術曾經需要頂尖黑客組織才能掌握,如今卻通過暗網論壇和 Telegram 渠道以低廉價格出售。
自2024年以來,一些案例已經為全球用戶敲響警鐘:英國與加拿大在兩起深度偽造視頻詐騙案中累計損失超3500 萬美元;意大利犯罪分子利用實時語音克隆冒充國防部長實施勒索;更有售價約 2 萬美元的 AI 電話系統,可在多通道、跨語言的通話中同時模仿任意聲音,且無需人工干預。
監管部門及時干預
深度偽造的風險并非僅在海外肆虐。2025年初,媒體報道香港一家公司遭遇深度偽造詐騙:犯罪分子通過AI 技術生成公司高管的逼真視頻,在一次遠程會議中成功騙取財務人員信任,最終導致上千萬港元的資金損失。此案中,視頻不僅高度還原了高管的外貌與語音,還模擬了會議中的互動細節,讓受害者在群體壓力和情境真實性的雙重影響下放松警惕。
事實上,我國監管部門早已注意到這一風險。2022 年 12 月,《深度合成服務管理規定》正式施行,明確要求深度合成服務提供者采取顯著標識等措施,防止技術被用于制作、發布違法信息。這不僅體現了國家對深度偽造的監管決心,也為企業在技術應用中合規防護提供了制度保障。
從品牌信任到經濟安全的全面沖擊
深度偽造的危害遠不止于單一詐騙事件。Check Point 報告指出,結合生成式 AI的深度偽造正推動釣魚攻擊、商業郵件詐騙(BEC)和高管冒充進入成熟落地階段。AI 生成的郵件在語法、格式、措辭上與真實企業通信幾乎無異,且可以根據受害者背景實現高度個性化。在 2024 年,全球 67.4% 的釣魚事件已涉及 AI 技術,金融行業是受攻擊最頻繁的領域之一。
更令人擔憂的是,深度偽造與大規模數據分析的結合,讓網絡犯罪分子能夠快速收集、解析社交媒體、公共記錄以及泄露數據庫中的信息,進而預測受害者行為、優化攻擊時機。例如,攻擊者可以分析某公司 CEO 的發言習慣,在最可能取得信任的時間點發送帶有其“語氣”的郵件,大幅提升欺騙成功率。
AI對抗AI勢在必行
Check Point在報告中揭示:依賴直覺或肉眼甄別真偽的時代已經過去。在實時換臉、語音克隆和視頻合成技術的加持下,真假邊界正在快速消失。無論是求職面試騙局、假冒高管的遠程會議,還是多語言、多平臺同步的實時詐騙,都是現實中正在發生的威脅。
針對這一趨勢,Check Point公司中國區技術總監王躍霖指出:“AI已逐漸發展為一種成熟的生產工具,既可被攻擊者利用,也可被防御者應用。隨著攻擊與防御的速度和規模迅速提升,僅靠傳統依賴人力的防御策略已難以為繼,必須以‘AI對抗AI’的理念構建更智能、更主動的防御體系,方可應對當下新興威脅帶來的挑戰。對于深度偽造對企業用戶帶來的威脅,防御重點必須放在員工身上,最核心的要素是‘流程管理’與‘安全培訓’。內部溝通流程必須具備足夠的韌性,確保員工在處理敏感業務時始終遵循正確規范。同時應對員工加強安全意識培訓,凡是涉及財務交易或業務指令的溝通,都必須進行驗證,甚至多步驟認證”。
《Check Point AI安全報告2025》顯示,隨著技術的快速進化,深度偽造的欺騙能力、規模化能力和實時適應能力正推動網絡威脅格局發生根本性變化。唯有將監管要求、企業防護實踐與全球領先的技術方案相結合,才能在這場新興的 AI 安全博弈中掌握主動權。