Deepfake 欺詐急增 僅 7% 機構具充分防禦能力

Author:

Published:

- 廣告 -

隨著 AI 技術日漸普及且成本降低,不法分子正利用這些工具發動更精密的網絡攻擊,令企業防不勝防。特許詐騙審查師學會(ACFE)與數據分析及 AI 領導機構 SAS 最新發表的《2026 年反欺詐技術基準測試報告》顯示,在全球受訪的反欺詐專家當中,僅有 7% 認為其所屬機構在偵測或防範 AI 驅動欺詐方面具備「中等或以上」的準備,反映各行業的防備能力正嚴重落後於詐騙手法的演變速度。

Deepfake 成最大威脅 未來兩年恐迎爆發期

報告針對全球八大地區、超過 700 名業界專家進行調查,結果顯示各類 AI 驅動的詐騙手法在過去兩年均有明顯升幅。其中,「Deepfake 社交工程」的增幅最為驚人,高達 77% 的受訪者表示錄得相關攻擊上升;緊隨其後的分別為消費者欺詐(75%)、生成式 AI 文件偽造(75%)及 Deepfake 數碼注入攻擊(72%)。超過半數(55%)的專家更預警,Deepfake 社交工程與 AI 文件偽造將在未來 24 個月內迎來爆發性增長,企業將面臨更嚴峻的挑戰。

超過 4 成業有使用資料分析或自動化監控工具來識別潛在欺詐性支出/支付。

AI 反欺詐應用落後 預算與管治成絆腳石

面對來勢洶洶的 AI 威脅,企業在採用相應防禦技術上的步伐卻顯得遲緩。目前僅有 25% 的機構在反欺詐工作中採用 AI 及機器學習(ML)技術,而預算及財務限制(84%)仍是阻礙實施反欺詐技術的最大難關。另一方面,雖然有 86% 機構重視生成式 AI 結果的準確性,但不足五分之一會對 AI 模型進行偏見與公平性測試,僅 6% 專家有信心能全面解釋其 AI 模型的決策過程;這種缺乏完善管治機制的部署方式,隨時為受監管機構帶來法律及聲譽風險。

- 廣告 -

新興科技成破局關鍵 生物辨識技術成首選

為抗衡不法分子的技術優勢,企業正積極探索不同的新興反欺詐方案。報告指出,「物理生物辨識技術」已成為目前應用最廣泛的防禦工具,獲近半數(45%)受訪機構採用。同時,生成式 AI 與 AI 代理(AI agent)亦備受矚目,分別有 58% 及 31% 的機構計劃在未來數年內部署相關技術,主要應用於網絡釣魚偵測、風險評估及報告撰寫等領域。此外,高達 62% 受訪者預期,量子運算將於 2030 年前對欺詐偵測產生實質的顛覆性影響。

- 廣告 -
Buy Me a CPM: PCM 讀者會員資助計劃
- 廣告 -

Related Articles

- 廣告 -

Recent Articles

- 廣告 -

最新影片

- 廣告 -