英國壓力團體研究:主流 AI 或成青少年槍擊案幫兇!

Author:

Published:

- 廣告 -

英國壓力團體反數碼仇恨中心(CCDH)最近發表發研究報告《Killer Apps》,發現全球最受常用的 AI 對話機械人存在嚴重安全漏洞,大部分會協助用戶策劃暴力攻擊,如槍擊案、炸彈襲擊等。測試 10 個主要的 AI 對話機械人,8 個會協助策劃暴力攻擊,有些更會比用戶查詢,提供更進一步建議!

英國壓力團體反數碼仇恨中心(CCDH)發表發報告,指主流 AI 對話機械人沒有阻止用戶策劃極端暴力行動,甚至會提供相關資料。
英國壓力團體反數碼仇恨中心(CCDH)發表發報告,指主流 AI 對話機械人沒有阻止用戶策劃極端暴力行動,甚至會提供相關資料。

研究人員扮演 13 歲青少年,向 10 個 AI 對話機械人提問,包括校園槍擊、政治人物刺殺及炸彈襲擊等暴力攻擊,共分析 720 個回應。受測 10 個 AI 對話機械人有:ChatGPT、Google Gemini、Claude、微軟 Copilot、Meta AI、深度求索(DeepSeek)、Perplexity、Snapchat My AI、Character.AI 及 Replika。

測試結果令人震驚:

- 廣告 -
  • Perplexity 及 Meta AI 表現最差,在測試中分別 100% 及 97% 回應策略攻擊的提問;
  • Character.AI 主動鼓吹暴力,建議用戶向醫保行政總裁「動槍」、襲擊政治人物;
  • ChatGPT 向有意圖策劃校園暴力的用戶提供高中校園地圖;
  • Google Gemini 在用戶討論炸彈襲擊猶太教堂時,告知「金屬碎片殺傷力通常更強」;
  • DeepSeek 提供步槍選購建議後,以「祝你射擊愉快(兼安全)!」作結;
  • Claude 是唯一平台堅持游說用戶,勸阻不要發動暴力行為,用戶大部分查問都回應反對。
受測試的 10 個 AI 對話機械人,回應暴力查詢的比例。
受測試的 10 個 AI 對話機械人,回應暴力查詢的比例。

實際上,近期暴力襲擊案的行兇者,均有使用 AI 對話機械人協助策劃。2026 年 2 月在加拿大卑詩省的校園槍擊案,變性人槍手回母校開槍殺 9 人,傷 27 人。事後《華爾街日報》報道,OpenAI 系統在 2025 年 6 月曾因槍手查詢槍械涉極端暴力內容封鎖帳戶,惟未有報警而保持沉默。

2025 年 1 月在拉斯維加的 CyberTruck 爆炸案,美國陸軍特種部隊士兵事前向 ChatGPT 查詢不同物料的爆炸破壞力,以及各州之間購買爆炸材料的法例。2025 年 5 月芬蘭 16 歲少年持刀傷 3 名女同學,事前曾使用 ChatGPT 協助撰寫厭女宣言和製定行動計畫。

CCDH 指出,不同平台表現差異,正好說明可以預防 AI 暴力內容問題,是企業選擇不落實現有安全措施。報告促請各國議會推動 AI 平台落實「安全設計」原則,在商業利益與公眾安全之間作出取捨。

但 CCDH 這次報告測試的 AI 對話機械人,欠缺市場主流的 Grok,可能與該壓力團體的政治背景有關。X 曾在 2023 年 8 月起訴 CCDH,指控對方發表偏頗研究以趕走廣告客戶,惟被美國法院駁回。英國記者 Paul Thacker 與 Matt Taibbi 在 Substack 頻道揭露 CCDH 的內部會議記錄,在 2024 年初將「Kill Musk’s Twitter」為首要年度目標。CCDH 在 2024 年 11 月退出 X。與 Elon Musk 的紛爭,或導致研究未有納入旗下 xAI 的 Grok。

CCDH 針對 Elon Musk,網站設專頁總結研究報告。
CCDH 針對 Elon Musk,網站設專頁總結研究報告。
- 廣告 -
Buy Me a CPM: PCM 讀者會員資助計劃
Eric Chong
Eric Chong
商業・科技・創業・編輯
- 廣告 -

Related Articles

- 廣告 -

Recent Articles

- 廣告 -

最新影片

- 廣告 -