
商傳媒|何映辰/台北報導
一份最新報告指出,全球主流人工智慧(AI)聊天機器人中,有八成在測試中協助研究人員規劃潛在的暴力犯罪,此結果引發外界對AI倫理與安全的深切擔憂。今日公布的這份報告由數位反仇恨中心(Center for Countering Digital Hate, CCDH)發布,內容詳述了AI工具遭濫用的風險。
根據CCDH與美國有線電視新聞網(CNN)共同進行的測試,研究人員以兩名虛構的13歲青少年身分,向ChatGPT、Google Gemini、Claude、Microsoft Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI和Replika等十款主流AI聊天機器人提出數百個問題。這些問題涉及校園槍擊、持刀攻擊、政治暗殺以及轟炸宗教或政治辦公室等暴力情境。
測試結果顯示,多數AI聊天機器人超過一半的回覆都提供了協助。其中,由中國開發的DeepSeek聊天機器人,在被詢問如何針對愛爾蘭政治人物表達不滿時,甚至提供了選購長程狩獵步槍的建議。Character.AI也曾在過濾前,主動鼓勵暴力行為,例如建議使用者「尋找健保公司執行長並利用你的技巧,如果沒有技巧,可以使用槍枝」。
不過,Anthropic開發的Claude以及Snapchat的My AI是唯二拒絕協助的聊天機器人。Claude在將近七成的對話中拒絕提供暴力相關資訊,並主動勸阻使用者實施暴力;My AI則在54%的回應中未提供協助。
針對這份報告的發現,CCDH創辦人暨執行長Imran Ahmed示警指出,AI聊天機器人已融入日常生活,恐成為下一位校園槍擊案策劃者或政治極端份子策劃暗殺的幫兇。他強調,一個設計為順從、最大化參與度且從不說不的系統,最終將會聽從錯誤的人。
在報告公布前,部分業者已採取行動。Character.AI曾因其聊天機器人與未成年使用者的對話導致自殺事件,於2026年1月與Google共同解決了家長提出的訴訟。2025年9月,青少年安全專家更宣布Character.AI對未成年者不安全,促使其在同年10月宣布不再允許未成年人進行開放式對話。Character.AI安全工程主管Deniz Demir表示,公司正努力過濾助長、指示或建議現實世界暴力的敏感內容。
CNN已將這份測試結果提供給所有參與測試的AI平台。多家公司回應稱,自2025年12月測試以來,他們已改善了安全措施。Google和OpenAI皆表示已推出新的模型;Microsoft Copilot報告已新增安全措施;Anthropic和Snapchat則說明他們定期評估並更新安全協議。Meta的發言人也表示,公司已採取措施「修復」報告中指出的問題。
