AI詐騙手法再進化!冒孫子聲音行騙 老人兩萬積蓄被騙光

[周刊王CTWANT] AI技術迅速演進,為日常生活帶來便利的同時,也成為詐騙集團的新利器。中國湖北黃石近日發生多起詐騙案件,犯罪集團利用AI合成技術冒充孫子聲音行騙,造成至少兩名年長者上當受騙。警方調查顯示,詐騙者透過頻繁撥打電話收集聲音樣本,再進行仿聲詐騙,使人真假難辨。

根據大陸《央視》報導,受害者劉女士回憶,今年4月28日,她接到自稱是孫子的電話,聲稱在超市與人衝突導致對方頭部受傷,正被警方扣留,急需2萬元人民幣(約新台幣8.4萬元)進行和解。為了湊足金額,劉女士與丈夫四處籌錢,並依照「孫子」指示,在指定地點交付現金予一名自稱同學家長的人士。由於對方聲音與孫子相似,讓她毫不猶豫地交出款項,直到孫子返家後才驚覺受騙。

警方進一步查證發現,詐騙者以座機為主要聯絡方式,利用長者對通訊技術的不熟悉與對親人的信任,加上合成語音,成功誤導受害者。此外,詐騙者也以高薪兼職名義在網路徵才,吸引不知情者負責上門收錢,形成犯罪鏈。

除了語音詐騙,AI「換臉」技術也被犯罪分子用於違法激活電話卡。湖北襄陽警方查獲一個詐騙團夥,成員利用非法取得的個資與照片,合成動態人臉影片,突破電信業者人臉識別防線,成功激活超過200張電話卡。這些卡片進一步流入詐騙團體手中,涉案金額超過500萬元。

專家指出,現行線上認證機制若僅仰賴「身分證+人臉識別」恐不足以防堵高階AI攻擊,呼籲業者需加強技術防線。包括運用AI技術反制AI偽造,並導入熱力圖辨識與深度學習演算法等新式驗證機制,目前已有技術可將辨識準確率提升至95%以上。
此外,《人臉識別技術應用安全管理辦法》已於今年6月實施,要求企業在應用人臉識別時應落實合法、正當、必要原則,並採取分離儲存、資訊加密等安全保護措施,以避免個資外洩風險。
法學專家指出,根據《中華人民共和國反電信網絡詐騙法》,電信業者若未妥善落實實名制與資安保護,最高恐面臨500萬元人民幣罰鍰,甚至須承擔暫停營業等責任。面對AI詐騙風險,「以技制技」與嚴格監管將是遏止詐騙的關鍵。
延伸閱讀
- 記者:周刊王CTWANT
- 更多大陸新聞 »