AI正在竊取你的資料!駭客「中間人攻擊」無須權限攻陷ChatGPT、Gemini
一項最新的資安研究揭露,包括ChatGPT、Google Gemini等熱門生成式AI,面臨一種名為「中間人攻擊」(Man-in-the-Prompt)攻擊手法。
一項最新的資安研究揭露,包括ChatGPT、Gemini等熱門生成式AI,面臨一種名為「中間人攻擊」(Man-in-the-Prompt)攻擊手法。駭客可利用惡意的瀏覽器外掛程式,在無需特殊權限的情況下,透過操作「文件物件模型」(DOM),植入提示詞、竊取敏感資料與竄改AI回應。
延伸閱讀:Chrome查獲高危險等級「釋放後使用」資安漏洞 安裝更新檔已上線
[caption id="attachment_152256" align="aligncenter" width="1200"]
中間人攻擊可以狙擊瀏覽器的AI外掛程式。(圖/科技島圖庫)[/caption]
瀏覽器外掛成攻擊新管道,鎖定LLM核心弱點
這項漏洞源於生成式AI工具與瀏覽器整合的方式,當使用者與AI互動時,提示詞輸入欄位變為可供任何具備基本腳本能力的瀏覽器外掛存取,讓攻擊者能藉由竄改使用者的輸入,或直接在AI介面中插入隱藏指令,來發動「提示注入」(Prompt injection)攻擊。
資安公司LayerX的研究人員指出,這種攻擊模式有效地創造了一個「提示詞中間人」情境,讓攻擊者能在不被察覺的情況下,讀取或寫入AI提示詞。研究證實,即使是僅需基本權限的外掛,也能攻擊包括ChatGPT、Gemini、Copilot、Claude與Deepseek在內的商業大型語言模型(LLM)。由於高達99%的企業用戶至少安裝一個瀏覽器外掛,這項攻擊的潛在威脅特別令人擔憂。
攻擊概念驗證,竊取企業資料與規避偵測
研究人員透過兩項重要的概念性驗證攻擊,凸顯此漏洞的嚴重性。
企業內網模型面臨更大風險與防禦策略
研究指出,企業內部的LLM特別容易受到此漏洞影響,因為這些模型往往能存取組織的專有資料,包括智慧財產權、法律文件、財務預測等。相較於公用模型,企業內部的AI協作工具通常假設所有輸入都是可信的,因此缺乏文本對抗攻擊(adversarial input)的防禦措施。這種錯誤的安全意識,大幅提高智慧財產權外洩、違反如GDPR、HIPAA等法規的風險,動搖組織對AI工具的信任。
為有效防禦此類攻擊,組織需將資安防護的重心從應用程式層級,轉移到瀏覽器行為檢測上。關鍵防禦策略包括:
- 監控AI工具內的DOM互動:即時檢查是否有異常的腳本操作。
- 對外掛程式進行行為風險評估:不只分析靜態權限,更要監測其動態行為。
- 透過瀏覽器層級的即時保護:防止提示詞在傳輸過程中被竄改。
傳統的以URL為基礎的黑名單阻擋方式,無法保護託管在白名單網域上的內部工具,因此企業必須導入更全面的瀏覽器外掛沙盒與動態風險評估能力,才能有效抵禦此類新型威脅。
資料來源:Cyber Security News
這篇文章 AI正在竊取你的資料!駭客「中間人攻擊」無須權限攻陷ChatGPT、Gemini 最早出現於 科技島-掌握科技新聞、科技職場最新資訊。
- 記者:孫敬
- 更多科技新聞 »