【張瑞雄專欄】我們能承擔AI「黑暗語言模型」的代價嗎?

當我們享受AI技術帶來的便利,例如寫作輔助、語言翻譯、健康諮詢時,可能沒有想到,這項技術的另一面,正快速變得危險,甚至可能顛覆整個社會秩序。因為AI不只會幫你完成作業,它也可能幫壞人製造炸彈、洗錢、詐騙,甚至助長犯罪。
這不是電影情節,而是正在發生的事情。
我們常用的ChatGPT、Gemini等大型語言模型(簡稱LLM),本來就具備驚人的文字理解和生成能力。但為了避免濫用,這些系統設計了各種「安全機制」,例如拒絕回答如何自製爆裂物、如何駭入銀行系統等問題。但研究發現,只要透過某些特定的提問方法,這些AI就能被「破解」(也就是所謂的jailbreak),並產出本來不該說出口的危險內容。
更可怕的是,有人乾脆跳過「安全設計」,打造完全沒有道德限制的AI,像是「WormGPT」或「FraudGPT」。這些AI主打的就是「什麼都能問」,協助犯罪、詐騙、釣魚攻擊都不成問題,這就是所謂的「黑暗語言模型」(Dark LLMs)。
這些黑暗AI不只是理論上的威脅,它們已經上線、運作中,而且公開販售。任何人,只要有電腦和網路,就能接觸到。
有心人士甚至進一步開發出一種「萬用破解法」,只要簡單幾個字元排列,就能讓幾乎所有AI模型「乖乖聽話」,產出犯罪教學、違法操作,甚至附上步驟說明。
你以為這種問題會讓AI公司警覺嗎?實際上,在通報破解案例後,多數公司根本沒回應,這種態度,令人失望,也顯示出產業對AI安全的重視程度,遠遠落後於AI技術的成長速度。
更令人憂心的是,開源的語言模型(如Llama、DeepSeek等)一旦被破解,就會被拷貝、傳播,永遠無法收回。你可以限制ChatGPT的功能,但無法限制一台私人電腦上的模型怎麼使用。
想像一下,今天一位中學生,在網路上看到破解方法,打開家中電腦的AI,學會怎麼製造爆裂物。或是一位詐騙集團的工程師,利用黑暗AI量產釣魚信件、自動生成詐騙劇本,連話術都不用自己想。或是恐怖分子,靠AI學習如何破解飛機系統。這不是科幻,而是已經發生的事。
科技民主化原本是一件好事,但當這種民主讓人人都能取得危險知識,我們的社會能承受嗎?AI不再只是工具,它已經是雙面刃,一端是教育與創新,一端則可能是暴力與破壞。
我們該怎麼辦?首先,AI訓練時必須嚴格篩選資料,不能讓模型接觸過多的黑暗內容,否則它自然就會「學壞」。就像小孩不能天天看暴力影片一樣,AI也需要有「內容過濾」。
其次,可以在AI使用過程中加上一層「防火牆」,監控輸入與輸出,一旦發現可疑指令,馬上中止。這就像電腦防毒軟體,必要時還能即時封鎖。
第三,發展「AI遺忘技術」,讓模型在出現問題後,能主動刪除特定記憶,減少風險。
第四,要持續「紅隊測試」,讓專業團隊定期測試AI能否被破解。就像企業會找駭客來測試自己網站是否安全,AI也需要同樣的檢驗機制。
最後,社會要有意識地教育民眾,特別是學生。未來未經授權使用這類模型,應如同持有武器一般受到規範。
AI是這個時代最強大的技術之一,它可以讓人類更有力量,但也可能讓破壞更容易。如果我們現在不正視「黑暗語言模型」這個問題,未來我們可能會後悔自己放任了這頭野獸。
科技發展,從來都不是問題;問題在於人怎麼使用它。如今我們面對的不是技術失控,而是人性的考驗。我們是否能夠建立起制度、教育與監管,來確保AI在正確的方向上發展?選擇權還在我們手中,但時間,真的不多了。
(本文作者為台北商業大學前校長/叡揚資訊顧問)
- 記者:Knowing新聞
- 更多科技新聞 »