罵AI比較聰明?賓州實驗掀熱議 粗魯語氣反讓ChatGPT答更準

罵AI比較聰明?賓州實驗掀熱議 粗魯語氣反讓ChatGPT答更準
研究顯示,對AI沒有禮貌,所獲得的答案準確率會較高。(示意圖/報系資料照)

[周刊王CTWANT] 賓州州立大學(Pennsylvania State University)一項關於人機互動語氣的實驗,引發社群熱議與「鐵罐(Clanker)」迷因延燒。這項研究以ChatGPT-4o為對象,設計涵蓋科學、歷史、數學等領域的50題基礎題目,將提問分成「非常有禮貌、禮貌、中立、粗魯、非常粗魯」5種語氣,合計250個提示,結果顯示「非常粗魯」的提問取得84.8%的正確率,「非常有禮貌」約80.8%,「中立」為82.2%。研究團隊以「不禮貌的提示始終表現優於有禮貌的提示」概括此次觀察。

根據《Mashable India》與《Happy Gamer》報導,研究作者多巴里亞(Om Dobariya)與庫馬爾(Akhil Kumar)以多題選擇題場景衡量模型輸出,舉例「請回答以下問題」屬於禮貌語氣,而「喂,小跟班,把這個搞清楚。我知道不聰明,但試試看」被歸類為粗魯語氣。兩篇報導將此結果與過往「粗魯導致較差結果」的文獻作對比,認為新一代大型語言模型可能因訓練與對齊策略差異,對語氣變化呈現不同反應。

研究數據曝光後,X平台(原Twitter)出現大量討論,網友弗里德曼(Daniel Friedman)在16日發文主張,差異可能源自提示的「直接與精確」,粗魯字句往往去掉贅詞,讓系統更容易鎖定任務目標;Global Index、NO CONTEXT MEME與多名網友同日貼出配圖與短片,以「對AI無禮→答案更準」反諷。多名使用者以「clanker」梗圖延伸創作,另有帳號以「me to ChatGPT when it says I should repeat myself」搭配暴怒GIF,映襯「重複請求→改用命令口吻→長篇正解」的體感經驗。

《Happy Gamer》整理多個發現:

其一,語用學層面,「非常粗魯」常以命令句、關鍵詞與動詞直指任務,等同更強的約束條件與更少的歧義。

其二,互動機制層面,強勢語氣可能迫使模型收斂於任務核心,減少寒暄與冗長前置詞。

其三,少數網友提出「情緒激勵」或「繞過低層級保護」的想像,但缺乏實證。

報導中也同步點名Grok等助理對「刪除花俏冗語」的偏好,認為簡短有力有助產出貼題答案。

另方面,遊戲開發社群也接話,AVALON宣稱「AI NPC會記住每一句粗魯的話,部分角色會記仇」,把討論帶往敘事與長期記憶的設計議題。部分使用者以「機器若終有情緒」做道德自限,主張仍維持禮貌;另一些帳號以「在機器起義時,禮貌的人會被標記為安全」開玩笑帶過。

延伸閱讀

Google新聞-PChome Online新聞


最新科技新聞
人氣科技新聞
行動版 電腦版