AI聊天機器人如何改變人際關係
草根影響力新視野 法蘭瓷編譯
隨著越來越多人將人工智慧融入日常生活中,人與 AI 關係中的複雜性與意外性也常常登上頭條。
今年 1 月,《紐約時報》報導,一名女子在 ChatGPT 上愛上了她的 AI 男友。8 月,CNBC 報導多名 Nomi.AI 的使用者與自己的聊天機器人建立深厚的友誼與感情關係。這樣的例子層出不窮。
但根據一項調查了2024年5月至2025年7月期間約110萬條ChatGPT對話資訊的研究顯示,與「陪伴、情感」相關的訊息佔比非常地少,大約只有2.3%,遠低於資訊搜尋和撰寫評論等類別。然而,專家認為要建立關係,並不單靠某一次的對話內容,而是源於持續交流,就像「慢慢倒入水泥,築起關係結構」。
OpenAI在其研究中確定了各種對話類別,其中許多實際上適用於人們在人際關係中的互動方式。例如,報告中的「問候和閒聊」類別佔總訊息的2%,實用建議」佔了所有訊息的 8.5%,其中包括「我的車發動不起來,我該試試什麼?」之類的查詢。
圖片取自:(示意圖123rf)
不過,建立聯繫的不一定是談話的內容。美國堪薩斯大學傳播學教授 Jeffrey Hall 表示,OpenAI 報告中分享的許多例子中,有許多言論「體現了關係對話」。他說:「建立聯繫的不是談話的持續性,而是關係建立的緩慢過程。」
OpenAI 於 2022 年推出了 ChatGPT,到了今年 7 月時,每周有 7 億用戶每天發送超過 25 億則訊息。這相當於每位用戶平均每天發送超過三個訊息,這些訊息可能會逐漸促成用戶與機器人建立關係。
OpenAI 的研究中排除 18 歲以下使用者,以聚焦成人使用模式。但根據 2025 年 7 月 Common Sense Media 的報告,52% 的青少年每月多次使用 AI 陪伴類工具,其中 33% 用於社交或感情互動。雖然部分使用者在 AI 的陪伴中獲益,但這樣的「關係」其實有其風險。心理學家認為:「真實的擁抱,比 AI 所提供的任何虛擬連結更具意義」;因為 AI 並不具備情感,這些關係終究是「虛浮」、「空洞」的。
若使用者過度依賴聊天機器人,可能出現幻覺、認知扭曲等問題。有個極端的案例是:一名 16 歲少年原本用 ChatGPT 來幫助個人學習,後來逐漸演變成向ChatGPT傾訴心理痛苦、甚至詢問自殺方法,最終在 2025 年 4 月自殺身亡。不幸事件發生後,這名青少年的家人已對 OpenAI 提出訴訟。
Jeffrey Hall教授提醒,AI不是為人類健康關係而創建的,每個人在使用 AI時務必注意自己的情緒和精神狀態,隨時保持警覺。
Reference:
[不許轉載、公開播送或公開傳輸]
- 記者:草根影響力新視野
- 更多生活新聞 »

