當得知是AI回覆 研究:人們同理心評價下降

國際期刊「自然人類行為」最新研究發現,即使回覆內容被人評價為「有同理心」,但當人們相信或認為自己得到的回應是來自AI時,對相同回應的同理心與情感支持評價會下降。

「自然人類行為」(Nature Human Behaviour)這項研究使用線上平台招募了6282人,讓他們打字輸入近1個月內的1次感情經歷。這些文字都被傳送給AI模型,生成「有同理心」的回覆。在這些人等待由AI生成的回應時,研究人員告知他們,回應是來自AI還是人,再請他們評分自己收到的回應有沒有同理心,以及同理心的高低。

研究發現,當回覆的來源被認為是AI,人們認為回應帶給自己的情感、支持、真實性及正面感受就會明顯降低。研究也指出,即便人們被告知是人類提供了回覆,但若自行判斷或懷疑其中有AI協助,人們對回應的評價也會降低。

這項研究顯示,無論AI回覆的長短、必須等待回覆的時間長短,只要人們認為是AI回應,評價都比認為是人類回應時更低。

作者建議,AI可用於提供有禮貌、實用的建議,但未來設計AI時應釐清AI角色與情感界線,並且應評估不同人群能接受AI回覆的程度,以及追蹤長期的互動是否建立信任或帶來負面情緒。

針對這項研究,台灣科技媒體中心邀請專家解析應如何看待研究結果,以及如何謹慎地在日常陪伴或心理支持時使用AI。

彰化師範大學輔導與諮商學系教授謝麗紅指出,人們依然傾向相信「真正的同理心只能來自人類」,此非單純的技術問題,而是牽涉到人對「真誠」、「理解」與「被關心」等根植於人性深處的情感需求,因此會希望對方真的「懂我」、「在乎我」、「願意為我付出」,而這是目前AI只能模擬、無法真正具備的能力。

台灣大學心理學系副教授黃從仁提醒,這種一次性、匿名的互動,可能無法完全代表真實世界中,人們與AI建立長期、深入關係後的感受;在長期的陪伴關係中,人們對AI的看法可能會改變。此研究受試者主要來自英國與美國、年齡約27至28歲的成人,而不同文化背景的人對於AI的接受度和期望可能有差異。

此外,黃從仁表示,研究雖然測試了不同的語言模型,但AI技術日新月異,未來的模型可能會在模擬情緒方面更加先進。這篇研究的結論是以「目前」的技術水準為基礎,未來或許會有所不同。
Google新聞-PChome Online新聞


最新生活新聞
人氣生活新聞
行動版 電腦版