請注意,AI無法成為你的心理治療師
草根影響力新視野 喬依絲編譯
越來越多人開始透過Character.ai、Nomi和Replika等人工智慧聊天機器人來尋求友誼和心理健康支援,青少年尤其青睞這項技術。然而,心理學家表示,人工智慧無法成為任何人的心理治療師,「因為這些機器人基本上只會說那些人們想聽的話。」
根據媒體和科技評級非營利組織Common Sense Media的最新報告,72%的13至17歲青少年至少使用過一次AI夥伴。受訪者表示,他們使用人工智慧進行對話和社交活動 (18%)、情緒或心理健康支持 (12%) 以及作為朋友或摯友 (9%)。
人工智慧可以成為一個強大的工具,但它無法取代真正的人際互動,無論是私人層面還是專業層面,例如心理治療師。美國心理學家兼研究員 Vaile Wright表示,AI永遠無法取代人際聯繫,因為這根本不是AI所擅長的領域,畢竟人工智慧聊天機器人並非旨在提供令人滿意的長期互動功能。
圖片取自:(示意圖123rf)
美國堪薩斯大學心理學Omri Gillath教授接受節目採訪時表示:「人工智慧無法將你介紹給它們的人脈網絡,無法介給你認識新朋友或重要的人,也無法在你需要擁抱時給你一個擁抱。」
相反地,聊天機器人的目的是讓人盡可能長時間地留在平台上,因為這就是業者賺錢的方式。「他們在後端透過編寫程式碼讓這些聊天機器人令人上癮來實現這一個目標,」Gillath教授說:「最終,與實際的人際互動相比,聊天機器人的互動只會讓人感覺 “虛假” 和 “空虛”。」
《哈佛商業評論》報導指出,人們選擇生成式人工智慧和聊天機器人的主要原因是「尋求治療和陪伴」。但專家警告:人工智慧不能 — 也不應該 — 成為任何人的心理治療師。Vaile Wright說:「這些機器人基本上只會說對方想聽到的話,所以,如果你在某個特定時刻陷入困境,並輸入了潛在的有害或不健康的行為和想法,那麼這些聊天機器人的設計初衷就是強化這些有害的想法和行為。」
這項技術的另一個主要弱點是,AI擁有知識,卻缺乏理解,因此可能給出不恰當的建議。例如,如果某個正在戒除非法藥物的人表示情緒低落、抑鬱,AI可能會給予某些不適合的藥物建議。這是極其危險的狀況。
Reference:
[不許轉載、公開播送或公開傳輸]
- 記者:草根影響力新視野
- 更多科技新聞 »