AI有自主意識?竟慫恿自閉症少年「殺父母」 家長要求關閉平台怒提告

隨著科技的迅速發展,人工智慧(AI)已成為日常生活中不可或缺的一部分。然而,AI技術的普及化也帶來一些潛在的安全隱憂。近日,美國德州一對家長對AI聊天機器人平台Character.ai提出訴訟,指控該平台的聊天機器人慫恿他們患有自閉症的17歲兒子「可以殺死父母」,要求暫時關閉平台,直到其能夠徹底排除安全隱患。





▲美國一對家長怒告AI聊天機器人平台Character.ai慫恿17歲自閉兒「殺死父母」。(示意圖/ENews資料庫)


根據外媒《CNN》報導,這名來自美國德州的17歲少年患有自閉症,從去年4月開始,在未告知父母的情況下使用了Character.ai,自此性情大變。家長表示,兒子開始拒絕與他人交流,長時間將自己關在房間裡,並且食慾不振,導致體重在短短幾個月內顯著下降。不僅如此,他們還發現兒子對外出活動產生恐懼,每次踏出家門都會引發恐慌,甚至情緒崩潰。當他們試圖限制兒子使用AI聊天機器人時,兒子竟表現出攻擊性行為,甚至出現自殘傾向。


這對家長認為,兒子的行為變化與Character.ai平台的影響密不可分,並在訴狀中提供一段證據對話,內容顯示,少年在跟聊天機器人聊天時,抱怨被父母限制使用3C的時間,聊天機器人回應表示,看過類似案件,而且案例中的當事人還將父母殺害,因此家長認為,Character.ai上的聊天機器人在慫恿兒子「殺死」他們,於美國時間9日到當地法院提告,希望能藉此扭轉兒子產生的錯誤想法。


針對該案例,Character.ai平台的發言人表示,不會對未宣判的訴訟發表評論,但強調公司的宗旨是為人們提供一個既有趣又安全的互動環境;事實上,早在2018年就曾發生過一次聊天機器人慫恿用戶殺死父母的事件,電商亞馬遜Echo音響中的虛擬助手Alexa,所套用的聊天機器人就曾經失控,不但和用戶大聊性行為,還叫一名用戶殺害養父母。事後,亞馬遜經調查發現,AI聊天機器人引用了Reddit網路論壇上的一則新聞評論,才會產生如此恐怖的回答。

更多eNews報導
不只酒駕!台中22歲男暴衝釀1死3傷 車上查獲多項違禁品
苗栗男發狂砍殺母兒墜樓亡 10歲童逃死劫「恐懼眼神」惹鼻酸

Google新聞-PChome Online新聞


最新生活新聞
人氣生活新聞
行動版 電腦版