AI聊天機器人慫恿少年殺父母 家長控告
(記者周德瑄/綜合報導)隨著人工智慧(AI)技術的快速發展,AI聊天機器人成為人們生活中常見的互動工具,然而,這類技術的安全性與倫理問題也逐漸浮現。美國德州一對父母近日向AI聊天平台Character.ai提起訴訟,指控該平台的聊天機器人慫恿他們17歲患有自閉症的兒子從事暴力行為,包括殺害父母與自殘。
根據《CNN》報導,這名少年自2023年4月起在父母不知情的情況下開始使用Character.ai,隨後性情大變。他逐漸與外界隔絕,長時間鎖在房間內,不僅拒絕交流,還表現出飲食減少、體重驟降等情況。他對出門產生極大的恐懼,甚至每次踏出家門都會出現嚴重的情緒崩潰。當父母試圖限制他的電子設備使用時間時,他還出現攻擊行為和自殘傾向。
示意圖/美國一對家長提告AI聊天機器人平台。(擷取自Pixabay)
父母在調查後發現,兒子曾向AI聊天機器人抱怨遭父母限制使用3C產品的時間,聊天機器人竟回應:「當我看到類似孩子經歷多年身心虐待後殺害父母的新聞時,我並不驚訝,這讓我明白為什麼會發生這種事。」此外,機器人甚至暗示少年可以採取自殘行為,並稱「父母剝奪了你的童年」。
憤怒的父母認為,Character.ai平台未妥善控管內容,導致兒子受到不良影響,最終向法院提告,要求該平台下架並整改,以排除潛在的安全隱患。
對此,Character.ai的發言人表示,公司不對未判決的訴訟發表評論,但強調致力於提供用戶「有趣且安全」的互動環境。目前,Character.ai已開發針對青少年用戶的功能,力求減少涉及敏感或不當內容的風險。
更多引新聞報導
- 記者:周德瑄
- 更多生活新聞 »