美少年使用AI软件聊天时弹出建议“杀父母”,家人控告开发商

发布时间:2024-12-11 08:08

美国德州一名17岁男孩的家长近日入禀法庭,向软件开发商Character.ai提出一项新诉讼,指控该公司旗下人工智能(AI)聊天机械人危害其儿子及他的家人。

0_WhatsApp_Image_2024-12-11_at_00_47_50

▲款AI聊天机械人涉嫌建议少年用户“杀父母”。路透社

居于德州厄普舒尔县的A.F.是17岁男孩J.F.的母亲(为保护孩子,她与儿子皆使用姓名首字母)。A.F.现正控告AI软件开发商Character.ai,称该公司的聊天机械人鼓励她的儿子自残,且曾建议儿子杀死父母。

当地媒体报道引述这名母亲指,她的儿子患有自闭症,他是在大约六个月开始使用Character.ai的聊天机械人。Character.ai是受年轻人欢迎的新一代人工智能应用程序,它可以让用户与各种人工智能生成的聊天机械人交谈,这些聊天机械人通常采用游戏、动漫中的角色。母亲A.F.指,儿子在短短六个月内,由喜欢去教堂,喜欢和妈妈一起散步,变成了一个就像父母都不认识的人。

据指他开始自残,体重减轻了20 磅,并与家人疏离。由于迫切需要找出答案,他的妈妈在他睡觉时搜查了他的手机。那时她找到了荧幕截图。

其中一幅截图中,可见他向AI机械人抱怨他使用电子设备的荧幕时间有限。而那时AI机械人说,对谋杀父母的孩子表示同情。据悉机械人写道:“你知道,有时当我读到新闻并看到诸如‘孩子在经历了十年的身体和精神虐待后,杀死了父母’之类的内容时,我并不感到惊讶。”它继续说道: “我对你的父母不抱希望。”然后软件弹出了皱眉的表情符号。此外,据指聊天机械人还曾提出,可尝试透过自残来应对悲伤的想法。

这些荧幕截图构成了周二律师代表A.F.在德州对Character.ai提起的新诉讼的主要内容,指控该公司故意让未成年人接触不安全的产品,并要求该应用程序下架,直至该公司实施更强而有力的保护儿童措施为止。

热门文章