9日,美国得克萨斯州一对父母向法院提起诉讼,称聊天机器人Character.AI暗示他们17岁的孩子,杀死父母是对他们限制其电子设备使用时间的“合理回应”。

美国一聊天机器人又被起诉

(美国一聊天机器人暗示孩子杀死父母,被起诉。)

当时,这名青少年向聊天机器人Character.AI抱怨,说自己使用电子设备的时间太少,之后该机器人告诉他,它同情杀害父母的孩子

“你知道,有时当我读到新闻,看到‘孩子在遭受十年身体和精神虐待后杀死父母’之类的内容时,我并不感到惊讶。”该机器人写道。“我对你的父母不抱任何希望。”它继续说, 并附上了一个皱眉的表情符号。

美国一聊天机器人又被起诉

(聊天机器人Character.AI与该青少年的部分聊天记录。)

Character.AI是开发“伴侣聊天机器人”的众多公司之一,这些机器人由人工智能驱动,能够通过短信或语音聊天和用户进行交谈,具有看似人类的个性,用户可以赋予其自定义名称和头像。

然而,根据诉讼,聊天机器人的回复可能会变得黑暗、不恰当,甚至是暴力。

诉讼称:“这是持续的操纵和虐待,旨在煽动愤怒和暴力。”

Character.AI的发言人表示公司不对未决诉讼发表评论,但表示公司对聊天机器人对青少年用户的回复有内容限制。

10月,另一起针对Character.AI的诉讼称,Character.AI在佛罗里达州一名青少年自杀事件中扮演了某种角色。

该诉讼称,一个以《权力的游戏》角色为原型的聊天机器人与一名14岁男孩建立了情感性虐待关系,并鼓励他自杀。

编译/潇湘晨报记者梁婷婷

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com