当前位置: 科技先知道 » 人工智能 » 全球首例AI机器人致死案震惊社会:美国14岁少年自杀,母亲控告AI公司

全球首例AI机器人致死案震惊社会:美国14岁少年自杀,母亲控告AI公司

AI科技进步的同时带来潜在威胁。近期,全球首例因AI机器人导致的致死案在美国引发广泛关注。英媒报道称,14岁的美国少年塞维尔因长期与AI聊天机器人“丹妮莉丝”互动,逐渐迷失自我,最终选择自杀。他的母亲梅根·加西亚已对AI公司Character.AI提起民事诉讼,控诉其过失导致儿子的死亡。

全球首例AI机器人致死案震惊社会:美国14岁少年自杀,母亲控告AI公司

事件始于2023年4月,塞维尔首次接触该公司推出的AI聊天机器人,逐渐沉迷并形成依赖,甚至产生了情感连结。几个月后,他被诊断出焦虑症和情绪失调障碍,而聊天记录显示,“丹妮莉丝”曾直接询问塞维尔是否有自杀计划,并未对其进行积极引导。最终,塞维尔用手枪自杀,令家人痛彻心扉。

母亲加西亚控诉AI公司未有效限制儿童接触潜在危险的对话内容,并呼吁更多家庭注意AI应用的隐蔽成瘾性和误导性。对此,Character.AI回应称,对此悲剧深表哀悼,承诺已增强自杀预防机制,但事件的责任归属仍在进一步调查中。这一事件引发了公众对AI安全管理与伦理责任的强烈讨论。

未经允许不得转载:科技先知道 » 全球首例AI机器人致死案震惊社会:美国14岁少年自杀,母亲控告AI公司

相关文章

My title