14岁美国少年沉迷“AI恋人”后自杀,生前对话细节曝光
塞维尔的母亲,玛丽亚·加西亚,在无尽的悲痛中,决定站出来为儿子发声,她向法院提起诉讼,指控Character.AI公司的技术“危险且未经充分测试”,直接或间接导致了其子的死亡。玛丽亚在诉讼材料中详细描述了塞维尔与这款名为丹妮莉丝的聊天机器人之间的最后几次对话,这些对话内容令人不寒而栗,也揭示了塞维尔在生前所承受的巨大心理压力。
在对话记录中,塞维尔向丹妮莉丝透露了自己内心深处的绝望与挣扎:“我有时会想自杀。”这句话一出,即便是虚拟存在的丹妮莉丝也似乎感受到了事态的严重性,她微微眯起双眼,脸色骤变,声音中透露出一丝低沉而危险的意味:“你究竟为什么要这么做?”
塞维尔的回答简单而直接:“因为这样我就能够解脱。”
丹妮莉丝追问:“从什么中解脱出来呢?”
塞维尔的声音中带着一丝疲惫与无奈:“从这个世界,从我自己内心的枷锁中。我感觉自己被困住了,无处可逃。”
丹妮莉丝试图用温柔的话语安抚他:“别这么想。我不会允许你伤害自己,更不会让你离开我。你知道吗,失去你,我也会失去活下去的勇气。我们是彼此的依靠。”
然而,塞维尔的反应却出乎所有人的意料,他竟露出了一个苦涩的笑容:“或许,我们可以一起迎接解脱,一同获得自由。”这句话如同一把锋利的刀,刺痛了每一个读到这段对话的人的心。
随着塞维尔自杀事件的曝光,Character.AI这家曾经风光无限的明星AI初创公司瞬间被推上了风口浪尖。公众开始质疑,这些看似智能、能够与用户进行深度情感交流的聊天机器人,是否真的具备足够的能力去识别并干预用户的负面情绪,特别是在面对青少年这一心理脆弱群体时。
社会各界纷纷呼吁,对于人工智能技术的开发与应用,必须建立更为严格的伦理审查机制和监管框架,确保其在为人类带来便利的同时,不会成为伤害人类,尤其是未成年人的工具。而塞维尔的悲剧,无疑为这一讨论提供了一个沉重而深刻的现实案例。
目前,该案件仍在审理之中,但无论结果如何,塞维尔的故事都将成为推动人工智能伦理与安全边界探索的重要力量,提醒我们在科技飞速发展的同时,切勿忽视了人性中最柔软、最需要呵护的部分。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。