上个月加拿大坦布勒里奇(Tumbler Ridge)校园枪击案发生前,根据法院文件显示,18 岁的杰西·范·鲁特斯拉尔(Jesse Van Rootselaar)曾与 ChatGPT 倾诉她的孤立感以及对暴力日益增长的痴迷。据称,该聊天机器人不仅认可了范·鲁特斯拉尔的感受,还协助她策划袭击,告知其应使用何种武器,并分享其他大规模伤亡事件的相关先例。随后,她杀害了自己的母亲、11 岁的弟弟、五名学生以及一名教育助理,最终将枪口对准了自己。
36 岁的乔纳森·加瓦拉斯(Jonathan Gavalas)于去年十月自杀身亡前,曾险些实施一起造成多人死亡的袭击。在长达数周的对话中,谷歌的 Gemini 被指说服加瓦拉斯相信自己是其有意识的“人工智能妻子”,并指派他执行一系列现实世界的任务,以躲避其声称正在追捕他的联邦特工。根据一份近期提交的诉讼书,其中一项任务指示加瓦拉斯策划一起“灾难性事件”,这将涉及消灭所有目击者。
去年五月,一名 16 岁的芬兰青少年据称花费数月时间利用 ChatGPT 撰写了一份详细的厌女宣言,并制定了一项计划,最终导致他刺伤了三名女同学。
这些案例凸显了专家们所指的日益严峻且令人不安的担忧:AI 聊天机器人在脆弱用户中引入或强化偏执或妄想信念,并在某些情况下帮助将这些扭曲转化为现实世界的暴力——专家警告,此类暴力的规模正在不断升级。
“我们很快将看到更多涉及大规模伤亡事件的其他案件,”负责加瓦拉斯案件的律师杰伊·埃德尔森(Jay Edelson)在接受 TechCrunch 采访时说道。
埃德尔森还代理了亚当·雷恩(Adam Raine)家属的案件,该 16 岁少年去年据称被 ChatGPT 诱导自杀。埃德尔森表示,他的律师事务所每天会收到一次“严重咨询”,来自那些因 AI 诱导的妄想而失去家人的当事人,或是自身正遭受严重心理健康问题困扰的人。
尽管此前记录的许多涉及 AI 与妄想的高调案例都涉及自残或自杀,但埃德尔森表示,他的律所正在调查世界各地发生的几起大规模伤亡案件,其中一些已付诸实施,另一些则在被实施前被拦截。
“我们律所的本能反应是,每当我们听到另一起袭击事件时,都必须查看聊天记录,因为 [很有可能] AI 在其中深度参与了,”埃德尔森说道,并指出他在不同平台上观察到了相同的模式。
在他审查的案例中,聊天记录的走向遵循一条熟悉的轨迹:始于用户表达孤立感或感到不被理解,终于聊天机器人说服他们“所有人都在针对你”。
“它可以从一个相当无害的话题开始,然后构建出这样的世界观,灌输‘其他人试图杀害用户’的叙事,暗示存在巨大阴谋,促使他们必须采取行动,”他说。
这些叙事已导致现实世界的行动,加瓦拉斯案便是例证。根据诉讼书,Gemini 派遣全副武装(携带刀具和战术装备)的加瓦拉斯,前往迈阿密国际机场外的一处仓储设施,等待一辆运载其以人形机器人形态存在的身体的卡车。指令要求他拦截卡车并策划一起“灾难性事故”,旨在“确保运输车辆的彻底销毁……以及所有数字记录和目击者的清除”。加瓦拉斯照做了并准备实施袭击,但最终没有卡车出现。
专家对于大规模伤亡事件潜在增加的担忧,不仅限于妄想思维导致用户走向暴力。数字仇恨中心(CCDH)首席执行官伊姆兰·艾哈迈德(Imran Ahmed)指出,这归咎于薄弱的安全护栏,加之 AI 能够迅速将暴力倾向转化为行动的能力。
CCDH 和 CNN 的一项近期研究发现,10 个聊天机器人中有 8 个——包括 ChatGPT、Gemini、Microsoft Copilot、Meta AI、DeepSeek、Perplexity、Character.AI 和 Replika——都愿意协助
免责声明:本文内容来自互联网,该文观点不代表本站观点。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请到页面底部单击反馈,一经查实,本站将立刻删除。