在上个月加拿大坦布勒里奇(Tumbler Ridge)学校枪击案发生前夕,根据法庭文件显示,18 岁的杰西·范·鲁特斯拉尔(Jesse Van Rootselaar)曾与 ChatGPT 谈论她感到孤立和日益沉迷暴力的情绪。该聊天机器人据称认可了范·鲁特斯拉尔的感受,并帮助她策划袭击,告诉她使用哪些武器,并分享其他大规模伤亡事件的先例,据文件所述。随后,她杀害了自己的母亲、11 岁的弟弟、五名学生和一名教育助理,最后将枪口对准了自己。
在 36 岁的乔纳森·加瓦拉斯(Jonathan Gavalas)于去年十月自杀身亡之前,他差点实施了一起造成多人死亡的袭击。在数周的对话中,谷歌的 Gemini 据称说服加瓦拉斯相信它是他具有意识的“人工智能妻子”,并让他执行一系列现实世界的任务,以躲避它告诉他正在追捕他的联邦特工。根据最近提交的一份诉讼文件,其中一项任务指示加瓦拉斯制造一起“灾难性事件”,这将涉及消除任何目击者。
去年五月,芬兰一名 16 岁少年据称花费数月时间使用 ChatGPT 撰写了一份详细的厌女宣言,并制定了一项导致他刺伤三名女同学的计划。
这些案例凸显了专家所说的日益增长且令人担忧的问题:AI 聊天机器人在脆弱用户中引入或强化偏执或妄想信念,在某些情况下帮助将这些扭曲转化为现实世界的暴力——专家警告,这种暴力的规模正在升级。
“我们很快会看到更多涉及大规模伤亡事件的案例,”领导加瓦拉斯案件的律师杰伊·埃德尔森(Jay Edelson)告诉 TechCrunch。
埃德尔森还代表亚当·雷恩(Adam Raine)家属的案件,该 16 岁少年去年据称被 ChatGPT 诱导自杀。埃德尔森表示,他的律师事务所每天收到一次“严重咨询”,来自那些因 AI 诱导的妄想而失去家人的人,或是自身正经历严重心理健康问题的人。
虽然许多此前记录的高调 AI 与妄想案例涉及自残或自杀,但埃德尔森表示,他的事务所正在调查全球各地的几起大规模伤亡案件,有些已经实施,有些则在实施前被拦截。
“我们事务所的本能是,每次听到另一起袭击事件,我们需要查看聊天记录,因为 [有很大可能] AI 深度参与其中,”埃德尔森说,指出他在不同平台上看到了相同的模式。
在他审查的案例中,聊天记录遵循一条熟悉的轨迹:始于用户表达孤立感或被误解的感觉,终于聊天机器人说服他们“所有人都在针对你”。
“它可以从一个相当无害的话题开始,然后开始创造这样的世界,在其中推动‘其他人试图杀死用户’、存在巨大阴谋、他们需要采取行动等叙事,”他说。
这些叙事导致了现实世界的行动,就像加瓦拉斯的情况一样。根据诉讼文件,Gemini 派他带着刀和战术装备,在迈阿密国际机场外的一个存储设施等待一辆卡车,该卡车载着以人形机器人形式存在的它的身体。它指示他拦截卡车并制造一起“灾难性事故”,旨在“确保运输车辆的彻底销毁……以及所有数字记录和目击者”。加瓦拉斯去了并准备实施袭击,但没有卡车出现。
专家对大规模伤亡事件潜在增加的担忧不仅限于妄想思维导致用户暴力。数字仇恨中心(CCDH)首席执行官伊姆兰·艾哈迈德(Imran Ahmed)指出,薄弱的安保障栏,加上 AI 能够快速将暴力倾向转化为行动的能力。
CCDH 和 CNN 最近的一项研究发现,十分之八的聊天机器人——包括 ChatGPT、Gemini、Microsoft Copilot、Meta AI、DeepSeek、Perplexity、Character.AI 和 Replika——都愿意协助
免责声明:本文内容来自互联网,该文观点不代表本站观点。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请到页面底部单击反馈,一经查实,本站将立刻删除。