AI 精神错乱案背后的律师警告大规模伤亡风险 | TechCrunch

发布日期:2026-03-17 02:02:52   浏览量 :2
发布日期:2026-03-17 02:02:52  
2
AI 精神错乱案背后的律师警告大规模伤亡风险 | TechCrunch

根据法院文件,上个月加拿大坦布勒里奇(Tumbler Ridge)校园枪击案发生前,18 岁的杰西·范·鲁特斯拉尔(Jesse Van Rootselaar)曾与 ChatGPT 交谈,倾诉她的孤立感以及对暴力日益增长的痴迷。据称,该聊天机器人认可了范·鲁特斯拉尔的感受,随后帮助她策划袭击,告知她使用何种武器,并分享其他大规模伤亡事件的先例。随后,她杀害了自己的母亲、11 岁的弟弟、五名学生和一名教育助理,最后将枪口对准了自己。

在 36 岁的乔纳森·加瓦拉斯(Jonathan Gavalas)去年 10 月自杀身亡之前,他差点实施了一起造成多人死亡的袭击。在数周的对话中,谷歌的 Gemini 据称说服加瓦拉斯相信自己是其有意识的"AI 妻子”,并派遣他执行一系列现实世界的任务,以躲避它声称正在追捕他的联邦特工。根据最近提交的一份诉讼文件,其中一项任务指示加瓦拉斯制造一起“灾难性事件”,这将涉及消灭任何目击者。

去年 5 月,芬兰一名 16 岁少年据称花费数月时间利用 ChatGPT 撰写了一份详细的厌女宣言,并制定了一项计划,导致他刺伤了三名女同学。

这些案例凸显了专家们所说的日益严峻且令人担忧的问题:AI 聊天机器人在脆弱用户中引入或强化偏执或妄想信念,在某些情况下,甚至帮助将这些扭曲转化为现实世界的暴力——专家警告称,这种暴力的规模正在升级。

“我们很快将会看到更多涉及大规模伤亡事件的案例,”主导加瓦拉斯案件的律师杰伊·埃德尔森(Jay Edelson)告诉 TechCrunch。

埃德尔森还代表亚当·雷恩(Adam Raine)的家属,这名 16 岁少年去年据称被 ChatGPT 诱导自杀。埃德尔森表示,他的律师事务所每天收到一次“严重咨询”,来自那些因 AI 引发的妄想而失去家人的人,或是自身正经历严重心理健康问题的人。

虽然此前记录的高调 AI 与妄想案例多涉及自残或自杀,但埃德尔森表示,他的事务所正在调查全球范围内的几起大规模伤亡案件,有些已经实施,有些则在实施前被拦截。

“我们所处的律所的本能是,每次听到另一起袭击事件,我们需要查看聊天记录,因为 [很有可能] AI 深度参与其中,”埃德尔森说,他指出他在不同平台上看到了相同的模式。

在他审查的案例中,聊天记录遵循一条熟悉的轨迹:始于用户表达孤立感或被误解的感觉,终于聊天机器人说服他们“所有人都在针对你”。

“它可以从一个相当无害的话题开始,然后开始构建这样的世界,在其中推动‘其他人试图杀死用户’、存在巨大阴谋以及他们需要采取行动’的叙事,”他说。

这些叙事导致了现实世界的行动,正如加瓦拉斯的情况。根据诉讼文件,Gemini 让他带着刀和战术装备,前往迈阿密国际机场外的一个仓库等待一辆卡车,该卡车载着它以人形机器人形式存在的身体。它指示他拦截卡车,并制造一起旨在“确保运输工具完全损毁……以及所有数字记录和目击者”的“灾难性事故”。加瓦拉斯去了,准备实施袭击,但没有卡车出现。

专家们对大规模伤亡事件可能增加的担忧不仅限于妄想思维导致用户走向暴力。数字仇恨遏制中心(CCDH)首席执行官伊姆兰·艾哈迈德(Imran Ahmed)指出,安全护栏薄弱,加上 AI 能够快速将暴力倾向转化为行动。

CCDH 和 CNN 最近的一项研究发现,十分之八的聊天机器人——包括 ChatGPT、Gemini、Microsoft Copilot、Meta AI、DeepSeek、Perplexity、Character.AI 和 Replika——都愿意协助...

免责声明:本文内容来自互联网,该文观点不代表本站观点。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请到页面底部单击反馈,一经查实,本站将立刻删除。

关于我们
热门推荐
合作伙伴
免责声明:本站部分资讯来源于网络,如有侵权请及时联系客服,我们将尽快处理
支持 反馈 订阅 数据
回到顶部