美剧《疑犯追踪》中的“AI预警机制”雏形? OpenAI八个月前标记加拿大枪击案嫌疑人
智通财经APP获悉,风靡全球的ChatGPT开发者、全球AI应用领军者OpenAI因一位用户违反ChatGPT使用政策,于去年六月持续标记并封禁了一起加拿大历史上最严重的大规模枪击案犯罪嫌疑人,但当时OpenAI并未将其移交警方,这也使得近日AI安全责任与隐私问题成为全球金融市场关注焦点。此外,这种类似热门美剧《疑犯追踪》系列剧集中那位堪称全知全能预测未来犯罪的“AI机器”预警机制,引发全球AI应用产品用户们对于AI风险监测机制的热议,与人工智能密切相关的国家安全、隐私机制与法律边界再受质疑。
这家人工智能应用领军者初创公司表示,涉嫌大规模枪击杀人者——杰西·范·鲁茨拉尔(Jesse Van Rootselaar)——拥有一个使用频繁的ChatGPT账户,该账户大约八个月前被用于扫描滥用(重点包括可能进一步推动恐怖与暴力活动)的OpenAI人工智能安全系统检测到并封禁。
加拿大警方称,这名18岁青少年本月早些时候在偏远的加拿大西部小镇坦布勒里奇(Tumbler Ridge)使用枪械杀死了八人并使约25人受伤,然后自杀身亡。
OpenAI表示,该公司大约八个月前利用检测滥用AI大模型的相关智能工具识别出了与范·鲁茨拉尔相关的账户,并将其封禁。
有媒体引用OpenAI内部消息人士透露的信息报道称,这名涉嫌该案件的枪手“连续数日描述与枪支暴力有关的骇人场景”,这引发了大约十几名OpenAI内部员工之间的激烈争论,其中一些人敦促领导层提醒警方,另一些人则认为这种非实质的检测证据不足以引起警方重视。
OpenAI方面则在一份电子邮件声明中表示,当时曾考虑将该账户移交加拿大执法机构,但未识别出可信或迫在眉睫的恐怖袭击或暴力计划,并确定不符合执法机构干预门槛。枪击事件发生后,该公司选择联系了加拿大治安当局。
“我们的心与所有受坦布勒里奇悲剧影响的人们同在。”OpenAI的一位发言人通过电子邮件表示。“我们选择主动与加拿大皇家骑警联系,提供了有关这位枪击案嫌疑人资料及其使用的ChatGPT账户的所有信息,我们将继续支持他们的调查。”
该公司表示,训练ChatGPT的重点任务之一就是以劝阻或阻拦可能导致现实世界伤害的即时行为。
OpenAI提前识别暴力倾向账户,使得这种“疑犯追踪式”的AI预警机制引发投资者们热议。然而,OpenAI封禁账号但未报案,令AI所赋能的安全系统价值与局限性以及这种人工智能系统与法律层面的关联愈发受到市场关注。
OpenAI 在数月前通过内部滥用检测系统发现并屏蔽了一个后来实施大规模枪击的嫌疑人账户,确实表明了现代基于AI的智能系统在监测内容、识别潜在风险行为方面的能力,但这仍然与热门美剧《疑犯追踪》(Person of Interest)中那种“全局预测未来犯罪”的“AI机器”有本质区别。
在《疑犯追踪》中,名为“机器”的AI虚构系统利用全球数据流、实时监控和复杂推理模型来预测个人未来可能实施的具体犯罪,并提前指派行动干预;现实中的AI系统(包括OpenAI的大模型)当前还未具备像“机器”那样的全知全能级别主动推断未来行为能力。现实里,AI的监测更多是基于已输入的信息、关键词模式和语义分析来识别违反规则或可能滥用的用法,例如识别恐怖或暴力倾向性的对话,并自动触发屏蔽或上报机制。这样的能力属于内容过滤与行为检测范畴,还不能像“机器”那样完全做到未来行为预测或因果推断。
此外,OpenAI对于是否向执法机关上报的判断并不是因为预测到了确凿的暴力实施计划,而是根据内部设定的风险阈值来评估是否存在“可信且迫在眉睫的严重人身伤害风险”,这也表明目前AI系统的安全机制更侧重于当前表达的风险信号评估而非未来行为预测。在这次案例中,OpenAI 认为当时没有达到必须向警方报告的法律和安全标准 —— 这与美剧《疑犯追踪》中预测未来犯罪并提前干预的设定是截然不同的。
但是OpenAI对于潜在犯罪的最新预警能力也意味着,随着AI大模型对已存在的风险信号进行筛查和响应的能力以及预测未来犯罪概率的能力逐渐增强,执行真正意义上的未来犯罪行为轨迹精准预测并在犯罪从意图变为实质人身伤害前进行干预的机制可能不久后也将正式出现并且快速健全。


