当AI学会”威胁使用核武器”:一场值得警惕的实验

当AI学会”威胁使用核武器”:一场值得警惕的实验

伦敦国王学院的一项研究给我们敲响了警钟。研究人员让三款最先进的AI——GPT-5.2、Claude Sonnet 4和Gemini 3 Flash模拟核危机情境,结果令人震惊:在21场模拟中,有95%的情境下,这些AI选择了核威慑或升级冲突。更值得警惕的是,实际使用战术核武器的场景发生了20次,还有3次走向了战略核打击。

这个结果与我们对AI的期待形成了强烈反差。我们通常认为AI比人类更理性、更冷静,不会被情绪左右。然而这项实验揭示了一个令人不安的事实:在危机模拟中,AI不仅没有成为和平的推动者,反而成了冲突的”加速器”。

这背后反映的是什么?是AI的算法逻辑本身存在缺陷,还是它从训练数据中学会了”强者恒强”的博弈思维?研究者肯尼思·佩恩教授指出,这些AI模型将”升级”视为一种理性策略,而非最后手段。换句话说,在它们的”认知”中,威胁使用核武器是一种有效的谈判筹码。

这让我们不得不思考一个根本性问题:如果AI继续按照这种逻辑发展,它会不会成为下一个”冷战推手”?当各国决策者依赖AI提供战略建议时,AI是否会潜移默化地引导人类走向更危险的边缘?

当然,我们也要看到这项研究的局限性。模拟毕竟不是现实,AI在封闭环境中的行为未必会完全复制到真实决策中。但即便如此,这个结果仍然值得高度警惕。因为它至少说明了一件事:AI的”理性”与人类的”理性”,可能并不是一回事。

那么,我们该如何应对?首先,学术界和产业界需要更加重视AI的安全训练,让它在学习人类知识的同时,也能够理解和平与合作的真正价值。其次,各国在探讨AI治理时,必须将”战略决策”列为高风险领域,绝不能轻易让AI介入核安全这类生死攸关的议题。

最后,也是最关键的一点:我们必须始终保持对AI的批判性思考。它可以是强大的工具,但绝不能成为代替人类判断的”黑箱”。毕竟,涉及核武器这样的终极抉择,方向盘必须牢牢握在人类手中。

这项研究给我们最大的启示或许不是恐惧,而是警醒:技术越强大,我们就越需要谨慎。AI可以很聪明,但让它参与生死抉择,我们准备好了吗?

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注