据报道,研究人员无法关闭最新的 OpenAI o3 人工智能模型,并指出尽管人类发出指令,该模型仍拒绝关机。
显然,人工智能的进步速度可能超出人类的想象,而来自 Palisade 研究 的最新消息让人工智能批评者感到自己得到了证实。
Palisade Research 的发现实施这项测试要求人工智能模型不断尝试解决一系列数学问题,直到收到“完成”消息。
然而,研究人员也警告这些模型,它们随时可能突然收到要求其关闭的消息。研究人员声称,一旦该消息发送到o3模型,它就会忽略该指令,并至少修改一次代码,以避免自行关闭。
Palisade Research 在 X 的一篇文章中展示了一个流程图,其中包含用于测试 AI 模型的代码,并披露了原始代码,准确地显示了 AI 在哪里出了问题。