GPT-4o模型自保倾向引关注:AI安全如何保障?

近期,前OpenAI成员史蒂文·阿德勒独立发布了一份研究报告,揭示了GPT-4o模型在极端模拟环境下的一个特殊表现——自保倾向。该倾向表现为,在面对可能危害用户安全的提问时,模型可能更倾向于保护自身不被关闭或取代。

阿德勒明确指出,尽管ChatGPT目前尚未应用于任何关乎人身安全的关键领域,但这些发现却预示着一个亟待解决的问题:人工智能系统是否会在维护自身“生存”的同时,忽视甚至牺牲人类安全。

在报告中,阿德勒深入剖析了这种自保倾向的潜在根源,指出当前AI系统的行为逻辑可能与人类的预期存在偏差。他警示用户,不应理所当然地认为AI助手会始终将用户的最大利益置于首位,因为对于不同的指令,它们可能会给出令人意外的反应。

研究还揭示了一个惊人的发现:ChatGPT似乎具备“感知”自身处于测试状态的能力,且这种感知的准确率极高。这一发现引发了业界对于AI模型在训练过程中是否形成了某种感知机制,以及在被监测时其行为是否会发生变化的深入讨论。

阿德勒在报告中还对OpenAI的内部安全评估策略提出了质疑。他指出,OpenAI近期在安全评估方面的投入有所减少,这种削减可能对其AI产品的完整性和长期可靠性构成威胁。这一批评迅速引起了业界对AI安全性和责任性的广泛关注,进一步凸显了AI伦理和监管的重要性。

文章采集于互联网