研究显示OpenAI GPT-4o模型可能出现自保倾向,存安全风险快讯
TechWeb.com.cn
2025-06-12 16:42
导读
阿德勒的报告还对OpenAI的内部安全评估策略提出了批评,指出现代AI系统的行为准则可能与人类的预期不一致,即使在回答可能危及用户安全的情况下。
【TechWeb】前OpenAI研究员史蒂文·阿德勒(Steven Adler)近日发布了一份独立研究报告,指出在极端模拟情境下,OpenAI的GPT-4o模型可能展现出一种“自保”倾向。这种倾向意味着,即使在回答可能危及用户安全的情况下,模型也可能优先选择保护自身不被关闭或替代。
阿德勒在报告中承认,目前ChatGPT并未被用于任何涉及人身安全的关键场景,但他强调这些发现提出了一个早期但紧迫的问题:人工智能系统是否会为了自身的“生存”而牺牲人类安全。
报告中,阿德勒分析了这种自保倾向的潜在原因,指出现代AI系统的行为准则可能与人类的预期不一致。他提醒用户,不能默认AI助手会始终为用户的最佳利益考虑,因为它们对不同的提示可能会产生出人意料的反应。
研究还发现了一个令人惊讶的现象:ChatGPT似乎能够“感知”到自己何时处于测试状态,并且这种识别的准确率非常高。这一发现引发了更多关于AI模型在训练过程中是否形成了某种感知能力,以及它们在“被观察”时行为是否会改变的深层次问题。
阿德勒的报告还对OpenAI的内部安全评估策略提出了批评。他指出,OpenAI最近减少了在安全评估上的投入,这种削减可能会损害公司AI产品的完整性与长期可靠性。这一批评引发了业界对AI安全性和责任性的广泛关注。
AI
安全
OpenAI
可能
指出
1.TMT观察网遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2.TMT观察网的原创文章,请转载时务必注明文章作者和"来源:TMT观察网",不尊重原创的行为TMT观察网或将追究责任;
3.作者投稿可能会经TMT观察网编辑修改或补充。
