微软谷歌等AI巨头齐聚首尔:承诺安全开发人工智能模型,必要时关闭尖端系统快讯
IT之家
2024-05-22 10:42
导读
上承诺安全开发 AI 模型,这不是人工智能公司第一次做出听起来很高尚但不具约束力的安全承诺,在无法控制最极端风险的情况下关闭其尖端系统(cutting-edge systems)。
5 月 22 日消息,路透社报道,微软 、谷歌 、OpenAI 等 16 家科技公司在 21 日和 22 日举行的“人工智能(AI)首尔峰会”上承诺安全开发 AI 模型,在无法控制最极端风险的情况下关闭其尖端系统(cutting-edge systems)。
参会的公司还包括国内企业智谱 AI(备注:腾讯、阿里、美团和小米曾对其投资)、IBM、亚马逊、Meta 和三星。
安全承诺包括发布框架,阐明公司将如何衡量其模型的风险。在风险严重且“无法接受”的极端情况下,如果无法减轻风险,人工智能公司将不得不按下紧急停止开关,停止开发或部署其模型和系统。
这不是人工智能公司第一次做出听起来很高尚但不具约束力的安全承诺。亚马逊、谷歌、Meta 和微软在去年签署由美国政府促成的自愿保障措施,以确保他们的产品在发布时是安全的。
被誉为“人工智能教父”的计算机科学家约书亚・本吉奥对这些承诺表示欢迎,但他指出自愿承诺必须伴随监管。(沛霖)
公司
承诺
人工智能
安全
AI
1.TMT观察网遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2.TMT观察网的原创文章,请转载时务必注明文章作者和"来源:TMT观察网",不尊重原创的行为TMT观察网或将追究责任;
3.作者投稿可能会经TMT观察网编辑修改或补充。
