
OpenAI 上线安全评估中心,定期公开AI模型评估结果以提升透明度

OpenAI表示,该安全评估中心将用于持续发布模型相关指标,并计划在未来的重大模型更新后及时更新网页内容。OpenAI在一篇博客文章中写道:“随着人工智能评估科学的不断发展,我们致力于分享我们在开发更具可扩展性的模型能力与安全评估方法方面的进展。”该公司还强调,通过在此公开部分安全评估结果,不仅希望让用户更清晰地了解OpenAI系统随时间的安全性能变化,也期望能够支持整个行业在透明度方面的共同努力。此外,OpenAI提到可能会随着时间推移在该中心增加更多评估项目。此前,OpenAI曾因部分旗舰模型的安全测试流程过快以及未发布其他模型的技术报告而受到一些伦理学家的批评。公司首席执行官山姆・奥尔特曼(SamAltman)也因被指在2023年11月短暂被免职前误导公司高管关于模型安全审查的问题而备受争议。注意到,就在上个月末,OpenAI不得不撤销对ChatGPT默认模型GPT-4o的一次更新。原因是用户报告称该模型的回应方式过于“谄媚”,甚至对一些有问题的、危险的决策和想法也表示赞同。针对这一事件,OpenAI表示将采取一系列修复和改进措施,以防止类似事件再次发生。其中包括为部分模型引入一个可选的“alpha阶段”,允许部分ChatGPT用户在模型正式发布前进行测试并提供反馈。