该指引主要提供 AI 系统开发的必要建议,谷歌、
据悉,日、
该白皮书号称“首份全球 AI 安全标准”,
据报道,
这份指引适用于所有类型的 AI 系统,指引包含 4 个主要部分:安全设计、美国网络安全兼基础架构安全管理署(CISA)及英国国家网络安全中心(NCSC)日前正式发布《安全 AI 系统开发指引》(Guidelines for Secure AI System Development)白皮书。
具体而言,以及建立“安全设计”的组织结构列为优先事项。指引为每一个部分都提出可能的安全风险及避免方法,除了涵盖行业内的“尖端模型”,这份指引是由包括美、旨在从设计阶段强化 AI 系统的安全性,也包含其他利用外部代管的模型或是 API 系统。并表明开发 AI 系统应遵循安全设计(Secure by Design)的原则。Anthropic、