填补AI安全空白:谷歌上线安全人工智能框架风险评估工具

IT之家 10 月 26 日消息,谷歌公司于 10 月 24 日发布博文,宣布推出 Saif 风险评估工具,旨在帮助人工智能开发者和组织评估其安全态势,识别潜在风险,并实施更强的安全措施。

Saif 简介

IT之家注:谷歌去年发布了安全人工智能框架(Saif),旨在帮助用户安全、负责任地部署 AI 模型,Saif 不仅分享了最佳实践,还为行业提供了一个安全设计的框架。

为了推广这一框架,谷歌与行业伙伴共同成立了安全人工智能联盟(CoSAI),以推动关键的 AI 安全措施。

Saif 风险评估工具

谷歌目前已经在新网站 Saif.Google 上提供 Saif 风险评估工具,该工具以问卷形式运行,用户回答后会生成定制化的检查清单,指导他们确保 AI 系统的安全。

工具涵盖多个主题包括

AI 系统的训练、调优和评估

对模型和数据集的访问控制

防止攻击和对抗性输入

生成性 AI 的安全设计与编码框架

用户在回答问题后,工具会立即生成一份报告,突出 AI 系统面临的具体风险,如数据中毒、提示注入和模型源篡改等。

每个风险都附有详细解释及建议的缓解措施,此外用户还可以通过互动 Saif 风险地图了解在 AI 开发过程中如何引入与缓解不同的安全风险。

相关文章

IT之家 10 月 26 日消息,在接受科技媒体 TechRader 记者 Ja...
IT之家 10 月 26 日消息,科技媒体 petapixel 昨日(10 月 2...
IT之家 10 月 26 日消息,The Verge 今天凌晨报道称,OpenAI...
快科技10月25日消息,日前英伟达CEO黄仁勋和丹麦国王共同宣布...
IT之家 10 月 26 日消息,谷歌公司于 10 月 24 日发布博文,...
IT之家 10 月 26 日消息,据路透社报道,当地时间周五,达美...