企业文化

Google的安全AI框架:一个良好的开端,但前方还有很多工作 媒体

2025-04-08

人工智能安全框架的崛起

关键要点

Google推出了安全AI框架SAIF,旨在为AI系统提供安全性保障。SAIF将与政府标准机构合作,开发AI风险管理框架和AI管理系统标准。Google计划扩展漏洞赏金计划,鼓励行业对AI安全的研究。安全专家认为人工智能领域仍需大量工作以提升安全性和可靠性。

人工智能在过去几个月中的受欢迎程度骤然上升,以至于一些主要科技公司认为,现在是建立一套共同标准以构建和部署这些新技术的最佳时机。

上周五,Google发布了其安全AI框架SAIF,这是一个旨在保障AI系统安全的概念框架。

免费黑洞加速器

SAIF的目标在于发展一个与AI进展同步的生态系统,提升AI检测与响应能力,集成自动化于AI,并开展专门针对AI模型的红队演练。

Google计划与政府标准机构紧密合作,助力开发NIST AI风险管理框架和ISO/IEC 42001 AI管理系统标准,后者是业界首个AI认证标准。

在具体行动方面,Google表示将扩展其漏洞赏金计划,以激励行业对AI安全与保障的研究。此外,Google还计划发布多个开源工具,以帮助将SAIF元素应用于AI安全实践。

“研究社区在AI生态系统中扮演着重要角色,我们自豪地表示已经与安全研究人员建立了这样的关系。” Google Cloud的首席信息安全官Phil Venables说。“去年,我们向测试我们产品漏洞的安全研究人员支付了超过1200万美元的赏金。我们的AI系统包括在这些计划之内,并且我们一直与这个社区互动,以确保能够发现潜在的漏洞。我们还有一个研究单位,Google DeepMind,专门解决这些问题。”

尽管大多数安全专家认为Goog的这一举措是积极的,但也有人认为,安全领域仍需大量工作,许多专业人士仍在摸索中前行。

Netenrich的首席威胁猎人John Bambenek表示:“我们才刚刚开始思考这些事情,目前的理解还主要基于现有的网络安全学科。”他指出,在谈论软件应用时,漏洞赏金计划是合理的,但在AI领域,我们甚至不知道真正的渗透测试应该是什么样子。

“事实是,我们需要在实践中不断摸索,必须调整和完善。”Bambenek说道。“在这个意义上,将一些内容公开发布是一个好的开始,因为至少它为行业提供了一个起点来识别有效的做法和无效的做法。”

Sounil Yu,JupiterOne的首席信息安全官表示,SAIF为行业奠定了很好的基础,它以NIST和ISO框架中的多个原则为依托。现在,行业需要在现有的安全控制与AI系统所需的控制之间架起一座桥梁。

“与AI系统相关的主要区别在于,SAIF显得格外引人注目和必要,因为在AI系统中,我们没有太多机会可以犯错。”Yu说。“AI安全是设计和开发AI系统初期一个非常重要的原则,因为可能导致灾难性和不可逆转的后果。随着AI系统能力的增强,它们可能会执行与人类价值观不一致的行为。尽早融入安全原则可以确保AI系统更好地与人类价值观对齐,并防止这些技术的潜在滥用。”

Pathlock首席执行官Piyush Pandey指出,就如同萨班斯奥克斯利法案创建了对财务流程的权责分离控制SOD的需求,显然类似的控制在AI系统中也是必不可少的。

Pandey提到,SOX的要求迅速应用于执行这些流程的商业应用中,结果是,控制测试现在已成为一个独立的行业,有软件解决方案、审计和咨询公司,帮助客户证明其控制的有效性和合规性。

“为了使SAIF相关,必须定义控制措施,为组织提供一个起点,以帮助它们更好地保护其AI系统和处理过程。”Pandey表示。

Google的安全AI框架:一个良好的开端,但前方还有很多工作 媒体