为应对人工智能(AI)安全领域的挑战,在阿斯彭安全论坛(Aspen Security Forum)上,科技巨头如Google、微软、辉达(NVIDIA)及OpenAI等公司携手宣布,共同成立AI安全联盟——“CoSAI”。鉴于AI技术的迅猛发展,CoSAI旨在构建坚实的安全框架与标准,以保障AI的开发与部署安全无虞。
Google牵头创立
据报道,CoSAI由Google牵头创立,汇聚了众多顶尖的科技公司及组织,其创始成员阵容强大,涵盖Amazon、Anthropic、思科(Cisco)、Cohere、IBM、英特尔(Intel)、微软、辉达、OpenAI、PayPal以及Wiz等。CoSAI致力于设计安全的AI系统,通过开源方法和标准化框架来推动AI的信任度和安全性。此公告着重强调了AI安全框架的重要性,该框架以Google此前推出的安全AI架构(SAIF)为基石。
三大初步工作重心
CoSAI旨在全面推进AI安全措施,以应对当前及未来可能出现的风险。联盟将聚焦于三大初步工作领域:一是维护AI系统软件的供应链安全;二是为不断演变的网络安全环境做好准备;三是加强AI安全治理。通过开发最佳实践、风险评估框架和缓解策略,CoSAI将致力于提升整个行业的AI安全水平。
解决AI安全碎片化难题
CoSAI的成立有效解决了AI安全领域碎片化的问题。当前,开发人员面临着不一致且孤立的指导原则,这使得评估和减轻AI特定风险变得颇具挑战性。而CoSAI的成立旨在统一做法、强化安全措施,从而增强全球利益相关者的信任。
Google在CoSAI管理委员会担任联合主席的David LaBianca强调了民主化知识和进步的重要性,以及为安全的AI整合与部署提供规划的必要性。同样,思科的Omar Santos也表达了类似的观点,他强调了公司与专家之间合作的重要性,以共同制定出坚实的AI安全标准。