世界数字技术院首次发布大模型安全国际标准
蚂蚁集团、OpenAI、科大讯飞等参编
2024-04-18
来源:IT之家
4 月 17 日消息,4 月 15-19 日,第 27 届联合国科技大会在瑞士日内瓦召开。其间,世界数字技术院(WDTA)于 4 月 16 日发布了一系列突破性成果,包括《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。
据中国经济网报道,这两项国际标准为大模型及生成式 AI 应用方面的安全测试标准,代表着全球人工智能安全评估和测试进入新的基准。
这两项标准由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制而成,其中《大语言模型安全测试方法》由蚂蚁集团牵头编制。
《标准》为测试、验证生成式 AI 应用(尤其是使用大语言模型构建的应用程序)的安全性提供框架,定义了 AI 应用程序架构每层测试验证范围,包括不限于如下方面。
基础模型选择
嵌入和矢量数据库
RAG 或检索增强生成
AI 应用运行时的安全
《方法》则为大模型本身安全性评估提供了“全面、严谨且实操性强”的结构性方案,提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法。据报道,《方法》可以解决大语言模型固有的复杂性,全面测试其抵御敌对攻击的能力,使开发人员和组织能够识别和缓解潜在漏洞,并最终提高使用大语言模型构建的人工智能系统的安全性和可靠性。
注:WDTA 系国际非政府组织,于日内瓦注册。该机构遵从联合国指导框架,致力于在全球范围内推进数字技术,促进国际合作。AI STR(安全、可信、负责任)计划是 WDTA 的核心倡议,旨在确保人工智能系统的安全性、可信性和责任性。
本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。