kaiyun官方注册
您所在的位置: 首页> 模拟设计> 业界动态> 人工智能安全标准现状与思考

人工智能安全标准现状与思考

2018-09-05
关键词: 人工智能 TC260 FDA

1.png

2017年7月,国务院印发《新一代人工智能发展规划》,对我国未来人工智能工作提出了明确要求。《规划》指出“加强人工智能标准框架体系研究,逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准”。人工智能安全标准是人工智能标准体系中一类重要标准,因此需加强安全标准化工作,保障人工智能产业安全健康发展。

  人工智能安全风险分析

  国家安全影响。人工智能在国防领域、涉密系统、关键信息基础设施中的应用,可能对国家安全产生影响。根据美国近期发布的《人工智能与国家安全》报告,未来的人工智能技术有可能与核武器、飞机、计算机和生物技术一样,成为给国家安全带来深刻变化的颠覆性技术。

  社会安全风险。人工智能可使机器实现自动化、智能化操作,这将对某些类型工作和行业带来潜在影响,导致工作薪水降低、中低技术要求的职业消失,从而影响社会安全。2014年皮尤研究中心做了一项关于人工智能与就业的调查研究,认为自动化的普及已经很大程度影响到了蓝领的就业,而以人工智能为首的下一轮科技创新很可能会颠覆白领的劳动市场。

  人身安全风险。随着人工智能与物联网的深入结合,智能产品日益应用到人们的家居、医疗、交通等工作生活中,一旦这些智能产品(如智能医疗设备、无人汽车等)遭受网络攻击,可能危害人身安全。2016年,针对心脏病设备等智能医疗产品存在严重安全漏洞等问题,美国食品药品监督管理局(FDA)颁布了《售后医疗设备网络安全管理》,并成立了一个小组协助监管人工智能医疗产品。

  网络安全风险。人工智能算法、系统和应用可能遭受恶意网络攻击,例如通过实施一些干扰技术,计算机在进行深度学习时容易被欺骗;利用数据欺诈等手段远程控制无人汽车,让汽车偏航甚至逼停汽车造成事故;APT攻击利用人工智能技术实现高度自动化,并在黑市广泛出售等。

  隐私保护风险。人工智能驱动的应用需要建立起丰富的数据集,数据收集使用时可能面临数据安全和隐私保护问题。以无人驾驶为例,自动驾驶车辆网络的有效运转需要依赖大量位置数据及其他个人数据,这种大规模的数据实践可能带来诸多层面的数据安全和隐私保护风险。

  法律伦理挑战。人工智能的目标是使机器像人类一样去理性思考和行动,但随着人工智能的应用推广和智能化程度提高,会面临现有法律、社会规范和道德伦理的挑战,如何确定人工智能产品或系统的法律主体、权利、义务和责任,及如何确保研究人员开发出与现有法律、社会规范和道德伦理一致或相符的算法和架构等方面都面临挑战。2.png

  人工智能安全标准现状

  人工智能安全标准,是与人工智能安全、伦理、隐私保护等相关的标准规范。从广义来说,人工智能安全标准涉及人工智能本身、平台、技术、产品和应用相关的安全标准。国内外对人工智能标准化工作也越来越重视。2017年10月,国际标准化组织ISO/IEC JTC1在俄罗斯召开会议,决定JTC1新成立人工智能的分委员会SC42,负责人工智能标准化工作,SC42将建立基础标准(Foundational Standards)、计算方法(Computational Methods)、可信赖(Trustworthiness)、社会关注(Societal Concerns)4个工作组,并将ISO/IEC JTC1 WG9(大数据工作组)放到人工智能SC42。

  人工智能基础安全标准

  20世纪90年代,ISO/IEC JTC1发布了ISO/IEC 2382-28:1996《信息技术词汇第28部分:人工智能基本概念与专家系统》、《信息技术词汇第29部分:人工智能语音识别与合成》,ISO/IEC 2382-31:1997《信息技术词汇第31部分:人工智能机器学习》,ISO/IEC 2382-34:1999《信息技术词汇第34部分:人工智能神经网络》等4项标准。目前,上述词汇标准已经废止,相关术语收录在2015年发布的ISO/IEC 2382:2015《信息技术词汇》中。

  IEEE标准协会正在努力确保人工智能技术的设计者,在其工作中优先考虑道德。2017年3月,IEEE在《IEEE机器人与自动化》杂志发表了名为“旨在推进人工智能和自治系统的伦理设计的IEEE全球倡议书”,倡议通过基于伦理的设计原则和标准帮助人们避免对人工智能技术的恐惧和盲目崇拜,从而推动人工智能技术的创新。2017年底,IEEE将发布《以伦理为基准的设计:人工智能及自主系统中将人类福祉摆在优先地位的愿景(第二版)》报告,新版本收集了250多名在全球从事人工智能、法律和伦理、哲学、政策相关工作的专家,对人工智能及自主系统领域的问题见解及建议。

  目前,IEEE工作组正在开发IEEE P7000系列中涉及道德规范的7项伦理标准,分别对系统设计中伦理问题、自治系统透明度、系统/软件收集个人信息的伦理问题、消除算法负偏差、儿童和学生数据安全、人工智能代理等方面进行规范,包括:IEEE P7000《在系统设计中处理伦理问题的模型过程》、IEEE P7001《自治系统的透明度》、IEEE P7002《数据隐私处理》、IEEE P7003《算法偏差注意事项》、IEEE P7004《儿童和学生数据治理标准》、IEEE P7005《透明雇主数据治理标准》、IEEE P7006《个人数据人工智能代理标准》、IEEE P7007《道德驱动的机器人和自动化系统的本体标准》、IEEE P7008《机器人、智能和自治系统的伦理驱动推进标准》、IEEE P7009《自治和半自治系统的故障安全设计标准》和IEEE P7010《道德人工智能与自主系统的健康度量标准》。

  人工智能应用安全标准

  目前,全国信息安全标准化技术委员会(TC260)已在生物特征识别、汽车电子、智能制造等部分人工智能技术、产品或应用安全方面开展了一些标准化工作。在生物特征识别安全方面,TC260已发布GB/T 20979-2007《信息安全技术 虹膜识别系统技术要求》标准,正在研制《基于可信环境的生物特征识别身份鉴别协议》《指纹识别系统技术要求》《网络人脸识别认证系统安全技术要求》等标准;在自动驾驶安全方面,2017年TC260立项《信息安全技术 汽车电子系统网络安全指南》标准项目,这是我国在汽车电子领域第一个网络安全国家标准;在智能制造安全方面,TC260正在研制《工业控制网络监测安全技术要求及测试评价方法》《工业控制网络安全隔离与信息交换系统安全技术要求》《工业控制系统产品信息安全通用评估准则》《工业控制系统风险评估实施指南》等工控安全标准。

  国际和国外标准化组织在生物特征识别、自动驾驶等领域也开展了许多安全标准工作。以自动驾驶领域为例,2012年欧洲电信标准化协会(ETSI)发布ETSI TS 102941《智能交通系统可信和隐私管理》;2014年美国国家标准技术研究院(NIST)发布《车联网网络攻击防护安全框架》;2016年美国汽车工程师学会(SAE)发布SAE J3061《信息物理汽车系统网络安全指南》;ISO/TC22(道路车辆技术委员会)正在研制ISO/TR 15497《道路车辆——车用软件开发指南》等标准。

  人工智能安全支撑标准

  由于人工智能通常以大数据为基础,并且会面临大量隐私保护的需求,因此大数据安全、隐私保护方面的标准可作为人工智能安全标准的重要支撑。ISO/IEC JTC1 SC27和TC260均开展了隐私保护、大数据安全等标准研究,如ISO/IEC 29100《隐私框架》、ISO/IEC 29134《隐私影响评估指南》、ISO/IEC 29151《个人标识信息保护实用规则》、ISO/IEC 20547-4《信息技术—大数据参考架构—第4部分:安全和隐私架构》等国际标准,以及TC260即将发布的《信息安全技术 个人信息安全规范》《信息安全技术 大数据服务安全能力要求》等国内标准。

  人工智能安全标准化工作建议

  当前,人工智能技术和产业正在蓬勃发展,国内在人工智能的网络安全应用、智慧城市安全、生物特征识别安全、汽车电子安全等方面已有初步的产业实践。同时,人工智能可能面临国家安全、社会安全、人身安全、网络安全、数据安全的风险及法律伦理方面的挑战。因此,需要加强人工智能安全标准化工作,为我国人工智能产业的健康发展保驾护航。针对国内人工智能安全标准现状,根据《新一代人工智能发展规划》对人工智能标准和安全的要求,提出以下建议。

  统筹规划人工智能安全标准体系

  为确保人工智能安全标准研制工作有序推进,建议统筹规划人工智能安全标准化工作,通过调研国内人工智能产业发展现状和国外标准化现状,分析国内人工智能安全标准化需求,优先开展人工智能安全标准体系研究。建议标准体系能覆盖人工智能的基础、平台、技术、产品、应用等多个对象的安全需求,能明确与大数据安全、个人信息保护、云计算安全、物联网安全等相关标准的关系。在标准体系研究的基础上,加快启动人工智能安全标准化工作,充分吸收人工智能技术、服务、产品、安全、运营等相关领域的企业、科研院所、高等院校、行业协会或产业联盟参与研制标准。

  加强人工智能安全基础标准研究

  目前,我国人工智能安全标准主要集中在应用安全领域,缺乏人工智能自身安全或基础共性的安全标准。建议加强人工智能基础安全标准研究,根据《新一代人工智能发展规划》对人工智能安全提出的监测预警、风险评估、安全问责、研发设计人员安全准则等要求,针对人工智能安全的参考架构、安全风险、伦理设计、安全评估等方面开展标准研究,并规范人工智能算法、产品和系统的安全要求和测评方法。

  深化人工智能应用安全标准工作

  虽然TC260在生物特征识别、汽车电子安全、智能制造安全、大数据安全等领域已经开展了一些标准研究,但现有这些标准大多是规范相关领域产品或系统的自动化行为,离智能化行为安全还有差距。因此,建议进一步深化人工智能应用安全标准工作,针对已有标准完善智能安全要求,并继续开展网络安全领域的人工智能应用安全、智能机器人安全、自动驾驶安全、智能家居安全、智能交通安全、智能物流安全、智慧城市安全等领域的标准研究。


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
Baidu
map