《人工智能安全标准化白皮书(2019版)》发布
GDPR对人工智能带来挑战2017年,欧洲议会曾通过一项立法决议,提出要制定“机器人宪章”,推动人工智能和机器人民事立法。2018年4月,欧盟委员会发布《欧盟人工智能战略》,通过提高技术和产业能力、应对社会经济变革、建立适当的伦理和法律框架三大支柱,来确立欧盟人工智能价值观。2018年5月,欧盟GDPR正式生效,其中涉及人工智能的主要有:GDPR要求人工智能的算法具有一定的可解释性,这对于“黑箱”人工智能系统来说可能具有挑战性。同时,GDPR第22条对包括画像在内的自动化决策提出了要求:如果自动化决策产生的法律效力涉及数据主体,或对数据主体有类似的重要影响,则数据主体应有权不成为此决策的对象;如果自动化决策是为了履行数据主体和控制者的合约必须做出的决策,且经过数据主体明示同意,数据控制者应当实施适当措施以保护数据主体的权利、自由和合法权益,并至少保证数据主体具有对自动化决策进行人为干预、个人表达自己观点并拒绝该决策的权利。2019年4月8日,欧盟委员会发布了由人工智能高级专家组编制的《人工智能道德准则》,列出了人工智能可信赖的七大原则,以确保人工智能应用符合道德,技术足够稳健可靠,从而发挥其最大的优势并将风险降到最低。其中,可信赖人工智能有两个组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。(四)德国:积极应对人工智能伦理道德风险,提出关于自动驾驶的首项道德伦理标准2017年3月,德国24家企业组建“德国人工智能协会”,为行业利益发声,其中包括妥善应对伦理风险等负面影响。德国数据伦理委员会负责为人工智能发展制定道德规范和行为守则。所有基于算法和人工智能的产品、服务需通过审查,尤其是避免出现歧视、诈骗等不法现象。德国将自动驾驶伦理道德作为规范人工智能发展的核心领域之一。2017年5月12日,德国通过首部针对自动驾驶汽车的法案,对《道路交通法》进行了修订,首次将自动驾驶汽车测试的相关法律纳入其中。法案的目的是保障驾驶者的人身安全,这是德国向无人驾驶迈出的重要一步。2018年5月,德国政府推出关于自动驾驶技术的首项道德伦理标准,该准则将会让自动驾驶车辆针对事故场景作出优先级的判断,并加入到系统的自我学习中,例如人类的安全始终优先于动物以及其他财产等。2018年7月,德国联邦政府内阁通过了《联邦政府人工智能战略要点》文件,旨在推动德国人工智能研发和应用达到全球领先水平,以负责任的方式促进人工智能的使用,造福社会,并释放新的增值潜力。该文件确立了德国发展人工智能的目标以及在研究、转化、人才培养、数据使用、法律保障、标准、国际合作等优先行动领域的措施,例如采取政府和科研数据开放、国家企业间数据合作、欧洲数据区、扩大医疗卫生行业数据系统互操作性等措施使数据可用能用,保障人工智能系统的透明度、可追溯性和可验证性等。(五)英国:关注机器人及自治系统的监管,建立数据伦理与创新中心为政府提供咨询2016年10月,英国下议院的科学和技术委员会发布了一份关于人工智能和机器人技术的报告,对“机器人技术及自治化系统”(简称RAS)的监管进行了研究。2018年4月,英国政府发布《人工智能行业新政》,旨在推动英国成为全球人工智能领导者。该文件包括国内外科技公司投资计划、扩建阿兰图灵研究所、创立图灵奖学金以及启动数据伦理与创新中心等内容。其中,数据伦理和创新中心,是一个由英国政府设立的独立咨询机构,可为政府机构和行业提供建议,以支持负责任的技术创新并帮助建立强大、可信赖的治理体系。2019年该中心的主要工作是分析数据驱动技术带来的机遇和风险,包括算法偏见策略审查、人工智能晴雨表,及针对人工智能和保险、智能扬声器和深度造假等主题进行研究等。2018年4月,英国议会下属的人工智能特别委员会发布报告《人工智能在英国:准备、志向与能力?》,报告认为当前不需要对人工智能进行统一的专门监管,各个行业的监管机构可以根据实际情况对监管做出适应性调整。报告呼吁英国政府制定国家层面的人工智能准则,为人工智能研发和利用设定基本的伦理原则,并探索相关标准和最佳实践等,以便实现行业自律。报告在一些重点问题的建议为:在最大化公共数据的价值方面,报告提出要区分数据和个人数据,建议通过数据信托、开放公共数据、开放银行数据机制等措施促进数据访问和共享。在实现可理解、可信赖的人工智能方面,建议避免在特定重大领域采用“黑盒”算法,鼓励研制可解释性的人工智能系统,在安全攸关的特定场景中要求使用更加技术透明的人工智能系统。在应对算法歧视方面,建议研究训练数据和算法的审查和测试机制,需要采取更多措施确保数据真正具有代表性,能够代表多元化的人群,并且不会进一步加剧或固化社会不公平。此外,在自动驾驶方面,英国在2017年2月出台《汽车技术和航空法案》,规定在自动驾驶汽车道路测试发生事故时,可通过简化保险流程,帮助保险人和保险公司获得赔偿。英国也将在2021年全面允许自动驾驶汽车合法上路。(五)日本:成立人工智能伦理委员会,积极开展人工智能伦理道德研究2014年12月,日本人工智能学会成立了“伦理委员会”,探讨机器人、人工智能与社会伦理观的联系。2016年6月,伦理委员会提出人工智能研究人员应该遵守的指针草案。该草案强调“存在无关故意与否,人工智能成为有害之物的可能性”,草案规定无论直接还是间接,均不得基于加害意图使用人工智能。在无意施加了危害时,需要修复损失,在发现恶意使用人工智能时采取防止措施。研究者须尽全力促使人们能够平等利用人工智能,并负有向社会解释人工智能局限性和问题点的责任。2015年1月,日本经济产业省将委员会讨论的成果进行汇总编制了《日本机器人战略:愿景、战略、行动计划》(又称为《新机器人战略》),将机器人的发展与推进作为未来经济发展的重要增长点,制定了详细的“五年行动计划”,将围绕制造业、服务业、农林水产业、医疗护理业、基础设施建设及防灾等主要应用领域,展开机器人技术开发、标准化、示范考核、人才培养和法规调整等具体行动。2017年3月,日本人工智能技术战略委员会发布《人工智能技术战略》报告,阐述了日本政府为人工智能产业化发展所制定的路线图,包括三个阶段:在各领域发展数据驱动人工智能技术应用(2020年完成一二阶段过渡);在多领域开发人工智能技术的公共事业(2025-2030年完成二三阶段过渡);连通各领域建立人工智能生态系统。2.1.2 国内情况我国已发布了一系列的人工智能相关政策法规,围绕促进产业技术发展出台了相关政策文件,包括《新一代人工智能发展规划》(以下简称《发展规划》)、《促进新一代人工智能产业发展三年行动计划(2018-2020年)》(以下简称《行动计划》)、《“互联网+”人工智能三年行动实施方案》、《关于促进人工智能和实体经济深度融合的指导意见》和《国家新一代人工智能创新发展试验区建设工作指引》等。这些文件中均提出了人工智能安全和伦理等方面的要求,主要关注人工智能伦理道德、安全监管、评估评价、监测预警等方面,加强人工智能技术在网络安全的深度应用。《发展规划》提出要“制定促进人工智能发展的法律法规和伦理规范”,包括:重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规;开展与人工智能应用相关的民事与刑事责任确认等法律问题研究,建立追溯和问责制度;开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架;制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案等方面内容。《发展规划》也指出要“建立人工智能安全监管和评估体系”,包括:加强人工智能对国家安全和保密领域影响的研究与评估,完善人、技、物、管配套的安全防护体系,构建人工智能安全监测预警机制;加强人工智能网络安全技术研发,强化人工智能产品和系统网络安全防护;构建动态的人工智能研发应用评估评价机制等内容。《行动计划》提出要建立“网络安全保障体系”,包括针对智能网联汽车、智能家居等人工智能重点产品或行业应用,开展漏洞挖掘、安全测试、威胁预警、攻击检测、应急处置等安全技术攻关,推动人工智能先进技术在网络安全领域的深度应用,加快漏洞库、风险库、案例集等共享资源建设等内容。在国家人工智能发展战略的指引下,国家相关部门在无人机、自动驾驶、金融等细分领域出台了相应的规范性文件:(一)无人机(试行)》、《民用无人机驾驶员管理规定》、《民用无人驾驶航空器经营性飞行活动管理办法(暂行)》、《民用无人机驾驶员管理规定》等规范性文件,对民用无人机飞行活动、民用无人机驾驶员等相关安全问题作出了明确规定。(二)自动驾驶“《管理规范》”)。《管理规范》适用于在中国境内公共道路上进行的智能网联汽车自动驾驶测试。北京市发布《北京市自动驾驶车辆道路测试管理实施细则(试行)》及相关文件,确定33条、共计105公里开放道路用于测试。上海市发布《上海市智能网联汽车道路测试管理办法(试行)》,划定第一阶段5.6公里开放测试道路,并发放第一批测试号牌。重庆、保定、深圳也相继发布相应的道路测试管理细则或征求意见,支持智能网联汽车开展公共道路测试。(三)金融2.2 主要标准化组织人工智能安全工作情况2.2.1 ISO/IEC JTC12017年10月ISO/IEC JTC1在俄罗斯召开会议,决定新成立人工智能的分委员会SC42,负责人工智能标准化工作。SC 42已成立5个工作组,包括基础标准(WG1)、大数据(WG2)、可信赖(WG3)、用例与应用(WG4)、人工智能系统计算方法和计算特征工作组(WG5),此外SC42也包含人工智能管理系统标准咨询组(AG1)、智能系统工程咨询组(AHG3)等。SC42 WG3可信赖组重点关注人工智能可信赖和伦理问题,已开展人工智能可信度、鲁棒性评估、算法偏见、伦理等标准研制工作,主要标准项目包括:1)ISO/IEC TR 24027《信息技术 人工智能 人工智能系统中的偏差与人工智能辅助决策》,由美国NIST提出,主要研究人工智能系统与人工智能辅助决策系统中的算法偏见。2)ISO/IEC PDTR 24028《信息技术 人工智能 人工智能可信度概述》,主要研究了人工智能可信赖的内涵,分析了人工智能系统的典型工程问题和典型相关威胁和风险,提出了对应的解决方案。该标准将可信赖度定义为人工智能的可依赖度和可靠程度,从透明度、可验证性、可解释性、可控性等角度提出了建立人工智能系统可信赖度的方法。3)ISO/IEC TR 24029-1《人工智能 神经网络鲁棒性评估第1部分:概述》,由法国提出,主要在人工智能鲁棒性研究项目基础上,提出交叉验证、形式化验证、后验验证等多种形式评估神经网络的鲁棒性。TR24029-2《人工智能 神经网络鲁棒性评估第2部分:形式化方法》在今年10月的日本会议上也已申请立项。4)ISO/IEC 23894《信息技术 人工智能 风险管理》,梳理了人工智能的风险,给出了人工智能风险管理的流程和方法。5)TR《信息技术 人工智能 伦理和社会关注概述》,主要从伦理和社会关注方面对人工智能进行研究。除了SC42外,ISO/IEC JTC1/SC27信息安全技术分委会,在其WG5身份管理和隐私保护技术工作组,已立项研究项目《人工智能对隐私的影响》,研究人工智能对隐私产生的影响。ISO/IEC JTC1/SC7软件和系统工程分委会,也在研制ISO/IEC/IEEE 29119-11《软件和系统工程—软件测试—人工智能系统测试》,旨在对人工智能系统测试进行规范。2.2.2 ITU-T2017年和2018年,ITU-T组织了 “AI for Good Global”峰会,此次峰会重点关注确保人工智能技术可信、安全和包容性发展的战略,以及公平获利的权利。ITU-T主要致力于解决智慧医疗、智能汽车、垃圾内容治理、生物特征识别等人工智能应用中的安全问题。在ITU-T中,SG17安全研究组和SG16多媒体研究组开展了人工智能安全相关标准研制。其中,ITU-T SG17已经计划开展人工智能用于安全以及人工智能安全的研究、讨论和相关标准化项目。ITU-T SG1安全标准工作组下设的Q9“远程生物特征识别问题组”和Q10“身份管理架构和机制问题组”负责ITU-T生物特征识别标准化工作。其中,Q9关注生物特征数据的隐私保护、可靠性和安全性等方面的各种挑战。2.2.3 IEEEIEEE开展了多项人工智能伦理道德研究,发布了多项人工智能伦理标准和研究报告。早在2017年底,IEEE发布了《以伦理为基准的设计:人工智能及自主系统中将人类福祉摆在优先地位的愿景(第二版)》报告,该报告收集了250多名在全球从事人工智能、法律和伦理、哲学、政策相关工作的专家对人工智能及自主系统领域的问题见解及建议,目前该报告已更新为第二版。IEEE正在研制IEEE P7000系列标准,用于规范人工智能系统道德规范问题,主要标准介绍如下:1)IEEE P7000《在系统设计中处理伦理问题的模型过程》:该标准建立了一个过程模型,工程师和技术人员可以在系统启动、分析和设计的各个阶段处理伦理问题。预期的过程要求包括新IT产品开发、计算机伦理和IT系统设计、价值敏感设计以及利益相关者参与道德IT系统设计的管理和工程视图。2)IEEE P7001《自治系统的透明度》:针对自治系统运营的透明性问题,为自治系统开发过程中透明性自评估提供指导,帮助用户了解系统做出某些决定的原因,并提出提高透明度的机制(如需要传感器安全存储、内部状态数据等)。3)IEEE P7002《数据隐私处理》:指出如何对收集个人信息的系统和软件的伦理问题进行管理,将规范系统/软件工程生命周期过程中管理隐私问题的实践,也可用于对隐私实践进行合规性评估(隐私影响评估)。4)IEEE P7003《算法偏差注意事项》:本标准提供了在创建算法时消除负偏差问题的步骤,还将包括基准测试程序和选择验证数据集的规范,适用于自主或智能系统的开发人员避免其代码中的负偏差。当使用主观的或不正确的数据解释(如错误的因果关系)时,可能会产生负偏差。5)IEEE P7004《儿童和学生数据治理标准》:该标准定义了在任何教育或制度环境中如何访问,收集,共享和删除与儿童和学生有关的数据,为处理儿童和学生数据的教育机构或组织提供了透明度和问责制的流程和认证。6)IEEE P7005《透明雇主数据治理标准》:提供以道德方式存储、保护和使用员工数据的指南和认证,希望为员工在安全可靠的环境中分享他们的信息以及雇主如何与员工进行合作提供清晰和建议。7)IEEE P7006《个人数据人工智能代理标准》:涉及到关于机器自动作出决定的问题,描述了创建和授权访问个人化人工智能所需的技术要素,包括由个人控制的输入、学习、伦理、规则和价值。允许个人为其数据创建个人“条款和条件”,代理人将为人们提供一种管理和控制其在数字世界中的身份的方式。8)IEEE P7007《伦理驱动的机器人和自动化系统的本体标准》:建立了一组具有不同抽象级别的本体,包含概念、定义和相互关系,这些定义和关系将使机器人技术和自动化系统能够根据世界范围的道德和道德理论进行开发。9)IEEE P7008《机器人、智能与自主系统中伦理驱动的助推标准》:机器人、智能或自治系统所展示的“助推”被定义为旨在影响用户行为或情感的公开或隐藏的建议或操纵。该标准确定了典型微动的定义(当前正在使用或可以创建),包含建立和确保道德驱动的机器人、智能和自治系统方法论所必需的概念、功能和利益。10)IEEE P7009《自主和半自主系统的失效安全设计标准》:自治和半自治系统,在有意或无意的故障后仍可运行会对用户,社会和环境造成不利影响和损害。本标准为在自治和半自治系统中开发、实施和使用有效的故障安全机制,建立了特定方法和工具的实用技术基准,以终止不成功或失败的情况。11)IEEE P7010《合乎伦理的人工智能与自主系统的福祉度量标准》,本标准建立与直接受智能和自治系统影响的人为因素有关的健康指标,为这些系统处理的主观和客观数据建立基线以实现改善人类福祉的目的。12)IEEE P7011《新闻信源识别和评级过程标准》:该标准的目的是通过提供一个易于理解的评级开放系统,以便对在线新闻提供者和多媒体新闻提供者的在线部分进行评级,来应对假新闻未经控制的泛滥带来的负面影响。13)IEEE P7012《机器可读个人隐私条款标准》:该标准给出了提供个人隐私条款的方式,以及机器如何阅读和同意这些条款。14)IEEE P7013《人脸自动分析技术的收录与应用标准》:研究表明用于自动面部分析的人工智能容易受到偏见的影响。该标准提供了表型和人口统计定义,技术人员和审核员可以使用这些定义来评估用于训练和基准算法性能的面部数据的多样性,建立准确性报告和数据多样性规则以进行自动面部分析。2.2.4 NIST2019年8月,美国国家标准与技术研究院(National Institute ofStandards and Technology,NIST)发布了关于政府如何制定人工智能技术标准和相关工具的指导意见,该指南概述了多项有助于美国政府推动负责任地使用人工智能的举措,并列出了一些指导原则,这些原则将为未来的技术标准提供指导。指南强调,需要开发有助于各机构更好地研究和评估人工智能系统质量的技术工具。这些工具包括标准化的测试机制和强大的绩效指标,可让政府更好地了解各个系统,并确定如何制定有效的标准。NIST建议专注于理解人工智能可信度的研究,并将这些指标纳入未来的标准,也建议在监管或采购中引用的人工智能标准保持灵活性,以适应人工智能技术的快速发展;制定度量标准以评估人工智能系统的可信赖属性;研究告知风险、监控和缓解风险等人工智能风险管理;研究对人工智能的设计、开发和使用的信任需求和方法;通过人工智能挑战问题和测试平台促进创造性的问题解决等。2.2.5 TC260人工智能安全标准,是与人工智能安全、伦理、隐私保护等相关的标准规范。从广义来说,人工智能安全标准涉及人工智能的算法模型、数据、基础设施、产品和应用相关的安全标准。目前,全国信息安全标准化技术委员会(简称“信安标委”或TC260)的人工智能安全相关标准主要集中在生物特征识别、智慧家居等人工智能应用安全领域,及与数据安全、个人信息保护相关的支撑领域,尚未有正式立项的人工智能自身安全或基础共性的安全标准。(一)人工智能基础共性标准2018年TC260立项标准研究项目《人工智能安全标准研究》,主要研究人工智能安全风险、人工智能安全政策和标准现状、人工智能安全标准需求和安全标准体系等内容,本白皮书的许多材料来自该课题的成果输出。2019年立项《信息安全技术 人工智能应用安全指南》标准研究项目,将研究人工智能的安全属性和原则、安全风险、安全管理及在需求、设计、开发训练、验证评估、运行等阶段的安全工程实践指南,适用于人工智能开发者、运营管理者、用户以及第三方等组织在保障人工智能系统工程安全时作为参考。(二)生物特征识别安全标准TC260已发布GB/T 20979-2007《信息安全技术 虹膜识别系统技术要求》标准,正在研制《信息安全技术 基于可信环境的生物特征识别身份鉴别协议》、《信息安全技术 指纹识别系统技术要求》、《信息安全技术 网络人脸识别认证系统安全技术要求》、《信息安全技术 生物特征识别信息的保护要求》等标准。GB/T 20979-2019《信息安全技术 虹膜识别系统技术要求》:规定了用虹膜识别技术为身份鉴别提供支持的虹膜识别系统的技术要求。本标准适用于按信息安全等级保护的要求所进行的虹膜识别系统的设计与实现,对虹膜识别系统的测试、管理也可参照使用。GB/T 36651-2018《信息安全技术 基于可信环境的生物特征识别身份鉴别协议》:规定了基于可信环境的生物特征识别身份鉴别协议,包括协议框架、协议流程、协议要求以及协议接口等内容。本标准适用于生物特征识别身份鉴别服务协议的开发、测试和评估。GB/T 37076-2018《信息安全技术 指纹识别系统技术要求》:对指纹识别系统的安全威胁、安全目的进行了分析,提出指纹识别系统的安全技术要求,规范指纹识别技术在信息安全领域的应用。《信息安全技术 网络人脸识别认证系统安全技术要求》:规定了安全防范视频监控人脸识别系统的基本构成、功能要求、性能要求及测试方法。本标准适用于以安全防范为目的的视频监控人脸识别系统的方案设计、项目验收以及相关的产品开发。其他领域的视频监控人脸识别系统可参考使用。《信息安全技术 生物特征识别信息的保护要求》:研究制定生物特征识别信息的安全保护要求,包括生物特征识别系统的威胁和对策,生物特征信息和身份主体之间安全绑定的安全要求,应用模型以及隐私保护要求等。(三)自动驾驶安全标准2017年TC260立项《信息安全技术 汽车电子系统网络安全指南》标准项目,2019年立项标准制定项目《信息安全技术 车载网络设备信息安全技术要求》和研究项目《汽车电子芯片安全技术要求》。严格来说,这几项标准属于汽车电子范畴,还不属于自动驾驶范畴。(四)智慧家居安全标准2018年TC260立项标准《信息安全技术 智能家居安全通用技术要求》,2019年立项标准《信息安全技术 智能门锁安全技术要求和测试评价方法》。《信息安全技术 智能家居安全通用技术要求》:规定了智能家居通用安全技术要求,包括智能家居整体框架、智能家居安全模型以及智能家居终端安全要求、智能家居网关安全要求、网络安全要求和应用服务平台安全要求,适用于智能家居产品的安全设计和实现,智能家居的安全测试和管理也可参照使用。《信息安全技术 智能门锁安全技术要求和测试评价方法》:给出了智能门锁的安全技术要求和测试评价方法,其中智能门锁是指通过识别指纹、指静脉、虹膜、人脸等人体生物特征以及智能卡、无线遥控编码、静态密码、临时密码等信息,控制执行机构实施启闭的门锁。(五)数据安全和个人信息保护标准TC260的大数据安全标准特别工作组自2016年成立以来,在数据安全和个人信息保护方向已发布6项国家标准,在研标准10项,研究项目18项。在个人信息保护方向,主要聚焦于个人信息保护要求、去标识技术、App收集个人信息、隐私工程、影响评估、告知同意、云服务等内容,已发布GB/T 35273《信息安全技术 个人信息安全规范》、GB/T 37964《信息安全技术 个人信息去标识化指南》2项标准,在研5项标准,2项标准研究项目。在数据安全方向,主要围绕数据安全能力、数据交易服务、出境评估、政务数据共享、健康医疗数据安全、电信数据安全等内容,已发布GB/T35274《信息安全技术 大数据服务安全能力要求》、GB/T 37932《信息安全技术 数据交易服务安全要求》、GB/T 37973《信息安全技术 大数据安全管理指南》、GB/T 37988《信息安全技术 数据安全能力成熟度模型》4项标准,在研5项标准,16项标准研究项目。此外,国家标准化管理委员会于2018年1月正式成立国家人工智能标准化总体组,承担人工智能标准化工作的统筹协调和规划布局,负责开展人工智能国际国内标准化工作。目前,国家人工智能标准化总体组已发布《人工智能标准化白皮书2018》、《人工智能伦理风险分析报告》等成果,正在研究人工智能术语、人工智能伦理风险评估等标准。2.2.6 其他标准化组织中国通信标准化协会已开展汽车电子、智能家居等方面标准研究工作,目前已发布YDB 201-2018《智能家居终端设备安全能力技术要求》、T/CSHIA 001-2018《智能家居网络系统安全技术要求》等标准。但相关研究工作仍以人工智能在具体应用场景的情况为主,在研标准包括《人工智能产品、应用及服务安全评估指南》、《人工智能服务平台安全》、《人工智能终端产品标准体系研究》、《移动智能终端人工智能能力及应用个人信息保护技术要求及评估方法》、《移动智能终端人脸识别安全技术要求及测试评估方法》等。中国人工智能开源软件发展联盟是从事人工智能开源软件相关工作的社会组织,该联盟已研制机器翻译、智能助理等产品或服务评估标准、深度学习算法的可靠性评估标准,主要包括T/CESA 1039—2019《信息技术人工智能 机器翻译能力等级评估》、T/CESA 1038—2019《信息技术 人工智能 智能助理能力等级评估》、T/CESA 1026—2018《人工智能 深度学习算法评估规范》等。T/CESA 1026—2018《人工智能 深度学习算法评估规范》提出了人工智能深度学习算法的评估指标体系、评估流程,以及需求阶段评估、设计阶段评估、实现阶段评估和运行阶段评估等内容,能够指导深度学习算法开发方、用户方以及第三方等相关组织对深度学习算法的可靠性开展评估工作。2.3 人工智能伦理道德工作情况人工智能的复杂性决定了其涉及技术、伦理、法律、道德等多个领域。为了保障人工智能健康发展,需要建立相应的伦理道德框架。在人工智能伦理道德方面,国内外研究成果比较丰富,其中“阿西洛马人工智能原则”和IEEE组织倡议的人工智能伦理标准成为国际上影响最广的人工智能伦理研究成果。而除了广泛达成的共识之外,多个国家和机构也发布了各自的相关准则。(一)阿西洛马人工智能原则“阿西洛马人工智能原则”是2017年1月在阿西洛马召开的“有益的人工智能”(Beneficial AI)会议上提出,其倡导的伦理和价值原则包括:安全性、失败的透明性、审判的透明性、负责、与人类价值观保持一致、保护隐私、尊重自由、分享利益、共同繁荣、人类控制、非颠覆以及禁止人工智能装备竞赛等。(二)IEEE2017年3月,IEEE在《IEEE 机器人与自动化》杂志发表了名为“旨在推进人工智能和自治系统的伦理设计的IEEE 全球倡议书”,倡议建立人工智能伦理的设计原则和标准,帮助人们避免对人工智能产生恐惧和盲目崇拜,从而推动人工智能的创新,其提出了以下五个原则:1)人权:确保它们不侵犯国际公认的人权;2)福祉:在它们的设计和使用中优先考虑人类福祉的指标;3)问责:确保它们的设计者和操作者负责任且可问责;4)透明:确保它们以透明的方式运行;5)慎用:将滥用的风险降到最低。(三)美国2017 年1 月12 日发布了《算法透明和可责性声明》提出了以下七项准则:1)充分认识;2)救济;3)可责性;4)可解释;5)数据来源保护;6)可审查性;7)验证和测试。(四)欧盟2019年4月8日,欧盟委员会发布了由人工智能高级专家组编制的《人工智能道德准则》,列出了人工智能可信赖的七大原则,包括:1)人的能动性和监督能力;2)安全性;3)隐私数据管理;4)透明度;5)包容性;6)社会福祉;7)问责机制。(四)日本(JSAI)发布了《日本人工智能学会伦理准则》,要求日本人工智能学会会员应当遵循并实践以下准则:1)贡献人类;2)遵守法律法规;3)尊重隐私;4)公正;5)安全;6)秉直行事;7)可责性与社会责任;8)社会沟通和自我发展;9)人工智能伦理准则。(五)英国2018年4月,英国议会下属的人工智能特别委员会发布报告《人工智能在英国:准备、志向与能力?》,提出包含五方面内容的准则:1)人工智能应为人类共同利益和福祉服务;2)人工智能应遵循可理解性和公平性原则;3)人工智能不应用于削弱个人、家庭乃至社区的数据权利或隐私;4)所有公民都有权接受相关教育,以便能在精神、情感和经济上适应人工智能的发展;5)人工智能绝不应被赋予任何伤害、毁灭或欺骗人类的自主能力。(六)加拿大2019年2月25日,科技部宣布成立国家新一代人工智能治理专业委员会,以进一步加强人工智能相关法律、伦理、标准和社会问题研究,深入参与人工智能相关治理的国际交流合作。2019年6月19日,该委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能发展应遵循八项原则:1)和谐友好;2)公平公正;3)包容共享;4)尊重隐私;5)安全可控;6)共担责任;7)开放协作;8)敏捷治理。2019年4月,国家人工智能标准化总体组发布了《人工智能伦理风险分析报告》。报告提出两项人工智能伦理准则[15],一是人类根本利益原则,指人工智能应以实现人类根本利益为终极目标;二是责任原则,指在人工智能相关的技术开发和应用两方面都建立明确的责任体系。在责任原则下,在人工智能技术开发方面应遵循透明度原则;在人工智能技术应用方面则应当遵循权责一致原则。在加拿大发布的《可靠的人工智能草案蒙特利尔宣言》提出了七种价值,并指出它们都是人工智能发展过程中应当遵守的道德原则:福祉、自主、正义、隐私、知识、民主和责任。(七)中国日本人工智能学会美国公共政策委员会于中国人民银行、证监会等四部委联合发布《关于规范金融机构资产管理业务的指导意见》,按其要求,针对自身特点披露智能投顾的算法缺陷也是业务主体的分内之责。中国人民银行发布《金融科技发展规划》,规划指出要加快制定完善人工智能、大数据、云计算等在金融业应用的技术与安全规范;研究制定人工智能金融应用监管规则,强化智能化金融工具安全认证,确保把人工智能金融应用规制在安全可控范围内。工业和信息化部、公安部、交通运输部联合制定发布《智能网联汽车道路测试管理规范(试行)》(下称国家民航局先后发布了《关于民用无人机管理有关问题的暂行规定》、《民用无人机空中交通管理办法》、《轻小型无人机运行规定