拟定人工智能伦理问题建议书草案文本的特设专家组(24页)

  拟定人工智能伦理问题建议书草案文本的特设专家组

  限量分发 SHS/BIO/AHEG-AI/2020/4

  巴黎,2020 年5 月7 日

  原件:英文

  成果文件:

  人工智能伦理问题建议书草案文本初稿

  根据教科文组织大会第四十届会议的决定 (第 40 C/37 号决议),

  总干事于2020 年3 月成立了负责拟定人工智能伦理问题建议书草案文本

  的特设专家组(AHEG )。

  为适应 2019 冠状病毒病大流行带来的挑战性形势,特设专家组从

  2020 年 3 月底至 5 月初一直以虚拟方式开展工作,编写了本文件所载人

  工智能伦理问题建议书的草案文本初稿。

  需要强调的是,考虑到在将于 2020 年 6 月至 7 月举行的多利益攸

  关方协商进程中会收到反馈意见,特设专家组将继续修订草案文本初

  稿,直至2020 年9 月初。

  本文件并非详尽无遗,也不一定代表教科文组织会员国的观点。

  SHS/BIO/AHEG-AI/2020/4

  人工智能伦理问题建议书草案文本初稿

  序 言

  联合国教育、科学及文化组织 (教科文组织)大会于 XX 日至XX 日在巴黎举行的第

  XX 届会议,

  忆及教科文组织根据其《组织法》致力于寻求 “于人之思想中筑起保卫和平之屏障”,

  并通过教育、科学、文化及传播和信息促进各国间之合作,以增进对正义、法治及所

  确认之世界人民均享人权与基本自由之普遍尊重,

  有鉴于人工智能 (AI )可能对社会、生态系统和人类生活 (包括人类精神)产生的深

  远影响,尤其是其影响人类思维和决策的新方式,并且涉及到教育、科学、文化以及

  传播和信息领域,

  考虑到人工智能系统可以为人类提供很大帮助,但也会引发重大的伦理关切,比如它

  们可能嵌入和加剧偏见,由此可能导致不平等、排斥并对文化和社会多样性以及性别

  平等构成威胁;关于算法的工作方式以及用来训练算法的数据应具有透明性和可理解

  性;以及它们对隐私、言论自由、社会、经济和政治进程以及环境的潜在影响,

  认识到人工智能的发展可能加深世界上现有的鸿沟和不平等,而在享受人工智能的惠

  益或免受其负面影响方面不应让任何人掉队,同时认识到各国国情不同,

  意识到这样一个事实,即低收入和中等收入国家(包括但不限于非洲、拉丁美洲和加

  勒比及中亚地区)以及小岛屿发展中国家正值信息技术和人工智能加速使用的时期,

  数字经济也对创造性社会带来了重要的社会挑战和机遇,为此需要承认本土文化、价

  值观和知识以发展经济,

  认识到人工智能通过其在生态和气候研究、灾害风险管理和农业中的作用,具备有利

  于环境的潜在惠益,但若要实现这些惠益,需要公平获取技术,也需要权衡潜在惠益

  与整个人工智能和信息技术生产周期对环境的影响,

  注意到应对风险和伦理关切不应阻碍创新,而应促进将道德价值和伦理反思作为人工

  智能研究、设计、开发、部署和使用基础的负责任的研究和创新新实践,

  SHS/BIO/AHEG-AI/2020/4 – page 2

  忆及教科文组织大会在2019 年 11 月第四十届会议上通过了第40 C/37 号决议,授权总

  干事 “以建议书的形式编制一份关于人工智能伦理问题的国际准则性文书”,提交

  2021 年大会第四十一届会议,

  深信此项基于全球规范性方法且注重人类尊严和人权包括多样性、互联性、包容性和

  公平性的准则性文书,可以指导人工智能的研究、设计、开发、部署和使用朝着负责

  任的方向发展,

  观察到关于人工智能及其社会影响的规范性框架处于伦理、人权、国际和国家法律框

  架以及研究和创新自由与人类福祉的交叉点,

  认识到伦理价值观和原则本身并不一定是法律规范,但可以有力地影响政策措施和法

  律规范的制定和实施,在规范范围不明确或由于技术发展迅速而政策回应相对缓慢