人工智能及其现代性困境的哲学思考

  人类技术的蓬勃发展产生了对技术理性的哲学反思,人在技术辅助下从自然中得到解放,却也自为地让技术成为奴役人的新方式。匈牙利哲学家卢卡奇认为,在物化的社会中人逐渐远离了劳动的本质,整个劳动过程意识不到自身的完整性,“而是作为机械化的一部分被结合到某一机械系统里去。他发现这一机械是现成的、完全不依赖于他而运动的,他不管愿意与否必须服从于它的规律”[],由此劳动价值也被当做商品计算于机器生产的全过程。美国哲学家马尔库塞看到了技术的政治工具目的性,资本主义社会的技术控制构建在提高生活水平与社会运转效率的双重基础上,是一种区别于恐怖压制服从的隐匿的政治统治力量。俄罗斯哲学家别尔嘉耶夫认为,正是技术的冲击,人们弱化了对宗教的盲目信仰并将技术的发展前景作为信仰,由此他将人与机器的发展关系分为“四个阶段”[]:第一阶段是人依赖自然的阶段,人的认知还未认识自然仅停留于神话幻想;第二阶段是人对自然有一定感知并从陌生的自然力量解放出来,以禁欲平衡生存;第三阶段是人通过掌握自然律实现社会技术化,又运用技术使得自然机械化;第四阶段出现了技术理性的膨胀,人利用技术成功开采自然并得到满足,随之技术理性开始走向反面成为奴役人的新力量。

  综上所论,人与技术的关系起源于自然,利用技术在一定程度上解决了自然对人的奴役,技术理性发展于人对自然工具的改进,却同时陷入所发明的技术矛盾中。显然,人工智能技术(AI)是人类技术的又一高峰,智能时代的现代性困境已经来临。

  根据IDC国际数据公司预测,“到2020年,全球人工智能的市场规模将从2016年的80亿美元增长到470亿美元。2020年中国人工智能市场将从2015年的12亿元人民币增长至91亿元人民币”[]。近年来,各国纷纷出台政策以促进AI行业发展,同时颁布一系列规定以规范AI市场。我国于2017年7月由国务院发布《新一代人工智能发展规划》,正式将人工智能提升到国家发展层面,《规划》部署了“新时代人工智能‘三步走’战略目标,力争到2030年我国人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心”[]。2017年,法国政府出台《人工智能战略》,呼吁“对新型技术进行‘共同性调控’,在技术造福社会的同时应更加强调公民权利与社会公共利益的双重保护”[]。2016年,英国政府发布《人工智能:未来决策制定的机遇与影响》研究报告,报告分析了人工智能存在的风险因素,如个人隐私风险、技术掌握尺度风险、社会伦理风险、风险分配等,并初步规范了机器使用中的权责问题[]。2016年,日本政府出台《第五期(2016—2020年度)科学技术基本计划》,提出“‘超智能社会5.0’新概念,以此为基础构建社会智能服务平台并协调其他领域智能系统发展”[]。2016年10月,美国白宫发布《国家人工智能研发战略计划》,提出AI应与人类社会价值体系、法律法规保持一致[]。

  可以认为,虽然人工智能发展前景广阔,但研发及使用中不可避免会对网络安全、伦理安全、公共安全等形成挑战,AI的现代性安全问题及其现代伦理建构已成当下人工智能发展的热议之词。目前,社会各界对人工智能技术的争议焦点主要集中在是否会面临“技术奇点”①,即一旦人工智能拥有的“智慧”超越人类,很可能会制约人类,反客为主,人类将无法控制自己所制造的“智慧机器”。

  ① 1993年,科幻小说家作家、计算机科学家弗诺·文奇首次提出了计算“奇点”概念。他认为,在这个点上,机器智能将取得飞速进步,它将成功地跨过那个门槛,然后实现飞跃,成为“超级人类”。

  学术界也对“技术奇点”可能导致的现代性风险提出看法,讨论领域主要涉及以下五个方面:(1)军事方面,以探讨“智能军备”引发的“智能化战争”转型升级为主。程运江等认为,新智能军备能够使国家赢得战争主导优势,智能作战系统具备战场情况智能感知、目标智能识别、动力智能控制、结构智能变形等智能化功能,重点解决战时动态变化、智能决策、自主作战等关键问题[]。(2)贸易方面,以探讨发展中国家“高新技术”受限于发达国家为主。傅莹等认为,美国对《中国制造2025》持有高度戒备心理,在高新技术领域以各种形式防范、限制和打压中国高新技术产业(如智能芯片)发展[]183。(3)就业方面,以探讨人工智能对劳动力市场形成的冲击为主。邓洲、黄娅娜认为,人工智能对就业的影响表现为四种效应,即替代效应、填补效应、创造效应、结构效应。替代传统部分岗位,填补人们不愿从事、不能胜任的岗位,创造出新就业市场,改变劳动力就业结构。这将不可避免造成短期劳动力市场结构性失业并拉开收入差距[]。程承坪认为,AI符合技术进步对就业影响的一般规律,但也有其特殊性,即人工智能不仅可以替代人的体力劳动也能替代人的“智力”,从未来AI的更新技术来看,存在完全替代就业的可能性[]。(4)法律方面,以探讨智能机器导致的人身安全如何判定为主。彭中礼提出对人工智能法律主体地位的辨析理论,当机器受人指令运转或自主运行时是否具有权利能力与行为能力,建议从其损害行为时的主体地位进行判断,只要人工智能还无法完全取代人类,那么应考虑对其进行有限度的主体抑制,限制其权利范围[]。(5)伦理方面,以探讨人工智能导致的传统伦理失衡、如何构建现代技术伦理体系为主。王天恩针对如何处理人机融合的关系平衡概括出四种伦理关系,即人类与智能机器伦理关系、人类个体与智能机器关系、智能机器之间伦理关系、人类自身伦理关系。在四种伦理关系基础上将消极伦理限制转化为积极伦理规则,为人工智能发展提供充分伦理支持[]。

  总体而言,学术界对人工智能的探讨主要集中于四个维度:对人工智能技术的理性反思、对人工智能导致的现代性困境的思考、对人工智能未来发展空间的预测、对人工智能伦理关系的重构。那么,AI新技术带来的现代性困境究竟有哪些具体表现?历史上的技术革命、经典案例能够为人工智能发展提供怎样的启示?如何立足哲学高度提出相关建议?笔者就这些问题展开分析。

  2017年《国务院关于印发新一代人工智能发展规划的通知》强调,“人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。为此,笔者对人工智能已经形成的困境及其可能诱发的不稳定风险因素进行分析。

  现代化军事谁能够把握技术转型升级的敏锐感,实现军事技术的突破,预判军事技术发展方向,把握战争形态差异,谁就能够掌握最新战争规则,赢得战争的主导权从而避免“未打先输”。新一代军备的升级使传统战争方式和战争伦理发生众多改变,从徒手博弈、冷兵器、热兵器的正面交锋转向机器化、信息化军事智能作战。在此背景下,许多国家将人工智能技术作为军事发展的重要对象,给予AI顶层设计、基础性技术研究、财政科研拨款等诸多支持。“2018年美国国防经费高达7 000亿美元,从技术、装备到思想文化和组织管理模式等方面实现整体跃升,目的是将美军打造成一支能够打赢未来战争的信息化、智能化军队”[]174。智能军队已不再是科幻电影中出现的虚拟场面,而是已经开始实际运用于现代化军事案例中。2018年,美国空军进行了第二次LRASM远程智能反舰导弹齐射飞行试验,完成了中段、末段导航自动转换,采用弹上传感器导引至海上移动目标,并成功命中靶标[]。美国知名的电子战项目“BLADE”,当恐怖分子采用无线电遥控引爆炸弹时,能够弥补传统对抗装置的滞后性,利用人工智能技术及运算法则主动识别周围电磁环境,自动适应并干扰新的射频威胁,从而达到有效的电子对抗目的。法国的FELIN单兵作战系统和瑞士的“单兵综合模块作战系统(IMESS)”配备了摄像头或无人装置等侦察仪器,并将数据共享到作战局域网中,增强态势感知和联合作战能力[]。2017年,法国达索飞机公司成功实现了神经元无人机与阵风战斗机的数百里编队飞行,促进了“有人-无人”协同、无人僚机等研究[]。俄罗斯的部分T-50和苏-35战斗机装备“决斗”智能辅助系统,可使飞行员更好地完成判断、决策和武器操控[]。2016年,以色列国防军向Mainichi Shimbun报社透露:完全自动驾驶的军用车辆已经运用于加沙地带边境巡逻[]。

  综合分析人工智能的技术特点可以发现,AI新技术在未来战争领域可能存在以下四类风险。(1)成熟人工智能技术投入军事设备上产生的实际伤害力度与预期估计会存在误差。如:无人战斗机可执行空中侦察、敌方军事情况监视、空中战斗、后勤支援等任务,但目前相比人的实际操作缺乏灵活性,自主作战能力相对较弱,且无人机需时刻与操作员保持通讯。值得注意的是,随着各国对人工智能技术的不断研发,人工智能+更新化的军事设备对未来战争带来的伤害力度会一直处于“实际未知状态”。2004—2015年期间,美军无人机空袭估计造成了3 000人的死亡,而这一数字的预定值只有几十人。可见,军用无人机虽然通过研发、计算、模拟、测试,但最终投入战场时依旧存在误差[]。(2)战争的伦理性。传统战争以人对人直接交锋取胜,现代战争可使用机器人作战,对于“主动发动战争国”而言降低了士兵死亡率,减少了战场上的血腥感,节约了战争成本。对于“被动应战国”则是受到了人工智能的精确打击。“1991年的海湾战争,美军使用HARM攻击平台,其中最重要的部分是智能宽带导引头,它覆盖了从较低的微波波段到较高的J波段,能够对威胁进行分类、识别并确定优先等级引导实施自主攻击,为美军赢得巨大战争优势”[]。这将会造成两种后果,一是经济越强大的国家在战争初期就似乎已获得胜利权,经济越弱小的国家越可能趋于败北,“1972年,美军使用高精度“灵巧炸弹”炸毁了越南坚守7年的清化大桥”[]即为一例;二是“主动战争国”士兵良心谴责感降低,“使用机器完成某个行动基本上使机器的设计者和操作者免于该项行为的责任”[],只需操作机器设备就可“轻易赢得战争”,从而把战争变成逼真的电子游戏,可能的后果是因为“容易”而“好战”或“任意发动战争”。(3)不可扭转的时间表与失误后果。“一旦激活动员计划A或B或C或不管什么计划的按钮被按下,人员和物资就会按计划自动地、大规模运输,不再可能撤销命令”[]647,若战争时出现和平的可能性也将因人工智能的“自动性”而导致无法挽回的损失。“因为现代武器发射技术可以在几分钟内跨越诸大陆,而数以千计的自动作战系统中的每个系统都配备有各自作出决定的计算机,尤其是在发动核武器大战时,使得人们几乎没有参与的时间”[]647。更极端的情况是,智能作战系统如果被敌方、恐怖主义军事技术破解、篡改、植入病毒,可能演变为无法控制的局面。(4)极端恐怖主义也将同样获得相对较好的设备,加剧区域动乱不安。极端恐怖主义者、海盗等总会以各种方式寻找先进武器武装自己,即使同发达国家综合军事实力不可比拟,但任意一场“恐怖袭击”也会对平民造成巨大伤害,设备越先进他们越会肆无忌惮制造恐怖事件以达到政治目的[-]。2014年,联合国在日内瓦召开会议,最终采纳了“禁止开发在无人操作的情况下自动对人类进行杀伤的机器人武器”的声明[]。

  一是形成新兴贸易市场。在交通领域,2019年2月春节期间中国百度地图为驾驶人员新推出了气象智能导航系统,累计产生了1 500万次提醒可能遭遇的路面结冰、积雪、雾气等危险路面情况信息。在安全领域,如2018年11月进博会上三星公司展示的智能门锁可通过连接手机实现远程开锁并记录进出情况,并具备测温功能,一旦室内气温超过70℃门锁则自动报警。在第三产业物流领域,2018年全球智慧物流峰会上,阿里巴巴负责人表示已投入大量资金构建智能物流网,将全面实现智能化物流,如自动仓储、自动配送、物流机器人等,加速物流分流效率。在公共服务领域,以银行为例,2019年1月中国农业银行隆鑫支行设立“智能客服机器人”,可替代人工为客户快捷办理开卡、存款、理财等基础业务。事实上,“智能客服机器人”具有大众化特点,可以投放至人流量大的地点,如医院、政务服务大厅、火车站、大型会场等,优化公共行政流程,提升行政效率,提高群众满意度。在医疗领域,河南省立眼科医院引进机器人“嵩岳”医生,可以模拟医生记录患者情况,协助医生开出科学药方。值得注意的是,正是人工智能技术具有便利化、大众化、技术新、高效性、潜力大的显著特点,决定了其本身附有的应用价值将会成为国家治理的新工具,也必然会形成新兴的贸易市场。

  二是进一步引起以“人工智能”为核心的贸易技术战。资本家不会放弃“新型物品”的贸易机会,因为“资本主义是一种以牟利为动机、以各种精心设计的、往往是间接的方法、通过利用大量的资本积累来赚取利润的制度”[]。1 500年前的阿拉伯与意大利商人就在欧亚大陆之间贩卖香料、宝石等奢侈品;18世纪末期的美洲大陆量产烟草、蔗糖、咖啡、棉花糖等其他商品,商人们又将美洲商品贩卖至欧洲;后期由于各地大量贸易流通而必须输入大量劳动力,“人口贩卖”也成为了“贸易”。资本主义的本质决定了资本家一定会资本运作投资新兴盈利公司,而“人工智能”正是热门利益链条。资本家为了赚取高额收益,将加大人工智能技术革新力度,抢夺人工智能技术资源、垄断技术,遏制其他国家发展,再将人工智能产品售卖到发展中国家进行技术渗入,一旦两国之间出现政治或经济分歧,他们将会以技术为主要手段进行贸易制裁,“技术进步的内在动力解释了……为什么今天的资本家能以他们的生物科技、信息科技和跨国公司继续控制世界经济”[]395。

  人工智能在社会中的运行会“破坏既有的雇佣关系”②,出现与劳动力争夺市场就业岗位的现象,这由人工智能发展的必然趋势决定且不可避免,机器替代人工并非现代人工智能的“专利”,在工业革命时期就已经出现“传统行业与机器”的关系问题。第一次工业革命时期,约翰·凯在1733年发明了能提升纺织速度的“飞梭”;理查德·阿克赖特在1769年发明了“水力纺纱机”,它主要以水利为动力纺出既细又结实的线;詹姆斯·哈格里夫斯在1770年发明了“珍妮纺纱机”,最初它能使得一个人同时纺8根纱线,经过后人不断改进最终达到100根纱线;塞缪尔·克郎普顿在1779年发明了走锭纺纱机,它使纺纱自此脱离纯手工进入机器化生产纺纱阶段。到19世纪20年代,动力织机在棉纺织工业中基本上已取代了手织织布工。某一行业的发展往往会激励其他更多行业发展,纺织机激发了人们对动力的需求,瓦特将传统原始蒸汽机进行改良,到1800年时已有500多台瓦特蒸汽机投入实际生产中,随之引起对钢铁及煤炭的需求,从而使矿业行业与冶金行业也获得了快速发展,全社会进入初步工业时代,机器也与人力在全行业展开了争夺战,工人成为机器的辅助。第二次工业革命时期,因战争的需要,高射炮台装满了计算机,它可以对储存资料进行加工。而现代计算机体积较小运算速度更快,成为现代经济的重要支撑,并逐渐运用于超市、营业场所与工厂中。可以认为,第一次工业革命出现了大批量节省人力的机器,第二次工业革命则出现了取代人力的新机器。

  ② “破坏既有的雇佣关系”由比尔盖茨提出。在2014年3月由美国智库AEI主办的演讲会上,比尔盖茨强调,人工智能对雇佣的侵蚀正在向司机、服务员、护士等诸多职业扩展……从现在起的20年后,社会对现在的劳动者拥有的各种职业的需求将大幅降低。然而,目前人们丝毫没有意识到这一问题的存在。

  分析发现,一是历史上机器替代人力首先从劳动密集型产业入手,因这一行业手工业人数较多、技术含量较低更易被替代,这一取代原理在当今社会也同样适用,服装行业的企业家为提升效率、改进技术则会淘汰部分手工服装工人;物流行业的企业已经实现物流机器人自动分拣快递。二是历史上的工业行业失业危机到如今已经成为全行业危机,“自动装置和机器人的普及正在取代办公室里的‘白领工人’以及工厂里的‘蓝领工人’,整个西方世界的失业人数已从1970年的1 000万上升到1983年的3100万……但服务性工作正在迅速地增加”[]771。与工业革命不同的是,如今的服务行业劳动力也正在被机器人代替,2018年海底捞在北京推出智慧餐厅,自动点餐机器人、自动传菜机器人等自动化设备已在餐厅“高效服务”;智能家居已经实现自动洗碗、自动扫地、自动开门等全自动化生活。三是机器化工作环境与失业人员的无归属感。工人在工厂的工作时间增长,工作方式单一、枯燥、乏味,“他们必须跟随机器运转”,遵守工作纪律、服从命令是机器化生产的必然要求,如今人工智能虽然很有“新鲜感”,但其本质依旧是“运转的机器”,长期与其工作依旧会出现“疲倦”现象。当工人适应机器生产后又要面临机器对此带来的淘汰威胁,“在工业化的早期阶段,存在着大量的剥削和社会分裂……织布工和其他手工业者由于新的机制商品的不可抵抗的竞争而被淘汰”[]498。所以,我们应该考虑到当机器取代人工后,“被取代的人工”的年龄、学历、再就业能力、再学习能力,不能让人工智能盲目取代所有行业,如果“被取代的人工”发现自己的技艺无处施展、难以寻找到新的工作时会产生迷茫感与失落感,也将对社会稳定产生潜在威胁。

  自动驾驶技术在实际测试、使用中由于操作失误、设计缺陷等出现了多起伤亡事故。2016年,美国佛罗里达州某驾驶人员在开启自动驾驶情况下与一辆拖拉机拖车相撞后不幸死亡,据被撞击者表示,事发时该驾驶人员正在观看电影《哈利波特》。2016年,中国发生国内首起自动驾驶伤亡事件,特拉斯车主在京港澳高速河北邯郸段直接撞击道路清洁车,所驾驶车辆当场严重损坏,驾驶人员当场死亡,随后家属向“特拉斯”公司发起索赔,经过一年多取证,特拉斯公司终于承认发生事故时汽车处于自动驾驶状态,自此后特拉斯公司将自动驾驶翻译为自动辅助驾驶。此外,其他领域的机器人伤人事件也不时发生。2016年,美国知名安保机器人公司制造的一款打击犯罪机器人在硅谷购物中心撞倒并打伤了一名16个月大的男孩。2016年,在第十八届中国国际高新技术成果交易会上,机器人“小胖”在无人操控的情况下突然自行运转,当场打破展馆玻璃,并致一位现场观众受伤。

  从一系列机器人伤人事件中可以发现以下特点:一是使用者操作不当,操作失误所致;二是机器人本质如同电脑会自动运行错误程序,当修复不及时时会出现程序混乱,那么未来机器工作时是否也会因程序混乱致人死亡?系列机器人伤人事件中,法律责任又该如何界定?事故存在的四方是技术使用者(如驾驶人员)、机器人本身(如特拉斯汽车)、机器人销售方(特拉斯公司)、机器人制造商,显然人类不可能要求“机器人本身”负责,因为它是不具备人类意识的人工制造物,“我们无法起诉机器人”[]。因此,责任将在使用者、销售者与制造者之间划定,因现阶段的人工智能并非早期机械化机器,现代人工智能拥有学习能力,能自主运算、自主运行,那么事故发生时难以判断出错阶段,则安全事故责任将难以厘清。

  当智能设备过于“智能”,“人们对它的依赖程度越高、依赖范围越广”[],以至于人类离开机器就不能正常生活甚至可能脱离实际。以智能手机使用为例,荣婷在对全国2 240所高校进行调研的基础上,发现高校学生的手机依赖对人际关系、学习状态存在负面影响。越依赖手机,人际关系处理能力越差;越依赖手机,学习状态越差。这主要由于无线网络、手机流量的大众化,一部智能手机就能获得海量网络信息,导致家庭聚会、朋友聚餐、学习时仍然“机不离手”,忽视了人际交往、降低了学习能力。越依赖手机,情绪状态越差,当离开手机时会感觉情绪不安,产生焦虑感[]。沈愁、戴静等通过对江苏省某高校1 061位大学生的调查发现,智能手机对大学生睡眠存在显著影响,大学生在熄灯后入睡前使用手机超过1小时致睡眠障碍率达到30%,并产生肌肉酸痛、头痛头晕、精神恍惚、视力严重下降、长期失眠等恶劣情况。此外,由于耗费大量时间玩手机,减少了户外活动,身体长期处于亚健康状态[]。智能设备在某一方面取代人力工作,那么人在对应方面的手动能力就会有所欠缺或者被完全淘汰,设想一旦出现区域性大规模停电,那么所有行业的人工智能将无法正常运转,而被取代的功能很难及时找到真人替代机器工作。在生活失真方面,以智能拍照为例,智能修图软件只需一键就可磨皮瘦脸、腿部拉长、面部上色,与未修改前形成鲜明对比,虽然爱美之心人皆有之,但过于频繁使用智能拍照会使得照片失真,忘记自我,活在虚拟假象中,离开修图就不敢正视自我,外表的美态不应是修图而来,通过运动既可达到修身目的,也能提高身体素质。同时,现代人随意自拍修图行为还引发了社会“自拍灾难”。2016年,意大利发生区域性地震,部分旅客沉浸于废墟中自拍不愿离开;2017年,埃及发生火车相撞事件,数百人伤亡,然而前来救治的医护人员却在现场自拍;2017年,英国格伦费尔大楼发生重大火灾事故,71人葬身其中,一些公民把事故现场当做旅游景点拍照留恋。不顾及他人感受的自拍是自私行为,既引发道德争议,也泄露个人隐私。可以认为,智能化设备越先进,人们就越会过度使用,带来的负面影响则是潜移默化的。

  计算机是人工智能的大脑,通过计算发出指令使之模拟人类行为。那么机器人会像人类一样通过不间断的学习运算最终拥有人类的思维吗?毕竟人类在生活中也会对各种利益关系进行智慧性衡量和选择。人工智能会挑战并取代人类吗?社会由此形成了关于“人工智能与人类”对立的争议点。美国科幻电视剧《西部世界》中人工智能其实是人本能的反映,人创造了人工智能服务自己,当人工智能学习了语言、计算等知识后在“大脑”中运算出最优方案,开始拥有“自我意识”,他们便与人类对立,开始设法逃离人造世界。针对这种设想,作家艾萨克·阿西莫夫提出了著名的“阿西莫夫法则”,也被称为“机器人学的三大法则”,即“一是机器人不得伤害人,也不得见人受到伤害而袖手旁观;二是机器人应服从人的一切命令,但不得违反第一法则;三是机器人应保护自身的安全,但不得违反第一、第二法则”[]。剧情中某一位机器人突然告知自以为拥有“自我意识且妄图逃离的机器人”,逃离人类控制的世界也是当初设计者设计的程序,一切都在按照程序运行。那么这种“程序”最终将人工智能推向神学,人类社会是否也像机器世界一样是上帝早已经编写好的程序,一切都是早已安排好的命定论,一些评论家试图将“人类偷吃禁果后拥有智慧”对比“机器人拥有人类思维”,以此阐释人工智能的未来危机。当然,现阶段人类技术还到不了如此境地,机器人“程序”也只是对未来的担忧与假象,上帝造人并不存在,但人工智能如果使用不当将会超越伦理,我们必须将其控制在伦理范围之内。

  人工智能目前主要运用于第二产业的工业和第三产业的服务业中,具体表现为生活办公、教育、医疗、交通、安全、零售、文娱、金融等方面的应用,第一产业还未广泛涉及,未来人工智能+农业必须注意农业平衡问题。以第二次工业革命早期的美国为例,工业产量剧增,农业却有所下降。“1981年至1983年间,美国农业出口物的物价水平下降21%,出口量下降了20%。美国农民发现自己一下子处于经济拮据的状态之中,这尤其是因为许多人为了买更多的土地和设备,以响应政府发出的生产更多产品的呼吁,以高利率大量借款。破产的农民流离失所,家庭式农场的数目从20世纪30年代中期的680万这一高峰下降到1980年的280万,进而下降到1994年的190万”[]770。具体而言需要注意两个方面的问题:一是农业本身的特殊性。在工业革命之前,农业并未使用过任何高科技耕作工具,但数千年来农业依旧保持产量,这就说明农业方面即使没有智能工具也能有高产出;二是农业使用智能工具需与我国农业发展实际情况相吻合,不能盲目推广。我国农业至今仍然以小农经营模式为主,1979—2017年间农业GDP平均增长速度在三大产业中最低,约为4.4%,而同期第二产业增速为10.7%,第三产业增速为10.5%。显然,我国农业与全面现代化仍存在较大差距,因此在推广运用智能技术方面必须考虑农业实际产量、社会对农产品的需求程度、农民对智能产品的接受能力、运用能力等,特别是智能机器在农业上的实际效果。对于农业发达地区可优先试点人工智能,对于经济落后的农业地区如果盲目大面积推广智能机器,反而会加剧农民负担并可能给农业带来损失。事实上,智能产品在第一产业投入方面,必须根据区域经济的具体情况,实现农民、农业与智能设备的匹配平衡发展。

  在学术界,AI研究者依据人工智能技术的能力强弱将其发展过程分为三个阶段。第一阶段是弱人工智能又叫专用人工智能(Special AI),此阶段AI只擅长某领域专用技术。第二阶段是强人工智能又叫通用人工智能(General AI),这个阶段人工智能整合多种领域技术形成通用功能,此阶段的人工智能可以与人类能力媲美。第三阶段是超人工智能,该阶段AI的能力超越人类,甚至可能具有情感能力与认知能力。这三个阶段的发展历程从一个侧面展示了形而上学的哲学过渡到形而下学的现实世界的过程,“哲学—数学—工程是演进的常态,哲学提出的诸如智能、本体、价值问题往往具有重大意义但并不精确,所给出的答案与解决进路难以验证。而当把哲学问题化为数学问题来演绎,便能精确判断对与错,从而在经过数学验证之后建立模型,在此基础上进行扩展,最终应用于真实世界”[]。既然人工智能由主体人创造,智能机器是客体,技术是一种实现人类价值的手段,那么人就具有管理自己制造“物”的能力,技术的发展趋势、方向、动态完全由人自行决定。所以,人工智能在社会生活中的运用必须遵守人类社会的法律规定、伦理道德规范、社会价值体系。“在设计阶段时,从源头让人工智能载入社会需要的价值倾向,这就要求设计者本人在设计时抛弃主观意见、认知偏见,将符合社会要求的价值体系以代码形式植入智能机器中,使之行为符合法律规定与道德要求,即实现行为与价值的相互一致性。在使用阶段时,以使用者为主导强调责任承担,从而确定使用者作为伦理道德能动性的主体地位”[]。由此我们建议,立足哲学高度规范设计者与使用者的伦理道德,使其“善用”机器,自觉约束对技术的欲望恶性膨胀。具体而言,在智能时代我们应遵循道德原则、界限原则、理性原则和学习原则。

  智能社会的健康发展需要人类自觉遵循关于AI的一系列伦理道德。康德认为,“人是有限的理性存在,他既是一种自然存在,又是一种理性存在。人的这种两重性就决定了他同时是两个世界,自然界和理性界的成员,因而受两种法则,自然法则和理性法则的支配”[]。自然法则指人必须遵守自然规律,因为人本身属于自然且是自然的一部分。理性法则也是道德法则,人的理性支配人的行为应可为之或不可为之,人只有遵从理性时理性才算得上真正有作用。而人处于两种法则之间,所以二者皆对其产生作用,自然法则是必须遵循,理性法则是应该遵循。在社会的前进与革新中,人类需克制心中的欲望让行为符合道德,道德以理性为价值取向,最高目标是实现至善,从而形成道德公设。道德公设激励人内心的道德信念,从内在培养道德习惯,道德公设的本质就是践行道德法则,没有道德法则人类行为就会不受控制,掌握的技术越多就越可能肆无忌惮。

  2018年,国内“基因编辑婴儿”事件引发了强烈的伦理争议。肇事者擅自组建团队,故意逃避监管,在2017年自主召集8对自愿者夫妇参与规避艾滋病病毒的实验,实施明文禁止的人类胚胎编辑活动,实验结果为一对夫妇产下新生儿。该行为存在涉嫌更改人类原始基因库的风险,违反自然法则与道德法则,背离人类伦理、丧失职业诚信,为了私欲不顾人类公共秩序安全。与其类似的伦理挑战是“克隆”技术,而“克隆”技术与“基因编辑”技术皆是目前人类可操作完成的技术,但是约束世界各国科学家进行实际实施的因素就是不可逾越的人类伦理道德,这是人类必须遵守的底线规则。人工智能在战争方面也存在不受控制误伤的情况,智能武器一旦被恐怖主义拥有就如同“定时炸弹”将引起社会恐慌,不利于世界和平与发展。在互联网管理方面,如果黑客通过技术破解人工智能程序,可将正在运行的无人驾驶汽车变成不受控制的杀人武器,那么在全智能社会背景下只需要通过技术修改程序就可以导致社会工作全面瘫痪。在个人隐私方面也会存在数据泄露、暴露个人信息等情况。因此,只有严格遵循AI的道德原则,新技术才可能造福人类社会。

  发展人工智能需要明确人与人工智能的界限,深入了解二者之间的本质区别,我国制定《新一代人工智能发展规划》的根本目的绝不是让人工智能超越人类,而只是共处共进。

  其一,人工智能不具备人的智慧。希腊哲学家苏格拉底认为“无知即美德”,很多人自认为自己拥有智慧却在与苏格拉底论辩后陷入自己观点的矛盾点,而苏格拉底自认为没有智慧却被认为是最有智慧的人。事实上,认识到自己的无知就是最大的智慧,就是一种最优的美德。柏拉图的“洞穴比喻”认为,一群被长期囚禁在洞中的囚徒习惯于洞中的黑暗,将洞外人的影子视为“真实世界”,而当一位囚徒突然转向走出洞穴并看到了阳光下的世界后,才明白原来所见的只是影像,他成为了囚徒中最具有智慧的人。可见,人类的智慧不仅在于对工具的使用改造,更在于有自知之明、在于不断反思、在于对知识的不懈追求,并能将知识用于实践。“实践智慧是与理智或理论智慧并列的理性”[]91。相对于人类的智慧,人工智能机器不会有自知之明,对知识的追求也只是人编写的代码程序。人会随着环境的改变本能性地改变自己去适应环境,当人驾驶车辆遇到危险时会随机作出反应减少损失,而人工智能只能在限定程序内避害,如果原设程序中没有这样的指令,就会造成重大交通事故。可以认为,人是“主动”地追求智慧,而人类制造的机器人只是“被动性、机械性”地接受指令。

  其二,人工智能不会思考,没有“自我意识”。黑格尔说:“自我意识是自在自为的,这由于、并且也就因为它是为另一个自在自为的自我意识而存在的;这就是说,它所以存在只是由于被对方承认。”[]人在对自我生命欲望的追求中实现个体满足,这是自我意识的首要阶段,当个体要求对欲望的承认也是其他类都趋于要求承认的自我时意识就成了类意识。在意识斗争中,胜利者成为主人,失败者成为奴隶,当奴隶承认主人权力时主人有了自主意识,奴隶被服从而形成依赖意识。随后两种地位在劳动下发生转换作用,奴隶通过劳动看到自己的独立意识,开始形成自主意识性,自然地将不平等关系逐步地趋向平等与自由。在双方关系中,主人与奴隶各自寻求真正的自由。自我意识经历了“主奴意识”后进而达到“自由意识”。人工智能没有产生意识的大脑,“计算机的效率和能力并非来自其自身的思考,而是出于出色的程序设计”[]39-41,所以无法对情感与价值进行有效判断,更不会主动寻找自由,其存在的目的是服务人类而不是被人类奴役,二者不存在主人与奴隶的博弈关系,当然就不会产生“自我意识”。

  其三,人工智能不会自主劳动。自人类诞生以来就进行着各种自主劳动,为了更好更高效劳动,人类发明和改进工具,劳动使人具有价值,社会劳动是促进人类文明进步的重要力量。而人工智能的劳动并非主动为之,也谈不上自主研制新工具促进生产,更不会思考劳动价值理论,仅仅是一种在人的意识下的命令执行。所以,董军先生认为,“首先,速度的差异没有人如此悬殊;其次,机器至今没有自己进化的迹象,而是按人的意志发展;最后,机器智能的载体与自然智能的载体完全不同,所以无法仅做进化时间上的比较”[]39-41。

  托马斯认为,意欲是一种人的自在行为,从内向外的实现活动,内在是人的心灵,外在是物体,心灵将个人力量作用于物体,并将外在物体加以改造利用实现自身目的。人类对美好生活的向往促进人工智能产生并得以改进,新工具满足心灵是意欲的表现之一,但当意欲超越理性就会产生理想而盲目形成“人与机器的二元对立”关系。康德认为,“理性是寻求知识的最高的统一的综合能力,理性不满足于知性所能达到的范畴、规则的统一,沿着综合的方向继续上升,企图用最高理念和原则把知识的各部门综合为完整的体系,这是理性的自然倾向,也是合理的、正当的”[]318。理性使得人类将知识作用于技术,进而提高生活质量,而盲目的理性则是存在误差或者存在错误知识的观念,工具理性的崇拜会让人过分迷信机器的“万能性”,严重依赖机器生活并自认为智能机器可以代替一切,产生了人与物体的“异化”,一旦失去智能机器就难以使生活正常运行,让工具裹挟了现代人的生活,走向相反面甚至形成享乐主义。

  伊壁鸠鲁认为,快乐主义是身体与心灵的双重结合,身体如果受到伤害心灵也会不安,心灵受到影响身体就会有所损害,所以身体与心灵平衡才是真正的快乐,而过度享乐终将走向痛苦。人与智能机器的关系应该是体验心灵的愉快与身体的舒适,是理性使用而不是过度享乐。二战后,当机器被理性使用于替代人力工作时激起了人们对减少工作量的渴望,很多学者开始关注到工作压力带来的心灵干扰,之后美国出版了《过分劳累的美国人》,日本发明了新词汇“过劳死”。事实上,智能机器不是精英阶层的专属而是大众物品,目的是让更多人发自内心感受到生活的美好,在现实社会中解放自己、减轻工作负担、拥有自由。黑格尔将理性分为三种阶段,即观察理性是对自然科学、人类自身、自我意识进行观察;行动理性的后期发展是自身的满足与快乐,这可能会导致空洞的道德主义;立法理性即对社会中各种常识进行法律规定,目的是在一定程度上限制享乐主义。所以,自由必须符合理性,自由的本质就是自律,而人与人工智能只能是相互作用、相互影响的关系。

  洛克说:“知识不外是对于我们的任何两个观念之间的联系与符合,或不符合与冲突的知觉,知识只是在于这种知觉,有这种知觉的地方就有知识,没有这种知觉的地方,我们虽然可以幻想、猜测或相信,却永久得不到知识。”[]洛克关于知识论述的局限性在于,人只能学习已有观念知识,对于超越观念的认知人是无法达到的。按照洛克的逻辑发展,现代科学知识也是已有观念的结果,这显然与现代人类取得的丰硕成果形成了矛盾。相对于传统旧式机器人而言,人工智能可以替代人类完成对未知世界的探索。2017年,美国宇航局借助AI技术——开普勒太空望远镜发现一颗(太阳)系外行星,这也是人类首次运用AI探索宇宙。2018年,英国科学项目Breakthrough Listen再次利用人工智能新技术探索到了来自太空传递出的神秘信号,“这种新的人工智能技术现已发现了72个以前未被发现的外太空快速无线电脉冲信号”[]。马里兰大学Yiannis Aloimonos教授的课题组通过CNN双系统方式实现了“观看录像学习模式”,让“机器人只需看着人们在烹饪时的拍摄录像,就可以学习烹饪”[]104,最终目的是优化机器人学习方式以便构建任务模型,“像福岛核电所的废炉作业那样,机器人可以进入人类不能接近的危险工作场所”[]106。可以认为,人工智能的学习、探索过程实际上是人类知识增进的过程,我们必须对搜集的未知信息进行总结分析、开拓眼界,才能达到人与智能机器共同进步的目的,进而解开人类乃至于人类之外的诸多未知之谜,并最终将人类文明推向新高度。