推荐期刊

人工智能危害风险的理性审视与治理体系研究

时间:2021-04-24 11:11:13 所属分类:智能科学技术 浏览量:

人工智能的话题已经从一个技术应用范畴演变成一个具有专业争议性的社会公共话题。人工智能的出现改变了主体与客观的认知关系,将会深刻影响和改变未来法律的发展。人工智能颠覆了传统的以人为中心的法律体系,试图以赋予人工智能类(拟)人化法律主体资格来防范

  人工智能的话题已经从一个技术应用范畴演变成一个具有专业争议性的社会公共话题。人工智能的出现改变了主体与客观的认知关系,将会深刻影响和改变未来法律的发展。人工智能颠覆了传统的以“人”为中心的法律体系,试图以赋予人工智能类(拟)人化法律主体资格来防范和处置未来可能的危害风险。但学界在探讨人工智能创设各类社会危害风险的逻辑论证上存在着主体的错位、风险的夸大与逻辑的推测等诸多的问题。

人工智能危害风险的理性审视与治理体系研究

  一、人工智能技术背景与风险情境: 技术逻辑审视下的危害风险

  1.人工智能的技术逻辑:数据与算法人工智能是计算机与大数据技术科技融合的产物。它通过模拟和再造人类智能,生产出一种具有类人化智能的智能机器。根据现有技术的发展,按照智能程度的高低,人工智能可以分为弱人工智能、强人工智能和超人工智能。这种发展趋向也是人工智能从技术物体到技术智体发展的过程,也是逐步赋予人工智能更加智慧的过程,即人工智能具有深度学习能力和自我运行算法的能力。人工智能的技术逻辑关键在于数据与算法,只有具备了这些人工智能才可以形成算法能力和学习能力。首先,人工智能是数据智能。人工智能本质上是预先构建类型化的数据库,用大量的数据作为智能导向,人工智能通过数据库提供数据支撑来完成所做的行为。其次,人工智能是算法。“算法即是规则”。算法为人工智能提供了意图实现的目标,并为实现该目标提供了具体的计算路径与方法。算法本质上是以数据为填充,通过计算步骤得到具体结果,算法的运算结果与算法设计、算法部署以及应用有关,算法看似很艰深的计算科学概念,实际上在计算机科学家看来,通过一些列步骤、用输入的数据得到输出结果就是算法的本质[1]。从技术本体论上来讲,人工智能具有一定的技术逻辑,并不是一个被人类技术“异化”的产物,它是在人类正常的智慧、科技手段和正常的场域内合理存在的产物。

  2.人工智能危害风险的技术判断技术奇点和图灵测试被认为是赋予人工智能独立、能动性活动的技术支撑的重要依据。但技术奇点和图灵测试一直受到很多批评,其中一个最重要的质疑是它偏向于纯粹的符号问题求解任务。它并不测试感知技能或要实现手工灵活性所需的能力,而这些都是人类智能的重要组成部分。机器智能不同于人类智能,试图按照人类的方式来评估它,可能本身就是一个错误[1]25。就人工智能的技术逻辑来判断,主要存在的风险源是数据与算法。

  (1)数据风险人工智能的技术应用建立在对大数据的应用基础上。在大数据时代,原始数据的设计和使用的流程复杂多样,在运作过程中,对于数据的筛选和使用无法把控,形成数据的不确定性。因此,人工智能的风险明显存在数据风险。一种是“数据失灵”风险,即基于原始数据的不充分或者瑕疵,在对数据不能形成有效修正的前提下,完全由数据计算得出信息,根据信息形成外在活动。此种风险在于,如果原始数据的质量不高,或者存有瑕疵,导致人工智能行为按照瑕疵的数据逻辑进行计算,就形成潜在危险。另一种是“数据操控”风险。由于人工智能的原始数据来源于人的加工处理, 而人的决策难以摆脱个体价值的影响,如果一个对社会存有危害意识的人,通过数据加工,人为地将数据进行伪造或者篡改,就会导致人的恶意外化为机器的危害行为,从而形成巨大的危害风险。

  (2)算法风险算法是一种新型的控制力量和规制形式。算法是计算机计算或执行的一系列解决问题的清晰指令。算法的风险主要体现在两个方面。一是算法偏见与歧视导致的风险。“算法来自代码编写,从技术上来看,程序员按照设定任务(应用)来编写源代码(源程序),并经过编译程序转换为目标代码或可执行代码”[2],然后控制和指挥人工智能的每一个动作。然而在利益和恶意动机的诱惑下,算法存在偏见就会导致人工智能的行为存在脱离正常活动或者行为形式的可能性,从而产生外在的风险。二是算法黑箱的风险。计算机直接从原始数据或者源代码出发,通过自我学习自动生成对外界的认知与行为。在人工智能通过数据与算法的技术链接与操作的过程中存在着人类无法操控与洞悉的“黑暗隐层”,称之为“黑箱”。因此,算法面临一定的未知风险。由于算法黑箱导致算法自主,从而形成人工智能脱离规定的正面目标任务而产生反面的破坏活动。比如,正在炒菜的机器人可能会打砸锅碗,形成无法控制的危害风险。

  二、人工智能的案例背景与规范情境: 规范逻辑审视下的危害风险

  1.人工智能的事实风险:危害风险的孤立个案目前,法学界探讨人工智能存在的事实风险主要通过以下案例来论证。“1979年,一名叫罗伯特·威廉姆斯的美国人被一重型机械臂击中了头部而死亡。 1981年,工程师肯基·鄂瑞达在修复机械手臂的时候被活活卡死在房屋的柱子上。”[3]2015年7月,一名德国大众汽车制造厂的年轻工人在安装和调制机器人时,被机器人击伤胸部[4]。2016年,在深圳举办的中国国际高新技术成果交易会上,发生了一起一名叫“小胖”的 机 器 人 “故 意”伤 害 他 人 和 毁 损 财 物 的 事 件。 2018年3月亚利桑那州坦佩发生的一起无人驾驶汽车事故中,Uber的一辆无人驾驶汽车撞死了一名行人[5]。英国首例机器人心瓣修复手术现场大乱,机器人把病人的心脏放错位置,并戳穿大动脉,最终导致病人在术后一周死亡[6]。上述案例是从事实风险的角度论证人工智能创设的风险客观存在,但上述案例存在以下问题: (1)被忽视的个案性质就目前学术界探讨的人工智能危害案例的性质而言,基本属于生活事件,法律定性一般也仅承认是意外事件。在20世纪出现的重型机械臂杀人的案件,囿于当时的技术的限制,还处于机械的范畴之内,达不到人工智能的技术程度。这种事故属于机械事故或者安全生产事故。即便2015年大众公司机器人“杀人”案中, 看似赋予了人工智能某种“意识”和“行为”的内涵,但是从技术角度判断来看,这种人工智能还不属于强人工智能的技术范畴。在事故描述上是受害人在安装和调制机器人,说明该机器人并不是处于正常使用和工作之中,还存在人的操作以及机械的故障等问题。所以,上述人工智能产生的伤人的危害结果,也仅仅是生活中发生的意外事件或者技术事故,其风险范畴仍旧属于传统风险社会中的正常的风险范畴。 (2)被遗漏的个案细节上述案例中所列举的“机器人杀人、伤害、毁财等事件”都是简单化的案例描述,突出机器人与危害结果之间的简单关联性。但是任何一个案件尤其是刑事案件中危害后果大都由多种原因导致,上述的“机器人杀人、伤害、毁财事件”也多数是“多因一果”的案件模式。上述案例的必要细节被过滤,导致无法准确地判断个案中的因果关系。以简单化的案例,不能得出“智能机器人实施严重危害社会的行为也已经真实地发生于人们的生活之中”[7]的结论。前述个案中的危害后果可能是机器的故障导致,也可能是人的设计与操作等问题导致。

  2.人工智能危害风险的价值判断:传统的危害风险任何一个社会形态都天然地伴随着风险,从农业社会的自然风险到工业社会的机械风险再到信息社会的智能风险,社会层面的风险在不同的历史阶段有不同的表现形式。但是,这种风险的演变在性质上仍旧是人类活动的结果。从某种意义上讲,人工智能技术的出现是人类物质性增强技术的重大突破,人类可以利用该技术来增强精神和身体能力从而拓展外部能力。所以,人工智能将伴随着人类行为创设和制造各种社会风险。学界普遍认为人工智能存在内在的技术风险和外在的社会风险。对人工智能技术发展风险的担忧并非是杞人忧天,而是具有一定现实性和 客 观性[10]。就上述探讨的人工智能实际导致的社会风险而言,其仍旧属于传统的社会风险的范畴。 (1)人 工 智 能 的 危 害 风 险 不 会 引 发 人 类 的 生 存危机风险包含自然风险和社会风险,法律评价和关注的是社会风险。社会中任何具有自主能动性的“物”, 比如动物或者人类都可能成为社会风险的来源。如前述案例,人工智能也可以在社会应用的场域中形成对人或者物的危害风险。无论是工具型的人工智能还是独立自主型的人工智能,只要活动在社会关系中就伴随着一定的危害风险。人工智能所产生的危害风险仍旧属于传统社会风险的范畴,属于生产生活中技术风险的外在延伸。理性地审视这种衍生的危害风险,在事实认定和价值评判上,其仍旧属于传统犯罪风险的范畴。所以,人工智能的危害风险不会引发人类的生存危机。 (2)人工智能的危害风险不会导致社会异化异化是哲学上的概念,“即由人自身产生出的一种异己的力量”[11]。人失去了自我,受制于这种异己的力量,异化的核心在于人成为客体之物,丧失自我的本质。针对人工智能的危害风险会不会导致社会异化的问题,有学者提出人工智能的负面后果;人工智能的滥用;人工智能变成了“决策者”具有“算法自主”能力,导致引发人类身份认知的危机等[12]。这种假设性的异化风险回避了法律评价风险的基础在于现实的生活。同时就异化风险的表现形式而言,人工智能的负面后果、人工智能的滥用等都不是人工智能异化的表现形式。人工智能的危害风险的来源、过程与结果始终伴随着人的行为,人工智能永远是人工的产物,其引发的风险依旧脱离不了社会与人的关系范畴。因此,人工智能的危害风险不会导致社会异化。

  三、风险聚焦与限缩:人工智能创设危害风险的理性审视

  1.风险表象:人工智能创设危害风险的类型化评价随着人工智能技术的快速发展以及在社会各行业中的普及应用,人工智能各种活动的范围会不断扩大, 活动频率也会不断增强,人工智能必然会对社会产生一定的危害风险。这种风险属于当今社会科技风险的表现形式,具有一定的跨越时空性、高度的隐蔽性、不可预测性和复杂的关联性。所以,未来人工智能创设的风险既是一种客观现实的风险,也是一种人们可以独自判断和认识的主观风险。由于学界对人工智能的风险的论证存在实然与应然两个层面,对于未来人工智能创设的风险必须坚持以实事求是、科学理性的态度去分析评判。目前,学界探讨人工智能存在的危害风险主要分为两种情况。第一种,“工具辅助型”人工智能所产生的危害风险,即人工智能的工具性风险。如利用人工智能侵入股市数据,干扰、控制和影响股市交易从而获得不当利益;利用人工智能侵犯个人隐私或者收集个人信息,自动驾驶带来的道路与飞行公共安全风险等。在这种情况下,“人工智能仅仅是人的危害行为借用的工具”。第二种,“独立自主型”人工智能所产生的风险,即人工智能的功能性风险。有学者认为,强人工智能产品完全有能力在设计和编制的程序范围之外实施严重危害社会的行为,完全有可能对刑法所保护的社会关系造成严重侵害[13]。对于这种所谓的危害风险, 多数是借用电影里虚构的场景进行假设性的论证,还没有以实际发生的社会案例作为论证事实。

  2.风险聚焦:人工智能创设危害风险的去伪与存真人工智能随着技术的发展,会从单独的工具性风险转变为功能性风险。人工智能基于技术性属性所产生的工具性风险,仍旧属于传统的风险,是以人作为法律责任的主体,在法律的逻辑关系上比较清晰,也能够有效地进行风险处置与预防。现在法律需要应对和处置的困境在于“独立自主型”人工智能所产生的风险问题。这种观点论证的主要理由有:(1)人工智能具有行为和行为能力。“机器人具有独立行为”“智能机器人自主决定并在设计和编制的程序范围外实施严重危害社会的行为”[14]。(2)人工智能有自主意识,具有辨认和控制能力。“智能机器人所具有的独立的辨认能力和控制能力来源于程序”[14]79。当人工智能体的人工神经网 络 规 模 足 够 庞 大 时,便 会 产 生 自 主 意 识[15]。 (3)人工智能具有行为能力或者责任能力。

  3.风险源头:从人工智能的危害状态转变到人的危害能力未来无论人工智能的智能程度如何超越人类,人与人工智能的关系始终不可能成为人与“人”的主体平等关系,这种关系的构建不取决于权利而取决于能力。几千年以来,无论物种怎样迁徙变化,人始终是地球物种的主人,人类不可能让渡出自己的主宰地位从而造成人类的生存危机。所以,人工智能自诞生之日,就脱离不了技术与客体的宿命,人工智能的超级智能的产生需要依靠人的技术与智慧。同时机器不可能自我衍生,即脱离了人的技术作用,其无法自我繁殖。因为人工智能处于技术性的客体地位,它不具备主观的利益追求和客观的危害行为。所以,人工智能不具备产生危害能力的现实条件。同时,人工智能不是自然的产物,它具有一定的技术规则与程序,人工智能的技术规则也限缩了人工智能危害能力的建设。正如虽然人类掌握了基因编辑婴儿的技术,但是人类胚胎基因编辑却仍被严格禁止一样。基于前述的分析,对于人工智能的危害风险,法律只能评价为一种危害状态,背后的实质是 人 的 危 害 能 力 问 题。所 以,法 律 评 价 风 险的重心要从人工智能的危害状态转变到人的危害能力上。

  四、人工智能危害风险的治理体系: 风险控制、制度保障与立法监管

  人工智能的危害风险的社会治理是一个系统工程。理性地审视人工智能的危害风险,要从技术治理、道德责任、制度保障和法律监管等多个层次构建人工智能危害风险的治理体系。

  1.人工智能危害风险的技术治理逻辑———技术治理主义人工智能危害风险的治理逻辑可以借用技术哲学中的技术治理主义的思路。技术治理思想被法国实证主义哲学家孔德、英国哲学家斯宾塞等人从不同方面发展。技术治理主义要求科学管理与专家治理。(1)科学管理:风险分析与风险评估法从技术角度而言,人工智能危害风险治理的逻辑前提是风险评估与风险分析。具体而言,就是在人工智能生产、制造的过程中对一系列风险进行的管理步骤,包括风险识别与评估、风险管理策略、风险的技术解决与风险的制度监督等。首先,人工智能广泛应用于社会领域之前要经过危害风险的技术识别,确定人工智能在各种应用领域可能存在的潜在问题和可能造成的各种风险,并定性分析其存在的可能后果,得出系统的风险源,并将这些风险源组合成固定的格式文件供以后分析参考。其次,要进行风险的技术评估,即对潜在问题可能导致的危害风险及其危害后果实行科学量化,并确定其严重程度,从而得到系统风险的综合印象。最后,要进行有效的风险管理,“在风险识别及风险分析的基础上采取各种措施来减小风险及对风险实施监控”[19]。针对人工智能可能产生的科技风险,美国国家科学技术委员会也提出了经典的风险技术分析法,即为了保护公共安全而对人工智能产品进行有效监管的方法,应通过评估人工智能的风险源进行有针对性的技术应对。对人工智能的风险分析涉及很多风险因素,诸如智能产品的功能与大小、技术本身的风险、开发软件的环境、组织规模、人员经验和客户因素等。多年来,科研人员开发了许多风险因素分析法的理论模型,其中美国信息安全专家 BruceSchneier创设的风险分析法最为典型,其主要内容为:第一,你想保护哪些资产? 第二,这些资产的风险是什么? 第三, 安全解决方案在多大程度上减轻了这些风险? 第四, 安全解决方案还会带来哪些风险? 第五,安全解决方案会带来哪些成本? [20]这些步骤在解决人工智能危害风险的问题上主要是如何科学地确定人工智能的相关风险。人工智能在研发方案上具有不确定性,未来的应用具有不受人主观控制的因素。只有到智能技术的实际应用层面,我们才能确定现行解决方案是否能够充分减轻步骤3所规定的这些风险,即有效地评估风险分析法的信度和效度。至于第4步和第5步是安全解决方案,它们大多与当前制度规范有关。需要指出的是,上述风险分析模型是不完善的,因为该模型认为减少人工智能风险的唯一途径是依靠风险的评估制度,而忽视人工智能本身存在的技术风险。 (2)专家治理:人工智能技术的专家治理模式基于规制人工智能在应用场域存在的多方面风险,未来要构建多元的专家治理体系,即人工智能本身是科技的范畴,要在社会领域中构建多元主体共同参与的多层次、多学科、多领域的治理模式,以专业防范来有效地应对人工智能的危害风险。从人工智能设计、运行、应用的技术专家到司法领域的裁判官和与人工智能利益相关者,诸如科研单位、应用企业和政府等,都要共同处理人工智能产生的危害风险。这种治理模式明显改变了当前社会在单一领域、单一主体下的单一治理模式。例如,以前法院的法官完全可以单独处理的民事侵权责任纠纷,法官单一主体在司法这一领域就可以单独处置。但未来涉及到人工智能的侵权责任问题,必然会出现多主体、多专业的“会诊”处置模式。实际上,在人工智能技术的专家治理模式下, “各方各有所长,各有所短。作为现代治理主导力量和公共政策制定者的政府往往缺乏专业技术储备、技术预见性和行业前瞻性,作为技术开发者和推广者的企业则无法保持令人信服的中立性和权威性,而作为人工智能直接受众的广大民众和社会组织虽然其日常生活和基本权益倍受影响却无法成为主导性力量。显然,最佳的治理策略必须是各方联合行动、共同参与, 在对话、协商甚至彼此竞争、相互博弈中寻找最为合理的解决方案”[21]。只有这样,才能针对人工智能的危害风险的预防、过程监管与处置等各环节,共同有效地预防与处置。

  2.人工智能危害风险的规范治理基础———道德责任原则 (1)机器伦理:阿西莫夫三定律为了避免人工智能可能造成的社会危害后果,抑制人工智能的危害风险,有人在机性上提出了道德准则,赋予机器人更加人性化的内在约束。著名的科幻作家I.阿西莫夫已经提出了机器人的伦理法则,即“阿西莫夫三定律”和“第零定律”。“阿西莫夫三定律”主要内容包括:第一定律,机器人不得伤害人类且要积极保护人类;第二定律,机器人必须服从人类的任何指令;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。此后,阿西莫夫以保护人类整体利益共同体为目标,提出了“第零定律”。该定律的核心思想是“机器人必须保护人类的整体利益不受伤害,将保护整体人类(humanity)作为机器人学的本初法则”[22]。在《纽约时报》最近的一篇专栏文章中,华盛顿大学教授 OrenEtzioni提出对人工智能系统的限制规则。第一,人工智能系统必须遵守适用于人类操作者的全部法律;第二,人工智能系统必须清楚地表明它不是人类;第三,未经信息源的明确批准,人工智能系统不能保留或披露机密信息[19]11。以上是针对人工智能提出的最低限度的道德要求。究其实质而言, 实际上更多的道德要求是赋予背后对人的更高要求。 (2)人类底线:道德原则与道德规制从本源上来讲,人工智能的危害风险控制的关键在于“防人甚于防机”。从社会风险的来源及其表现形式来看,当代人工智能的风险主要是人性风险。正如贝克指出:“各种风险其实是与人的各项决定紧密相连的,自然和传统无疑不再具备控制人的力量,而是处于人的行动和人的决定的支配之下。”[23]不管未来的人工智能的智能水平如何,现实的定性是它始终处于技术的范畴之内。前哈佛大学教授 E·梅塞纳指出:“技术产生什么影响、服务于什么目的,这些都不是技术本身所固有的,而是取决于人用技术来做什么。”[24]人工智能创设的风险始终伴随着人的作用。所以,防范人工智能的危害风险必须要对人提出更高的道德要求。具体而言,在设计阶段应该强化对于人工智能算法与数据提供的技术与伦理的监管。如有的学者提出,“要求设计者在设计算法过程中嵌入算法伦理。以立法形式要求算法通过道德审查标准”[1]24、“要求信息技术专家、社会学家等形成专家治理团队共同研究和设计在每一个阶段中人工智能的伦理框架和道德准则”[22]361,[25]等。

  3.制度保障:从审批登记制度到强制保险制度 (1)审批与登记制度要加强对人工智能风险源头的监管,就需要对人工智能进行必要的审批与登记,采用强制审批与登记制度。强制审批登记制度对于防范人工智能存在的危害风险以及基于人工智能缺陷导致的侵权判断和履行侵权责任方式等都具有重要意义。第一,从风险源头的监管上有利于保证人工智能的技术慎重,保证人工智能的安全可靠性。第二,可以对人工智能的日常活动进行有效的监控,判断人工智能的活动是否超越了审批登记的范畴,是否被人进行了非法利用,有利于厘清人机之间的责任。第三,可以根据登记和审批的技术标准尽快地查清人工智能侵权的因果关系问题,防止在事故发生以后,因为人的因素对相关的设备或者程序进行恶意删减或者修改。人工智能恪守登记出生主义的原则是以安全为逻辑起点,通过登记来管控未来可能出现的危害风险。登记出生主义涉及技术标准、数据保存、活动区域与工作性质甚至风险责任的划分等,如果进行了有效的登记公示,则完全可以作为责任划分的参考依据。 (2)强制保险制度在科技风险语境之下,人类对于技术发展与进步的渴求与人类的安全的诉求之间存在一定的紧张关系。有效的社会保障制度可以缓解这种紧张关系,使得技术的发展不会因为技术的风险被扼杀或者剥夺。社会保障体系中最重要的就是社会保险体制。所以, 构建人工智能的强制保险制度可以很好地规避人工智能的危害风险,使人从保险的财产补偿中获得平衡感和安全感,寻求一种风险化解之后的确定性的状态。正如汽车的发展与普及导致交通事故的风险一样,在制度保障上,构建强制保险制度是化解人工智能的危害风险的最重要的保障制度。因此,在法律适应规则上要构建强制保险制度和司法的强制赔偿制度。

  面对人工智能在现实生活中可能出现的危害风险,强化对人工智能在研发、设计、制造等阶段风险的技术控制是治理之本。在社会治理体系上,要从道德上强化人工智能设计研发人员的伦理责任,强化针对人工智能相关危害风险的立法监管,制定统一的法律规范,这样才能更好地为司法相关提供明确的解决人工智能风险与危害的法律依据。

  参考文献:

  [1]张凌寒.算法 规 制 的 迭 代 与 革 新[J].法 学 论 坛,2019,34 (2):16-26.

  [2]马长山.智能互联网时代的法律变革[J].法学研究,2018, 39(4):20-39.

  [3]高奇琦,张鹏:论人工智能对未来法律的多方位挑战[J]. 华中科技大学学报(社会科学版),2018,32(1):86-96.

  《人工智能危害风险的理性审视与治理体系研究》来源:《大连理工大学学报(社会科学版)》,作者:李 茂 久1, 张 静2

转载请注明来自:http://www.zazhifabiao.com/lunwen/dzxx/znkxjs/48273.html