时间:2018-10-20 10:53:43 所属分类:智能科学技术 浏览量:
这篇人工智能论文发表了人工智能的道德主题概述和相关问题,人工智能技术, 是一种综合性极强的现代化新兴事物, 主要依托于计算机科学和电子信息系统两大体系, 结合社会哲学以及社会心理学等学科发展起来的一种智能化产业。那么人工智能面临着哪些道德主体性
这篇人工智能论文发表了人工智能的道德主题概述和相关问题,人工智能技术, 是一种综合性极强的现代化新兴事物, 主要依托于计算机科学和电子信息系统两大体系, 结合社会哲学以及社会心理学等学科发展起来的一种智能化产业。那么人工智能面临着哪些道德主体性问题?
关键词:人工智能论文,道德主体,伦理反思
2017年10月,沙特阿拉伯正式授予机器人“索菲亚”公民身份,这一举动颠覆了只有人能作为公民的认知,因为能够成为公民,就说明其本身必须是道德主体,能够承担一定的责任和义务。但是在近几年,人工智能的发展十分迅速,随着人工智能与人类越来越像,人工智能与人的界限就更加模糊,人工智能的道德主体性问题成为主要争论问题。那么人工智能是否能够成为像人一样的道德主体?成为这样的道德主体所需要的条件是什么?人类该如何与人工智能共处?本文整合了一些文章的观点,对人工智能的主体性进行剖析,并进行反思。
一、人工智能概述
人工智能(Artificial Intelligence,简称 AI),一般公认为是起源于1956年的达特茅斯会议。自人工智能发展以来,尚未有统一定义。在李开复[1]等人的《人工智能》一书中,从人工智能发展史的角度对人工智能下了不同的定义。早期,人们对人工智能的认识缺乏时,大多数普通人认为,人工智能就是机器可以完成人们不认为机器能胜任的事。而后仿生学发展时,人工智能则是被定义为能遵照思维里的逻辑规律进行思考的计算机程序。实用主义者则是认为只要计算机与人类行为相似,那么它就可以被称为人工智能了。随后机器学习技术在计算机领域实现了惊人的突破,人们从中受益,认为人工智能就是会学习的计算机程序。而在此书中,最后一个定义则是对前几个定义的一个总结归纳,即人工智能就是根据对环境的感知,做出合理的行动,并获得最大受益的计算机程序。
根据智能水平不同,各位学者将人工智能分为三种:弱人工智能、强人工智能以及超人工智能。弱人工智能是基于大量数学推演,进行问题求解的机器学习算法,程序设计者预测会出现的情况,然后做出应对方案,由机器判断符合条件与否并加以执行,但是不具备自我学习能力,无法与人类智慧相比。强人工智能通常来说,已经具备了自己的思维,并且能够对外部刺激做出相应反应,能够进行自我决策或者行动,基本等同于“人类”[2],并且能够自我学习、自我完善,具有与人类智慧相当的能力。超人工智能则是更进一步,基于强人工智能的学习能力,提升為自我进化能力,具有远远超越人类智慧水平的人工智能。
二、道德的主体性
道德与人类活动的本性是相互规定的,人的行为中包含着道德的因素,道德的因素也同样在人的行为中体现。因此,我们通常说什么是道德或者不道德的,在评判过程中所讨论的就是人与人的关系的行为、人与社会的关系的行为。也就是说,道德是人的道德,人是道德的主体。
既然如此,人与道德的关系就是密不可分的,在冯建军[3]的文章中总结了人作为道德主体的五个主体性,即:
(1)为“我”性:个人为了完成自己的利益而与他人交往成达成了某种“平衡”。
(2)求善性:在不损害他人利益的情况下,合理的通过某种方式达到自己的利益。
(3)内在超越性:追求自身的升华,不断地完善自我的精神世界,努力朝着至善的方向发展。
(4)自由意志性:主体具有自由选择的行为的意志,道德必须是主体自由意志的选择。
(5)自我约束性:主体具有能够控制本能、欲望和情感的理性,只有通过理性来约束自己,才可以实现意志自由。
对于人能够作为道德的主体还有其他说法,当代行为理论认为,只有符合以下条件时,人的行为才能被认为是适用于道德判断的行为[4]:
(1)一个具有欲望、信念和其他有意识状态的主体。有意识状态是构成行为的理由。
(2)有一个外在的、客观存在的具体物体即主体产生行为。
(3)内部的心理状态是产生外部事件的原因,也就是说身体产生的运动是受内部心理状态支配的。
(4)外部行为(按照合理的方向产生结果)具有外部效应。
(5)最后,效果必须在目标身上呈现,例如一个行动的接受者。
总的来说,人之所以能成为道德的主体,主要是因为人具有自由选择意志,并且能够通过理性在面对选择是做出利于自己或者能够满足自己意愿的决定,并运用身体产生相应行为,而这一行为能够与其他主体进行互动并产生相应的
效果。
三、人工智能体能否成为道德主体
人工智能体能否成为道德主体,就要看人工智能体是否能够满足上述五个条件。
3.1人工智能体的自由意志
在传统的观念来说,人工智能体的自由意志似乎是不存在的,他们只会依靠着程序员的代码进行机械的行为,他们不会自主选择去做某些事情。例如扫地机器人,他只能够根据主人的放置的范围进行清扫,而不会自主选择区域。但是,10月19日,谷歌下属公司Deepmind报告新版程序AlphaGo Zero:从空白状态学起在无任何人类输入的条件下它能够迅速自学围棋并以100:0的战绩击败“前辈”,可见人工智能体具有自由意志似乎并不是科幻小说中才能见到的事情。虽然AlphaGo Zero只是在围棋方面能够进行自我决策,但是这就说明在未来的某一天,人工智能体可能会具有自由意志。
3.2人工智能体的行为决策
行为决策能力,体现在推理能力上,例如人们在某一情景下做出选择,往往是因为他能够根据自己当前所处状态以及所有能力而对做出行为决策后的结果进行推理,并选择一个受益较大或者受损较小的行为。《道德机器》[5]中提到一种决策支持工具(DSTs)——APACHE,它是一个基于计算机的决策支持工具模型,帮助为重症监护病房的病人确立治疗方案。这个人工智能体根据数据库里的数据,会为病人进行评估,并为患者提供一个治疗方案,当然最终治疗方案是需要医生进行确立的。只是在这一过程中,人工智能体充分发挥了它的决策功能,节省了大量的成本并提高了医生工作效率,随着科学技术的发展,人工智能体将会在没有任何人类决策行为直接参与的情况下进行决策。
3.3 人工智能体的行为主体
人类能够产生行为,是因为人类能够控制自己的身体去完成某些事情。那么人工智能体呢?拿最常见的机器人来说明的话,他已经具备了一个“身体”,这个“身体”可以支持他去完成一些活动,不论是家用扫地机器人还是军事战争机器人,他们都具备这个能力。当然,还有另一种人工智能体,那就是以网络为载体的人工智能助手,如苹果的siri,Google Duplex等等,他们虽然无法移动自身,但是他们可以连接网络,而达成某些行为,只不过这种行为被局限在了网络终端。但是不论怎么说,人工智能体都具有一个能够承载他“思维”的载体,因此,人工智能体具有行为主体。
3.4 人工智能体的行为对象
人与其他动物一样,最开始都处于一种与环境的不自觉的关系之中,依本能与自然环境发生交往[6]。但是当人成为人之后,人的意识能够让人成为关系的中心,道德之所以能够产生,是因为人与人之间,通过“意识”产生的社会关系。
对于人工智能体来说,他们还不能够形成社会,但是他们已经处于人类社会之中了,例如索菲亚,她能够自然的和人类进行交流并作出相应的回应(暂且不说是否是因为程序设定)。如果是人类与人类进行互动,那就是社会行为,可以进行道德判断,那么人工智能体在于人类互动时,他们的角色是什么呢?仅仅是工具吗?很多人工智能体是为了减轻人类负担或者更好的服务于人类而设计的,也就是说,他们有行动对象,他们的行为具有互动性。
3.5 人工智能体的行为效果
道德行为,不是单纯的躯体活动,而是在一定的规则或准则意义上的活动,例如你决策今天吃什么,这种活动是不具备道德意义的,但是你为了吃某样东西而插队,这一行为就具有道德判断意义。同样,如果一个人工智能体的行为,没有对他的行为对象造成影响,那么这一行为就不具有道德意义。因此,单纯的代替人们重复劳动的机械臂这种机器人,他们的行为是不具备行為效果的。但是,如果作为一个看护机器人,他对儿童或老人的照顾行为,则会产生明显的行为效果。
四、对人工智能主体性的反思
针对上述五个条件,可以发现,弱人工智能明显不具备成为道德主体的能力,他们只能说是人类用以延伸自己的思维、体力的高级工具。但是对于强人工智能和超人工智能来说,他们具备成为道德主体的能力。
我们需要再人工智能技术发展到超出控制之前,做好道德预防,即为人工智能植入道德机制。人工智能技术会随着发展而逐渐融入生活,而他们在融入生活时,一些道德问题就顺应而生,因此,为人工智能置入道德程序是有必要的,也是必然趋势。同时植入道德机制,能够防止人工智能技术滥用所造成的危害,并且能够提升公众对人工智能的信任,从而促进人与机器的和谐共处。总的来说,道德机制的植入,会让人工智能变得更好,也能让我们在为机器植入道德时,能够对道德产生更加深刻的理解。
五、总结
那么我的观点是,目前的人工智能不能也不能满足成为道德主体要求。目前的人工智能不具备自主意识,不会有因其自由而产生的行为的意图。但是它们可以成为道德主体的组成部分,它们可以成为人类对自身功能的一种延伸,也可以是人类道德行为的结果。也就是说,人工智能可以是道德实体,但不是独立的、自主的道德主体,人工智能技术使人类打破了自身的限制,使很多不可能成为可能,但是如果没有人类的操控,现有的人工智能技术并不具备独立行动的能力。
但是现在的人工智能技术发展迅速,又没有能够明确区分强弱人工智能的方法,为了确保人工智能技术更好的发展,需要对人工智能技术进行道德植入,提前对人工智能进行道德预防,以达成人机和谐相处的美好愿景。
参考文献:
[1] 李开复,王永刚.人工智能[M].北京:文化发展出版社有限公司,2017.3.
[2] 贺倩.人工智能技术发展研究[J]. 现代电信科技, 2016, 46(2):18-21.
[3] 冯建军.人的道德主体性与主体道德教育[J]. 南京师大学报(社会科学版), 2002(2):84-89.
[4] Johnson D G. Computer systems: Moral entities but not moral agents[J]. Ethics & Information Technology, 2006, 8(4):195-204.
[5] 道德机器:如何让机器人明辨是非[M].北京:北京大学出版社,2017.
[6] 龚群.现代伦理学[M].中国人民大学出版社,2010.
转载请注明来自:http://www.zazhifabiao.com/lunwen/dzxx/znkxjs/44152.html
上一篇:人工智能在金融理财中的应用研究
下一篇:市政照明工程的电气安全防护研究