1、摘要:人工智能伦理约束规则的建立,是人工智能意向性构造的必经过程,也是衡量人工智能意向性能力的一个更高层次的标志。人工智能的意向性构造具有其内在的技术本体论定位,这种本体论定位决定了人工智能必须符合人类社会追求规范、规则的伦理道德要求,其伦理定位问题是在人工智能技术支撑的基础上发展到更高阶段的自然结果,是一种技术与社会之间关系平衡的结果。人工智能的意向性的出发点是为了维护人类的尊严和价值,必须打破那种技术“价值无涉”的理念,将价值概念植入人工智能意向性构造的整体机制之中,从而在技术进步的整体视野下为人工智能的意向性构造赋予一种全面的、合理的、符合时代要求的伦理规范。关键词:人工智能;意向性;伦
2、理规范;主体性中图分类号:B022;TP311.13文献标志码:A文章编号:1673-1808(2023)02-0029-07第 40 卷第 2 期2023 年 4 月晋中学院学报JournalofJinzhong University人工智能的意向性构造作为一种人类理性能力的本能性“超越”,在人类实践的过程中必然会遭遇某种“约束”或者“规范”,这种“约束”与“规范”源自人类的社会伦理性本质。换而言之,人工智能意向性构造的伦理规范源自人类的社会伦理本质要求。但是,人工智能意向性构造的伦理规范并非是一种对于人工智能意向性构造“理性超越”的负面力量,相反这种“伦理规范”恰恰是为了保障和实现人工智能
3、意向性构造的“理性超越”能够始终沿着正确的道路前进。或者说,人工智能意向性构造的“伦理规范”本身就是人工智能意向性构造“理性超越”应有的题中之义。一、人工智能意向性构造的伦理基础人工智能的意向性构造对于人类意向性的模仿,必然会涉及对于人类意向性机制的社会性交往能力进行模仿的问题,其中最为关键的就是人类社会的伦理规范如何才能“植入”人工智能的意向性构造系统当中,或者如何让人工智能的意向性机制能够适应并形成人类社会的伦理规则约束。应当说,这一伦理约束规则的建立,是人工智能意向性构造的必经过程,也是衡量人工智能意向性能力的一个更高层次的标志。在人工智能意向性构造的本质和目标方面,人工智能需要一种符合
4、人类社会基本伦理的规则保障,这种规则保障是人工智能意向性构造的重要社会“基因”,由此才能够使得人工智能的意向性能力真正得到健全和完善,即使是在那种极端主义的人工智能主体地位“预想”方面也是如此。其原因在于,人工智能主体地位的获得同样需要一个人类社会的“允诺”或者承认,而获得这种允诺或者承认的前提就是遵守人类社会的基本伦理规则人类本身是不可能允许出现一种背离社会价值观与伦理观的智能“主体”参与正常的社会交往关系的,而那种更为荒诞的关于人工智能实体在未来有可能取代人类而组建一个独立“意向性”或者自我意向性“觉醒”的智能实体社会的幻想则从根本上是不可能实现的。人工智能意向性构造的伦理维度刘伟伟1,张
5、艳梅2(1.山西大学 哲学社会学学院,山西 太原 030006;2.山西省社会科学院 省政府决策咨询委,山西 太原 030032)收稿日期2023-01-24基金项目教育部青年基金项目“诠释学视域下数学证明的构造机理研究”(22YJC720008);国家社科基金一般项目“知识论的逻辑基础研究”(2113ZX105)。作者简介刘伟伟(1982-),男,山西吕梁人,山西大学哲学社会学学院,教授,博士,研究方向:科学哲学;张艳梅(1988-),女,山西太原人,山西省社会科学院省政府决策咨询委,助理研究员,博士,研究方向:数字经济。Vol.40 No.2Apr.202329刘伟伟,张艳梅人工智能意向性
6、构造的伦理维度从一般的技术哲学角度上来看,“技术的中立论关注的是技术的自然属性”,1 53人工智能作为一种人类的技术工具,其伦理规范的决定权在于人类本身,也就是说技术本身是中立的、无伦理偏向性的,其操作或者使用是由人类所完成的,那么对其使用结果的伦理评价或者考量也只能从人类本身进行判断。问题在于,人工智能的“意向性”究竟应该被理解为是一种工具性的人造物,还是一种如同人类一样具有主体性地位的“意向性”实体的特征呢?如果按照前面一种理解来论的话,人工智能的意向性构造就应当在技术上被加以严格规范和限制,对于那些有可能危害人类利益或者带来潜在风险的“意向性”操作环节予以封闭或者取消;如果按照后者来论的
7、话,人工智能的意向性构造在其实体上具备“主体性”地位的前提就是符合人类社会的基本伦理规则或者规范。然而,基于这种设想,人工智能在其意向性构造机理上满足人类社会伦理规则或者规范的动机又是什么呢?人工智能会将自身与人类在意向性的范畴判断当中作为同类来加以看待吗?在这一点上,人类尚且很难做到对于人工智能哪怕是在其高层次“意向性”维度上的主体性地位的承认,那么我们又如何能够保证人工智能本身在其意向性的内容中将人类视作为同一范畴呢?如果这一点不能够得到保证的话,那么我们对于人工智能的意向性实践是否能够符合人类社会的伦理规则与规范也就完全不得而知。归根结底,我们对于人工智能意向性高维度构造的伦理定位与伦理
8、目标尚不清晰,这一点是导致人们对于人工智能意向性构造的伦理内容与伦理规范产生争议的原因所在。人工智能的意向性构造不应该是一种以科学主义为圭臬的狭隘追求,因为这种狭隘追求从根本上与人类的意向性现实活动是完全不同的。对于人类的意向性而言,其在指称某个特定事物的时候一定会蕴含一定的伦理和价值背景,从而构成人类意向性的基本立场。如果我们只是把人工智能的意向性仍然像过去那样看作是一种附属性的、工具性的和非完整的意向性活动表象“拟合”的话,那么这种人工智能意向性构造的伦理维度塑造可能还不是过于紧迫。但是,当人工智能意向性构造的相关研究发展到一定高度的时候,那么这种伦理维度就成为人工智能意向性构造的必然选择
9、,“在新一代人工智能发展过程中伦理维度正在以整体渗透的方式越来越清楚地出现在科学和哲学的结合处”。2 645“意向性”在人类那里本身就意味着一种独立判断的思维意识,而人工智能要想获得这种独立性的承认和保障,或者在人类社会结构之中扮演一种更加积极的参与角色,那么这种伦理维度就是非常必需的人工智能在人类社会关系或者社会结构中参与作用的首要前提就是其能够符合人类交往的一般性伦理规则。具体来说,人工智能意向性构造的伦理维度塑造是建立在人工智能研究较高水平的技术发展基础之上的。最初的时候,计算机系统、电子控制系统以及相关的传感器系统发展还很不完善,一些关键性的人工智能基础技术在 20世纪中后期的时候还远
10、远没有突破,这使得人工智能意向性构造的高维度“塑造”尚且不具备技术层面上的可能性。进入 20 世纪 80 和 90 年代以后,计算机系统的计算速度、空间存储、复杂计算和纠错机制等功能有了大幅度的提升,这为人工智能意向性的实现提供了技术层面上的培植“土壤”。在人工智能的神经网络学习和深度学习技术提出之后,人工智能实现复杂目标任务的能力第一次对于人类有了现实的和可实现的“想象”空间,而以往的人工智能“想象”则更多的只是一种对于技术建构的美好理想,其支撑条件和可保障技术并不完善。在人工智能的算法构造层面上,过去的计算机系统所采取的算法是一种“硬性”的、线性的算法模式,这使得其在解决非线性问题、复杂问
11、题和混沌问题时候的能力受到了极大的限制。在计算机系统的算法改进的过程中,一些与过去硬计算追求严格性、确定性和精确性完全不同的“软计算”方法开始出现,这些算法先后包括模糊逻辑、神经网络、遗传算法和混沌算法等,其主要特征就是以非确定性、容错性、低成本性和鲁棒性的方法来建立算法系统模型,从思想根源上来说这种软计算方法主要模拟的是人类的生理感知机制、脑结构作用机制和意识分层处理机制,以及自然生物演化过程中的进化遗传、免疫机制等等。由于脱离了高强度的符号运算和推理,并且不需要在问题解决过程中预先建立一种假设的数学模型,所有的计算分析都是建立在直接的数据基础之上,这样就使得软计算方法能够处理那些模糊性的问
12、题、非确定性的问题。显然,软计算方法的这种改进和创新为人工智能的意向性构造包括其伦理维度“塑造”在计算分析的技术层面上提30供了一条有希望的进路。尽管这种软计算方法在解决涉及社会的伦理和道德等主观判断问题方面仍然任重而道远,相关的算法技术实践仍然需要不断完善,但是这为人工智能意向性的伦理维度构造奠定了扎实的基础。人工智能的意向性构造具有其内在的技术本体论定位,这种本体论定位决定了人工智能必须符合人类社会追求规范、规则的伦理道德要求。作为一种技术创造物,人工智能的意向性构造尽管在其表象上似乎与那种完全受人类控制的机器装备有着明显不同,这种“意向性”构造为人工智能赋予了更多的独立性、自主性和智能性
13、,但是无论是人工智能意向性构造的材料保障、动力来源或者交往对象都是具有社会性要素的,而这种社会性要素就决定了伦理和价值原则必然是人工智能的意向性构造必须“嵌入”的基本要求。人类社会是不可能允许或者承认一种违背人类社会基本伦理和价值原则的意向性行为的,在这一点上人工智能和那些普通的技术工具并无二致。事实上,人工智能的意向性构造所必须遵循的伦理和价值原则也恰恰是人类社会的通行法则,只是这种通行法则在作为主体的人类那里是一种以教育和熏陶的方式来塑造每一个个体的意向性行为模式与趋向的,而人工智能的意向性机制则需要经过人为的技术设计与规划,从而将人类社会的伦理价值规则“注入”人工智能的运作机制当中。从根
14、本上来看,人工智能意向性构造的伦理维度意义就在于其产生、发展与创新的旨归是维护人类的整体利益和共同福祉,而非满足某些特定群体或者少数人群的营私工具,“使人工智能的设计合乎道德,避免恶意设计,并确保人工智能的善用”,3 72人工智能既然是基于人类“总体”智慧的结晶,那么人工智能就应当按照人类社会共同的、普遍的伦理准则行事,而人工智能意向性的构造如果脱离开这种社会伦理规则的内在“嵌入”的话,那么其创立和发展的可能性也将失去逻辑前提。二、人工智能意向性构造的伦理定位对于人工智能意向性构造的伦理定位反思,在20 世纪七八十年代就已经有一些关注于人工智能的哲学家们对此进行过研究。例如,早在 20 世纪7
15、0 年代的时候,德雷福斯(H.L.Dreyfus)就从人与智能机器的“具身”认知差异出发,认为智能机器没有生物学意义上的“身体”,因而智能机器只能成为一种伦理客体,而不可能拥有一种伦理主体地位,“具身(身体心智)这个词本身包含了对物与人之间的缘构发生关系的指涉,这使得德雷福斯很自然地援引梅洛-庞蒂有关身体-知觉现象学的思想作为其技术研究的依据”。4 78当然,从人工智能技术发展的角度来看,关于人工智能意向性构造的伦理定位考量必须建立在一个较高的人工智能技术水平基础上,离开了这一基础人工智能在其意向性“智能”层面上就会与人类的智能哪怕是在表象上都差距甚远,因而关于其伦理定位的考量也就无从谈起。值
16、得肯定的是,经过了几十年的人工智能技术酝酿,同时在世界范围内人类技术与科学的整体进步有了“质”的飞跃,这些都为人工智能意向性构造的伦理定位反思提供了前提条件。从人工智能研究前沿动态来看,人工智能已经在独立性、互动性和适应性等方面取得了较大的进步,在与人类的语言交流、行为反馈以及与环境的自动信息检索、主动行为输出等方面都已经远远超越了过去。在此基础上,人工智能意向性构造的伦理定位问题开始得到了人们越来越多的关注。例如,2023 年初以来,美国 OpenAI 公司发布的 GPT 语言模型以其卓越的语言对话能力和快速迭代的能力引起了全世界科学家乃至于社会公众对其“智能”有可能产生意向性“涌现”问题的担忧人们所热烈讨论的地方在于,如此具有令人不可思议“智能”形态的语言模型一旦被应用于各种生产和生活场景之中是否会产生人类不可预测、不可控制的技术风险呢?相对于过去人们对于人工智能意向性伦理定位的“形而上学”忧虑,GPT 语言模型的技术创新已经现实地给人类社会有可能会出现的“主体让位”带来了直接隐患。这也从另外一个侧面说明,人工智能意向性构造的伦理定位问题是在人工智能技术支撑的基础上发展到更高阶段的