1、 年月第 卷(总 期)上 海 交 通 大 学 学 报(哲 学 社 会 科 学 版)(),论意识条件和主体条件的区分 对人工智能体道德身份论题的一个澄清周靖(上海社会科学院哲学研究所,上海 )摘要:人工智能的心灵哲学研究进路通常将塞尔提出的“意识条件”视为构成强人工智能体的充分条件,即只有在某一人工智能体拥有意识的前提下,才能认为它是强人工智能体。然而,拥有自我意识不意味着可以直接成为一个主体。成为一个同时享有权利和义务的主体的“主体条件”为强人工智能体设定了更高要求。两类条件的关系上,意识条件是主体条件的必要不充分条件,在从前者向后者的发展中,强人工智能体需经历如下三个发展阶段:作为直接性的自
2、我意识、作为奴隶的个体,以及作为一个主体。在不同阶段上对人工智能论题的讨论是实质不同的。混淆或忽视意识条件和主体条件的区分导致了当前人工智能伦理研究中存在的诸多问题。关键词:人工智能;意识;主体;责任;伦理 :人工智能的心灵哲学研究进路中,我们一般根据塞尔()的经典定义来区分强人工智能体和弱人工智能体,认为前者具有人类般的意识或心灵,后者仅能体现对人类心灵的模仿。在此意义上,拥有意识构成了强人工智能体的充分条件,我们可以将此条件称为“意识条件”。进一步地说,只有满足了意识条件的人工智能体才可能具有道德身份。然而,本文拟论述的是,强人工智能体拥有意识,这不意味着它同时能够直接成为类似于我们一样的
3、“主体”,成为“我们”中的一个“我”。我们可以将强人工智能体成为一个主体的条件称为“主体条件”。只有满足了主体条件的人工智能体才能具有道德身份。忽视或混淆意识条件和主体条件的区分导致了当前人工智能哲学研究中存在的诸多问题,这主要体现在将人工智能体视为一个主体,从而对人工智能体的权利以及相关的伦理等问题做出了不审慎的讨论。本文第一节将对意识条件和主体条件做出区分,指出意识条件是主体条件的必要不充分条件。第二节将讨论两类条件之间的具体关联,辨明从意识条件到主体条件的发展过程将会经历的具体阶段。最后,第三节将基于第一节中对这两类条件的区分以作者简介:周靖,上海社会科学院哲学研究所研究员。基金项目:国
4、家社科基金青年项目“剑桥实用主义研究”()。,“,”,(),及第二节中辨明的关键阶段,以人工智能伦理学为例,尝试预测其发展可能具有的三个阶段。需要事先强调的是,本文的讨论设定了意识条件是可以得到满足的,从而笔者是在强人工智能体至少是可能的前提下讨论意识条件和主体条件之间的关系,因此强人工智能体的可能性问题本身并不是本文会直接处理的论题。一、意识条件和主体条件的区分设想有一位成熟的人类理性主体,他成功考取了驾照(因而他有能力)并遵守交通规则(因而他合乎规范)地驾驶汽车行驶在道路上,“据称”是强人工智能体,当驾驶时,仅需坐在驾驶室里,“告知”他要去的目的地,便可以不做任何其他操作而等待自主导航和行
5、驶,把他带往他想去的地方。在这种初步的设想中,的一切行为都是不成问题的。然而,在接下来的旅途中却不幸发生了车祸,撞到一个路人,这位路人同样遵守着交通规则(合乎规范),那么,此时“谁”应该负责?对责任归派()的讨论将会帮助我们区分构成强人工智能体充分条件的意识条件和主体条件。我们这里不必陷入具体的法实践活动中可能涉及的复杂情形,而将和路人完全免责。我们仅讨论如下四种简单且关键的情形(在这些情形中,生产的另一位主体 他可以是能够承担责任的法人 必然会被引入我们的讨论,与签订了将售卖给的合同,并承诺有着将安全带往他想去的地方的基本功能和智能):情形:的程序运行异常从而导致事故发生,承担责任,此时,不
6、是强人工智能体。情形:的程序运行正常,且在行驶过程中做出了正确的行为(在程序成功运行的意义上),仍然是承担责任,此时,无从得知是否是一个强人工智能体,乃至否定是一个强人工智能体。情形:的程序运行正常,且在行驶过程中做出了正确的行动(在程序成功运行的意义上),仍然是承担责任,此时,认为是一个强人工智能体。情形:的程序运行正常,且在行驶过程中做出了正确的行动(在程序成功运行的意义上),且承担责任,此时,认为是一个强人工智能体。第一种情形较为简单,在将程序运行异常的视为一种非理性存在的意义上,我们没有充分的理由认为是强人工智能体。第二种和第三种情形要更为复杂一些,它们分别体现了关于“审慎的”和“不审
7、慎的”的理论态度,其中,在情形中,尽管人们观测到程序运行正常(如若将视为强人工智能体,那么这相当于“颅内”的“神经元模式”运行正常),并且根据其程序做出了正确的行为(如若将视为强人工智能体,那么是在合乎理性地行动),但是,我们未将“意识”或“心灵”归派给。坚持情形的人们或许是物理主义还原论的反对者,他们至少是因为对“颅内物理状态的成功模拟构成了意识或心灵的充分条上海交通大学学报(哲学社会科学版)年第期件”这一立场持审慎态度,从而未就做出进一步的判断;他们也可能是塞尔“中文屋”论证的拥趸,从而更为坦然地进一步否认是一个强人工智能体。相比之下,情形的支持者则认为根据其程序成功地完成了它意在去做的事
8、情(),在此意义上,具有意向性(),从而具有心灵。第二种和第三种情形之间的差别涉及对意识或心灵的理解,以及根据这种(无论什么)理解能否进一步将视为一种强人工智能体的争论。本文不介入相关的具体讨论,而仅打算借助对这两种情形的简单澄清,指出构成强人工智能体的意识条件,即只有在认为拥有意识的条件下,我们才能认为是一个强人工智能体。第三种和第四种情形之间的差别则涉及意识条件和主体条件之间的不同。情形中包含了一个自然却实际上十分反常的现象:既然我们将视为一个强人工智能体,就此而言,根据意识条件,它与我们有着类似的意识或心灵,那么为何承担责任的依旧是主体而非?支持情形的人们或许会辩解道:()拥有的意识更接
9、近于动物而非人类,因而我们不应该“责怪”;或者说,()拥有的意识更接近于人类幼儿,因而我们不应该“责怪”;()无论如何,作为的制造者,承担着作为“监护人”的责任。上述辩护主要沿着意识条件的方向进行:如果具有如一般成熟的意识,那么将负责;如果仅具有动物般或幼儿般不成熟的意识,那么将负责。乍看之下,这一辩护似乎非常合理,我们甚至可以进而讨论强人工智能的情感、权利等问题,这类似于我们对动物情感和权利的讨论。然而,笔者认为,情形的支持者未能加以关注的一个进一步的重要问题是,无需承担责任的具有的尚未成熟的意识能否发展为成熟的意识,从而使得情形推进到情形。情形不同于情形的关键之处在于,可以承担责任,它与我
10、们现实中的司机一样,当遭遇事故时,它需要承担起诸如赔偿、自由受到限制的责任。在此意义上,它将是与我们一样的一个主体,它可能是我们的邻居或友人,与我们一样有着财产和社会身份,它是我们“共同体内的一员”。我们可以将情形重述为如下形式,以便更为清晰地体现出与情形的不同:情形:的程序运行正常,且 在行驶过程中做出了正确的判断(在程序成功运行的意义上),且承担责任,此时,认为是一个强人工智能体,同时认为是一个主体。情形阐明了构成强人工智能体的主体条件,此时是一个主体,而非的财产。人工智能体能否满足主体条件这一问题十分重要,对此问题的回答决定了我们对马蒂亚斯()所谓的“责任鸿沟”问题,即如何在人工智能体和
11、使用它的人类主体周靖论意识条件和主体条件的区分 ,“,”,(),“:,”,(),之间归派责任,以及人工智能体能否突破“图灵奇点”从而成为另一类“道德主体”这一问题,提供怎样的答案。然而,对于那些支持情形,并同时尝试谈论强人工智能体的情感和权利问题的人而言,他们却有很大可能会拒斥主体条件。毕竟,满足主体条件的强人工智能体离我们如今的生活太过遥远,或许我们更应该将关于这类强人工智能体的讨论留给充满想象的科幻小说、电影,或未来学。然而,严格地说,如若接受情形却拒斥情形,那么我们必须能够解释:既然承诺能够具有不成熟的意识,但为何这类意识不能发展为成熟的意识?换句话说,必须能够解释意识条件和主体条件之间
12、的关系,或者解释主体条件为何是不必要的或不可能的。这是一个常为人忽略却甚为重要的问题。总结而言,我们既可以从意识条件,也可以从主体条件来理解强人工智能体,在成为一个主体必须首先成为拥有意识的个体的意义上,满足意识条件构成了满足主体条件的必要不充分条件。当然,如若主体条件是能够得到满足的,那么至少从人工智能研究的心灵哲学进路来看,我们将为研究人工智能的情感、权利、伦理等问题奠定更为直接且坚实的理论基础。二、从意识条件到主体条件我们现在面临的问题是,具有自我意识和成为主体有着怎样的具体关系?我们为何不能将具有单纯意识的理性生物或类似的强人工智能体直接视为一个主体?换言之,满足主体条件意味着什么?由
13、于本文将意识条件默认为可以得到满足的条件,因此在本节的讨论中,我们可以在一定程度上将满足意识条件的强人工智能体类比为理性生物,在此意义上,我们的问题可以转化为理解我们如何从“自然的生物”发展为“理性的主体”这一过程。在接下来的具体讨论中,笔者将会主要援用布兰顿()的相关思想来做出论述。如果我们将仅作为工具的弱人工智能体视为讨论的起点,将满足主体条件的强人工智能体视为讨论的终点的话,那么根据布兰顿关于从自我意识到主体的黑格尔式叙事,从起点到终点的过程可划分为如下三个阶段:()仅作为工具的弱人工智能体;()在“物 我”层次的认知()关系中直接建制起的自我意识;()在“物 我”层次的认知关系和“我
14、我们”层次的承认()关系中同时建制起来的个体意识。情形()中的弱人工智能体未满足意识条件,因此在我们的讨论范围之外。情形()则包含了意识条件本身得以可能的条件,该情形也体现了目前人工智能发上海交通大学学报(哲学社会科学版)年第期参见王天恩:人工智能应用“责任鸿沟”的造世伦理跨越 以自动驾驶汽车为典型案例,哲学分析 年第 卷第期,第 页。参见孙伟平、李扬:论人工智能发展的伦理原则,哲学分析 年第 卷第期,第 页。,:,:,展的现状。人工智能专家正是以修改和完善“算法”的方式帮助机器愈发可靠地对其周边环境中的对象做出有模式的反应,从而在对象和机器之间建立起“物 我”认知关系。然而,这种对对象的可靠
15、识别并不一定能够带来意识或心灵。与此相关,布兰顿区分了两类可靠的反应模式:()铁在潮湿的环境中生锈;()饥饿的动物对食物有着欲求(),它将事物()视为可以满足其欲求的某物(),即食物,从而在某物从树上落下时会直接吃下它。在情形()中,铁对潮湿的环境有着可靠的反应模式,无疑铁不具有意识。塞尔恰是将人工智能体视为这样的一种铁块,认为算法或程序仅体现为在句法层面上对()这类情形的表述。相比之下,情形()则包含了一种基本的“立义”行为 动物关于事物的“欲望性觉识”()体现了一种由如下三种要素构成的三位结构:态度(欲求),例如饥饿;回应性的活动,例如进食;以及意义项(),例如食物。态度激起了动物对事物的
16、可靠且有差异的反应,并在回应性的活动中将该物视为某物,此时,动物根据其实践活动中的态度界定了将事物视为某物的主观意义;进一步地说,动物根据该实践态度对某物做出了衡量,例如衡量某物是否能够满足其消除饥饿的欲望,如若不能,它则犯了一个“错误”,在犯错的情况下,它将改变它的反应倾向,在这种学习性的经验活动中,动物也归派给作为对象的某物以一种客观意义,即它是否“是”食物。在动物对事物的欲望性觉识中,动物在规定什么对“我”而言是有用的对象,就此而言,它是事物的意义的最初制定者,它也同时构建起了它所栖居的有着意义负载的世界。布兰顿认为()情形中的动物能够在“物 我”层次的认知关系上建构起一种直接的自我意识()。塞尔下述反强人工智能论证的基本思路恰在于,认为人工智能体仅能是()情形中的铁块,而非()情形中的生物,因此无法具有最为基本层次的心理内容(语义内容、意向内容):()人工智能程序是形式的(句法的);()人类心灵具有心理内容(语义内容);()句法不是由语义学所构成,也不是构成语义学的充分条件;()人工智能程序不是由心灵所构成,也不是构成心灵的充分条件(强人工智能不可能)。周靖论意识条件和主体条件