1、第2 5卷 第1期2 0 2 3年2月 山东科技大学学报(社会科学版)J o u r n a l o fS h a n d o n gU n i v e r s i t yo fS c i e n c ea n dT e c h n o l o g y(S o c i a lS c i e n c e s)V o l.2 5 N o.1F e b.2 0 2 2走向“有意义的人类控制”自动驾驶汽车的主体悬置与责任锚定刘成科1,2,葛 燕1(1.安徽农业大学 马克思主义学院,安徽 合肥2 3 0 0 3 6;2.安徽农业大学 外国语学院,安徽 合肥2 3 0 0 3 6)摘 要:自动驾驶作为一个
2、动态发展的技术连续体,在具体应用场景中呈现出从人类主导过渡到人机协同再到机器主导等不同人机关系样态,其自主性与人类控制权之争引发了各种伦理、法律和社会等问题。人机互动关系演变背后折射的是人类控制形式的不断进化,从本质上看,自动驾驶汽车的责任鸿沟问题与不同技术嵌入层级下的人类控制密切相关。源于应对人工智能伦理困境的“有意义的人类控制”,可作为解决自动驾驶汽车责任鸿沟问题的一种全新技术治理理念。借助“追踪-回溯”双向路径设计,实现对多元责任主体的锚定。在“有意义的人类控制”框架下,将自动驾驶置于技术层级与人类控制的关系界面之上,坚持以科学的数据系统为支撑,以责任锚定为导向,以人类控制为中心,通过伦
3、理与法律的整合进路,并结合完善的保险制度,破解自动驾驶主体悬置的困境。未来,应加强自动驾驶的跨学科交叉研究,尤其需要借助科技与人文的常态化对话机制,强化各利益相关方的伦理自觉和法律认知,摈弃简单的技术设计视角,实现“有意义的人类控制”转向,从而进一步推动自动驾驶技术的发展。关键词:自动驾驶;主体悬置;责任锚定;技术嵌入;有意义的人类控制中图分类号:N 0 3 1 文献标识码:A 文章编号:1 0 0 8-7 6 9 9(2 0 2 3)0 1-0 0 2 7-0 8收稿日期:2 0 2 2-0 8-0 3基金项目:安徽省哲学社会科学规划一般项目“人工智能时代翻译技术的伦理治理研究”(AH S
4、K Y 2 0 2 0 D 1 3 4)作者简介:刘成科(1 9 7 9),男,安徽合肥人,安徽农业大学马克思主义学院/外国语学院特任教授,哲学博士;葛燕(1 9 9 9),女,安徽肥西人,安徽农业大学马克思主义学院硕士研究生.2 0 1 6年5月,美国佛罗里达州发生了一场因特斯拉电动汽车在自动驾驶模式下导致撞车的事故。2 0 1 8年3月,亚利桑那州更是发生了无人驾驶测试车辆致人死亡的事故。2 0 2 3年2月,美国国家公路交通安全管理局表示,由于“全自动驾驶”测试软件可能会增加撞车风险,特斯拉将在美国召回3 6.2万辆汽车,再次引发了各界对自动驾驶汽车安全问题的关注。近年来,在人工智能治理
5、理念上,学界对价值敏感性设计、负责任创新等问题的探讨仍然占据主流地位。作为一种颠覆性的技术,人工智能的快速发展正在深刻影响着众多领域。其中,自动驾驶是传统驾驶革命性的飞跃,更是公众关注的焦点,备受期待。与传统汽车相比,自动驾驶汽车能够有效减少事故发生率,使得人类在驾驶汽车的过程中更安全、更轻松。1虽然自动驾驶的优势非常显见,但是经典的“电车难题”一直是无法回避的道德决策困境。如今,我们已不只是局限在思想实验中考量自动驾驶的伦理问题,现实生活中相关案例也不断出现。不仅是技术安全隐患的议题,更有事故责任的归属问题。当前,各大车企和互联网公司开始加大对自动驾驶汽车的研发力度,而自动驾驶汽车的伦理解决
6、方案迫切需要贯穿于技术研究的全过程。对此,学界从主体缺位和过错标准认定困难、从中短期和长期两个技术阶段的责任划分,以及结合自动驾驶的程序原理和级别设定考量刑事归责等不同角度出发,对自动驾驶汽车可能会出现的问题进行了讨论。2-4不言而喻,自动化程度对于准确把握自动驾驶汽车事故的责任分析至关重要,其本质关切是自动驾驶中的人类控制问题。可遗憾的是,学者在人类控制的框架下探讨自动化程度与事故责任归因的研究相对较少,也未能基于智能机器与人类控制的关系界面思考责任主体的锚定问题。DOI:10.16452/ki.sdkjsk.2023.01.006山东科技大学学报(社会科学版)2 0 2 3年第1期因此,本
7、文拟在分析自动驾驶事故责任主体的基础上,结合自动驾驶汽车的自动化等级,从“有意义的人类控制(M e a n i n g f u lH u m a nC o n t r o l,MHC)”的视角,5审视人机交互复杂情境下可能事故的责任锚定,尝试为自动驾驶汽车的责任处理提出相应的建议。一、主体悬置的理论困境与实践探索从功利视角来看,智能机器要具备主体地位,必须满足目的正当性和手段适切性等条件,符合工具理性的要求。目前,仅仅出于应对事故归责的目的,并不能简单地将作为智能机器的自动驾驶汽车赋予主体地位,使其独立承担相应的责任。通常,传统汽车发生交通事故时,主体界定一般较为清晰,我国法律对此也有相应的条
8、款可以适用,责任划分并非难事。然而,自动驾驶汽车出现事故后,现有道德和法律框架显然已不能解释和判定责任的归属。那么,究竟谁可以成为自动驾驶汽车的责任主体呢?自动驾驶车辆的驾驶员,还是自动驾驶汽车本身,抑或相关的生产厂商?答案众说纷纭,莫衷一是,出现了谁都似乎有责任而谁都不愿承担责任的“主体悬置”现象,进而产生了一直困扰我们的“责任鸿沟”问题。需要说明的是,此处的“责任主体”是一个更上位的概念,既可以指代“道德主体”,对应的是伦理责任;又可表示“法律主体”,对应于法律责任。根据自动驾驶汽车事故发生的具体情境,再去确定应诉诸道德主体抑或法律主体的阐释框架。自动驾驶汽车能否作为独立责任主体的问题,学
9、术界争论已久。实质上,这关涉的是机器智能体作为道德主体的要件问题,而具有意识、能够进行思考和判断是成为道德主体的必要条件。可见,道德或伦理主体必须能独立控制自己的意志,并能清楚知晓自身行为,也可以充分预见其可能产生的责任或后果。但是,道德主体也经历着不断的变迁,已经从具有自由意志的人类拓展到一切生命体,进而再由生命体延伸至技术人工物,最后拓展到智能人工物。6据此,自动驾驶汽车作为一种智能人工物,理论上也可以被视为某种“道德主体”。但是,是否真正需要在实践中赋予自动驾驶汽车独立的道德地位呢?首先,目前人工智能尚未达到预想的强人工智能甚至超人工智能状态,还不足以独立承担责任。有学者基于费希尔道德责
10、任理论,主要从引导性和管制性控制两个方面进行了分析,认为最终还是应该由人来承担相应的责任,而不是机器智能体;7其次,从道德主体的角度来看,即使机器智能体具备道德主体的地位,且具备一定的“自主性”,但需要谨慎的是,“机器自主性不等于道德自主性”,8不能把二者简单等同起来。从某种程度上说,自动驾驶汽车虽具有一定的机器自主性,但终究因为无法承担责任而不能成为道德谴责或法律追偿的对象。当下伦理进行行为举止规范的对象只是自然人,对于人工智能体基本没有约束力。最后,即便人工智能具有道德地位,机器权利和义务的履行方式也无法开展具体有效的监督,进而又会带来一系列新的伦理问题。显然,将自动驾驶汽车视为道德主体并
11、不能解决主体悬置的困境。此外,从法律承担角度来说,赋予智能机器法律人格以此期望达到限定责任的作用,并不符合正义的要求,因为智能机器人无法响应法律所要求的行止,无法理解和接受法律的调整并且财产对其也是没有意义的。不能将智能机器与法人相类比,因为自然人与法人之间存在着特殊的联结意义,这种关系是无法被忽视的,也是智能机器所无法代替的。因此,从理论上看,赋予智能机器以法律人格是无法成立的。9倘若只是简单地希望智能机器为所发生的意外事故承担责任,便赋予其法律人格,这是没有必要82目前,国内学界对“有意义的人类控制”理念的探讨尚处于起步阶段,散见于哲学和法学等不同学科领域。已有研究将其直译为“有意义的人类
12、控制”,实际上,该理念意在实现人类对自动驾驶汽车等智能机器的有效控制,进而保证后续相关责任的明晰。所以,笔者认为,该术语的翻译还有待进一步商榷,也可尝试译为“有效人类控制”。为了保持与以往研究术语上的一致性,本文仍然采用“有意义的人类控制”的译法。参见刘永安:在有意义的人类控制下发展负责任的人工智能,自然辩证法通讯2 0 2 2年第9期。“责任鸿沟(r e s p o n s i b i l i t yg a p)”也可译为“责任缺口”。刘成科,葛 燕 走向“有意义的人类控制”的,而且在法律上也缺乏法理基础。有学者指出,如果未来时机成熟,可以尝试赋予智能机器人法律地位,从而让其承担相应的法律责
13、任。1 0的确,近年来尝试赋予人工智能独立人格的实践也从未中断。从现实案例中可以看出,未来自动驾驶汽车被赋予独立的人格似乎也符合历史发展的规律。1 1不过,一些国家和地区虽然已经赋予人工智能机器所谓的“独立人格”,但是这些实践当前都只是处于尝试摸索阶段,并没有大规模地推行,也没有这些被赋予人格地位的机器人应用和发展的具体图景。即便如此,在未来很长一段时间内,仍然将由人作为道德主体或法律主体,而不是人工智能本身。换言之,主体(如自动驾驶汽车)将以某种形式隐身于具有自由意志、理性能力的自然人之中。不过,既然最终都将由人类作为伦理或法律主体,在复杂的现实交通事故中,又该由哪些人为自动驾驶汽车负责?如
14、何应对自动驾驶汽车责任鸿沟带来的挑战?下面基于技术嵌入程度的差异性,即自动驾驶汽车的分级体系,具体讨论自动驾驶汽车事故中的责任锚定问题。二、从技术嵌入到“有意义的人类控制”(一)技术嵌入是一个复杂动态系统目前自动驾驶汽车是一个较为广义的概念,容易给大众带来一定程度的认知偏差。其实,根据人工智能技术的嵌入程度,自动驾驶汽车在实践中的智能化水平差异巨大,有的仅仅属于辅助驾驶的范畴,而有的却已接近真正意义上的无人驾驶。2 0 2 1年4月,国际自动机工程师学会(S A EI n t e r n a t i o n a l)和国际标准组织(I S O)联手发布了更新版S A E汽车驾驶自动化分级(S
15、A EL e v e l so fD r i v i n gA u t o m a t i o n)。当前,S A E标准J 3 0 1 6依旧是全球汽车行业公认的自动驾驶系统等级的划分标准,对自动驾驶水平的分类和定义作出详细的解释。1 2按照J 3 0 1 6的标准,明确了S A E六个不同层级的支撑条件及定义,从零级(L 0)无自动驾驶到五级(L 5)完全自动驾驶,自动化程度逐步提升,按照道路机动车辆及其运行条件,划分至相应的层级。1 3我国市场监管总局(标准委)发布的 汽车驾驶自动化分级 国家标准也于2 0 2 2年3月1日正式实施。无论是S A EJ 3 0 1 6,还是我国的 汽车驾
16、驶自动化分级,都有一个共同的特点,即依据智能技术嵌入程度进行分级和分类,把自动驾驶视为一个不断发展的动态连续体,且预见了各种层级的自动驾驶汽车在未来很长一段时间内基于不同应用场景或用途,将处于并存共生的状态。有鉴于此,单纯讨论自动驾驶汽车的主体或者责任主体是没有意义的,必须结合其智能技术嵌入的程度,在具体分级层次下统筹考虑人机关系,方能更为全面呈现潜在的主体,进而完成相关责任的锚定。那么,自动驾驶水平的级别与责任相匹配,人们选择怎样的级别,就必须对事故承担相对应的责任,这是一种借助事故车辆的技术嵌入程度或自动化程度而锚定责任主体的方式。根据S A EJ 3 0 1 6,L 0L 5六个等级对应的自动化程度呈递增趋势。当级别处在L 0L 2阶段,自动驾驶系统主要充当辅助驾驶的角色,人在整个驾驶行为中仍然处于主导地位,因而此类情形下自动驾驶汽车交通事故的责任分配与传统汽车不应有太大区别。其实,从更严格意义上说,当驾驶员借助辅助驾驶技术不幸发生事故时,我们仍然可以在传统交通事故的判定标准下进行责任的认定。在L 3L 5阶段,技术嵌入程度已超出了辅助驾驶的范畴,所以驾驶责任分配应当区别于传统汽