1、2022 年第 12 期一、问题的提出人工智能的核心是大数据和算法,是基于大数据并遵循算法进行分析,发现并强化数据背后的结构或模式,从而实现数据驱动的智能决策。从阿法零到自动驾驶,从犯罪风险预防到辅助量刑,从个性化新闻推送到智能社会治理,算法所引领的人工智能技术在多领域呈指数型扩展。遗憾的是:算法在提升效率的同时引发了人们对“算法歧视”与“算法黑箱”等问题的担忧与质疑。以电商平台个性化推荐算法为例,通过对用户兴趣倾向进行建模,向用户主动推送其感兴趣的商品与资讯,进而提供个性化服务。其本是为了解决在数字时代用户面对海量商品和资讯时产生的信息过载。然而,“千人千面”的推送模式如同一枚硬币的两面,一
2、面向个人进行精准化内容投放避免信息过载,另一面则裹挟所谓的“个性化”信息编织了一个无形的牢笼,将用户困于“信息茧房”之中(徐汉明和孙逸啸,2020)。同样,淘宝、拼多多、天猫、京东等软件的大数据杀熟,皆证明了人工智能背后的算法并非绝对的中立,其价值取向、背后的立场,皆是由其设计者所决定的。算法发展至今已然不再是单纯进行逻辑运算的工具,其作为决策机制或辅助决策机制,早已嵌入了价值判断“效率优先,利益至上”。因此,面对并非中立的算法,其隐含的价值立场使其具有法律上的可规制性。目前学者对算法的规制多数研究仍集中于对算法风险某种特定类型的问题对策式研讨,并未从源头对算法风险进行探究,亦缺少对现有算法风
3、险规制进路效果不佳的反思。有鉴于此,本文以电商平台通行的个性化推荐算法为例,在检视电商平台个性化推荐算法风险的基础上,对现有电商平台算法规制实践困境进行剖析,探索算法规制固有范式的转换,从理念转变、制度回应与模式调整三个方面层层推进,以完善算法风险规制体系。二、电商平台个性化推荐算法的风险与成因(一)算法自动化决策弱化消费者主体性的风险与成因个性化推荐算法的决策过程具有专业性、动态性、复杂性、全面性的特征,其能准确记录个体的积极行为与消极行为,并将其数据化,作为决策演算的基础,由此对某一具体个体的偏好做出准确的预测和评价,根据分析结果将其分类,在此过程中消费者的主体性被不断地削减。一方面,算法
4、赖以决策的数据在很大程度上已超过数据生产者即消费者的控制范围。例如,被广泛应用的基于隐式反馈的个性化推荐算法,其无须消费者进行自主选择,而是直接通过收集分析消费者在电商平台上包括点击、浏览、收藏等的一系列操作,并根据消费者的所有行为同步衍生相应的数据,作为算法决策的基础。另一方面,由于算法应用在各个领域中的融合与扩张,消费者往往无法清晰准确地知晓对自身有影响的相关决策是否为算法决策,且难以有效参与。申言之,即使消费者知晓相关决策为算法决策,但碍于作为个体的消费者与作为架构工具的算法决策之间的逻辑障碍、知识差异等因素,消费者对算法决策提出异议并予以质疑甚至拒绝的空间十分有限(张欣,2019)。由
5、此可见,由于个性化推荐算法决策的广泛应用与其多种特征的叠加,消费者作为个体的控制能力、影响范围和救济途径逐渐被侵蚀,相应的知情权、参与权、异议权、救济权的行使也在事实上被不当限制。(二)算法黑箱加剧信息鸿沟的风险与成因算法黑箱是指算法处理过程如同在一个黑箱蒋 慧徐浩宇本文系 2020 年广西哲学社会科学规划研究课题“广西自由贸易试验区建设法律问题研究”(20BFX004)。电 商 平 台 个 性 化 推 荐 算 法 规 制 的 困 境 与 出 路内容提要:电子商务领域个性化推荐算法的大规模应用提升了交易效率,但也使得算法权力与个人权利、公共空间之间的平衡被悄然打破,算法风险日益凸显。传统的算法
6、公开、反算法歧视、个人赋权为主导的算法规制方式虽对算法风险有所克减,但在规制效果上仍存在不同程度的不足。有鉴于此,算法规制应转变“效率优先”的理念,探索规范制定上的“软硬结合”与制度设计上的“内外联动”,由法律赋权向法律赋能模式转变,提升消费者的权利认知,从而进一步推进算法规制的完善。关键词:电商平台个性化推荐算法算法规制法律赋能DOI:10.19851/ki.CN11-1010/F.2022.12.28439内进行,内部处理过程完全不透明、不公开,只有输出和输入的数据是可知的,用户无法获知算法最终目标和意图,黑箱将现实世界与数字世界相阻隔。由于算法黑箱的存在,人们模糊知道自己被推荐的内容与自
7、己观看某个领域内容的次数、时长等使用数据有关,但具体的计算规则以及详细权重等参数是看不到的。除非穿透界面层,否则无法知晓黑箱内部的运作情况。由算法黑箱所输出的个性化推荐内容减少了筛选信息的决策成本,提升了获取有效信息的效率,但其也将进一步推进算法权力的扩张,从而引致信息鸿沟。“把关人”理论指出:信息世界里有一道闸门,所有信息在发布前都要经过“把关人”的过滤和筛选,才能向消费者传播。算法掌握在平台手里,因此造就了其强势的“把关人”地位。算法所有者利用其与普通消费者的不对等优势,在利用个性化推荐将内容进行定向推送时,通过调节算法编程进行“二次编辑”,即将已经筛选过的内容二次筛选,只向用户展示利于算
8、法所有者利益和价值导向的信息。以个性化推荐算法系统为核心的电商平台,个性化、商业化等特征更为鲜明,却降低了其自身的透明性、可预测性与公平性。以算法价格歧视为例,算法价格歧视的目的是经营者借助算法对支付意愿较高、价格承受能力较强的消费者提升价格的同时,吸引对价格敏感的低端消费者群体,实现整体利润的提升。这一过程中,由于消费者与平台商家之间存在信息鸿沟,因而消费者对同类竞品之间的真实情况难以全面了解;更为关键的是:平台商家往往会借助信息鸿沟的障碍,通过算法合谋剥削用户、甚至加速垄断的行为。三、现有电商平台算法规制实践之困境剖析算法由原先单纯的辅助工具逐渐转化为虚拟世界运行的法则。随着算法权力的扩张
9、,其与个人权利、公共空间之间的平衡正在被悄然打破,个性化推荐算法的规模应用引致消费者主体性克减与信息鸿沟的不断扩大,并由此出现“大数据杀熟”“信息茧房”等种种问题。针对这类问题,势必要对算法进行有效规制。目前主要有算法公开、反算法歧视、个人数据赋权这三种算法规制方式,但上述规制方式均存在不敷适用的困境。(一)算法公开的规制方式可行性不足针对算法黑箱导致的一系列问题,似乎可采取算法公开的方式以减少算法黑箱带来的未知性,但代码组合公开的知识产权保护悖论与可行性难题,是算法公开难以避开的现实问题。一方面,算法公开会导致知识产权保护的难题,如淘宝、拼多多、京东等公司,均将其持有的算法作为最高机密,并采
10、取严格的保密措施防止其泄露。在算法持有者看来,其所持有的算法是许多企业的核心竞争力,一旦持有的算法被公之于众,其自身的竞争优势便荡然无存。事实上,早在 2019 年,日本政府就曾试图立法要求电商平台巨头亚马逊公开其赖以生存的 A9 推荐算法的具体内容和生效机制,以促进电商平台交易的公平性。但迫于实施过程中的种种阻力,至今仍未实现。另一方面,对消费者公开算法实施难度较大且收效甚微。通常而言,公开某项技术秘密,只需对外公布其所保密的内容即可。而现实却是:算法黑箱的原理与国家机密或商业秘密的原理并不相同,算法黑箱的形成很大程度上是由编程设计的复杂性所导致的。在大数据时代,随着算法所要实现目标的复杂程
11、度提高,算法本身亦变得愈发冗长与繁杂,算法是经过大量数据集合训练后再经调整优化而产生的,而不仅只是工程师人为编写的固定代码,其具有自主创造性(丁晓东,2020)。基于此,公开算法的源代码和架构对透明化算法黑箱无异于杯水车薪,因为公开并不能提供对算法的有效说明,也难以进行详细的解释,于不具有专业知识的消费者而言,并无太多实质意义。(二)反算法歧视规制手段遇挫个性化推荐算法歧视主要分为算法人格歧视与算法价格歧视两大类,其中与消费者最密切相关的是算法价格歧视。下文将以算法价格歧视为例展开讨论。算法价格歧视是指电商平台经营者利用个性化推荐算法,收集消费者的用户信息,将其贴上相应的“标签”并予以分类,根
12、据其消费习惯、消费能力、身份特征等因素进行自动化决策,对其进行定向内容推送,同时实施差异化定价策略的行为。在我国现行法律框架下对“大数据杀熟”这一行为进行规制的规范实践早已有之,但效果均不尽如人意。一方面,中华人民共和国反垄断法第 9 条与第 22 条旨在排除经营者利用数据、算法等技术规则或工具实施滥用市场支配地位、垄断的行为,但由于规定过于粗略,无法为反垄断执法提供精确指引。而 中华人民共和国消费者权益保护法第 8 条的消费者知情权条款、中华人民共和国价格法第 7 条关于定价公平、诚实原则的规定与第 14 条对经营者不正当价格的限制,则因平台经济这一新业态的复杂性,在规制“算法价格歧视”时频
13、频受阻。另一方面,中华人民共和国电子商务法 第 18 条、价格违法行为行政处罚规定(修订征求意见稿)第 13 条,以及 互联网信息服务算法推荐管理规定 第 21 条等法律规范条文在微观层面对电子商务经营者、算法推荐服务提供者这些具体主体予以行为限制,要求其不得利用算法、数据等技术手段对消费者进行价格歧视,但同样收效甚微;相较于以往具有明显歧视性的差异化定价,电商平台如今采取更为隐蔽的方式进行“价格杀电商平台个性化推荐算法规制的困境与出路402022 年第 12 期熟”,如针对特定用户采取定向优惠券发放、价格组合等方式,既导致不同账号购买同一商品或服务的价格差异更为巨大且不易被察觉,又同时规避了
14、上述法律规范的要求,致使法律规范对其难以有效规制。故而,倘若单纯从外部对电商平台经营者进行个性化推荐算法歧视的规制,不仅存在监管规范不明晰、不具体致使难以有效适用的困境,还会引起电商经营者的算法歧视“隐蔽化”。因此,有必要探寻新的解决路径。(三)个人数据赋权规制效果不佳近年来,世界各国正在以个人数据赋权进路为核心加强对个人信息的保护,对算法进行规制。欧盟、德国相继分别出台了 通用数据保护条例(以下简称 GDPR)、联邦数据保护法 等一系列法律,规定用户享有知情选择权、请求删除权、被遗忘权、反对自动化处理权等一系列权利。个人数据赋权模式既明确了用户作为主体的权利,又为作为义务主体的数据收集、处理
15、者以及算法持有者设置了相应的责任;规定其在协助个人行使一系列数据权利的同时,亦应维护个人数据的安全,避免用户个人数据遭受侵犯。就我国而言,中华人民共和国民法典 第111 条“个人信息受法律保护”奠定了个人信息数据保护的法律基础,其第 1038 条更是以是否具有“可识别性”为标准,厘清受保护的个人信息与经“清洗”后不具有“可识别性”的信息之界限。中华人民共和国数据安全法 第 32 条也规定了主体应采取合法方式收集数据。中华人民共和国个人信息保护法 第23 条与第 24 条针对算法歧视、大数据杀熟、强制个性化推荐等问题做出了回应。就个人数据赋权而言,其确立了对个人信息利用的“同意+告知”模式,同时
16、赋予个人算法解释请求权、算法排除权,即享有对信息处理者的自动化决策的解释请求权,以及有权拒绝其仅通过自动化决策的方式作出决定。在可行性层面,个人数据赋权并不能对算法起到理想的规制作用。首先,在通行的“告知选择(notice-choice)”的框架下,个体对于隐私风险的认知存在局限性。一般企业展示的隐私政策复杂性较高、专业性较强,用户难以理解且往往无法进行仔细阅读,致使用户往往难以有效认知并行使自己的权利。其次,在实践中大部分电商平台基于其优势地位,对消费者进行“选择绑架”。即将用户隐私协议的同意与否作为软件使用的前置关卡,若用户拒绝其预先规定的“隐私协议”,则用户将直接退出软件或无法正常使用软件。最后,在数据处理实践中,用户的反对权形同虚设。尽管 GDPR 赋予了个体各种数据权利,但在实际操作中由于实现难度大等原因,个人权利往往难以得到实现。用户的个人数据何时被处理,个人数据被怎样处理,个人数据被谁处理,这一系列的未知使得法律赋予的“个人反对权”无法真正得以行使。此外,个人数据赋权还面临救济困难的窘境。在实践中,个人数据权利往往面对不止单一主体的威胁,因而存在侵权过程认定复杂、因果关系