文/郭德香 王莹
摘要:随着人工智能技术的飞速发展和数字经济时代的来临,人工智能算法自动化决策被广泛应用于社会生活的各个领域。必须要注意到,自动化决策作为算法技术的一种,本身具有的内生性风险为当前法律规制体系带来了新的挑战。为了管控自动化决策所衍生的应用风险,应当在坚持算法发展与技术规制平衡的原则下,遵循内外部同时监管的二元监管思路,并不断推动算法自动化决策的场景化治理。在法律规制层面,应完善自动化决策风险评估机制,实现分级分类管理,完善算法影响评估机制并确立算法侵权责任机制,以更好防范自动化决策风险,增强自动化决策的可信赖性。
关键词:自动化决策 算法规制 人工智能 算法责任
一、引言
《中华人民共和国个人信息保护法》第73条第2款首次以法律法规层面明确“自动化决策”一词,自动化决策是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。然而,涉及到个人信息和海量数据处理的自动化决策过程在特定情形下隐藏着潜在的危险。固然,在理想状态下自动化决策被设想为完全价值中立的,但算法本身的“黑箱”特征注定了算法决策的隐蔽性,自动化决策技术的深度应用不可避免的会对个人主体权益产生影响,可能会出现削弱人类主体性或决策结果有失公正的情况。在这种现实背景下,对自动化决策进行全面且有效的法律规制迫在眉睫。
二、算法自动化决策的应用现状与法律风险
决策行为原本是指人类在信息和数据的基础上,通过自身的认知和逻辑推理,得出一定结果的过程。算法技术的发展使得决策能够由机器辅助或者直接作出。在数字经济时代,伴随着人工智能的深度学习和不断优化,算法自动化决策开始广泛应用于社会生活的各个领域,有助于时间的节约和效率的提升。然而,算法自动化决策所带来的风险挑战也必须予以重视,其自身的内生性风险为当前的算法治理体系带来了新的挑战,且目前对于算法技术的法律规制多呈现相对滞后性、碎片化特征,法律规制还有待完善。
(一)自动化决策深度嵌入数字经济
自动化决策遵循“大数据,小定律”的技术范式,在具体行业场景中,自动化决策通过个人征信、用户画像、个性化展示等服务或产品呈现出来。数字经济时代的科技运用,让个人的信息和行为经历刻画在每个人的“数字皮肤”之上,极大的提高决策的效率性和精准性,大数据分析和自动化决策无疑为商业竞争者提供了无可比拟的竞争优势,提升经济效益的同时,也助力推动新业态模式的兴起。从商业应用的角度来看,通过对海量客户数据的深入分析,自动化决策能够实现对个体用户需求的精确把握。这一能力不仅为企业提供了前所未有的个性化服务和建议,更在多个商业领域中展现出其实质性优势。在市场销售领域,自动化决策的应用范围不断拓展,已不仅仅局限于于用户行为的分析。它能够生成个性化的产品或服务推荐,为销售团队创建“智能销售助手”,提供更为准确和高效的销售建议和解决方案。这种创新的工具和策略,为市场销售注入了全新的智能化动力。
例如,电商平台利用数据分析来预测用户购买行为,从而优化产品推荐系统。该系统基于大数据分析,实时监测用户行为,并根据历史数据动态调整商品推荐,以满足每位顾客独特的购物偏好。这使得平台能够提高转化率和客户满意度,同时降低库存积压和成本。再如,银行通过整合内部数据与外部来源,可以建立一个全面的客户关系管理系统,该系统利用自然语言处理技术,分析客户的电子邮件、社交媒体互动和在线交易记录,从而揭示客户的需求模式和兴趣点,这些信息被用来定制个性化的营销活动和服务方案,极大地提升了客户忠诚度和业务成果。类似的案例不胜枚举。无论是在零售业、金融服务业还是其他行业,自动化决策都以其智能、高效和创新的特性,帮助企业适应市场变化,把握商机,在竞争激烈的市场中占据有利地位。这些应用实例清晰地说明了自动化决策如何结合数字经济发展特点,从而在各个层面上为企业带来实质性的优势。
(二)自动化决策的内生性风险带来治理困境
自动化决策遵循“算法形式主义”,通过输入、输出和目标的规则表达,将决策结果的产生公式化,算法的动态演化和不可解释性使这一转译过程具有内生性风险。内生性风险与技术本身的特性密切相关。这种风险是由于技术的设计缺陷、操作失误或维护不当所引起的问题。例如,软件漏洞、硬件故障或者过时的技术标准等都属于内生性风险,这类风险通常需要通过深入分析技术实现细节来识别和评估。大数据技术和人工智能技术的发展都需要对人类生活信息进行记录,人工智能技术在学习的过程中也有可能将人类某些偏见和价值情绪一概习得,且算法的黑箱性特点导致算法运行程序的不透明,可能会导致“信息茧房”“算法歧视”“算法暴政”等危害性结果。在当今数字化的时代,算法技术已经成为企业和组织决策中不可或缺的一部分。然而,由于算法决策过程往往缺乏透明度,导致了所谓的算法“黑箱”现象,即公众对算法如何得出决策结果几乎一无所知。这种“黑箱”式的决策过程将决策的各个环节分割开来,分别交给数据采集、分析、判断等不同的模块处理。当人们面对算法提供的决策结果时,往往不知道背后的推理原理和整个决策流程。这种情况下,对于结果接受的不再是基于人类理性的判断,而是算法的机械逻辑。当前对于自动化决策的设计及运行程序缺乏必要的记录,这就导致难以对其开展有效的评估和验证,对特定的决策结果进行合理化解释更是困难重重。
(三)当前对于算法技术的法律规制供给不足
从国内法律规定看,近年来我国的算法立法取得了明显的进展,相关规范文件数量也大幅增加。然而,算法治理的规则散落分布于不同的法律规定之中,这些规定主要体现在知识产权保护、个人信息保护等多个方面,但它们并未形成一个统一的框架。这种分散的状态导致了在具体执行时,对于算法行为的界定和处理缺乏明确的尺度和标准。在这个过程中,裁量权的运用往往不够一致,认定标准也难以达成共识,这无疑增加了治理工作的难度。随着算法技术的飞速发展,新出现的问题和挑战层出不穷,如数据隐私、算法偏见等问题,都需要法律层面进行及时而有效的应对。
然而,在现有的法规体系下,面对这些新兴议题时,相关部门的响应速度似乎有所滞后。平台企业作为推动技术发展的重要力量,他们对于遵守算法合规要求有着迫切需求,但现行的法规却难以满足他们日益增长的合规需求。因此,我们必须正视这一问题,寻找解决之道,以确保技术进步与社会治理的和谐共存。在制定相关法规时,还必须进一步明确算法问责的标准和程序。这意味着算法决策的每一步都应受到严格监督,确保透明度和问责制得到充分执行。只有这样,才能防止权力滥用,并保护个人隐私与数据安全。同时,通过对算法设计进行合理限制,可以确保其符合伦理和社会价值观,避免算法偏见和歧视等问题的发生。
三、算法自动化决策的治理逻辑
在经济系统发生深刻变革的今天,对于自动化决策治理的逻辑与方式亦必须与时俱进,作出相应的调整。这要求我们从传统的“规则”治理逻辑转向更加注重“代码”层面的治理逻辑。这样的转变不仅仅是对现有治理体系的完善,更是为了最大化地挖掘和利用算法技术中所蕴含的巨大潜力。
(一)坚持算法发展与技术规制平衡原则
算法自动化决策并非一无是处的“坏”技术。在法律层面对其进行规范与约束时,我们必须全面考量它对行业进步的深远影响。在判定责任界限时要充分考虑行业的发展水平这一核心要素,甚至当考虑到特定行业内的特殊需求以及对社会所能提供的价值时,也应适度地接受算法出现偶发性错误的可能性。这不仅要求技术规制能够适应不断变化的商业创新步伐,而且还需要它展现出更为灵活的治理方式。具体到算法技术规制的实施层面,其尺度和标准的确立,关键在于如何精确衡量技术治理过程中的成本与由此带来的效能提升之间的价值平衡。这种平衡不仅关乎效率,更关乎公平、透明以及可持续发展的理念。在制定相关法规时,我们必须确保这些规定既能促进科技创新,又不至于过度限制或阻碍市场的活力,应该根据不同行业的特性、市场环境以及技术进步的动态特征,灵活调整规制策略。
因此,在完善法律法规和监管框架的同时,我们还应该采取一系列创新措施,以促进算法技术的合理应用和健康发展。通过建立透明、公正的数据使用机制,确保用户能够理解算法决策背后的逻辑和过程,同时也让利益相关者有机会参与到算法设计中来,共同推动技术向更加公平、可持续的方向发展。这种方法不仅有助于减少因信息不对称导致的市场扭曲现象,而且还能增强社会整体对算法技术的信任和接受度。总之,面对经济与科技的双重转型,我们应立足长远,既要保障创新动力的释放,又要防范潜在的风险,确保人工智能等新兴技术能够为人类带来福祉,而非成为未来发展的障碍。通过这样的治理策略,可以有助于走向一个更加智能、更加公平、更具包容性的数字时代。
(二)遵循内外部二元监管思路
在当今这个快速发展的时代,现代治理理念已经不再局限于传统的单一治理模式,而是提倡一种更为开放和综合的治理思想。这种理念认为,要想有效应对日益复杂多变的社会问题,就必须打破现有的系统壁垒,实现各个社会子系统间的结构耦合。对于涉及自动化决策的监管,这种理念同样适用。在人工智能技术迅猛发展、自动化决策频繁出现的背景下,仅仅依靠单一部门或机构来进行监管已显得力不从心。因此,需要通过跨部门、跨学科的合作与协调,形成一个协同监管的体系,以确保自动化决策既能发挥其优势,又能避免潜在的风险和不公正现象。
具体而言,这一监管理念在保有传统监管方式的基础上,引入特定责任主体,例如我国个人信息保护法所明确的个人信息保护负责人。该责任主体不仅需要在企业设计算法时介入,而且还要对其实施全程监控。如果企业在开发算法的过程中未能及时向责任主体报告,那么企业将不可避免地面临行政处罚。责任主体在算法设计的早期阶段就可以介入,与算法设计师进行沟通,告知他们可能的法律风险。这一措施旨在帮助算法设计师们避免未来可能出现的法律问题,确保他们的算法设计符合法律规定,从而保护消费者权益和社会公共利益。
算法设计完成之后,还需要对算法的决策后果进行深入的评估。这一过程涉及多个层面,包括但不限于算法的透明度、公平性、隐私保护以及对不同群体的影响等。通过这种全面的评估,责任主体能够对算法的潜在后果进行准确判断,并在后续的算法评估报告中详细披露所有相关信息。这些报告中不仅包括了算法设计师的名字,还包括了对算法运行负责的具体员工,确保所有责任都能明确归属。如果责任主体发现某个算法在运行中存在歧视现象,或者其结果对某些群体不公,或者有侵害消费者利益的风险,他们将采取行动要求算法的使用者进行改正,这可能意味着需要重新调整算法的参数或逻辑结构,以消除任何可能引起争议的因素。
(三)推动算法自动化决策场景化治理
在数字化转型的浪潮中,应用场景已经成为城市治理领域的新兴关键元素。这些场景不仅体现了以用户为中心的思维方式,而且它们强调互动性的运行模式、快速响应变化的敏捷治理策略,以及与市民和社会各方面共同创造价值的能力。具体到算法自动化决策的治理过程中,我们必须认识到算法应用中一个关键的规律——即不同的应用场景会导致算法性质上的巨大差异。正因为这样的差异性,我们不能仅仅依赖于抽象的理论框架来进行算法设计和优化,而是应该更加关注于对不同场景下的具体需求和特征的深入理解与归纳。这种场景化的要求使得我们能够针对每个特定的用户群体、面临特定的风险类型、所使用的算法技术以及监管环境等因素,制定出更为精准和有效的解决方案。因此,场景化不仅是一种方法论上的转变,更是对算法应用实践的一次深刻洞察。通过细致地分析不同场景的特点,我们可以确保算法设计的每一步都紧密贴合实际,从而最大限度地提高算法的实用性和有效性。简而言之,场景化的要求推动了算法设计从理论层面走向实践层面的进步,为算法的应用提供了更加坚实的基础。
四、算法自动化决策的法律规制进路
对算法自动化决策进行立法规制时,横向层面上要不断推进场景化治理的精细化,完善相应评估机制,纵向层面上要将算法技术优化与用户交互体验视为核心枢纽,通过这一轴线,从事前准备阶段到执行过程以及事后阶段的全流程进行精心设计和动态治理,积极探索出符合我国国情的法律规制路径。
(一)完善算法决策风险评估机制
在推进算法自动化决策安全评估与风险监测制度的过程中,必须深入理解治理机制的动态化和灵活性的重要性。不仅要有前瞻性地预见到算法技术可能带来的风险,还要具备快速响应并采取有效措施的能力。因此,构建一个全面的评估框架,应当是一个动态、分阶段实施的策略。这个框架应当从对自动化决策技术的分类入手,细致地将它们分为不同的等级或类别,然后针对每个类别设计出相应的评估标准和监测指标,确保对技术应用的全生命周期都能进行细致的监控和评估,从而及时发现潜在的安全隐患,并迅速采取应对措施。最终目的是要构建一个既全面又实用的评估框架,它不仅可以用来指导未来算法的开发与应用,还能为政策制定者提供决策支持,以应对人工智能技术发展带来的挑战和机遇。
在《人工智能法案》中,欧盟构建了一套以风险为基础的人工智能治理框架。该框架要求对人工智能系统的潜在影响进行全面而细致的评估,并将结果分为四个不同等级:最小风险、有限风险、高风险以及不可接受风险。在当前的治理实践中,我国需要借鉴国际社会的有益做法,实施分类分级的治理策略,这一策略要求对那些可能引发重大政治和经济安全的关键领域进行优先处理。具体来说,对于那些关系到人民生命安全、健康以及重大财产利益的关键行业需要给予特别关注。例如,金融行业作为国家经济的重要支柱,它的稳定与安全直接关联着整个社会的经济安全。因此,必须强化对该行业的监管,确保其能够有效抵御风险,维护市场秩序,保障金融体系的稳健运行。此外,面对国家重大安全问题,以及拥有市场支配地位的大型互联网平台,我国也需要制定专门的算法规制措施。
(二)完善算法影响评估机制
影响评估制度深植于协同治理的理念之中,它致力于将多样化的治理主体聚集在一个共同的管理平台之上,以实现优势互补。在这个框架内,监管机构、被监管者、第三方以及公众都能发挥作用,共同推进治理目标的达成。影响评估作为一种科学且系统的治理工具,已经被广泛应用于众多领域,包括但不限于环境治理和数据治理。面对人工智能、大数据等新兴技术带来的治理挑战,建立一套科学有效的算法影响评估机制显得尤为迫切,通过研究算法对社会行为和个体选择的潜在影响,为制定相关政策提供理论依据和实践指导。
首先,协作治理的理念应当成为算法影响评估制度构建的核心指导原则。这意味着,在算法决策过程中,需要各方主体之间的紧密合作,包括政府、企业、学者以及公众等,共同参与到算法的设计、开发和应用之中。其次,开放性和责任性是算法影响评估机制设计中不可忽视的关键要素。开放性要求评估制度能够容纳各种不同的声音和观点,确保评估的全面性和公正性。而责任性则强调评估过程应对所带来的后果负责,保证算法技术的使用不会造成不良的社会影响。这两个维度相辅相成,缺一不可。最后,必须在算法影响评估制度的构建过程中,始终贯穿“技术-组织-社会”的系统论思维。这种思维方式要求我们不仅仅关注技术本身的影响,还要深入理解组织结构和社会互动的复杂性。因此,我们需要在各类系统框架的广泛比较中,寻找那些能够适应不同应用场景的、具有差异化特征的评估模型。
(三)确立算法侵权责任机制
在算法技术发生侵权的情形之后,首先要完成的是对于算法侵权相关关系以及责任主体的判定。与一般侵权案件不同,由于算法决策过程中涉及复杂的技术逻辑与数据分析,其因果关系的判定变得更加困难。在传统侵权法律框架下,必然性因果关系和盖然性因果关系成为了判断责任归属的重要标准。然而,在算法环境中,这两种关系往往并不成立,因为算法运行时所依据的相关关系是动态的,它可能会随着时间、地点以及情境的变化而发生改变。因此,面对算法侵权案件时需要采取一种更为灵活和多元的视角来分析问题。在此基础上,对算法侵权责任的界定也必须充分考虑到个案的具体情况,对各种责任主体的身份和作用进行细致的划分。例如,在某些情况下,算法设计者可能未能遵循既定的技术操作规范,或者故意规避伦理道德甚至法律,从而主动设定了不当规则,最终导致第三人合法权益受损。在这种情况下,设计者应当承担起相应的法律责任。另一方面,如果算法是基于自主学习能力和主动探索行为形成的自我规则,并且设计者对算法风险的控制程度相对较低,那么在一定程度上,设计者可以因主观恶意和过错的程度有限而进行免责。这意味着,在某些情况下,设计者可能因为其在设计过程中的失误或疏忽,而无需承担全部或部分的侵权责任。
在算法风险侵权的情境中,还应当谨慎处理风险性损害的赔偿问题,以一种有条件、有限度的方式来承认和补偿受害者。这种赔偿不应仅仅基于金钱的支付,而更应注重于对受害者精神或财产上的实际损害进行合理的评估和赔偿,特别是在预防性支出方面。为了确保这类赔偿的公平性和公正性,可以采用动态系统论和场景论的方法来审视和界定“严重性”要素的认定过程。通过对不同场景下算法风险的具体分析,可以动态地调整和界定严重精神损害的评价要素,从而为受害者提供更加个性化和针对性的支持。此外,除了金钱赔偿外,还应考虑到其他非金钱的补偿方式,如停止侵害、消除影响、恢复名誉、赔礼道歉以及不作为禁令等。
五、结语
在人工智能技术飞速发展的推动下,算法自动化决策技术已经与我们的社会生活实现了深度融合。这种融合不仅带来了创新的机遇和提升效率的可能,也带来了前所未有的风险和挑战。算法技术的黑箱效应使得监管机构难以准确识别潜在的风险并进行有效防范,也让责任追究变得更加复杂和困难。因此,需要采取一种平衡技术发展与法律规制的策略,采用协同治理的理念,通过完善算法决策风险评估机制和算法影响评估制度来加强对自动化决策过程的全面监控。同时,对于算法侵权行为,需要确立起一套有效的责任机制,以防止滥用和不当使用算法带来的负面后果,从而构建一个更加公平、安全、透明的数字环境,在技术带来的便利的同时,避免其潜在的危险和问题,实现技术向善的愿景。(参考文献略)(作者郭德香为郑州大学法学院教授、博士生导师,王莹为郑州大学法学院硕士研究生。本文是河南省教育厅软科学项目:重大公共卫生应急体系建设的法治化路径及对策研究(22B330004)的阶段性成果之一)