破除人工智能成为法律主体的臆想
【学术争鸣】
人工智能作为现代科技的前沿领域,正在迅速改变我们生活的方方面面。从智能家居到自动驾驶汽车,从智能助手到人形机器人,技术的进步和应用场景的拓展,激发了各界对人工智能的追捧。伴随对人工智能生成作品著作权归属的争论以及具身智能的发展,关于人工智能是否应当被赋予主体地位的问题越来越受到关注。2024年8月16日,光明日报理论版刊发的《人工智能成为法律主体不存在理论障碍》一文,提出若干观点支持赋予人工智能以法律主体地位。对此,笔者有不同认识。笔者认为,“不存在理论障碍”并不意味着就具备正当性、合理性和必要性,如若承认人工智能法律主体地位,那么人工智能就将被视为具有独立权利义务和责任的法律实体,这将构成对现有法律伦理秩序和传统的极大冲击。
理性是成为法律主体的基础,但人工智能不具备独立理性
理性不仅是道德判断的基础,也是对行为后果承担责任的前提。只有具备理性和自主性的个体才能被视为道德主体,具备承担道德责任的能力。理性通常被定义为一种能够进行逻辑思维和合理决策的能力,它涉及对复杂问题的分析、判断和选择。理性不仅仅是计算能力的体现,更包括对自身行为的反思和对环境的理解。自主性则是指个体能够在没有外部干预的情况下,自主做出决策,并承担决策带来的后果。理性使得个体能够进行自我反思和理性决策,从而对其行为和结果负责。法律是最低程度的道德,法律主体地位的取得也需要主体具备理性,以便对其行为进行合理的法律评价。在某种意义上,理性是成为法律主体的基础。《人工智能成为法律主体不存在理论障碍》一文认为,“法律调整人工智能产生的相应法律关系,本质上仍然是调整人与人之间的法律关系,仍以人的理性为基础”;既如此,人工智能又有何种可能性和必要性成为法律主体呢?
进言之,人工智能虽然能“理性”地作出决策行为,但这种“理性”实际上是拟制的,源于人类编制的算法和数据训练。人工智能系统的“决策”基于大量的数据处理和模式识别,但这些“决策”并不涉及自主的理性判断。易言之,人工智能的学习过程是通过对历史数据进行优化和调整,而不是通过自主思考或反省形成的。例如,深度学习算法可以通过对海量图像进行分析来识别物体,但这种识别能力基于统计模型,而不是基于对图像内容的理解。一般而言,理性标准要求主体能够进行自主的道德判断,并对其行为后果负责。然而,人工智能系统并不具备这种自主性,它们的行为是由人类设计和预设的规则驱动的,并没有真正的自我意识。真正的理性不仅仅是逻辑思维和计算能力的表现,更包括对自我意识的控制能力。人工智能系统的“理性”仅仅是程序设计和数据处理的结果,其“思考”过程实际上是对输入数据的统计分析和优化处理,缺乏真正独立的自我意识和自主决策能力,只是工具意义上完成人类所设定的任务,不能因其是人类活动的延续就将人工智能视为具有与人具有同等理性和地位的独立主体。
从技术实质来看,人工智能的决策高度依赖预设算法、训练数据以及算力支撑,其系统运行的本质仍然是数学处理的过程和结果,难言自我意识和独立理性。即便是进入所谓的“强人工智能”阶段,人工智能的思考和决策过程仍然是在预设的算法和程序的框架之内,其“理性”也只是体现为一种工具意义上的计算和处理能力,而非真正意义上的自主决策或理性思考。在这层意义上,赋予人工智能独立的法律主体地位显然缺乏足够的伦理基础。
承担责任是成为法律主体的客观要求,但人工智能无法独立承担责任
责任涉及对行为结果的承担和对错误行为的补救。法律和伦理中的责任要求主体能够对其行为进行控制,并承担相应的后果。承担责任需要主体具备对其行为的理解和控制能力,以及对后果进行补偿的能力。责任的归属不仅需要明确的法律框架,还需要具备承担责任的能力和条件。然而,从人工智能系统的技术运行逻辑来看,其难以独立地承担法律责任,赋予人工智能法律主体地位缺乏应有的法律基础。
一方面,人工智能并不能真正理解和控制其行为的法律后果。法律责任的核心在于主体能够意识到其行为对他人的影响,并且具备弥补或纠正错误的能力。然而人工智能的行为完全依赖于其算法和程序,且受到训练数据投喂的显著影响,即使这些系统能够在特定任务中表现出高效的处理能力,也只是脱离人工的自动化处理而并非真正意义上的自主决策。因此,人工智能系统无法独立控制其行为,也不能自主预测其行为的后果和责任,自然也无法对其行为后果承担责任。
另一方面,人工智能不具备承担责任的财产条件。法律主体独立的责任能力通常以具有独立财产为基础。然而不同于法人通过股东出资等方式获得独立财产,人工智能的运行并不以财产作为支撑,其设计和部署虽然会耗费大量资金投入,但也并不要求储备相应财产以承担可能之责任。这就导致了一旦人工智能因其决策行为侵权或违法,也没有相应的财产承担相应的赔偿责任。即便是按照《人工智能成为法律主体不存在理论障碍》一文的设计,从制度和实践上允许人工智能系统取得独立财产,或者为其设计强制责任保险制度,其也只能承担赔偿损失、罚金等以金钱为内容的法律责任,而不能承担诸如资格罚或自由罚等其他类型的法律责任,由此法律对其约束和威慑作用会显著不足。
更重要的是,人工智能独立承担责任可能会诱致道德风险。人工智能系统的决策和行为是由预先设定的算法和数据所驱动的,在很大程度上人工智能的行为控制权实际上是掌握在设计者和应用者手中的,而不是系统本身能够独立控制的。设计者和应用者在设计和部署人工智能系统的过程中,可能会因其故意或过失造成人工智能系统的先天缺陷,进而导致他人利益损害甚至利用人工智能实施违法犯罪行为。如果赋予人工智能独立主体地位并由其独立承担责任,很有可能导致人工智能的设计者和应用者利用这种安排逃避其实际应承担的法律责任。当独立承担责任的人工智能可以成为设计者和应用者的“防火墙”或“避风港”,那么滥用人工智能的道德风险则难以避免,甚至造成灾难性后果。
现有法律和伦理秩序足以应对人工智能带来的新变化,赋予人工智能法律主体地位无现实必要
赋予人工智能法律主体地位并非仅仅对技术进步的简单回应,其涉及深刻的法律、伦理和社会秩序问题。法律因时而变固然是制度进化的内在要求,但确保法制的稳定和可预期、维护伦理秩序应当是法制变革的底线。一旦人工智能取得法律主体地位,势必会导致现有法律秩序和伦理秩序所根植的社会关系结构发生变化,人工智能作为与自然人、法人和其他组织等既有主体并列的新兴主体,其主张权利或承担义务与责任,都会造成对现有秩序的冲击。
从伦理的角度来看,赋予人工智能主体地位将挑战以人类为中心的传统观念。这种观念认为,人类在伦理上处于中心地位,拥有特殊的道德和法律地位。这种观念支撑着现代法律和伦理体系的发展,也构成了法律伦理秩序的基础。赋予人工智能主体地位将会削弱这一伦理基础,弱化人在法律与伦理秩序中的主导地位。事实上,法律主体地位的背后隐含着人类社会对个体的尊重和承认,赋予某一主体以法律地位不仅仅是赋予其权利,更意味着承认其具有道德和伦理上的意义。人工智能虽然具备高效处理数据的能力,但并不具备人类所独有的伦理感和道德价值观。若赋予人工智能法律主体地位,将会产生许多伦理难题。例如,人工智能是否应当拥有像人类一样的权利?人工智能的“权利”与人类权利之间的冲突如何解决?我国发布的《全球人工智能治理倡议》主张,发展人工智能应坚持“以人为本”理念,强调以尊重人类权益为前提。人工智能的存在与发展应当服务于人类社会的进步与福祉,而不是创造出与人类平等甚至可能存在竞争关系的主体。
从法律的角度来看,赋予人工智能主体地位会导致法律规则体系的复杂化。当前的法律体系是以人类为中心设计的,各类法律、法规、判例都基于人类的行为逻辑和社会关系结构。如果人工智能被视为法律主体,现有法律体系势必难以应对人工智能作为独立主体参与社会活动所带来的复杂情况。人工智能权利义务的内容与边界、人工智能主观过错的认定和责任形式等问题,都超出了现行法律框架的预设。近年来,欧盟以及其他法域都陆续出台人工智能相关法律,试图为人工智能的使用制定法律框架。但这些立法尝试仍然主要关注人工智能的应用和监管,即将人工智能作为工具或客体予以规制,而非将人工智能本身视为法律主体。在现有法律体系下解释和完善法律,合理分配人工智能所有者、使用者等相关主体的权利义务和责任,亦能因应人工智能时代的法律挑战,完全没有必要赋予人工智能法律主体地位。
人工智能的飞速发展使得当前社会不得不认真审视人工智能的角色和地位。人工智能作为一种工具,其作用在于辅助和增强人类能力,而不是取代或成为法律和道德主体。法律回应人工智能革命,不应被科幻主义的盲目和狂热所遮蔽,沉溺于赋予人工智能法律主体地位的臆想,而是应当回归科学主义的理性与客观,将人工智能作为一种工具客体予以有效法律规制,在促进其服务人类社会发展的同时保持对技术的审慎和警惕,以确保技术的安全和有效应用。
(作者:袁康,系武汉大学网络治理研究院副院长、教授,湖北省中国特色社会主义理论体系研究中心研究员)