人工智能成为法律主体不存在理论障碍
文 | 石冠彬 华东师范大学教授
人工智能,从技术层面而言,特指使计算机程序呈现出人类智能的技术;从客观存在层面而言,泛指能够表现出人类智能的机器设备。一般认为,智能机器人是人工智能的最高级形式,但并不限于人形机器人,电影《流浪地球》中的MOSS、2023年引发全球关注的ChatGPT也属于典型的智能机器人。伴随大数据技术发展,以深度学习和机器学习为基础的传统人工智能技术已经得到飞速发展。在此背景下,学术界就人工智能是否可以成为法律主体的问题展开激烈争论。对此,笔者持肯定观点:不论从哲学、伦理学抑或法学层面来看,人工智能成为法律主体均不存在理论障碍。
哲学的视角
其一,人工智能成为法律主体与马克思主义哲学对“人”本质的界定并不矛盾。诚然,马克思主义哲学将人的社会属性界定为社会实践活动,而人的主体地位表现为人的社会属性,但这并不意味着不属于社会关系总和的人工智能就不能成为法律主体。因为马克思主义哲学对人的社会属性的界定,是针对自然人而言的,人工智能所能享有的法律人格与自然人并不完全等同——以自然人的社会属性来论证人工智能不能享有法律人格,缺乏说服力。而且,人工智能的程序运算,本身也可视为人类活动的延续与意思表示,认为其不具有人的价值性和实践性的论断,值得商榷。
其二,人工智能成为法律主体与哲学领域对人主体性要素的认识也不矛盾。人是情感、理性及多种元素的复合体,人的主体性要素在哲学中被定义为基于需要和自我意识形成的价值观念,而人工智能只能模拟人的某些特定的功能,无法模拟真正的人,两者存在本质差别。尽管如此,也不能以人工智能不具备自我意识为由,认定其不能成为法律主体,因为将人工智能的法律人格与自然人等同,并以此否定人工智能成为法律主体的合理性,这一论证逻辑本身就是错误的。从目前学术界的争论来看,肯定论者并未主张要将人工智能完全等同于人类,即使是理论假设中未来可能出现的具有自我意识的强人工智能,也无法与人类等同。特别值得注意的是,哲学层面对人主体性要素的认识,实际上只限于正常人类,对处于发病状态的精神病患者、植物人等无民事行为能力人,要认定其具有心理意识和自我意识、具有法律规范遵从能力的意志性恐难成立,但这并不影响无民事行为能力人的法律人格。
伦理学的视角
其一,人工智能成为法律主体并不违反伦理道德。诚然,以人为本是最高的伦理原则,但赋予人工智能以法律人格并非不道德,因为赋予人工智能以法律人格并不会影响人的主体地位,不是要将人作为客体对待,所以不存在所谓的伦理困境。或者说,人工智能成为法律主体这一立场,并不存在混淆主体与客体的错误,根本就不会动摇“人是主体”这一定论。而且,法律上的“人”所拥有的主体资格本质上是一种社会人格,彰显的是法律对作为“人”的特定群体所拥有力量和地位的尊重。即使人工智能的这种社会人格是以算法程序、代码规则实现的智能,也可以得到法律的肯定——法律上的“人”本身并非均要求具备生理性特征,其本身与现实社会中的“人”就是两个不同的概念,现代各国民事立法对于法人人格的承认足以证明民事主体理论已经突破伦理人的范畴。
其二,人工智能成为法律主体也不会贬低人的主体地位。如前所述,赋予人工智能以法律人格,这一立场的根源就是为了更好地服务人类,且并不意味着要将具有人类智能的机器等同于“自然人”,所以不会导致人的主体地位受到贬低。赋予人工智能以特定的法律人格本身就是基于功利主义的考量,是出于人类利益的最大化追求,既不是要将人工智能上升为哲学层面的“人”,也不要求人工智能的智能程度和产品外形等同于自然人,而是源于前述被社会现实所需要的社会人格,这从某种程度上恰恰能凸显人的主体地位。而且,未来立法在价值权衡的基础上,完全可以在肯定人工智能享有法律人格的同时,肯定人类就人工智能本身仍能享有所有权,从而将其作为客体对待。
法学的视角
其一,人工智能成为法律主体与法律人格理论并不矛盾。法律人格理论发展至今,始终贯彻人类中心主义思维,由此,自然人的内涵、外延均无法涵盖人工智能,法人亦与其背后的自然人密切相关;而且,具有人类智能的机器确实也只是人类活动的结果,其不具有与自然人类似的内在感知、观察、判断、选择等一系列复杂行为所构成的意思能力,也不具有责任主体必备的道德良知、伦理、规矩和习惯,更不具有生命权能。与此同时,由于“技术黑箱”的存在,人类确实尚无法解释相应编码与决策结果之间的因果关系。但上述结论并不意味着赋予人工智能法律人格有违法理,也不意味着混淆了自动化科学中的工具自动化决策与人类主体性之间的区别、混淆了人之主体能力本质与为人所创造工具的工作能力表象之间的区别。因为人工智能的自动化决策,是人类所“投喂”大数据与计算机程序共同合力形成的结果,两者均是人类智性的延续与“放任”,相应结果可被解释为“投喂者”与程序设计者的概括性意思表示。因为所“投喂”的大数据中蕴含的价值理念本身就是自然人特有的智性、心性、灵性的外在体现,而人类创设的程序所产生的数字运算本身,也是基于人类意志所衍生出的意思表示。从这一角度来说,法人本质是自然人的集合体,其所做出的决策是人类的直接意志体现;而人工智能所做决策也与人类意志紧密相关,与现有法律人格理论并不矛盾。
其二,人工智能成为法律主体与“法律根据人的理性而设”这一法理并不矛盾。否定论者认为,作为利益负担者的人,会因为自身情绪等的影响做出非理性的错误决定,法律也正是因此才有存在的必要;但是人工智能不会出现类似错误,其并不具有价值判断能力和道德感,其所谓的出错也只是“执行算法”中出现的“程序BUG”。笔者认为,上述见解将法律完全视为防止人类犯错的工具,过于片面,比如,法律确认权利归属的功能就与人类会犯错无关。而且,发明人工智能本身就是人类理性的体现,法律调整人工智能产生的相应法律关系,本质上仍然是调整人与人之间的法律关系,仍以人的理性为基础。
其三,人工智能成为法律主体与民事主体的责任能力理论并不矛盾。否定论者认为,人工智能最终的责任承担者是自然人,故赋予其法律人格纯粹多余。这一见解,显然是错误的:一方面,赋予人工智能法律人格与人工智能能否独立承担责任两者之间并无因果关系,不能以人工智能不能独立承担责任为由否认赋予其法律人格的合理性。从现行法角度来看,个体工商户、合伙企业、个人独资企业均属于法律主体,但其最终责任承担者并非主体本身。另一方面,从实操层面来看,人工智能也并非不能独立承担责任。借鉴法人的注册资本制度,未来立法完全可以在赋予人工智能以法律人格的同时,通过构建强制责任保险制度奠定人工智能独立承担责任的财产基础。
其四,赋予人工智能法律人格与现有法律制度体系和结构很难说存在严重冲突。一方面,否定论者认为,如果认为人工智能是主体或者具有人格属性,那么就要从根本上改变民法的人与物二分法的基本体系,就要针对人工智能创造出调整现有人与物之外的第三种基本规则来调整人工智能这种存在形式。但是,即使承认人工智能具有相应法律人格,也并不需要否认人类本身对人工智能享有所有权这一事实;换言之,法律在肯定人工智能可以享有民事财产权的同时,并不改变人工智能本身相对于人类而言的客体属性。这一制度构建并不存在体系效应,不会对现有法律制度和结构产生严重影响。另一方面,一国法律体系和结构本身就处于不断完善的过程之中,以保持现有法律制度体系和结构的稳定性为由,否定法律发展的合理性,存在逻辑瑕疵、缺乏因果关系。
值得注意的是,否定论者还认为,人工智能所引发的问题,完全可以在既有的法律体系中得到解决,没有必要通过将人工智能拟制为法律上的主体来予以应对。客观而言,通过重构版权法理论、侵权法理论,确实能够解决诸如人工智能生成物能否受到版权保护、自动驾驶责任如何承担等问题,但是,这种理论重构本身与肯定人工智能可以成为法律主体一样,都属于解决发展人工智能所带来法律问题的可选方案,不能以前者否认后者的合理性。换言之,未来立法赋予人工智能以特殊法律人格同样也是社会的现实需求,不能因为存在其他解决方案就否认这一可选路径本身的合理性。而且,以有无必要来论证是否可行,本身就存在偷换概念的逻辑问题,两者之间欠缺因果关系。
综上所述,人工智能成为法律主体并不意味着其就必须与自然人一样,其所能享有的只能是有限人格,即在承认人工智能可以享有财产权、能够作为创作主体的同时,仍应认可其归属于人类这一客体属性。基于特殊的政策考量,在必要的情况下,可以参照公司法人的资本制度,通过出厂设定强制责任保险的方式保障人工智能的责任财产。这一立场尊重了人工智能的发展趋势、符合未来社会的客观需要,具有法理正当性与立法方案的可行性,其本质上是为更好地实现人类利益。