对AI技术滥用风险要提高警惕
文 | 肖芄 杭州互联网法院互联网审判第一庭庭长
最近,多位已逝明星的AI视频出现在短视频平台上,引发众多关注,这些视频同时也引起了逝者家属的反对,有明星家属要求立即停止侵权行为,表示严厉谴责并坚决抵制该行为。
从法律上看,对于未经许可利用AI技术“复活”逝者的行为,可能会造成对逝者肖像、名誉、荣誉、隐私、个人信息等人格利益的侵害。因为AI以可视化的方式重现逝者形象,势必会生成、使用他人的肖像、声音。行为人如果是出于悼念目的,“复活”自己的亲人原则上不构成侵权;如果未经逝者近亲属同意,擅自“复活”逝者将构成对肖像、声音的侵害;如果以丑化、污损等方式使用他人肖像、声音,将构成对逝者肖像、声音的恶意侵害;如果是出于炒作、博取流量、诈骗等违法目的,则可能构成侵权甚至是刑事犯罪。
事实上,近年来利用AI技术侵犯他人合法权益的案件时有发生。比如有App运营者,为谋取利益,在网络中盗用含有他人肖像的图片或视频作为模板,利用AI换脸技术为用户提供人脸替换的服务;有游戏运营商,未经明星本人许可,提取明星的声纹信息,利用AI合成技术将随意的文字内容转化为与明星声音高度一致的音频内容,在游戏中使用;有AI技术开发者非法开发所谓的“脱衣”软件,行为人在公共场所拍摄他人照片后,利用前述软件生成伪造他人的裸体照片传播等等。这些案件虽然形式不同,但都明显逾越了法律的底线,揭示了人工智能存在被滥用恶用的风险,这些行为轻则构成民事侵权,重则构成行政违法乃至刑事犯罪。
从司法实践看,利用AI侵害他人权益的案件往往具有侵害对象素材易于获取、AI技术使用门槛低、侵权手段较隐蔽、侵权内容传播速度快、受侵害主体不特定且波及面广等特点,存在侵权行为主体难以锁定、损害后果一旦造成难以挽回、损失赔偿金额难以量化、平台责任边界较模糊等难点。比如笔者就曾审理过一起AI换脸的民事公益诉讼案。在该案中,行为人在国外网络论坛下载了AI换脸的开源程序,通过自学掌握了AI换脸软件的使用方法,并向网友提供“换脸”服务。只要提供他人面部肖像照片就可以进行人脸的任意替换。这也就意味着仅凭几张照片,任何人都可能成为受害者。鉴于这种AI技术滥用造成的普遍性风险,司法机关不仅对行为人判处了刑罚,而且要求其承担公益损害赔偿等民事责任。
此外,笔者还曾审理过多起利用AI技术将他人面部肖像制作成恶意搞笑表情包,通过微信群进行传播,以此对他人进行侮辱的案件。在此类案件中,表情包经过多个微信群辗转传播,有时难以锁定最初的制作者,使得权利人维权产生障碍。不过法院认为即便行为人不是表情包的制作者,只要在明知的情况下参与了侵权内容的传播、扩散,就应承担一定的侵权责任。这些案例都充分说明,利谩癆I”技术侵害他人权益必然要受到法律惩处。
当前,AI技术已经深度融入诸多领域。AI技术本身是中立无害的,技术本身也不应当直接受到法律的负面评价,但技术中立并不意味着价值中立,特别是开发、应用者的价值中立,更不等于AI的参与者不应当受到来自法律的规制、道德伦理的约束。
技术的运用是把双刃剑,用之为善可以造福社会,不当滥用则会造成社会风险和损害。对此,需要有关方面不断完善法律法规,进一步细化AI技术滥用的侵权类型,明确各个环节的主体责任,确立媒介平台的技术检测义务和过滤删除责任,以法律为AI技术应用框定红线;同时,引导技术开发、应用者自觉遵守法律规定和科技伦理道德,培育积极健康、向上向善的研发、应用环境,保护和鼓励新兴智能技术的有益探索。作为社会公众,对疑似AI生成的信息内容应保持警惕,不要对此类生成信息进行盲目传播、扩散,在利用AI技术生成相关内容时要获得权利人同意,尊重社会公德和伦理道德。