当网络谣言用上AI该如何应对
“0成本、高收益”,随着AI从最初的“工业级”技术逐渐“飞入寻常百姓家”,一些别有用心者的造谣能力也得到了大幅提升。据报道,某MCN机构通过具有语音交互功能的AI软件生成虚假文章上传到多个网络平台,最高峰一天能生成4000-7000篇。当网络谣言用上AI,网民该如何应对?本期“思与辨”就该话题进行讨论。
主持人:赵 鑫
嘉宾:陈 兵(南开大学法学院教授、中国新一代人工智能发展战略研究院特约研究员)
贾开(上海交通大学国际与公共事务学院长聘副教授)
詹国辉(南京财经大学MPA教育中心副主任、副教授)
AI造谣呈现出门槛低、传播广、更具迷惑性等特点
主持人:相较于一般网络谣言,AI造谣有何特点?
陈兵:AI造谣具有更高的自动化程度。它能够自主生成内容,极大加快了谣言的生成与传播速度。利用深度学习等技术,AI能够生成逼真的文本、图片和视频,使谣言更难被识别。由于AI的自动化和匿名性,追踪谣言来源变得更为困难。随着开源工具和平台的普及,即使非专业人士也能利用AI技术制造谣言,技术门槛显著降低。
贾开:第一,网络化特征,AI造谣的关键并不局限于生产谣言内容,还在于其能够创造出一个谣言传播的网络,并因此放大其影响。由于AI能够同时生成多个社交媒体账号,而这些账号之间又相互关联,因此同时涵盖了生成与传播这两个关键环节。第二,混合性特征,有些AI造谣,以真实存在的事件或某种一般性社会情绪为起点,展开虚假内容的生成与传播,让人更难以识别。
詹国辉:AI造谣呈现出成本低、门槛低、传播广、更具迷惑性、内容多样且难以追溯等特点,但目前实践中呈现“多为行政处罚、刑事处罚较少”的特点,在客观层面上难以形成有力震慑效应。
虚假信息常含有逻辑漏洞、事实错误,要保持警惕,多信源比较
主持人:对于AI生成的网络谣言、虚假信息,我们应该如何辨别?
詹国辉:保持警惕性,关注信息来源。比如,在浏览网络信息时,不轻信未经证实的信息;尽量选择权威、可信赖的媒体或机构发布的信息。
分析信息的逻辑性。如果发现信息在逻辑上存在明显漏洞或矛盾,它很可能是经过篡改或杜撰的;对于那些过于夸张、耸人听闻的标题和内容,要保持怀疑态度,进一步核实其真实性。
陈兵:建议检查信息来源、核实事实,评估内容。应验证发布者是否可靠,如是否为权威机构或有信誉的个人。对于接收到的信息,尝试在多个来源,特别是权威媒体或专业网站上核实。虚假信息常含有逻辑漏洞、事实错误或不一致之处,因此需仔细分析内容,检查其是否合逻辑、无自相矛盾之处。
关注时间标记,警惕情感操纵,防止被深度伪造技术欺骗。虚假信息可能使用过时数据或事件误导读者,故需检查信息的时间标记,确保其时效性。深度伪造技术能生成逼真的假视频或图片,面对看似完美的内容,需保持怀疑。
了解AI生成内容的常见特征,如语言风格的一致性、缺乏深度或个性化细节等。同时,需不断提高媒介素养和批判性思维能力,通过教育和培训学习识别和抵制虚假信息。
贾开:要形成思辨意识,对所有“反常识”的信息展开质疑和求证。此外,应对网络信息保持一定的“冗余度”,即不能认为网络信息就是权威的、真实的、可信的,而是将网络信息仅作为信息源之一,多从电视台、报纸、书籍等其他渠道获得多元信息,在此基础上形成正确认识。
对那些默许、放任甚至故意利用AI造谣者,要追究法律责任
主持人:AI造谣的门槛和成本更低,批量生产谣言的情况不在少数。您认为应当如何治理这类信息乱象?
贾开:治理AI造谣需要多方协作。第一,从技术源头上讲,应加强AI技术及其应用治理,例如要求AI生成内容标注水印。第二,从传播媒介上讲,社交媒体平台应主动承担主体责任,特别是需要扭转平台为了吸引流量而放任虚假内容传播的机制。总体而言,AI造谣及其治理是一个“攻防不对称”的过程,造谣容易但治理困难,因而我们需要对AI造谣治理具有一定包容度和灵活性,应鼓励多方协作、敏捷回应。
陈兵:首先,强化技术监管,通过开发和部署高性能工具来识别和过滤AI制造的虚假信息。这些工具包括利用机器学习算法识别异常模式,以及深度伪造检测技术。政府、教育机构、非政府组织和技术公司等应携手合作,共享资源与信息,构建联合治理虚假信息网络。
完善相关立法。针对AI生成内容,制定并实施明确的法律法规,界定责任归属,并对制造与传播虚假信息的行为进行法律制裁。
强化行业自律,激励企业合规。鼓励技术公司、社交媒体平台和内容发布者建立行业标准和自律机制,主动监控并处理虚假信息。同时,提高AI系统的透明度,让用户了解内容生成过程及其背后的算法和数据来源。
詹国辉:平台应当加大审查力度。一方面,强化账号注册核验、动态巡查、调整流量分成制度等,以便于构建更有效的事前和事中防范措施,切断谣言传播源头。另一方面,网络平台须加强内容审核机制,防止AI生成的虚假信息上传和传播;对于已上传的虚假信息,平台应及时删除,并公开澄清事实。
应当明确技术开发者、应用者的谣言治理责任。一方面,大模型开发者应通过后台设置的方式,对通过大模型生成的内容打上水印,告知用户。另一方面,有必要明确技术应用者及软件开发者的责任,对那些默许、放任甚至故意利用AI造谣者,要追究法律责任。
引入人工智能技术,以“技术打败技术”。鼓励开发者从技术研发、产业应用、制度设计等各方面加强合作,打出AI谣言治理组合拳。