This is a modal window.
2022年世界互联网大会乌镇峰会——人工智能与数字伦理分论坛
清华大学人工智能研究院名誉院长、中国科学院院士张钹线上发表演讲
之江实验室主任、中国人工智能产业联盟副理事长朱世强发表演讲
蚂蚁集团首席技术官倪行军发表演讲
香港特区政府资讯科技总监杨德斌发表视频演讲
2007年图灵奖获得者、世界顶尖科学家协会会员约瑟夫·斯发基斯发表视频演讲
全国人大宪法和法律委员会副主任委员江必新发表演讲
全球IPv6论坛主席拉提夫·拉蒂德发表视频演讲
中国美术学院院长高世名发表演讲
美国布鲁金斯学会中国研究中心主任李成发表视频演讲
阿里巴巴安全部智能算法负责人、阿里巴巴集团科技伦理治理委员会执行主席薛晖发表演讲
鹏城实验室主任、中国工程院院士高文发表视频演讲
微软全球资深副总裁、微软亚太研发集团首席技术官张祺发表视频演讲
卡巴斯基首席技术官安通·伊万诺夫发表视频演讲
2022年世界互联网大会乌镇峰会——人工智能与数字伦理分论坛
圆桌对话环节举行
清华大学苏世民书院教授/院长,联合国互联网治理论坛首届领导小组成员薛澜线上发言
世界工程组织联合会前任主席、中国新一代人工智能发展战略研究院执行院长龚克线上发言
中国互联网络信息中心主任曾宇发言
中国社科院哲学所科技哲学研究室主任段伟文发言
东软集团联席总裁兼首席运营官盖龙佳发言
中国网络空间安全协会副理事长黄澄清发言
圆桌对话环节举行
北京冬奥组委技术部部长喻红发言
北京瑞莱智慧科技有限公司首席执行官田天发言
科大讯飞股份有限公司高级副总裁、科大讯飞华南人工智能研究院董事长杜兰线上发言
工信部信息通信经济专家委员会委员、网络空间治理与数字经济法治(长三角)研究基地主任王春晖发言
2022年世界互联网大会乌镇峰会——人工智能与数字伦理分论坛
尊敬的各位领导、各位来宾,女士们、先生们,大家下午好。欢迎莅临2022年世界互联网大会人工智能与数字伦理论坛。本次论坛由中央网信办指导,清华大学与中国网络空间安全协会联合主办,之江实验室、特斯拉公司、东软集团、中国(温州)数安港等单位协办。论坛的主题是“人工智能的产业方向与伦理取向”。我们希望通过论坛的讨论,聚焦人工智能的技术、应用和产业发展过程当中的安全风险治理与数字伦理建设。为此我们设立了三个分主题,第一个分主题是人工智能伦理的技术逻辑与人类的选择空间;第二个分主题是数字伦理的法理与道理,现实世界与数字世界交融的秩序与规则;第三个分主题是人工智能及其产业模式优化对未来人类社会生产生活形态的影响。
今天下午的论坛采取演讲+圆桌形式开展交流,目的是为了加深国内外的学者、研究领域、业界相互之间的对话,推动人工智能的伦理研究和治理体系的探索构建,促进安全可信可控的人工智能技术研发与应用场景,确保人工智能始终朝着以人为本、科技向善的方向健康发展。
我是中国网络空间安全协会秘书长,也是今天下午本次论坛的主持。
下面请允许我介绍今天主席论坛的各位领导和嘉宾:
世界互联网大会秘书长,第十三届全国人民代表大会社会建设委员会副主任委员 任贤良;
全国人大宪法和法律委员会副主任委员 江必新;
浙江省委网信办副主任 马晓军先生;
北京冬奥组委技术部部长 喻红;
中国美术学院院长 高世名;
中国互联网络信息中心主任 曾宇;
浙江大学党委副书记,之江实验室主任,中国人工智能产业联盟副理事长 朱世强;
中国网络空间安全协会副理事长 黄澄清;
中国网络空间安全协会副理事长 刘东;
世界互联网大会组委会副秘书长 张辉;
东软集团联席总裁兼首席运营官 盖龙佳;
蚂蚁集团首席技术官 倪行军;
出席今天论坛的还有清华大学的校长王希勤,还有中国网络空间安全协会理事长王秀军,都是以视频的方式和大家进行交流。
今天我们还有中国新一代人工智能发展战略研究院、美国布鲁基斯协会、中欧数字协会等国内外高等学府、科研院所、政府间的国际组织专家学者,以及微软卡巴斯基、红杉中国、科大讯飞等国内外知名企业共同参与。
首先我想让我们以热烈的掌声向各位领导、专家学者、企业届代表的到来表示热烈的欢迎和感谢。
特别需要说明,因为进入秋冬季以来,疫情防控形式非常严峻,所以近一段时间部分地区的疫情有所反弹,有一些专家学者原定现场参会,现在也是有一些采取线上的方式,代表他们表示歉意。与此同时,我们今天下午的整体的安排当中,我们在主旨演讲环节之后,圆桌对话环节还将有央视进行现场的直播,因为大家对这个人工智能相关的问题非常关注,也有社会广泛的热情,所以在这一方面也希望大家在整个的研讨交流当中,能碰撞出思想的火花。
2022-11-10 14:27:53
下面,有请清华大学校长王希勤先生作视频致辞。大家欢迎。
2022-11-10 14:28:13
尊敬的各位来宾、女士们、先生们,朋友们大家好。今天我们以线上线下相结合的方式相聚在美丽的乌镇,出席由清华大学、中国网络空间安全协会共同举办的2022年世界互联网大会人工智能与数字伦理论坛。首先请允许我代表清华大学对各位嘉宾的到来表示热烈的欢迎,对给予本次论坛大力支持的各界合作伙伴表示中心地感谢。
当前世界之变、时代之变、历史之变正以前所未有的方式展开,以人工智能为代表的新一轮科技改变和产业变革正在重构全球创新版图,重塑全球经济结构,既为世界各国创造了更加广阔的发展机遇,也带来了安全伦理时等方面的风险挑战。身处这一史无前例大变局之中,如何顺应信息化、数字化、网络化、智能化发展趋势,塑造健康的伦理价值,探索数字文明新形态、我们共同面对的紧迫课题,需要我们共同付出努力。
党的二十大勾划了中国式现代化的宏伟蓝图,把教育、科技、人才作为全面建设社会主义现代化国家的基础性战略性支撑。对于深入实施科教兴国战略,人才强国战略、创新驱动发展战略做出重要部署。大学是科技第一生产力人才第一资源创新第一动力的结合点,是创新要素活跃、创新动能聚集的地方。大学要充分发挥自身优势,积极推动科技与人文深度交融,学术与产业协同创新,不仅在基础研究、科技公关方面勇闯前沿,也在要价值引领,伦理规范方面走在前列。
清华大学高度重视人工智能领域的科学研究、技术创新、科技治理、伦理教育。 在人工智能研究领域,引创新之流,先后成立了人工智能研究院,智能产业研究院和人工智能国际治理研究院,形成了人工智能研发、产业治理、科研矩阵。
在人工智能治理领域,兴开放之资,打造人工智能合作与治理国际论坛等高水平交流平台,汇聚全球智慧,推动构建公正合理的人工智能国际治理体系与治理规则。
在人工智能伦理领域,兴人文之风,受教育部委托牵头组建高校科技伦理教育专项工作专家组和工作组,成立科技发展与治理研究中心,人工智能治理研究中心,在全国高校中率先成立科技伦理委员会,积极推动科技伦理教育课程建设和教材开发。
在人工智能领域,筑教育之基,举办AI促进可持续发展青年创造营、首届新智杯全国人工智能创新应用大赛、AI+可持续发展赛道等活动,汇聚挖掘培养人工智能领域优秀人才,引导青年人才赋能全球可持续发展目标。
科学技术是人类共同的财富,推动完善全球科技治理是我们共同的责任,让我们秉持科技向善理念,坚持以人民为中心的思想,以更加开放的胸怀推动全球科技创新合作,让数字文明更好造福人类,为构建人类命运共同体,建设持久和平,普遍安全,共同繁荣、开放包容清洁美丽的世界,做出新的更大的贡献。
2022-11-10 14:34:48
下面开始论坛的第一个议题,人工智能伦理的技术逻辑与人类的选择空间。我们将有五位嘉宾进行主旨演讲,首先是清华大学人工智能研究院名誉院长、中国科学院院士张钹先生做主旨演讲。演讲的题目是《做负责任的人工智能》。
2022-11-10 14:47:24
女士们、先生们,大家好,我今天演讲的主题是做负责任的人工智能。最早提出机器人发展中可能存在伦理风险的是美国科幻小说家阿西莫夫在他的小说提出的,时间是1942年。早在人工智能诞生之前,为此他还提出规避风险的方法,这就是大家知道的“机器人三定律”,应该说这些问题的提出具有前瞻性。后来物理学家霍金等也不断地提出类似警告,但是这些警告并没有引起大家特别是人工智能界的重视。原因在于他们的立论依据不够充分,因为机器的不断进步和发展,有朝一日当智力超过人类,特别是机器具有主观意识的时候,也就是出现所谓超级智能的时候,人类将会失去对机器的控制,从而带来灾难性后果。这种技术逻辑对于大多数人工智能研究者来说,并不具有说服力,因为大家清楚地知道,人工智能研究目前还处于探索的阶段,进展缓慢,还受到很多问题的困扰,难以解决。制造超人类的机器人谈何容易,而且能不能通过所谓的通用人工智能达到超智能的目标,也一直存在争议。
因此我们认为,这些风险只不过是未来的远虑而已,不考虑。可是到了本世纪初,基于大数据的深度学习,在人工智能中崛起的时候,人们认识上有很大的变化,深刻地感觉人工智能的伦理风险就在眼前,治理迫于眉睫。
这是为什么呢?大家知道本世纪初,基于大数据的深度学习被广泛地应用在各个领域,用来完成决策、预测和推荐等任务,给人类社会带来很大的影响,但是人们很快发现,基于大数据的深度学习算法,具有不透明、不可控和不可靠等缺陷,导致人工智能技术很容易被无意误用,可能给人类社会带来严重的后果。
根据目前人工智能的技术,我们可以通过深层次神经网络,根据使用者的要求生成符合要求并且质量良好的文本和图像,但同样的,神经网络也可以违背用户的要求,生成充满种族、性别等偏见、不公正和错误百出的文本和图像,完全不受使用者的控制。可以设想,如果根据这些生成的错误文本做决策和预测,可能带来破坏公正性和公平性的严重后果。
我们以为只有当机器人的智能接近或者超过人类之后,我们才会失去对它的控制,没有想到的是,在机器智能还是如此低下的时候,我们已经失去对它的控制。时间居然来得这么快,这是摆在我们面前很严峻的现实。阿西莫夫在“机器人三定律”中曾经提出规避伦理危机的方案。内容是:一机器人不得伤害人类,或因不作为让人类受到伤害。第二机器人必须服从人类的命令,除非这些命令与第一定律相冲突。第三机器人必须保护自己的存在,只要这样的保护不违背第一和第二定律。总之一句话,人类应该牢牢把握机器人的控制权,让机器做人类的奴隶,这种办法能否解决机器的伦理问题呢?答案显然是否定的。
实际上让机器完全听从人类的指挥,在早期无智能的机器中我们就是这样做的,如果我们想让机器向智能化方向发展,就不能让机器完全听从人类的摆布。需要赋予它一定的自由度和自主权。深层次神经网络就是根据这个原理,利用概率这个数据工具,使机器能够生成丰富多样的文本和图像。但也因为这个原因,就一定存在生成不合格和有害文本和图像的概率。这是我们在赋予机器智能的时候,所必须付出的代价,难以避免。
那么我们有没有可能通过给机器规定严格的伦理准则,来限制它的错误行为呢?实际上这也很困难。不仅因为伦理的准则很难准确描述,即便是可以定义,但也很难执行。可以举一个简单的例子,比如说自动驾驶车或者无人车行驶在普通的马路上,如果我们规定自动驾驶车必须严格遵守交通规则,这个规则应该很明确,如果路上同时还有有意无意的违反交通规则的有人车和行人,自动驾驶车是无法正常行驶完成自己的任务。比如说,自动驾驶车需要左拐并线,但是因为左路车道上的车辆之间没有保持规定的车距,自动车就没有办法实现向左并线,这恰恰说明自动驾驶车一方面要严格遵守交通规则,另一方面又要完成达到目标的任务,在不确定性的交通环境下,这两项是难以兼顾的。
可见人工智能的发展必然带来对伦理和传统规范的冲击。深度学习算法的不安全、不可信和不可靠,同时给有意地滥用带来了机会。人们可以恶意地利用算法的脆弱性,对算法进行攻击,导致基于该算法的人工智能系统失效,甚至做出相反的破坏行为。深度学习还可以用来造假,即所谓的深度造假,通过人工智能的深度造假,可以制造出大量逼真的假新闻、假视频、假演说等,扰乱社会秩序,诬陷无辜的人。
人工智能无论是被有意滥用还是无意、误意都需要治理,不过这两者的治理性质完全不同。前者要靠法律约束和社会舆论的监督,是带有强制性的治理。后一种则不同,需要通过制定相应的评估准则和规则,对人工智能的研究开发和使用过程,进行严格的科学评估和全程监管,以及问题出现之后可能采取的补救措施等,帮助大家避免人工智能被误用。
从根本来讲,人工智能的研究、开发都需要以人为本,从公正公平的伦理原则出发做负责任的人工智能,为此,我们需要努力去建立可解释的鲁棒人工智能理论,在此基础上才有可能开发出安全、可信、可控、可靠和可扩展的人工智能技术,最终推动人工智能的公平、公正和有益于全人类的应用和发展。这就是我们发展第三代人工智能的思路。
人工智能的研究和治理都需要全世界不同领域的人员参与和合作,除从事人工智能的研发和使用人员之外,还需要法律、道德、伦理等不同领域人员的参与,我们需要明晰伦理道德的标准,什么是符合道德和伦理的?不同国家、民族团体和个人,都有不尽相同的认识,因此需要全球范围的合作,共同制定出一套符合全人类利益的标准。人类是命运的共同体,我们相信通过共同努力,一定会找到符合人类共同利益的标准。只有人工智能的研究开发和使用人员人人都遵守共同制定的原则,才能让人工智能健康发展,并造福于全人类。谢谢大家。
2022-11-10 15:02:12
感谢张钹院士,张院士是中国人工智能的重要奠基者和发展推动者,对我国人工智能科研技术发展作出了卓越贡献,张院士演讲中提出了对人工智能治理分类的设想,对我们后续研究都有很重要的价值。下面有请之江实验室主任,中国人工智能产业联盟副理事长朱世强上台演讲,题目是《张弛有度话伦理》。
2022-11-10 15:09:28
各位领导、各位嘉宾:下午好!
很高兴有机会跟大家做分享,今天的话题非常重要,而且在一定程度上也是有争议的,所以我认为一个开放的探讨对未来的发展至关重要。那么关于人工智能和数字的伦理,我个人的观点是张弛有度来讨论这个话题,但是技术仍然是当务之急。
我们来看人类社会发展的历史,人类文明的发展过程中有一个非常重要的驱动力,那就是技术。技术的进步和它成熟之后的大量的应用会对现有的社会治理、生产关系构成挑战,如果说这样的一个技术是避免不了,是势在必行的,那么社会一定会需要一种变革,在变革之后社会又调整到一种新的平衡状态,所以我们说人类社会自身是一个具有自我调整修复功能和进化功能的有机体。
工业文明替代农业文明的时候,造成了大量的环境污染,农民失地,工人被剥削等等这样一些社会问题,在这些社会问题出现之后,社会必定是要经历一个变革,于是我们建立了普遍式的教育、法治化、民主化、优良的社会保障体系,然后调整到适应工业文明这样一种的时代,于是人类就进入到了一个新的文明阶段。
近些年来,人工智能的技术被广泛地应用,也形成了一个世界的热点。我们大量使用人工智能技术给我们的生产生活带来了极大的便利,也带来了很多负面的东西。这些负面的东西引起了广泛的关注,也引起了我们对人工智能的伦理等等方面的一些思虑,甚至是过度的担忧。
那么现实的情况怎么样呢?现在的人工智能是一个弱人工智能,但是弱人工智能它有超越人类能力的一方面,人工智能在某些单项领域,比如围棋、蛋白质测序这些领域远远高于人的个体能力,但是在另外的方面,就整体的综合智能而言,所谓强大的人工智能其实又是很弱的,机器人下楼梯可能就会摔倒,一个获奖演员喜及而泣,计算机可能判断他是悲伤哭泣,诸如此类的很多问题实际技术远远没有彻底解决,人工智能确确实实处在一个初级发展的阶段。
从技术的角度上来说,智能是相对比较容易得到的,而智慧用机器复现是非常难的事情。古人说行而上谓之道,行而下谓之器,我坚信,人工智能是人类智能在机器领域的一个延伸,真正的主动权仍然是掌握在人的身上。现在任何一项技术只要是人开发出来的,总有人能够控制它,这是我的观点。所以我说技术并没有原罪,但是技术的应用是有正邪的,我们要谨慎地思考这些问题,然后在正确的道路上敏捷地前行,这才是我们至关重要的事情。所以现阶段我个人认为,我们最重要的任务仍然是发展我们的技术,让我们的技术做得更加强大,但是千万别忘了因为技术自身的问题,以及技术的滥用给我们人类带来的困难,伦理的问题,甚至是灾难性的东西,这必须预防。
之江实验室作为人工智能研究领域里的一个很重要的力量,人工智能、数字技术是我们非常重要的发展方向,我们也在做负责任的科研。所以我们面对着未来人工智能可能对我们产生的一些负面的东西,我们在做梳理。我们形成了之江实验室AI伦理图谱,从三方面(研发主体、使用者、管理主体)进行分门别类。从研发角度上说,我们要努力克服技术既有的缺陷,比如数字的偏见、安全的问题等等。从使用者的角度说,我们要开发一些重要的工具、功能,限定使用的一些错误的方向,来避免数字鸿沟、马太效应、社会偏见等等。当然,我们也期待管理者从管理的角度上也要采取一定的法律措施、规范等等来限定人工智能的一些恶意的应用,恶意的犯罪。所以这是我们之江实验室勾画的人工智能的伦理图谱。
我们的逻辑是什么呢?我们的逻辑是菜刀是用来切菜的,当然菜刀也很多次被用来杀人。但是菜刀本身是没有原罪的,我们的技术逻辑是希望以道制魔,用技术的手段把菜刀打造成锋利的,但是让它永远砍不到人头上去的菜刀,这个听起来有点天方夜谭,但是这至少应该是我们努力的一个方向,而且在这个方向上我认为我们有很多的事情可以做。于是之江实验室围绕着我们这样一种逻辑,围绕着前面形成的AI伦理的图谱,我们在构建之江实验室预防人工智能危害社会的技术图谱,我们试图用一种先进的技术来阻止人工智能的滥用和恶意的违法应用。以道制魔的技术图谱涵盖了一个是弥补技术的缺陷,保护个人的隐私,促进社会的公平等等,当然我们还有非常具体的一些技术领域,比如说我们要做可知、可控的人工智能。刚才张院士讲我们现在的人工智能是超大模型的人工智能,输入一组数据,输出一个结果,中间的过程我们完全不可理解,于是我们做可解释、透明的人工智能。再比方说安全可信方面,我们围绕数据安全、算法安全、系统安全布局了一系列相关技术。再比如说维护公平正义方面,我们围绕着数据的平均性增强,算法的平均性保障等等诸如此类的技术在开发相应的工具。还包括在社会治理方面的浙江省在推进数字治理方面是走在全国前列,之江实验室也深度参与,而且我们提供了各种各样的工具来支撑社会治理的更加科学、合理和规范。(图 见PPT)之江实验室目前有的已经做好,有的正在做的一系列的图,形成了我们预防AI危害社会的技术图谱。
以技术的标准框定未来的方向,这点前面几位领导和专家都谈到了。在标准的制定方面,之江实验室积极参与各类标准的制定,我们已经主导参与制定智能计算领域的国际和国家标准总共22项,比如我们在国际上牵头制定首个隐私保护机器学习的技术框架已经颁布。
我们围绕新一代的人工智能,要改变人工智能的不透明的现状,我们在人工智能的发展赛道上实施了双轮驱动:数据驱动、知识驱动。数据有时候我们看不懂,知识是可以让我们理解的,如果未来可以切换到纯知识驱动的人工智能,那我们很多东西就不是不透明的,不是黑箱,而是完全可以预测它的结果。所以这方面我们正在构建一个非常庞大的综合知识库,我们现在建了大概十来个领域里的专业知识库,在这些专业知识库的推动下,我们的人工智能的技术、结果它是可以预见的。
再比如我们开发了一系列的工具来遏制不良的应用,比如后量子密码关键技术平台,密码被破解会造成灾难性后果,如果量子计算机真正投入使用,目前所有的密码都可能在几秒内甚至更短时间内被破解,假如量子计算机真正出现了怎么办?我们现在正在做后量子时代的密码技术,现在已经有非常成熟的技术投入应用。再比如数据隐私平台等等一系列的工具来保障很多技术不至于被滥用或者被一些恶意的做一些攻击。
我们在突破一些关键技术来保障网络的安全,互联网大会大家广泛关注的网络的安全问题,我们研制具备可演进的基础构架,灵活可定义的全维可定义网络。我们研制并建设了具有测试验证、数字孪生、监控、评估等功能的国家级的工业控制安全测试系统,诸如此类的一些东西从硬件设备的角度来支持网络的安全。
总体我自己认为,人工智能技术目前处在初级发展阶段,我们要用更大的耐心去支持技术本身的发展,但同时又要高度关注人工智能的一些被滥用,我们更期待在法律、技术等综合的举措之下,我们来保障一个先进、合理、开放、包容、安全、稳定,富有生机活力的数字文明在中国茁壮成长。
谢谢大家!
2022-11-10 15:20:08
感谢朱世强主任刚才以道制魔的精彩演讲,特别是设立了隐私保护机器学习的框架,这个非常值得研究,我觉得会后我们可以专门就这个事情做专题的讨论。
下面,我们有请蚂蚁集团首席技术官倪行军先生演讲。题目是《蚂蚁关于科技伦理系统性建设的思考与实践》。大家欢迎。
2022-11-10 15:24:07
尊敬的各位领导、各位专家、嘉宾,大家下午好。
18年前我是一个工程师,从我加入支付宝初创团队的第一天起,怎么用代码写出让更多人使用的产品,从而切实的去解决社会需求,就是团队的初心。实际上支付宝的诞生,就源于这份为社会解决信任问题的初心,这也是我们的起点。
今天,蚂蚁的技术研发团队在公司员工总数的占比已超过63%,我们长期重点投入的分布式数据库、隐私计算、区块链、图计算、绿色计算等,是支撑AI大规模应用的关键基础性技术。在蚂蚁技术人的日常工作中,也经常讨论一些和“科技伦理”相关的问题。我们不断提醒自己,路走得再远,也不能忘了从哪里出发。
数字技术的发展,正在让科技服务更深、更远、更有效地触达用户,但在数字技术普及到一定阶段,一些存在的问题也正在引起全社会的广泛关注。
比如,不同群体、区域以及不同规模企业,在使用和用好数字技术方面,仍不平衡、不充分,数字鸿沟仍有待弥合。以老年人为例,我国60岁以上的网民已经达到了1.2亿,但这些老人中,仍有30%的人无法独立完成健康码、行程卡出示,仍有接近一半的人无法独立在网上购买生活用品,仍有三分之二的人不会叫车、订票、挂号。
在数据价值日益凸显的同时,保护用户隐私,保障用户知情权、选择权,也成为社会重要关切。蚂蚁集团研究院和人民大学、对外经贸大学共同开展的一项大规模算法调研发现,八成用户希望有个性化推荐,但同时有六成用户担心个性化推荐侵犯个人隐私,多数用户表示希望有关闭选项,可以自己确定或者排除某些标签。这表明,智能服务虽好,但目前用户用得不够放心、不够安心。未来,需要进一步回应用户关切,更好地保护用户隐私,并让用户更便捷地行使知情权和自主权。
此外,随着智能化的发展,人工智能等科技系统的可信安全问题,成为了新的议题。新一代人工智能是数据驱动的,是机器的自我学习,而不只是依赖于人为信息和知识的输入,这就可能带来系统的不够鲁棒、不可解释、不够可靠等问题。特别在诸如医疗、制造、金融等与社会生活息息相关的领域,机器学习模型做出错误预测的后果往往是难以接受的。
针对这些问题,蚂蚁已经在无障碍和适老化改造、保证算法公平性、增强算法普惠等方面做了一些工作,未来会持续和伙伴们一起,不断提升科技服务的可得性、可用性、公平性。从2015年起。蚂蚁开始积极投入可信AI的技术研究,我们集成1000多件可信AI专利能力,打造了业内首个面向工业场景全数据类型的AI安全检测平台“蚁鉴”,帮助开发者实现不同场景下AI算法的系统化和自动化评测,这将有助于行业打造更安全可靠的AI产品。未来,我们将和行业继续一起努力,从算法技术、知识体系、可信评估等多个维度,系统性地去保障AI的可信安全问题。
尽管蚂蚁在这方面做了一些努力,但是如何更好地回应政府和社会的关切,如何更好地实践科技向实、技术向善,我们还有很长的路要走。 我们认识到,碎片化的思考和行动不足以回应时代的要求。 作为一家受益于科技创新成长起来的企业,我们认为,应该把科技伦理融入到公司业务和产品生命周期中,始终秉持对用户、对行业、对社会负责任的态度,让科技服务有温度、更平等普惠、更可信安全、更便捷,更好的服务于数字经济高质量发展和高水平安全。
去年,蚂蚁和省内一些学术机构和同业一起发起成立了浙江金融科技伦理委员会。蚂蚁旗下的数字金融平台发布了平台自律准则,明确了在产品展示和营销等方面什么必须有所为,什么要坚定地有所不为。在产品上,我们上线了用户保护中心、消息刷子、额度管理等功能,进一步保障用户的知情权、选择权。
今年6月,蚂蚁集团正式启动了ESG可持续发展战略,并将“科技伦理建设”作为重要子议题,上升为集团重点工作。近期,我们在内部成立了由我和首席法务官担任联席主席的科技伦理委员会。接下来,我们也将成立顾问委员会,邀请业界资深的专家学者,参与和指导蚂蚁的科技伦理建设工作。
蚂蚁集团对于加强自身科技伦理建设的认识是在不断深化的。 认真聆听公众和用户的声音,积极回应政府和社会的期待,系统性地建立蚂蚁科技伦理体系,是我们的主动选择,是我们对用科技为社会解决问题这一初心的坚持,也是我们持续努力的方向。
我们坚信,科技能够让社会更美好,我们也期待,与各方一起努力,以负责任的态度,为数字经济高质量发展和高水平安全做出贡献。
谢谢大家。
2022-11-10 15:24:18
感谢倪总的精彩发言,蚂蚁集团是一家知名金融企业,也是知名的信息服务企业,谈到对企业全生命周期中建立科技伦理的治理机制,这是令人欣喜的。特别值得高兴的是我听到您讲到的是要开发面向老年人的适老化的服务和管理,今年12月初,联合国互联网治理论坛将在埃塞俄比亚首都亚的斯亚贝巴举行,我们今年申请设置一个专题,这个专题是网安协会牵头设立的,题目是老年人的个人信息保护和数据安全问题。我们希望将来有更多的企业面向老年人可以提供更多的安全的技术、产品和服务。
围绕着网络空间的发展和服务,围绕着数字化合作,特别围绕着数字经济新的发展在大湾区已经有很多的探索,下面有请香港特区政府数字经济发展委员会委员、大湾区国际科技协会香港会长、原香港特区政府资讯科技总监杨德斌先生作视频演讲。
2022-11-10 15:25:34
随着电脑计算能力越来越强,它能为人类做的事情就越来越多。许多之前是靠人力做的,由于工作的重复性、危险性、成本问题,都逐渐被机器所替代,比如智能制造方面看到的“黑灯工厂”、无人机可以代替人类探测下水道,机器人可以代替保安做巡逻工作等。
由大数据引发的机器学习近几年来在各行各业百花齐放,早在2016年,Alpha Go先后击败职业九段围棋高手李世石和排名世界第一世界冠军柯洁。近几年来,机器学习在无人驾驶、医疗诊断,甚至在写作、画画、作诗方面都取得相当的进展。尽管如此,人工智能与人类智能还是相去甚远,其实人工智能与人类智能可以比喻为龟兔赛跑,当然人类是兔,机器是龟。随着人类越来越依赖机器,机器能为人类做的事情越来越多,情况将逐渐改变。当人类把事情交付给机器时,我们会不会变懒了?甚至变愚蠢了?我们举个例子,之前我们会记着几个经常联系的家人和朋友的电话号码,现在只要用手机语音自动拨打便可,我们就不用记着这些号码了,久而久之,人类的记性便会变差了。我比较担心的并不是机器学习会有一天超越人类,而是人类因过度依赖机器而变得不智慧。龟兔赛跑是寓言故事,它告诉我们不能因自满而输给竞争对手。在人类与机器智能方面我们可以教懂机器变得更智慧,而且可以适当约束机器的破坏能力,让其不危害人类,但人类应该更自我提升,避免逐渐退化。
最后,我想借这个机会向大家讲讲香港在人工智能方面的发展。
香港政府今年5月启动了一个创新平台,集中发展人工智能及科技,尤其是在金融服务、智慧城市和先进制造等领域,科研聚焦涵盖大数据分析,机器学习、认知系统、智能代理、医疗机器人及其他类型的机器人等。今年10月,施政报告里说在这个领域加大力度,力求吸引全球AI人才和公司落户香港,利用香港高度国际化和大学的先进研发资源,共同为国家打造数据强国。谢谢!
2022-11-10 15:29:29
感谢杨德斌会长,刚才的演讲言简意赅。下面,有请2007年图灵奖获得者、世界顶尖科学家协会会员约瑟夫·斯发基斯进行视频演讲。
2022-11-10 15:32:41
我是约瑟夫·斯发基斯,2007年图灵奖获得者,很高兴能在2022年世界互联网大会乌镇峰会发表演讲。
首先,我想说的是人工智能的革命使得自动化系统转为自治系统。这实际上这也反映了从弱人工智能向通用人工智能转化的趋势。众所周知,自治系统是物联网愿景的核心,因为在现有组织中需要自主主体取代人类来进一步整合各类系统,所以自治系统应运而生。有很多例子,比如自动驾驶汽车、智能电网、医疗机器人等。自治系统和娱乐型机器人或智能助手有很大不同。自治系统也不同于自动系统,如飞行控制器和汽车中用于计算的ADAS系统。人工智能系统非常重要。它们应该表现出“广泛的智能”。但是开发和设计的难度很大。它们应该能够动态地管理相互冲突的目标,应对复杂环境中的不确定性,并能和与人类和谐合作。现今的挑战是,自治系统过于依赖人工智能赋能的组件。所以从另一方面来说,他们必须满足较高的可信度要求。这是一个问题。当我们制造人工制品,比如建造桥梁、或者制造飞机时,靠的是科学技术,也就是说靠的是被称之为基于模型的技术。科学提供模型和解释,预测和可解释性是可信的基础。它是通过分析和概念化实现的。
现在,当我们使用人工智能支持的技术,比如神经网络,它们的知识是基于数据的。它们会创造知识,也允许我们进行预测,我们可能听说过人工智能的知识能力,但我们不了解它们是如何工作的。所以为了更清楚地说明这一点,让我比较一下科学知识以及源于神经网络知识的产生过程。
这里有几个步骤。我想到一个物理实验,伽利略的一个著名实验让他知道力和下一个加速度之间的比例关系。因此他总结观察的现象,推理出了著名的公式,你看,这是对现象的解释。现在,当我们想要建立一个神经网络,使其可以区分图像和实物,会有一个实验阶段。首先,我们将图像展示给人类,然后用数字在神经网络内对图像进行标注。但问题是我们如何解释这个神经网络的行为?我们还不知道,目前没有任何相关理论。这是一个问题。
还有一个问题是我们是否会通过人工智能系统,或许我们知道为保证可靠性对于关键系统,其设计技术有相关国际标准严格把关。所以,如果你买一个烤面包机,或者建造桥梁或飞机时,它们会是可用并且足够安全的。
现在,建造这样的人工产品必须符合有独立机构监督实施的标准。现代社会的机构在向公众传递什么是公平、合法、安全这方面起着非常重要的作用。而数字系统的标准也需要基于模型的技术。现有的标准并不适用于人工智能。也因为这种可解释性的内在限制,在未来也将不适用。所以十分有趣的是,如今出现了一些与关键系统工程中传统做法相反的趋势。例如,有大型科技公司为自动驾驶平台开发实现机器学习的端到端解决方案。那么我们是否要使用自动驾驶平台?或者在某些情况下,关键软件可以通过不断的更新进行定制。比如说有些车的软件是每月更新一次的。此外,值得注意的是,美国联邦和州立法和法规机构允许使用自治系统的,我们称之为自我认证。这听起来有点奇怪,因为一个独立的组织是不能够保证系统的安全的,只有制造商才能保证。当然,你可以想象得到,这可能会引发一些伦理问题。现在,关于伦理问题,我大致地发表一下我的看法。我认为,正常的伦理就是要做出正确的决定。为了做出正确的决定,首先你应该有选择的意识。
我想到了信息通信技术,技术进步被认为是一种不考虑社会影响的目标。比如说我们知道广泛使用人工智能可能会意味着失业,可能会有一些社会和文化影响。今天在我看来,公共当局对信息和通信技术可能造成的社会不当行为的程度还是漠不关心,听之任之。
关于选择,另一个问题是,人们应该更好地了解选择和潜在的错误。这一点至关重要。因此,为了了解一些情况下真正的危险,有一些关于危险和威胁的方法论。他们的出现并不是一种我们无力控制的宿命,你们应该听过技术奇点吧?我还认为大型技术公司并未努力来告知公众。今天人们已经准备好接受错误的想法或自我审查和顺从,因为他们被合理使用人工智能的不同意见所困惑。所以有些人高估了潜在的危险,并通过使潜在的风险最小化来推动对新技术的接受和采用。因此,我认为社会必须要创造条件,进行冷静、知情和合理的辩论,这一点十分重要。当然,我们应该寻求一些平衡,就是在严格执行风险预防原则和接受创新以提高效率或质量等方面取得平衡。
在欧洲,我们有欧洲法律。有这些风险预防原则,所以我们不会在不了解其风险的情况下使用自动下载系统。现在,下载系统面临自由选择与性能之间的窘境。问题是,我们是否应该把决定权授予系统,计算机在不了解它们是如何做出决定的情况下,它们是否运用了真实以及无偏颇的知识。当然,我们也应该确保性能带来的好处值得我们去冒风险。
最后,我认为另一个重要的困境是我们应该怎样为人和机器进行分工。大家知道创新和技术进步可能意味着技能的损失,而这会随着新技术的发展而发生。问题是很难想象机器可以超越人类的智慧。尽管如此,如果我们贪图智力上的懒惰和安逸,人类的智慧也可以被驯服和征服。如果我们被机器的复杂性所击败,对人类来说是非常糟糕的。我的演讲就到这里,感谢聆听。谢谢大家。
2022-11-10 15:45:45
面对这个技术进步带来的伦理挑战,我们需要思考的东西非常多,但是刚才这个演讲让我们看到一切是面临着不同的选择带来的结果。当我们看待自治系统是基于模型和数据的培养,来形成今天的技术创新。而这个模型和数据本身的筛选就是由我们的选择来决定的。这种选择的基础是否正确,这始终伴随着技术的创新和我们的成长,在这个过程当中我们需要不断的思考,这里面非常重要的是保持这样一种平衡。只不过这个平衡本身也是选择,所以在这个里面当我们去思考人工智能伦理的技术逻辑,本身是需要进行选择的,思考人类的未来的空间的时候,我们需要看到我们必须要和人工智能共存,需要去考虑在这个共存当中是要有相互的帮助,互助而不是完全依赖于人,因为决定我们未来的是我们自己。今天我们是第一次探讨人工智能伦理的话题,第一阶段的话题就到这里。
下一个议题,是数字伦理的法理与道理——现实世界与数字世界交融的秩序与规则,我们探讨这样的话题,也是希望在今天的数字世界的快速发展进程当中,和我们现实世界的融合之中,很多运行的规则我们需要去发现,它的规律到底是什么?它的规则构成是什么,相互关系是什么,未来发展的空间到底在什么地方,我们需要去思考,而不是等待着下一代人去解决这个问题。所以在这个思考当中,首先有请全国人大宪法和法律委员会副主任委员江必新做演讲。
2022-11-10 15:53:32
尊敬的贤良秘书长,各位领导、各位专家、各位同仁和新闻界的朋友,大家下午好。非常感谢我们这个论坛的主办方邀请我来参加一个全新领域的论坛,对我来说是一个非常好的学习机会。
从昨天参加会议到今天,我一直在围绕这个主题不断的思考,原来有一个讲稿,但是后来我考虑结合最近几天的所见所听,我想谈谈个人的学习体会。
讲三点体会:
第一,我们为什么要建构数字伦理,建设一整套的规则秩序。简单归纳为“五个源于”。
第一源于数字技术和人工智能的二重性,带给我们很多利益,但是它带来风险,安全的风险等等,多方面的风险。这是源于它的本身的二重性。
第二源于数字网络的无边界性跨国性专业性非透明性,这样一个性质,为什么这种性质会需要一个伦理规则呢?因为外部的监管很难有效,很难完全有效所以需要有一套伦理规则,自我约束的一种伦理规则。
第三源于法律规范的局限性,和其他治理方式的局限性。治国理政的方式很多,有政治、德治、权治等很多种方式,法治是最基本的治国理政方式,法治本身也并不是完美无缺的,也是有局限性的,尤其是在跨国性,而且在模糊性非透明性专业性极强,有算法黑箱这种情况下,法治手段有时候鞭长莫及。所以德治伦理治理就显得非常重要。
第四源于伦理道德对于人性人类的不可或缺性。我们人类的终极目标是什么?为什么这么活?很多人类学家都回答这个问题,最终我认为有一点说服力的回答是人性的自主,人性的完善,这是我们最终的目的。正是因为这一点,我们需要有一个伦理,建构一个伦理秩序。
第五源于网络安全对于发展,对于人类道德的依赖性。我们要快速发展,我非常赞成朱书记的观点,我们不能因为这个去制约技术的发展。我们的目的还是要促进它高速的发展,但是越是高速发展,越是要有一个制度性,我们一个飞机,一个高速列车、高铁,如果没有一个很好的制度,反正我是不敢坐的,首先一定要有一个好制度,才能够速度高起来。这个伦理法律规则就是一种制度。我们制度的效果越好,就可以让它的速度飞得越快。
为什么要建构伦理呢?数字伦理、人工智能伦理呢?无外乎这么五个方面的源于。
第二,我们如何来建构一个伦理体系?直到昨天晚上我还是在想,怎么样系统的来建构一个能够概括覆盖我们所有的数字领域的一些伦理规则,后来我发现这个太难了,一个本身这个领域非常复杂,第二而且是不断的在变动之中,另外各个国家各个地区有它自己的特点和特有的价值观。怎么办?大道至简,怎么样建构这个体系?我觉得首先从人类的基本共识开始。
曾经参加过一个宗教大会,世界上所有的宗教共同能够形成共识的是什么呢?两句话,第一,己所不欲勿施于人,这句话是管作为的。第二,你希望别人怎样对待你,你就怎样对待别人,这是管不作为的,一个管作为,一个管不作为,这两句话构成了人类的基本共识,我们可以称为元规则。这是中国孔夫子讲的,恰恰是中国儒教的基本的一个理念,基本的一个规则,为人处事的规则。
基于这两个,可以分化为三条,三个方面的二级规则,可以把这两个规则作为元规则,作为一个顶层的一级规则,然后在这个规则的基础上深化出三个基本规则,三个基本规则我概括为:
一是拒绝自贱,要以人有福,能够增加人类的福祉,要尊重和捍卫所有人的自身的尊严和价值,不允许做出任何反人类、伤害人类的行为和设计。我觉得这就是之上我们刚才讲的科技向善、数字向善、人工智能、智慧向善。
二是拒绝虚假,透明互信,这个问题是求真,为什么把这个真的问题,为什么要纳入到善的问题,一个伦理的问题来看?因为现在我们面临着深度伪造等等一系列的问题。未来这个问题可能会更加显现和突出。
三是拒绝丑陋,美美与共,这是求美。
第二个层次的规则,三大规则就是求善、求真、求美,这也是人类的共识,大家都追求真善美。
第三个层次的规则,根据前两个层次的基本规则,我们根据不同的时期、不同的主题不同的环境不同的领域形成具体的规则,因为这些规则我觉得它既是多元的,应该是多元的,不要一刀切,也不可能一刀切。但同时又是变化的,根据情况不断的变化,因为我们现在还是初步阶段,人工智能是初步阶段,超强的人工智能将来用现在的规则显然不能约束未来的人工智能。所以它是变动的,不要指望毕其功于一役。
第三,怎样使规则从理念变为现实,因为这个东西靠内心,靠人的良知来约束的,所以它没有强制力,很难有国家的强制力保障,所以在这样一种情况下,建立什么样的机制才能使它变为现实?这是我们必须加以考虑的。我只是提出一个初步的想法,我概括为六全。
全理念,就是在理念上要处理好五类关系,第一规范和发展的关系,我们在不同时期不同的阶段,这个是要调整的,也时候以发展为主,也时候以规范为主。当前还在一个发展阶段,我们技术还有卡脖子的问题,必须要鼓励发展,但是要规范,但是我们要把手段和目的弄清楚。比如说规范与发展,要划定边界、底线,鼓励创新。第二要处理好问题导向和系统思维的关系,每一个时期都有一个热点,这里出来问题大家都在规范,那里出了问题要规范,问题导向是对的,但是不能完全跟着问题走,跟着问题走有时候缺乏系统思维,会带来一种倾向掩盖另一种倾向,治了个病,那个病又冒出来了一定要有系统思维。第三是要做到统筹运作,以分类分层分级分阶段相结合,一个要统筹,但是一定要分级分层分类分阶段,这不能说是一刀切,不能说越简单越好,大道至简,但是简和繁的关系,没有繁简不起来,所以只能是先简后繁,由繁返简,这个才是有效的。第四是宣传引领宣教引领与机制约束关系,一方面要宣传教育,更重要的是机制约束。第五,维护国家主权安全和发展利益,以构建人类命运网络数字科技命运共同体的关系,这个问题各个国家都面临,你不处理好,就不行,一方面中国特色,中国的价值观,但另一方面人类共同的价值,怎么样做到融合,这是我们建构这样一个伦理秩序必须要处理好的关系。
全主体,什么是全主体,每个人都有责任,对自己负责、对人类负责、对未来负责,这个主体包括设计者、生产者、应用者、消费者还有管理者,管理者、监管者也在其中,不能置身事外。全主体第一每个人都有责任,对自己负责,对人类负责,对未来负责。全主体还有一个含义,公平的对待每一个人。全主体的参与决策者使用者使用者,所以这叫全主体。
全链条,全链条就是要建立标准,要标准体系、评价体系,监测体系、问责体系、保障体系,所有的链条都要动起来、连接起来。
全要素,包括设计、算法、数据等等,与人工智能、与大数据所有的要素都要进行规范和设计。
全周期,包括设计、研发、供应、使用、监管等等,这是全周期的都要设计相关的问题。
全工具,就是建立行业标准、制定技术指南、伦理框架等等,还有政治引领,德治为本,设置辅佐机制支撑,尤其是解决这个伦理问题,约束机制问题还要最终靠人工智能技术本身,用技术问题来解决能力问题。怎么样通过技术来破解伦理问题,我觉得这是一个新的思维。
2022-11-10 15:56:36
感谢江必新主任刚才精彩的演讲,作为法学家,我们感谢他对网络安全的规则体系的贡献,在他担任最高院领导的时候,我们通过了《网络安全法》,在他担任全国人大宪法法律委员会领导的时候,我们通过了《数据安全法》,我们社会的规则体系在不断地完善中,但是一个法学学者确实站在技术逻辑的角度在思考人工智能和伦理的关系,这是值得我们思考。如果我们各领域,经济社会各方面认真思考这样的一些问题,追本溯源,想清楚各环节,包括全要素、全工具思考这些问题,我想我们的生活和工作一开始可能会累些,但是后来会越来越好。
2022-11-10 16:06:35
尊敬的阁下、女士们先生们,大家好!我是拉蒂夫•拉蒂德,森堡大学教授以及全球IPv6论坛主席。
中国已成为最有发展前景的国家,因为积极拥抱以IPv6为基础的新时代互联网,所以中国是一个很理想的地方来探讨人工智能以及对AGI(通用人工智能)的讨论。区分此两种人工智能的差别尤其重要,特别是涉及到伦理道德的时候。道德原则具体是指支配一个人的行为或进行一项活动时的道德原则。人工智能尤指计算机系统对人类智能过程的模拟,通用人工智能强调自动化,所以是更难版本的人工智能。我认为在一段时间后会变得很重要,虽然自动化人工智能从最初至今已经经过了很多的讨论。
了解两种人工智能的优劣很重要,通用人工智能一般适用于自动驾驶领域,而人工智能主要强调自动化来解决问题进行任务处理。中国是非常现代化的国家,根据历史追溯到公元1000年,中国是全世界最富有的国家,而今中国也是GDP排名第二的国家,位列美国之后。这些都说明中国的国力之强,是世界最成功的商业经济体之一。同样我们也看到中国在新型互联网技术方面取得的领先地位,特别是IPv6的部署与发展,目前印度IPv6用户数已经位列世界第一,拥有6亿9千1百万用户使用IPv6(互联网第六代协议)这一数据远超拥有76% IPv渗透率的印度,4亿4千3百万用户。所以我认为在技术革新的加持下,亚洲会成为互联网的中心,这其中就包括人工智能技术和通用人工智能,我的两位好友对IPv6的发展和部署,做出了长期的努力和卓越的贡献,一位是刘东先生,另外一位就是非常著名的邬贺栓院士。我们在2003年11月就开始不遗余力地推动IPv6事业,在产业界和学术界的发展,我们面临的一些主要人工智能伦理道德问题非常重要,值得我们深入的探讨。
首当其冲的就是失业率和财富分配不均的问题。根据麦肯锡咨询公司近期的研究表明,截止2030年将有8亿人失业,我们应当重新对教育体系从而修复这一问题,我们的研究表明全球有10%的人口拥有大学学历,这不足以让人们挑战更多的任务和进行更有创新性的工作。
所以我比较了全球不同教育体系,发现德国自二战后其教育体系建设相对较好,首先,大学教育是免费的,其次就是双元制职业教育模式,选择此方向可以直接跳过大学教育从事职业专业学习,所以不难看到很多优秀的企业家并没有博士学位,而是受益于双元制教育得以为社会做出贡献。所以教育承载的任务更多,更让那些不具备专业技能的人,且容易被机器替代掉的工作通过教育来完善,所以我们要重视这些问题。
其次,我们应该实施类似欧盟已经实施的GDPR法案用于人工智能的约束。可以是自愿性规则并产业支持。我已经看到一些公司在将伦理道德嵌入人工智能,所以人工智能应该是对社会有益的,应当避免造成偏见,做到公平、可靠和安全、隐私和保障,包容、透明、责任,设计规则支持科学追求。来自英国科学院的皇家社会规则中对使用数据的要求提到,保障个人和集体权益,确保数据管理和数据使用所影响的权衡以透明、负责和包容的方式进行,寻找好的做法,从成功和失败中学习,加强现有民主治理。各个国家都应该有类似的规则对人工智能的发展进行约束,避免对数据的滥用。这也是我们要仔细研究的部分。互联网很好,但也有问题,我们应该保护人工智能的发展,避免伦理道德的问题发生。
未来10年找到问题很关键,即探索人工智能和通用人工智能技术发展遇到的伦理道德问题。我们不必担心,如果我们一方面反思如何改善教育体系,另一方面让产业和政府知晓这些问题,齐心协力防止数据滥用问题,这些问题都会迎刃而解。人工智能极具价值,但必须小心其带来的问题。感谢大家聆听!预祝大会圆满成功!
2022-11-10 16:25:30
感谢拉提夫·拉蒂德的精彩发言,下面有请中国美术学院院长高世名先生进行分享。
2022-11-10 16:30:08
各位专家、各位同仁,2020年,新冠疫情开始肆虐全球,中国美院有三位本科生联合创作了一幅科幻作品叫《无限分之一》,这件作品目前已经入围了世界范围内数十个重要的国际节展。这个作品的设定是2020大疫之年,三个年轻人接受了生命冷冻实验,陷入长久的沉睡,几百年之后他们被唤醒,那个未来世界早已实现了人机接口和脑际接口,人类上传了所有的知识和记忆,无私分享,共同拥有所有的信息,形成了一个共脑。这个全体人类的智慧集合,正在汇集一切力量突破人类的极限。然而,随之而来的却不是新的突破,而是创新能力的丧失和永久的停滞。因为人类社会已经没有了差异性,甚至人类已经没有了社会。于是,人们只好唤醒数百年前冷冻的这几个差异性备份,重新来激活人类社会的创造力。这三位21世纪的来客刚刚苏醒就面临着命运的选择,是否要上传记忆,是否要融入共脑,这里涉及一系列关于自我与存在,永生和虚无,人性与伦理的终极性命题,与我们这场论坛的主题息息相关。
共脑状态下的存在是否还是人类?共脑之中我在哪里?创造性与差异性的关系为何?创造性是否只能以个体性作为基础?这一系列追问令我们反思,今天全球网络万物互联状态下的超级智能计算不就是共脑的一个雏形吗?这件作品提醒我们,各种各样微观和宏观的增强技术正在逐渐地、不断地把我们改造为非人或者新人,人的危机正以前所未有的压迫性逼到了我们面前。
在20世纪,广义相对论瓦解了“现在”,量子理论重新定义了“这里”,在21世纪下一个被重新定义的被更新的将是“人”这个概念,我们正在见证和经历有史以来最具颠覆性的技术变革,这些技术变革也正在重塑人的形象、我的意义。然而,在过去半个世纪,数字智能科技的主要成就基本上只是研制出无数中数码的物件,数码的客体,这些数码物件加速了社会的自动化,也加速了人的异化。
我一直呼吁的是除了Digital Object的研发,我们更要推出数码主体的探索,我们需要从中发展出一个数字智能时代的新的人学。就这种新的人学而言,最大的挑战、最大的启发莫过于人工智能。
其实与互联网猝不及防的大爆发不同,我们对人工智能已经有了几乎一个半世纪的心理准备,100年前人类没有想到过会有互联网这个东西,但是在19世纪以来人工智能就是科幻小说和各类预言最为钟爱的主题,以至于它占据了我们关于未来的主要的想象空间。那么我要说它窄化了我们对于未来的想象,似乎人类未来的主要内容就是与机器的斗争,就像电影《黑客帝国》所呈现的那样。在《黑客帝国》这类科幻影片中,人与机器的斗争掩盖了一个根本的事实,就是即使在未来决定人类命运的依然是人与人的斗争,如果那时我们还可以被称作人的话,因为通过新技术极少数人将把绝大多数人类变成无用之物,变成那个作为日常生活的消费者,变成一个虚拟世界的永远的沉浸者,也是沉沦者。同时,也就变成了现实荒原中的赤裸生命、肉身电池。
寻着《黑客帝国》的根本逻辑,未来人类的根本困境必然是身心的分离,这是人机复合体的副作用。在未来,或许只有那个操纵者,那个终极的主人才能做好身心合一,而其他的人类心在虚拟世界,身在现实的荒漠。这将是一种技术控制下永恒的新的“冻结状态”,身心分离状态下人的主体性的丧失。或者说,人之为主体的自由意志与行动力被从现实转移,置换到了虚拟现实。这才是真正意义上的历史终结,人的终结。打破这一冻结状态,将是极少数人对抗几乎全体人类的斗争,是人机合体的终极消费者对抗同样人机合体的终极控制者的斗争,是两种非人之间的斗争。
其实即使最终的那个主权者的梦想得以实现,它成为了终极的主人或者操控者,他也会发现,他陷入的主奴辩证法的噩梦,因为只有他一个人在系统之外控制这一点,那么所有人的主人也是一切人的奴隶,他不过是整个梦幻世界的系统维护者,是个网管。
AI窄化了我们对于未来的想象,过去100年的科幻文化也把AI窄化了,机器人只是AI的一种典型形式和一个发展的隐喻,也就是人工生命。它的早期是拉美特利的人式机器,第一个人工生命的隐喻出现在歌德的《浮士德》中。歌德的学生那个书呆子瓦格纳创造出一个人造人,那是一个诡异的生命。人工智能对我们的意义不只是它可以模拟延伸和人的思维,更重要的是AI技术的发展对我们理解人的语言,人的思维,以及智能本身有着巨大的推进作用,它有助于我们探索人类的思考、学习、分析、推理、规划和想象究竟是怎样的一个智力过程。
AI不只是研究和制造的工具,更是感知和思维的工具,它是人自我认知的镜子,也是人类社会意识的镜子。甚至它不只是工具,更是伙伴,AI是我们的一部分,是我们的未来的一部分。
其实,我们所谓人的本性并非纯粹自然,因为就连生物的捕食、求生、繁衍这些行为都是被编码在DNA中一代代遗传下来的,我们从来都不是自然人,我们是技术化的人,人工化的人,我们是Human Being和Artificial Being复合体,作为技术化的感官集成的存在,我们如何去制作、如何去创造,我们还是否保有我们的主体性,我们是不是还有那种制作、创造、斗争的欲望。欲望与意愿或许就是我们与人工智能的最大差异,人工智能可以写诗、画画、作曲,可以在棋盘上战胜人类,但是它必须要接受指令才会写诗、下棋、作画、作曲,它并不具备做这些所有行为的冲动、欲望和意愿,而人类不但也欲望,还有激情。
19世纪以来的机器人幻想,让我们时常忘记了人工智能其实是艺术作品,而不是艺术家。围棋少年柯洁败给了Alpha Go,一开始他非常地伤心,但是很快又变得很高兴、很兴奋,据说,许多围棋高手都像柯洁一样为此兴奋不已,因为人工智能帮助围棋界打开了许多的新思路,而围棋的魅力当然没有消失。正如在19世纪照相术并没有替代绘画,计算机和人工智能也同样如此,因为只有人才是一切的关键。人工智能必须建立一个可预测的世界模型以及反应修正机制,这都是建立在一个理性个体的行为假设之上。
问题在于世界上不只有一个个体,还有无数他者,无论是他人还是其他的AI,如何以算法去应对无数社会性个体之间复杂的充满非理性和偶然性的相互作用,这是AI技术的难点所在,因为心灵没有方程式,社会性的心灵更加无法用算法解决。
我们关于人工智能有很多的忧虑,其中一个忧虑就是人工智能通过运算和模拟正在逐渐地替代和置换我们的感受力,AI的无限算力也对人类的想象力产生了巨大的压力和推动力。但是,吊诡的是今天我们的算力已经如此地强大,人们却常常在感慨这是一个贫乏的时代。这其中有一个悖论,作为一个策展人,一个艺术工作者我愿意乐观地说这恰恰是艺术的机会,人工智能越发达我们越需要艺术。
我们关于人工智能讨论应该跳出人类生命的想象,进入到更广阔的天地。人工智能的发展不是为了吓人,更不是为了取代人,它有自己的未来,多种未来。人工智能的发展也反过来迫使我们重新来理解究竟什么是创造,创造是最富意义的可能性的生产。想象力只是创造力的一种必要条件,而非充分条件。除了想象力,创造还涉及许多东西,好奇、冲动、感兴、关怀、欲望、价值与目的,还有最重要的是对于未知、无名的爱。只要我们还保有这些,我们就可以大胆宣布那些可以被人工智能取代的都随它去吧,让我们随AI一起进化。
2022-11-10 16:39:25
下面有请阿里巴巴安全部智能算法负责人,阿里巴巴集团科技伦理治理委员会执行主席薛晖先生演讲。题目是《阿里巴巴在人工智能伦理、治理方面的实践和思考》。
2022-11-10 17:05:49
各位领导、各位嘉宾、各位朋友大家下午好,今天也非常荣幸能在这个场合做一个分享和汇报。题目是《阿里巴巴在科技伦理、人工智能伦理和治理方面的实践与思考》。
在过去几年间,人工智能取得了长足的发展和进步,我自己也作为一名工程师看到有很多硬核领域获得了冲破,例如在自动驾驶、城市大脑,AI+X这样非常硬核和科技协同的领域,我们取得了突破,也大幅提升了社会整体的运转效率。
然而,以深度学习为代表的人工智能技术当前依然存在瓶颈和局限,比如在2018年纽约大学的一名教授在发表论文中指出,深度学习有十个问题,包括可解释性问题、知识先验如何结合、工程挑战、运算复杂度以及最关键的对数据的依赖,有很多问题,直到今天仍未有效解决。头部的科技企业科技巨头,当然阿里也是投入大量在预处理深层次模型。今天我们的深度学习模型如果从参数量来看,它是无比的强大,毋庸置疑的强大。从过去的百亿、千亿、万亿甚至到了十万亿,某一些特定领域表现非常惊艳、强大。但是人无法区分一些在人类看来较为简单的基本概念,我们也很难说这就是我们心中真正的认知和智能。
接下来我想说,迈向更加强大的更大通用的人工智能,道路尚不明确。目前我们的工业界、学术界、科研界也有很多观点,并不一致,可能唯一明确的一点就是这条道路并不好走,也许会花上一代人甚至几代人的时间探索。我非常赞成张钹院士所讲的,人工智能有远虑也有近忧。但是当下人工智能所引发的问题和争议也足以引起我们的重视,治理此类问题也是迫于眉睫、刻不容缓。
第一个风险是智能系统存在安全隐患,可能会造成重大事故。例如自动驾驶的传感器可能无法因为区分白色的车箱与天空,本质是当前我们基于数据驱动的深度学习模型,可能无法较好处理完全未过的图像。第二个风险是对话模型可能会劝患者放弃治疗或进行自杀、失控状态,因为当前我们的训练过程是黑盒的,基于数据的,数据质量参差不齐,可能甚至有害,会导致今天出现各种失控的结果,导致我们,造成灾难性后果。当我们今天试图将人工智能用于一些重大决策时,带有偏见的数据或者是设计有缺陷的算法,会导致系统做出不公平的判决,甚至造成非常大的后果。
今天一些很强大的技术,包括人工智能技术,最早提出可能是出于善意的目的,希望社会有利,但因为缺少考虑,缺少规范或者不当使用就容易产生滥用问题。众所周知,像facebook在剑桥事件中8700万个人信息被泄露,甚至被用于政治竞选。今天我们叫深度伪造,真正的名字是深度合成,今天我们都称之为深度伪造,深度伪造技术通过克隆人脸和语音在全球范围内多次被曝光用于制作和产品虚假信息以及用于欺诈等目的。今天当我们把模型做的越来越大,今天我们的模型尺寸越来越大,很多人从性能转而去关注今天我们在训练和推理使用模式时所付出的代价,这里的代价不仅是今天我们的金钱或者经济上的成本,也包括今天我们对于能源和环境的影响。
更加长远的风险,今天我们身处第四次工业革命浪潮之中,我们也应充分考虑今天科技对于人类和对于社会所造成的长远影响。例如在现代社会生活中,我们在手机上花的时间越来越多,手机也在不断影响着我们。比如说对于信息的获取,还记得前两年有一篇文章是“外卖骑手困在系统里”核心反映的问题是由于一类高度自动化决策场景,特别当这类场景决策者是机器,而被决策者却是我们人类自身时,我们应如何平衡和处理两者之间的关系。今天我们看到非常多的人谈元宇宙、数字世界、平衡孪生网络、虚拟世界中不道德行为应该如何规制、我们是否可以适用于今天物理世界、真实世界的法律规范和伦理道德,这些问题,都应得到更加广泛的思考和关注。
也正是因为我们看到过去我们面临的问题,当下我们面临的问题,以及未来我们不得不面临的问题,阿里巴巴认为今天的科技活动,我们一定要遵循一些基本准则,所以今年阿里巴巴集团也提出了科技伦理治理六项基本原则:坚持以人为本的价值导向,践行隐私保护,安全可靠,普惠正直、科技原则,我们会借助可信、可靠和开放共治的科技方法,当然这些科技原则也不是今天提出的,事实上与我们过去几年所提出的好科技、科技工艺,负责任技术,以及今年重点强调的ESG战略,充分延续和传承。我们已有一些共建实践,将在未来继续坚持和加以完善。
第一我们特别强调坚持以人为本的价值导向,因为增进人类福祉,尊重生命权利,这应该是一切科技活动、经济活动的起点。
第二关于科技原则。今天我们的科技需要满足怎样的原则,其中第一条我提出是隐私保护,因为我认为隐私是数字时代人类的基本权利,是基本的人权。
第三关于安全可靠。作为一家平台企业,阿里巴巴无论是电商平台还是云计算平台,我们肩负着千万商家、十多亿全球消费者和数百万云计算客户、中小开发者的生意或者生活,安全可靠是所有平台企业的生命线。
第三关于正直普惠。从我进入公司第一天就知道第一条价值观就是客户第一,保护消费者的权益是我们的第一要务,创始之初使命就是让天下没有难做的生意,所以我们要保护商家进行正常的经济活动。
第四关于科技方法,我们今天需要通过什么样的科技方法实现我们的以人为本,实现科技原则?第一点我提到的是可信可控,人工智能的伦理、机器人的伦理很早涉及到了,我们今天需要确保科技最终掌握在人类,被人类所障碍和信赖的。第二是开放共治,我认为今天技术伦理治理本身是一门跨学科的智力密集的和需要多方协同的复杂问题。我们需要基础理论、计算机学、法学、伦理学和社会学,很难想象今天单凭一家企业,一个机构或者一所高校能够独立完成。对于阿里巴巴来说,我们希望有外部视角,希望自己的实践经验能够对社会企业同行有所帮助。
以人为本。以人为本是我们必须要坚持的价值观,之所以提以人为本,顾名思义以人为本就是我们希望营造今天我们的科技机器与人类和谐相处的环境,特别谈到这样一个问题,可能我们不希望能看到,但如果今天真的有一天当科技我们的机器与人类发生矛盾时,我们应坚定的去思考坚定不移在想,我们今天的整个社会的价值理论、科技价值理论,应该站在人类这一边,从人的出发点思考问题。这里我认为最有代表性的一点,就是数字服务发展不应该扩大数字鸿沟。例如在中国老龄化和数字化并线而行,我们关注老年群体,我们希望我们的数字化技术能够提升老年人的福祉,而不是反过来为他们带来困扰。
第五是隐私保护,隐私保护是我们首要的科技原则,因为我们认为隐私是数字时代人类的基本权利。针对消费者因素保护我们提出三项基本原则,一是数据采集,最小必要性,我们在数据采集时会充分告知用户采集范围和潜在用途,即使是在采集后也提供方便的隐私管理工具,方便用户查询、更改或删已授权的个人信息。第二数据使用用户知情和决定权最大化,我们会在隐私协议和政策中向用户充分解释算法使用数据的原理,当然作为一名算法工程师,我也做搜索推荐,我们认为在很多场景下,其实对用户来说,我们的个性化推荐是提供了更好的体验和更加高效的人活匹配效率,但我们仍坚持提供便捷的个性化关闭入口,我们希望这个决定权最终是掌握在用户手中。第三项是不断使用技术提升数据安全保障能力,以避免我们的个人隐私信息被黑产利用,对消费者构成伤害。
第六是关于安全可靠。这也是我们的承诺,包括今年的奥运会也是第一次数字奥运,云计算能力不仅为我们提供了更强大的计算能力,更稳定的保障能力,也为我们提供了更强大的安全能力。
同时,安全可靠也要求我们对于一些新发的潜在的风险做预备,对抗样本和深度伪造,我们AI安全团队做了积极的防御和布局,以避免未来我们陷入黑天鹅事件。
关于普惠正直的原则,正直是普惠的第一步,只有公正才能带来公平,我们也建立了完善的风控体系,对于互联网的不法行为,例如假货、欺诈、作弊等行为,联通线下公安进行打击,推动了互联网售假刷单案件的判决,核心目的是希望通过打击黑产不法行为,保障消费者利益,维护市场秩序公平。普惠正直可能也会看一下今天我们的普惠,也希望今天我们的音视频技术流畅的播放企业能够为消费者带来体验。我们希望疫情期间虚拟现实技术、数字人技术能够帮助商家度过疫情,或者经济的发展。
可信可控的治理方法,因为我们需要确保今天科技被人类所掌握,所以我们也成立了集团科技伦理治理委员会,主席是我们的CTO确保技术的可信可控。同时我们希望分享我们的经验给社会同行,希望外界能够监督我们的工作,也希望我们的技术能够帮助同行获得更好的治理。同时我们也开源相关的核心技术,联邦学习等技术,能够使得我们的中小企业能够快速建立起隐私学习能力。
2022-11-10 17:06:10
感谢薛先生的报告。第二个议题涉及到的相关内容到此结束,下面进入第三个议题,是人工智能及其产业模式优化对未来人类社会生产生活形态的影响。首先有请鹏城实验室主任,中国工程院院士高文先生。
2022-11-10 17:06:51
各位专家大家好,今天我想跟大家分享的题目是《人工智能与智能算力助力数字经济高效发展》。
大家知道,人工智能到现在为止一共经历了三次浪潮,66年。这三次浪潮中这一次浪潮是从2000年启动的这次浪潮是把大数据、大算力和算法结合到一起,特别是在大数据和大算力这两方面是前两次人工智能的浪潮所不具有的一个特点,之所以能够有这样的一个结果,其实它既有外部动因,也有内部的动因。外部的动因有需求和环境,因为需求和环境都有了非常巨大的变化,内因是技术发展的情况,因为以往算力没有那么大,数据也没有那么多,所以只能靠小算力在规则、逻辑推理方面做工作。有了足够的算力,有了非常大量数据以后,就可以使得原来很难找到的一些规律,就很容易把它训练出来,所以由此产生了人工智能的这次革命。
在这里特别应该关注的是由于大算力、大数据训练有了好算法以后会产生大的模型,大模型正在改变人工智能各个领域的一些研究的情况、研究的现状,比如自然语言的大模型,早期像GPT-3,现在会有更多的自然语言处理的大模型,这些大模型的发展对整个人工智能的发展起到了非常大的作用。当然在某些特定的领域可能发展速度更快,像我们知道的这些大模型,比如对机器翻译、对语音识别、人脸识别,甚至对蛋白质折叠预测都起到很好作用。有人说以前在大练模型,现在是在练大模型,当然下一步也可能变成大练大模型。
要想练大模型很重要的一个就是要有算力,现在根据有关统计部门的分析,其实算力和国家的宏观经济发展有正相关关系,比如算力指数平均每提高一个点可能会对数字经济的增长产生千分之五的贡献,GDP也会有千分之一点八的提升。(图 见PPT)可以看出来世界上算力规模最大的是美国,它的GDP最大。排第二是中国,我们GDP也是第二。所以算力和GDP是正相关的关系。
而且算力它不仅仅对国家经济发展有很大推动作用,其实它对于科学的创新也起到了非常大的作用。我们知道蛋白质折叠是结构生物学,蛋白质折叠预测是结构生物学50年的难题,但是由于有了人工智能,所以现在蛋白质的预测已经把它解决掉了,所以这是一个非常显著的例子。
我们国家尽管算力总规模还落后于美国,但是我们的增量是全世界涨幅最快的,(图 见PPT)中国的算力发展涨幅的水平是超过10%,达到13.5%,美国、日本大概只有5.0、6.4,所以我们中国经济发展将来一定会超过美国,首先在经济发展超过美国之前应该是算力会首先超过美国。
算力今后它会像今天的电力和电力网络一样成为整个经济社会中一个比较重要的因素,我们知道现在电力它确实非常重要,有火力发电、水利发电、绿色电力等等,当然还需要电网把它送到各个使用部门、千家万户。所以我们国家在电力方面已经非常领先,超高压工程等等这是世界领先的电力水平。
我们想今后算力也一样,现在算力包括超算中心,包括智能超算、云计算中心,通过一个算力网络输送给各部门,各行各业使用这些算力解决自己的问题。所以算力非常重要,光有算力,没有把网络、算力组织起来也不行。现在国家发改委倡导了一个东数西算的大项目,它启动了算力消费时代的元年,多少年以后我们就会回头看2022年是非常重要的一年,这一年中国提出了东数西算,它会把很多算力的需求,不管算力在哪,有需求都可以通过网络把这些需求送到需要的地方,这时算力将来也会是一种消费。
我们做的主要是鹏城实验室希望可以支撑东数西算,支撑未来中国算力的发展,我们要打造一个中国算力网。我们起了一个名字叫C2NET,我们希望他可以像建电网一样建设国家算力网,像运营互联网一样运营算力网,让用户像用电一样方便地使用算力。
中国算力网总体目标是构建出一个网络的技术体系,能够把大型异构算力中心通过网络互联互通起来,组织高效协同的国家级算力基础设施,推动实现算力供给模式的变革。
当然中国算力网要想做出来也并不是现在所有的技术都就位,还是面临很多问题。首先包括算力它是异构的,然后是自治管理的,网络也是异构的,体系结构也是异构的等等,这些异构和自治管理导致想把算力协同起来或者标准化的规范起来送给用户还需要有非常长的路要走。
中国算力网不是刚刚开始,早在2019年就承担了国家发改委的一个项目,这个项目是要搞异构的算力不同中心把它给规范起来,这个项目总投资是3.5亿,已经以今年6月份完成验收,这个算力网络基本可以容纳华为的NPU、寒武纪的芯片、英伟达的GPU等等20多个异构算力的集群给组织起来,总合起来的算力有2.3亿次操作,当然这是16位的。
这项工作我们同时配合着也做了一些标准化的工作,制定了一系列的相关标准,这些标准有的已经通过,有的还在制定中。
中国算力网0.1结束以后,现在正在推动中国算力网1.0版的工作,这个工作执行期是从2022年7月份到2025年12月份,我们希望中国算力网1.0做完以后,就可以集聚更大的算力,有更多的东数西算的中心可以挂在这个网上让大家使用。
总结一下就是整个从超级智能算力来说,一个很大的成果是产出了大模型,这个大模型是智能时代重要的生产力。算力网是算力发展的必然趋势,就像从电力跨越到电力网一样,这个趋势随着时间推移一定会出现。鹏城云脑会成为中国算力网若干个实验的节点之一,鹏城实验室会牢记国家使命,联合各方战略科技力量,全力推动中国算力网的研究和开发。
这项工作直接得到国家发改委和国家科技部的支持,也欢迎各位如果有兴趣,或者有这方面的工作的范围,也欢迎加入我们的团队,一起来做好这项工作。谢谢大家。
2022-11-10 17:13:10
尊敬的各位领导、来宾,大家下午好!首先感谢大会组委会的邀请。
众所周知,全球信息科技产业正在一些热点概念和课题的激励下,开启了一轮的创新马拉松赛跑。结合主题,尤其是科技创新在行业应用端如何更好地服务于未来人类社会的生产生活,我想从以下三方面分享一些我们的方向和思考。
一、无所不在的计算,无所不在的智能
就像微软CEO萨提亚·纳德拉提出的新的系统架构以及一些AI应用所揭示出的可能性,让我们有机会从更多的新的角度思考计算,审视云和边缘的模式,甚至是计算本身,并向我们提出了新的问题,比如如何确保自身处于系统研究的最前沿,为全世界的组织和个人创造无所不在的分布式计算结构及智能体验。
二、人工智能大模型,眼下大规模语言模型正在成为一个个平台,让全世界的开发者得能通过分享平台能力来将他们的奇思妙想变成可以为更多人所使用的产品和服务。所以微软也高度关注下一代模型架构,我们认为这是一个处在突破边缘,值得我们长期探索的领域。
三、为未来计算体验确立互动规范的人机界面。数字场景和物理场景的融合不再是将来时,而是现在进行时。微软在2D视频会议和协同办公领域做了很多工作,今后我们也希望成为真正实用的3D的沉浸的混合工作场景的构建者和贡献者。包括工业元宇宙、数字孪生技术等等的普及和推广。
微软相信,一家公司存在的社会目的是为人类、为世界所面临的挑战创造有益的解决方案。因此,我们致力于将包括人工智能在内的数字技术推广到更广阔的区域,使这些技术能够推动各国、各地区的经济增长,并且助力那些主导经济增长的机构、部门强化他们的数字竞争力与数字韧性。此外我们还付出很大的努力让技术变得更可信任。
在过去40多年来,微软一直处于提供数字工具和智能服务的最前沿,借助这些工具和服务,企业和组织能够在各自专注的领域实现发展,成就不凡。这里我们也有一些探索和实践,希望与大家交流。今天我想聚焦在新零售、数字健康、可持续发展三方面。
新零售大家都不陌生,中国实际上是在引导世界潮流,在全球范围内传统零售向新零售转型势在必行,比如说拥有超过百年历史的全球第三大零售企业克罗格公司对此有清晰的认识,从而携手微软推出了零售即服务,整个体系包括了自动结账系统、虚拟店面管家、传感器网络等等,为克罗格公司自身和传统零售业的数字化转型提供了新的平台和服务,使企业可以达成从卖东西向营造个性化购物体验的升级。很重要的一点是克罗格本身也由此从零售商进化为零售+IT解决方案提供商。
在零售领域借助微软提供的人工智能技术和解决方案,实现成功转型和新商业机遇发掘的客户和案例还有很多,比如凯德集团联手微软打造了面向未来商业新物种“来探Next-ten”全球首店。全球最大的酿酒制造商百威英博也使用微软的数字孪生技术构建供应链模型,以酿造更优质的啤酒等。
在数字健康领域,微软启动了人工智能健康计划,支持非营利组织、研究机构利用人工智能技术改善社区和提升个人的健康水平,例如对神经退行性疾病、糖尿病、肿瘤等疾病,在安全监测、健康管理、慢性病早期诊断与管理相关研究,为解决行业核心痛点问题,技术创新奠定了坚实的基础。
我今天想重点讲讲可持续发展领域。微软通过可持续的智能云为绿色计算作出贡献,不断减少在自身业务流程和供应链中的碳排放,并推动碳减排、碳捕获、碳消除等技术的研发,发布了可持续发展云服务,为制定了碳减排目标的企业或机构提供全面、集成、自动化的可持续发展管理,从而应对环境挑战。
我想举两个例子。一是微软与海上风电技术解决方案提供商远景科技共同创建了能源产业数字化的优秀案例。远景科技将其开发的能源物联网平台部署在微软的智能云平台上,并通过PaaS服务,实现对能源物联网的智能协同管理,通过这套系统,微软帮助远景赢得了更大的全球发展机遇。
同时微软与自然山水保护中心合作打造了地球人工智能计划首个在华落地项目,成功入选联合国生物多样性公约第15次会议生物多样性100家全球特别推荐案例之一。
我们聚焦计算本身,推动算法、模型、软件、硬件的创新,助力微软产品和技术拥有更出众的计算能力,尽最大可能减少能源和资源,让计算机技术本身低碳环保做到极致。同时我们与产业界的合作伙伴合作,深入生产过程中的各个实际场景,帮助企业、行业、城市、跨区域组织用创新的计算技术实现资产运营、业务流程和供应链中的最大限度地节能降耗,通过数字化转型助力碳减排。同时与学术界专家学者们合作,聚焦跨学科的基础研究,深入环境、地球、土壤、大气、材料、能源科学等等领域,用计算创新推动碳移除和富碳技术的发展。
在人类共同面临全球变暖的生存挑战下,微软希望努力发挥计算创新能力的最大价值,助力大家实现碳中和目标。
当我们在加速普及积极利用人工智能技术的同时,还应当对技术发展过程中可能引发的道德、法律,以及潜在的负面影响给予更多重视。在微软,我们始终确保自身创新能够满足以下四方面的要求:
一是支持包容性的经济增长,确保与我们创造或者参与贡献的经济机会可以更好为每个人、公司、社区、国家所利用。
二是支持建立健全有利于实现人类进步和公平的机制,让更多的人可以参与进来,享受到科技创新的价值。
三是我们需要用有限的资源创造一个可持续的未来,确保经济增长不会以牺牲环境为代价。
四是要推动信任,信任与我们的客户与合作伙伴保持一致的商业模式,这也是技术及创新的一个基本准则。
预计未来几年内,科技支出占世界GDP的比例将会持续提升,预计会从2020年的5%增加到10%,从通信、商业、办公到金融服务,医疗保健、娱乐、以人工智能为代表的数字技术将会为全球经济跃升到新的轨道提供关键动力。
数字技术也将会渗透到每个产业、每家公司、每个机构的DNA中。从宏观的角度,人工智能以及大规模的平台会重新定义数字生产资源,数字生产力、数字生产关系,从而对未来人类社会生产生活形态产生变革性的影响,这就是我们对即将到来的时代的判断。
在未来无处不在的计算,AI大模型,VR设备将出现在人们生活和工作的每个角落,机器学习应用从棘手的科学难题到复杂的生物化学问题,在解决行业难题的同时,为机器学习增益,相辅相成。
今天的分享主要想阐述微软自身对人工智能的使用和思考,如何更好地赋能我们的全球客户和合作伙伴。予利全球每一个人,每一个组织成就不凡。这是微软的愿景和践行的使命,长久以来,微软致力于通过持续创新,使更具包容性的技术、产品与服务普惠大众,助力每个个体和组织释放潜能,创造更多可能。谢谢。
2022-11-10 17:13:31
女士们、先生们,大家好。人工智能是一项已经在改变人类社会的科技,它能帮助人们、政府和企业解决以前需要大量资源、努力和人类专业知识的问题。人工智能已经成功应用于农业,医疗,交通以及网络安全。然而,对于人工智能的变革性的潜力我们的认识才刚开始。
当世界从信息技术的发展中大量受益时,我们也遇到了一些问题。底层网络和软件似乎非常复杂,而且随着这种复杂性的增加,错误、漏洞和攻击载体的数量也在增加。物联网的扩展带来了更多新的风险。随着它在工业、工厂和仓储中的广泛应用,可受攻击的范围也扩大了,而且网络攻击一旦成功,其潜在影响也扩大了。一位著名的人工智能研究者安德烈·卡帕斯将机器学习和神经网络称为软件2.0。这是一种新模式,在这种模式下,软件可以由算法编写,而不需要人类程序员编写和调试代码。对于网络安全来说,这是一个大问题。
对于传统软件,我们有测试和调试代码、报告和修复漏洞的既定做法。我们有方法可以从设计上使软件安全,例如网络免疫,这是我们开发的操作系统——卡巴斯基操作系统的基础。但有了机器学习,事情就变得复杂了,因为我们才开始了解它潜在的问题。在传统的软件中,开发人员根据逻辑进行编码,创建算法,如果逻辑中存在错误,也可以进行追责,如果发现错误,他们可以修复。
通过软件2.0,一个算法的逻辑,如神经网络,由另一个算法决定,并由参数来表达。而这些参数只是一堆看起来很随意的数字。在过去几年中,神经网络的规模有了巨大的增长。神经网络AlexNet是在2012年设计的,并在当时了引起了巨大的轰动。它吸引了很多对人工智能的兴趣,也引来了大量投资,它有6000万个参数。十年过去了,现在的神经网络动辄拥有5000亿到数万亿的参数。显然,没有人可以理解这种规模的神经网络是如何做出决定的。这就产生了如何解释和说明人工智能的问题。
随着人类生活中越来越多的方面被人工智能所触及,人们要求了解自动化决策背后的原因。想象一下,如果一个人工智能医生说你需要做手术,但你没办法了解它为什么以及是如何得出这个结论的,你会相信它吗?当然不会。研究显示人们更倾向于相信人类医生,而不是人工智能。这同样适用于自动化司法和银行业务,以及社会上的每一种决策。幸运的是,可解释性是一个热门的研究课题,我们已经有了可以阐明较简单模型内部运作原理的工具。
另一个问题是人工智能系统的脆弱性。例如,俄罗斯的一个警察摄像头自动对一名司机进行罚款,因为乘客没有系安全带,但其实这个所谓的乘客是个猫玩具。还有一个例子,一款流行的翻译器在被要求翻译一些无意义的文本后开始预测世界末日。发生这种情况是因为人工智能系统往往会在处理对其过于新颖的数据上表现不佳。而在这种情况,缺乏可解释性导致我们无法有效地修复算法。
如果他们能篡改你使用的训练数据,他们就能篡改那个人工智能算法本身。如果你的系统使用了人工智能,你就要考虑到威胁者可以利用这一点来颠覆它。这种攻击叫做数据中毒。最著名的例子是一家全球领先的软件公司开发的聊天机器人,被用户颠覆成了种族主义机器人。最后不得不被叫停。另一种叫做对抗样本,它利用了图像或声音可能会有一些人类无法察觉的微小变化。但这种变化可以通过专门操作,导致神经网络出现重大失误。这对生物识别认证或“了解你的客户”供应商来说可能是个威胁。如果这些微妙的篡改被应用于恶意代码,可能会使它们避开人工智能恶意软件检测系统。这种威胁再次强调了多层次安全保障的重要性。
此外,人工智能有可能被用于恶意的目的。一个最典型的例子就是深度伪造。深度伪造虽然可以用于广告、电影和教育,但也常常被用于传播虚假信息。现在一些公司禁止使用他们的云资源来进行深度伪造,很多政府也要求内容创作者明确标记深度伪造视频。
虽然我们不能阻止恶意行为者使用这些技术,但我们可以尝试预见潜在问题,并采取措施来缓解这些问题。例如,研究界正在积极开发检测深度伪造的方法。一些公司开始分阶段发布它们的新技术。他们优先向研究界开放使用权,以确保新技术如果被投放到外界不会有破坏性。正如我们所见,传统软件和网络的发展方式滋生了黑客攻击、勒索软件和数据泄露。未来人工智能系统也可能会被嵌入到我们周围的大多数设备和决策过程中。在它发生之前,我们仍有时间思考如何恰当设计,保障网络安全。即使技术还非常新,而且远未被广泛采用,但考虑风险永远不会太早。例如,我们卡巴斯基已经起草了一份针对仿生设备的安全政策。其目标是减轻在办公室使用这种仿生设备可能造成的网络安全风险。人工智能也是如此。
首先,我们需要评估将人工智能添加到某物中的风险。第二,我们需要确保我们创建的人工智能系统受到保护,不受对抗样本和数据中毒的影响。例如,我们针对恶意和垃圾邮件检测人工智能系统,进行了红队测试。我们已经制定了应对措施,以防未来的真实攻击。人工智能的目的是帮助人们工作,提高生产力和加强安全,优化物流和运输的成本。总之,是为了带来巨大的经济效益。然而,当我们带来人工智能驱动未来的同时,我们也有责任确保它是安全的,有保障的,并且能够平等惠及每一个人。谢谢。
2022-11-10 17:20:18
感谢刚才视频演讲的各位嘉宾,同时感谢前面三个议题,共有13位嘉宾的精彩演讲。下面进入到圆桌对话环节,分为两场,我们将创新形式,采取专家主持和专业主持相结合的方式进行对话和交流。专家主持希望能够主要聚焦论坛的议题进行提问和交流,专业主题会将我们收集到的网民围绕着人工智能对大众生活的影响,以及普通大众对于人工智能的好奇和向往,汇集出来的或者征集到的问题进行提问。首先有请中国网络空间安全协会副理事长黄澄清先生,中央广播电视总台记者高珧共同主持对话。
2022-11-10 17:33:42
各位领导、各位嘉宾大家下午好,我是中国网络空间安全协会的副理事长黄澄清,下面对话环节有5位嘉宾,3位线下2位线上。我们首先有请中国互联网络信息主任曾宇先生,中国社科院哲学所科技哲学研究室主任段伟文先生,东软集团联席总裁兼首席运营官盖龙佳先生上台,同时清华大学苏世民书院院长、人工智能国际治理研究院院长、联合国互联网治理论坛首届领导小组成员薛澜教授,世界工程组织联合会前任主席、中国新一代人工智能发展战略研究院执行院长龚克先生,这两位嘉宾将在云上和我们一起互动。
首先第一个问题请教线上的嘉宾,我们知道人工智能应用非常基于上下文,想请教薛澜院长,如何制定一套通用政策指导规则,以涵盖所有应用程序但又足够具体,从而规范商业行为方面发挥作用?
2022-11-10 17:39:42
首先非常高兴能够通过线上的方式参加今天的论坛,我觉得刚才您提到的问题,其实应该要问前面讨论的专家,因为他们可能能够在这一方面更能告诉我们怎么样来解决这个问题。我个人感觉,其实我们现在的确在人工智能的治理方面已经进入到一个从一般性的规则到更具体的一些技术标准,包括一些具体的框架。比如说您刚才讲的这样一套具体能够涵盖所有场景的一套规则,其实现在我的个人感觉也是很多涉及到治理方面的专家在探讨的一些问题。怎么样能够用一套框架把各种风险进行恰当的分类,同时又能够去涵盖尽可能多的场景。
但是我觉得仅仅靠这样一些规则其实远远不够,我觉得另外还要有一些技术的方法能够去来结合。比如说像刚才提到的一些方法,我觉得这样用规则和技术共同组合,来解决我们面临的治理方面的挑战。
2022-11-10 17:43:04
谢谢薛澜院长,他也是我们联合国秘书长的互联网治理方面邀请的委员,在这一方面很有经验。第二个问题,也请线上的嘉宾,龚克主席,2021年11月联合国教科文组织发布了《人工智能伦理倡议书》,从联合国组织角度,为人工智能治理提供了一个具有国际法性质的基础性文件。世界工程组织联合会是这个建议书的伙伴组织,您作为世界工程组织联合会时任主席,您对这个文件怎么看?
2022-11-10 17:45:18
谢谢主持人,我想这个文件是一个非常具有权威性的体现全球共识的文件,首先它是迄今为止,联合国系统发布的唯一一份或者说第一份关于人工智能的国际准则性文件。是以国际法为基础的,在制定过程中采取了由全球广泛参与的分子,体现了非常重要的全球共识。文件自己说是设立一种标准,而且为整个人工智能治理首先从伦理上奠定基石。特别重要的需要强调的是提出了四项核心价值观和十项基本原则。四项价值观就是尊重人权、保护生态、维护多样性、和平和正义,这四项基本原则核心的价值观在它的基础上又有十条基本原则或者指导原则,这十条指导原则和操作有关系,比如说第一条说是相称性和不伤害,说的是在特定应用场合人工智能不是越多越好,但是保证要相称,这是我们在获取数据的时候,并不是越多越好,是获取必要的数据和应用目的相互相称。如此等等,一共有十条标准。
总的来讲,还提出来11个政策应用领域,包括教育、性别平等,这份文件是中国参与制定,因为它的小组里面有中国的成员,征求意见过程中,中国充分发表了意见。这个准则性的文件、伦理的建议书,应该在中国得到更多的宣传,让更多人所了解。
2022-11-10 17:47:15
谢谢龚克,还有一个问题请教龚主席,在应对人工智能伦理问题时,您认为应该侧重于解决与人工智能相关的人类行为准则问题还是侧重于考虑人工智能技术发展的一些不确定性的问题?换言之就是,现阶段应对人工智能的伦理问题,主要是规范开发者、管理者、使用者等群体的行为,解决人的问题还是通过创造更有效负责任的技术以技术解决技术的伦理问题?
2022-11-10 17:49:19
这个问题是这样的,可能不同的专家或者不同的工作人员,基于不同的工作职责有不同的侧重。但是总的来讲,我想这两个方面,不是谁重谁轻的关系,也不是谁先谁后的关系,而是要彼此配合。比如,很多发言人谈到了现在我们讲的伦理,特别张钹老师的发言我非常赞成,我们现在面临的伦理问题并不是一个所谓人工智能过于强大而产生的伦理问题,恰恰是人工智能不够强大,不完善,不可解释,不可信,不可靠所产。生的问题,产生这些问题是靠技术发展、技术完善去解决的,这是一个非常重要的就是要解决的不可解释性问题。刚刚图灵奖获得者也说,我们可以用预测可能造成的伤害来做一些处理。但是根本上来讲,将来这个算法必须突破可解释性。突破了可解释性以后,在这个基础上才能谈得上可靠性,才能谈得上鲁棒性。所以这个没有一定的技术发展,面临着一个不可靠的技术,光是有法律法规也是不够的。
另外一方面,这些技术的发展过程中虽然不完善,但是已经比较强大了,可能会被滥用,比如说深度造假,可能被滥用做虚假的信息,这个一方面需要技术来对这种滥用进行识别和防范,另一方面需要法规对这些滥用者进行处罚,进行规范。所以这两个方面其实是相辅相成的两个方面。比如说我们要求技术透明,就可以帮助法治处理的时候可追溯,两者是相互配合起来的,而不是此重彼轻或者此前彼后。
2022-11-10 17:50:30
谢谢龚主席。接下来我想请教曾宇主任,人工智能技术及应用在不断地发展,您认为人工智能在互联网应用的现状存在些什么问题,如何更好促进人工智能的发展?
2022-11-10 17:52:17
从2011年开始,伴随深度学习、大数据技术的广泛应用,人工智能迎来一个非常快速的发展,我个人认为它是一个非线性的发展,非常迅速。同时高性能计算以每十年提升1000倍的速度迭代,也给人工智能提供非常好的平台保障。当下在互联网领域,人工智能应用非常广泛,我们看到算法推荐,新闻推送等应用都非常地普遍。大量的平台型企业也基于人工智能来进行相关的算法优化,以及商业模式的优化,确实大量的互联网应用都在使用人工智能,在改变我们的生活,让我们的生活越来越美好。
但我们看到人工智能一方面在让我们的人类生活越来越美好的同时,让我们的互联网越来越美好的同时,也带来相关的问题。存在第一个问题就是我们现在生活被数据化,被算法化,我们现在日常生活离不开相关的APP,大量APP基于它在数据方面、技术方面的优势,形成隐形控制权。所以现在也存在今天专家们谈的算法黑箱,算法霸权,甚至也存在算法歧视,对我们的社会造成伦理问题,造成影响。
其次现在一些应用基于人工智能算法优化的需要也在收集我们网民的一些信息,也造成我们信息的泄露。这也让我们公众的隐私权进一步被侵犯,也导致相关的一些监管相关的系列问题。
还有就是人工智能的安全问题。我们看到人工智能它可以自动发现网络的漏洞,同时也可以自动针对热点的新闻制造相关舆情,都可以引发相关的安全的风险。我们说人工智能可以发现我们的网络漏洞,那就可以自主发起攻击。现在开源的模型非常普遍,我们可以非常容易地得到这些工具并且使用。其次还有一些深度伪造的技术也广泛地在网上流传,都对我们的网络安全形成严重挑战。
所以现在我们一方面要大力发展人工智能,另一方面也要统筹发展和安全,我想从几方面来更好推动人工智能在互联网更好地应用:
在技术层面,我们还要进一步大力发展人工智能核心芯片。现在技术在不断迭代发展,我们进入一个技术迭代发展的关键期,比如说在类脑芯片方面怎么尽快解决,在芯片方面颠覆现有冯·诺伊曼架构的新型芯片,这样的芯片可以对我们云、端到物联网形成全方位挑战,构建全方位的生态,形成新的竞争壁垒。所以我们要尽快布局。
其次,人工智能到现在我们发现它目前的应用的良好的效果得益于两方面:一是优质数据。二是非常好的算法。所以我们还要再针对行业应用打造优质的数据资源库,其次我们还要不断地改进我们的算法,来提供更好更优的算法,提供可解释的负责任的可信的算法,来解决我们的算法的焦虑,来解决我们算法方面存在的危机。
我们还要进一步大力发展人工智能支撑平台的建设,人工智能的发展依托于算力的支持,我们还要再发挥现在普适性算力存在的现状,我们要发挥云计算网络、边缘计算网络的算力,让这些算力来服务于人工智能相关模型的训练,来解决算力对能耗潜在的一些需求。同时,我们还要进一步在人工智能的应用方面让人工智能更多地用在安全领域,来自动发现我们当下网络安全方面存在的隐患,来自动弥补不足,让我们的网络空间更加安全。同时还要让人工智能更好地服务于我们的网民,让他们的信息素养进一步提升,让我们的互联网服务更加普世、均等。
2022-11-10 18:02:47
谢谢曾主任。下面想请教社科院段伟文主任,今年以来,一些部门和地区大力推动元宇宙产业的发展,元宇宙、Web3.0等带来大量的虚实交融的场景创新,如何从内容管理、技术管理和落实主体责任等方面实施敏捷的治理?
2022-11-10 18:06:13
我们注意到今年,特别是去年以来,元宇宙作为产业和整个社会对于数字化未来的一种构想,很多部门、地方也出台了元宇宙的政策。我对元宇宙的基本理解是,它代表一种未来的方向,但是未来未必一定是像现在说的元宇宙的样子。元宇宙它是一种颠覆性的社会技术,将来它会带有一定的地域性和文化特征,它不完全是像美国那样由科技公司推动的模式。因为在中国,我们对于元宇宙,地方政府对元宇宙的重视是,用它带动数字产业的发展,是用它来带动相关领域的创新。在这个大背景下,我们再来看在虚实结合的情况下,我们的社会价值和伦理问题就比较清楚了。
首先就是这样一个数字化未来的方向,我们现在要追求高质量发展的,高水平的自立自强,是可以以元宇宙为抓手也好,把它作为一个趋势也好,进行一种尝试性的政策引领,通过这样一个引领,我们看看能不能推动我们国家数字化未来的创新。
我们的创新是以人民为中心,那我们就要让这样虚实结合的数字化的未来,能够符合每个人的利益。也就是说,它应该是负责任、可信任的,并且还是有温度的。在这里面它有大量问题都是有争议的,比如说在虚拟的游戏世界里,释放暴力到底应该不应该?这既是一个道德价值问题,也是一个涉及到教育的问题,同时它还是心理学和科学的问题。心理学上有很多实验,有时候有矛盾的结果,有的说暴力倾向释放出去,现实生活中就可以不用有那么多暴力。但还有说法说,这是暴力训练,在这里训练了以后,现实中更有暴力。小孩玩电子游戏对小孩智力有没有提升呢?这里存在着元宇宙的原生代的说法,但是我觉得这个技术的早期使用者和青少年一开始就接触这个,这都是要深入研究的。在这种情况下,它更多的是把科技的创新和伦理的创新融为一体。就像我们要生产一个东西,我要生产一个沙发,想让它又便宜,质量又好,这就是矛盾。同时我们想对数字化未来有数字创新,我们又想这个创新尽可能地趋利避害,尽可能向善,这本身就是一个从0到1的创新过程,它就是要解决价值的矛盾。
那么我们国家,有我们的政治、组织优势,有我们的各种社会群体,社会团体,包括我们有网络安全的研究,所以要把这些力量整合起来,这样一来我们的伦理研究就既是一个跨学科的研究,也是一个跨领域的研究。通过这样一些研究,我们从政策上引领,同时在社会上加强对于数字化未来的认知,提升我们所有的青少年、社会公众的数字素养。通过这样一种综合的协同的多主体的多方的共治,可以讲是任重道远。
2022-11-10 18:07:11
谢谢段主任。还有一个问题,希望您简要回答一下。面对数字化未来的现实世界与虚拟世界交融所带来的工作、交往、生活方式诸多的颠覆性变化,对人们的数字素养提出了哪些新要求?如何通过加强教育和传播提升全社会的数字素养?
2022-11-10 18:14:14
新技术往往让人觉得很欣喜,我们从很多年前就研究过网络空间的伦理问题,当时讲到,我们现在生活在自我生活的时代,每个人每天有一个屏幕。将来头盔一戴,进入虚拟现实更是自我生活的。所以我们需要更多的思考和研究,在这样一种独自生活的数字时代,我们怎么样调节自己的学习、工作、生活、娱乐以及思考、知识、素养,这是非常重要的,而不是一开始就不去考虑这些,这就是所谓的伦理先行,其实就是知识或者是认知要先行,研究要先行。
2022-11-10 18:15:33
段主任结合社会科学哲学方面给我们做了一些回应。下面的话题请教一下东软集团的盖总,东软集团多年来在智慧城市、社会保障、人才教育等多个方面深耕人工智能的技术应用及产业发展,并取得了积极的成效。基于贵公司的实践,人工智能在数字经济中尤其在智慧城市发展中发挥了什么样的作用?人工智能在面向未来的应用中,对社会又会产生怎样的影响?
2022-11-10 18:21:34
从1956年麦卡锡教授提出来人工智能,实际当时是一个人在机器思维的延展,就像我们今天汽车延展了我们的双腿,计算机延展了我们的大脑,人工智能将人的思维和智慧进一步延展,它延展到社会治理、各行各业。在这个环境中,在人工智能的使用过程中应该看到数字经济,今天我们很多的专家都谈到了算力、算法、数据。算力事实上它就是一个平台,今天我们的算力不断地增加、扩容,当然算力的背后可以看到一个国家的经济发展。算力通过人工智能作为一种全新的算法,将数据的智能化得到实体经济的应用,这实际对整个的数字经济就带来极大的表达。
2022-11-10 18:22:28
谢谢盖总精彩的回应。下面我将话筒交给中央广播电视总台的记者高珧先生,他要代表网友进行提问。
2022-11-10 18:23:10
谢谢理事长。今天的这两场圆桌论坛会在中央广播电视总台新媒体平台央视频上进行全程直播,我们今天所有的讨论也有央视频的各位网友和我们同时进行。
在前期网友征集中,人工智能、数字伦理是关键词,我们也问很多普通市民他们对这两个词怎么看待的,专家有专业的解释和判断,大家日常生活中人工智能怎么影响他们的。我们前期做了很多采访,先请各位专家跟我们一起看一个短视频。
2022-11-10 18:23:49
其实我们看到,刚才采访了很多市民他们有自己对人工智能的理解,想问问比较贴近我们日常生活的一些问题,先问理事长,您作为研究人工智能方面的专家,您自己有没有在生活中用一些人工智能的设备?
2022-11-10 18:25:43
现在处处都是人工智能的设备,我们的手机就是一个智能手机,获取信息的时候,获取什么样的信息,后台有计算,它就给你推送过来了,通过智能化的技术给你推送,这都是人工智能技术。想买东西时,看的东西多了,广告就来了,需要什么就来了,这都是人工智能。我的体会是,现在人工智能的技术在我们日常生活中无处不在,我们生活在一个数字世界里,我们的一举一动,甚至是一个语言,一个文字都会形成数据。这个数据形成以后,会通过算法根据市场需要算出一些结果,然后满足产品的推销等等。当然我学习方面也有人工智能的帮助,比如说18万篇的学术论文,每个论文我都要看的话根本看不过来,但是我通过人工智能给它分析一下这18万篇论文主要观点是什么,人工智能一下就解决了。所以现在不但人工智能发展了,更重要的是还要解决它的安全问题,未来我还是觉得要解决好人工智能的技术跟保护隐私、安全的平衡,约束是为了发展,没有约束的发展是不可持续的,要处理好平衡,才能使人工智能技术持续发展。谢谢!
2022-11-10 18:27:02
我们在场的三位专家,请说出两种日常生活中最常用的人工智能是什么。
2022-11-10 18:33:06
我们日常出行导航肯定都要基于人工智能选择道路,优化选择,最快捷地出行,这是我们日常生活经常用到的。其次我们每天用百度进行搜索也是在根据搜索结果进行优化,我们看到日常的算法推介是普遍存在的,这是我们日常生活中常见的人工智能。
2022-11-10 18:33:50
短视频这些应该都用到了,现在生物特征识别,人脸识别应用越来越广。
2022-11-10 18:35:32
手机中的APP之间有很多联动,比如你看到的好的东西传输到evernote里,evernote再帮你做分析。日常的手机这个场景太多了。
2022-11-10 18:35:53
我们会发现在便利我们生活的同时,有时候人工智能也会给我们带来一些困扰,不知道在座的各位有没有遇到过人工智能带来特别困扰的时候?
2022-11-10 18:38:03
我觉得任何事情都有两面性,今天我们讨论的主题也一样。人工智能可能给我带来最大的困扰就是通过大数据杀熟。还有使用语音输入法,但是我一般很少给别人发语音,大家可能感觉今天语音识别准确率99%肯定没问题,但是语音到语义之间的连接就变成了非常困难,而我们的人工智能最早在英文环境下的理解和在中文环境下复杂度就更大了。我就会遇到语义方面的理解,情绪的表达,每个人都会有不同的困惑。
2022-11-10 18:38:59
从研究者的角度我最近观察到两个事情。一是我们一直在讲数据。数据就是个人数据,数据就是你的生物特征,就是你的行为的特征,就是你的兴趣爱好。这里面的伦理风险或者价值风险它是开放性的,比如我现在用人脸识别来识别你的身份,将来识别你的情感、情绪,这要提早研究。因为不研究到时候出现问题很麻烦。
还有一个是比较难的。比如我们现在有大量的深层次的AI,就是说比如深度合成、深度伪造有可能用到王老师的脸、李主任的脸,都有可能。而且我们现在讲的这些话、语音都已经被它用来作为学习的材料,这里面还有知识产权等等的问题。
2022-11-10 18:43:18
我的观点是认为人工智能它还是软硬件的平台系统,人工智能得益于数据的广泛性,也得益于我们算法的精确性,还得益于我们在道德层面对伦理的认可和尊重。所以我们可能存在,在数据层面样本无污染,导航的时候你说到哪去,语音可能有外面的噪音进来,把样本进行了污染,导致我们可能没法识别。同时在算法层面,在我们的系统层面,因为本身它是软硬件系统,也存在漏洞。我们现在进入一个全联网时代,万物互联,万物互联它呈现连接的脆弱性,这样人工智能本身系统也容易受到攻击和破坏,虽然我们现在是处在弱人工智能时代,但我们正在向强人工智能发展,当我们进入一个强人工智能时代,如果我们的系统都很轻易被攻击,或者被其他的基于人工智能的进行攻击,这就是非常有意思的话题。我基于人工智能的网络攻击来攻击我的人工智能系统,这会怎么样?整个系统会呈现泛在的脆弱性,我们要为这样一个可能做好充足准备。
2022-11-10 18:46:24
其实在采访过程中,也发现很多市民担忧自己被人工智能所取代,我先问问理事长,您觉得现在有哪些职业是已经被人工智能取代了?或者不远的5年、10年还会有哪些职业被人工智能取代的?
2022-11-10 18:47:58
我遇到一个真实情况,我去了一个没有服务员的酒店,从我入主开始刷脸办理入住,没有房卡,点餐是机器人给我送餐。酒店、未来的零售可能都容易被人工智能取代,包括工业生产、码头集装箱起吊都是人工智能,无人值守完全有可能,包括智能化汽车,未来车联网智能化的汽车,这些都在积极推进。
2022-11-10 18:49:14
现在浙江的工厂里,工人越来越少了,机器人越来越多了,在未来有这么多职业和岗位被人工智能取代,会不会出现失业潮?
2022-11-10 18:51:18
目前伴随技术的发展迭代,人工智能主要是几个技术:算力,将来量子网络、量子计算机还将提供更强大的算力资源。深度学习还将持续发展。我们正在从弱人工智能向强人工智能发展,总有一天我们要进入到超人工智能。有专家预测是100年左右,也有专家预测大概20年左右,这个起点我认为总有一天会到来。所以人工智能一定会达到完全可以信任人类工作,并且超过人类在感知等方方面面的一些能力,这天我觉得迟早会来。
但我觉得我们要做的是正确地驾驭、防范发展中可能存在的风险。人工智能已经在部分领域取代了人类的工作,有些工作可以由人工智能取代。我认为,将来人工智能它会是两种状态:一种完全取代人类的工作,还有一种支撑人类的工作,成为人类某些方面的得力助手。第一次、第二次工业革命,技术是发展了,但并没有引起长时间人类的失业。长远来看,新技术发展的迭代、渗透、扩散还会产生新的行业,新的工作岗位,人类的发展我觉得是永恒的。
2022-11-10 18:52:07
谢谢几位嘉宾,下面有请第二场圆桌论坛的与会嘉宾。
2022-11-10 18:54:50
今年冬奥、冬残奥会可以说影响了世界,绿色+科技全世界都有目共睹。人工智能在冬奥会的应用特别广泛,能否请喻红部长跟我们分享一下背后的故事?
2022-11-10 18:55:34
特别荣幸来参加咱们这个论坛,其实在听各位专家的演讲以及解答的过程当中我也受益特别多,我首先是代表冬奥组委,尤其是冬奥组委的技术部感谢各界对冬奥会的支持,奥运会从来都是体育的盛会,但是每届奥运会都能够映射出那个时代的技术,所以北京2022年冬奥会也同样顺应了人工智能技术发展的趋势,各项应用都是好评如潮,机器人餐厅是在媒体中心,是媒体和记者关注的热点。其它的机器人服务我们也看到了很多,比如说清扫,尤其是疫情期间场馆的消杀,包括咖啡制作以及协助颁奖仪式、引导等在很多的场馆都有应用,大家还可能也注意到了,在火炬传递的时候是水路两栖机器人完成了火炬传递。
残疾人在外骨骼机器人的帮助下完成了火炬接力,也有在冰壶场上投掷冰壶机器人的表演,以及在观赛的时候,在电视上看到的子弹时间,以及自由视角等等这样的特效都人工智能技术的应用给观众带来的不同体验。
我们看到了运动员特别精彩的表现,但是我们可能不知道,在这个运动员训练过程当中是应用了很多的大数据人工智能模型分析,这样才能有高效的训练,最好的结果才能让我们的运动员在赛事才有更好的表现。跟今天的主题有相关的,就是网络安全,没有安全我们信号可能传不出去,我们也不可能得到一个很完善的信号,或者还有其它的问题出现,这个网络安全也是应用大数据人工智能的分析去发现威胁,然后去应对和处置这些威胁,我们还要在准备赛事之间用了三维仿真系统,这个系统能够让我们在提前进行远程的场馆勘测,在系统上面部署转播设备,以及部署计时计分设备,节约时间,尤其在疫情情况下特别有用。
当然还有语音识别翻译这些事情,也是帮助来的各国友人之间实现沟通无障碍,以及我们还看到了一个自动跟踪,冬季运动往往运动速度非常快,拍摄运动轨迹能够把它非常正确的拍摄下来传播到世界上,往往是要特别有经验的摄影师,但是我们这次出现了一个没有摄影师的自动拍摄机,跟拍U型槽运动员的运动轨迹,这跟旁边摄影师拍出来的轨迹是一样的,所以高速的识别和跟踪拍摄缺少不了人工智能的技术。
以及还没有来得及登场的六足滑雪机器人,我们可能有幸看到它的视频,它是可以完全规划自己的路线,甚至于像过旗门那样的动作它都能实现,我们相信这样的机器人,未来会有更惊艳的表现。
2022-11-10 19:00:18
像我们这次使用的智能技术,将来在其它国家举办大型赛事时,我们是不是能提供一些支撑和经验,能不能做一些其它的技术方面分享?
2022-11-10 19:08:07
冬奥会我们有一个专项叫“科技冬奥”,目的就是希望基于现代的技术让整个社会立足于更加智能、更加智慧,也就是让我们的人工智能技术推动人与人,人与物理世界还有信息世界之间的沟通,生活也更便捷。另外还有一个是基于我们的一些新技术的应用,人工智能的应用,让我们的城市生活更加智慧和便捷,所以我们在体育赛事里面用到的技术未来都可以在各个方面应用,去帮助我们的城市生活,让我们的市民也是更加方便,更加有很好的体验。
在未来大型的赛事方面,从参赛的角度,就是让运动员的比赛更加精彩,刚才说到应用大数据,应用运动的模型,应用AI的支持可以让训练更加科学,那不光是对专业运动员,其实我们的健身也是需要指导的,如果我们有一些个性化的数据,根据分析可以给你提供个性化的指导。
另外像将来运动要指导,数据获取或许是自动化的获取方式,自动的评估,这样更加体验人工智能和新技术的应用,刚才提到滑雪滑冰机器人已经到了相当好的阶段,我看到过现场滑雪的机器人,或许我们将来有一项新的运动就是机器人滑雪,机器人滑冰,或许我们还可以再有新的运动,人跟它一块去滑一块去比,也许我们可以在期待之中,这个是这样的比赛这样新兴的事情会诞生。
还有在办赛过程当中也可以让筹备和运行更加高效,我们用的远程模式,不仅是视频会议这样低碳高效的方式,而且我们很多的测试通过云上部署,我们用云上的实验室解决,不用现场搭一个试验的条件,既需要花时间,又需要人来,可能有很多条件的限制,我们在冬奥会做了试验,将来有很多的应用。
还有云端部署,比如说网络安全,用云端监测的分析人工智能的分析,不仅是监测网络安全发现威胁,日常的运维同样可以远程监控,有问题可以现场解决,没有问题就自动运行,肯定是要高效很多,所以智能运维也是未来的一种趋势。
还有我们的裁判,现在都是有裁判员裁判长提供到底得了多少分,当然是有计时的设备提供,可能未来我们的体操、空中技巧就是由人工AI给出评分,我们人做什么呢?就是最后做裁判长签字确认,这个成绩就有了,当然更多的智慧服务会处处遇到都是机器人给我们提供,给我递杯茶,递杯咖啡,那个是机器人做出来的,而且是现场制作的。
另外像我们从观赛的角度也有很多的体验,我们可能喜欢冰雪运动的同志都知道,如果看滑雪是在山里头,零下10几度20几度不说了可能还有风吹,那个环境觉得不想去,未来的某个时候虚拟的环境可以做到,可能通过手机或者是家里的某个地方可以如临其境到了虚拟的地方体验一下运动员从我身边滑过什么感受,甚至从运动员第一视角感受滑行的体验,我觉得技术的发展会给我们提供这种无限的可能,当然了也不仅限是电视,还有手机、PAD也可以享受这样的结果。
还有对于残疾人的特殊需求,技术可以给出更好的支撑,比如说现在有手语虚拟人,将来可能比如说导盲犬或者是机器导盲犬的可能性都会有的,我觉得这些应用不仅是在冬奥会只是一个体验,我们作为赛事来讲是提供一些新技术的测试应用,提供一个场景,我们去测试它是不是可行?一旦可行以后不仅仅应用于赛事,也会服务于整个的生活,这个是体育赛事跟社会生活跟人类发展相辅相成的一个必然趋势,谢谢大家!
2022-11-10 19:09:45
第二个问题我想问田天,您认为narrow intelligence目前我们发展到哪个阶段了?这个阶段主要体现哪些技术的融合?
2022-11-10 19:13:58
谢谢主持人,我先简单介绍一下瑞莱智慧,我们是一个比较特殊的人工智能公司,关注的是更加安全可靠可信的第三代人工智能基础设施。人工智能安全这一块的问题,从现在人工智能发展阶段上,我们认为确实还是处于初级阶段,但是已经可以解决很多的问题了,当我们把人工智能推到更多的关键场景时,会发现还面临着许多安全方面的隐患,包括伦理方面的风险,这个是现在所要进一步推广人工智能的时候必须克服的一些门槛,所以这个里面其实我会关注到两个方面,一方面是关于人工智能自身的伦理规则的制订,前面也有讲到人工智能已经能够在很多行业上改变我们的生活,但有一个背后的规律我不知道大家有没有发现?现在真正人工智能应用比较好的,就是对这个场景的人工智能的安全性可靠性不高。
比如很多用智慧音响,有对话的机器人,这种机器人的好处是,你跟它对话它回答错了你也觉得无所谓,大不了再问一次,有时候做成玩具反复的陪着大家对话,这种场景对于可靠性要求都不高,反过来如果我们用到金融、医疗、自动驾驶这些场景的时候,其实在这些领域一旦出现一个错误就会造成非常大的隐患和风险,这个是现在人工智能不能克服的问题,在这个环节就需要我们进一步地发掘人工智能到底能力边界在什么地方?从而找到合适的应用场景,这是第一个方面关于治理。
第二个方面我们关注的是人工智能自身的安全问题,大家了解的是网络安全软件安全的问题,但是由于人工智能是新型技术,特别是从数据里面学习的这种模型,学习的这种非常复杂的黑盒模型,甚至是人工智能自己的开发人员、设计人员都不知道里面究竟怎么工作,其中就存在大量的新隐患。比如说人脸识别,很简单的可以在脸上加一些干扰、贴一些图案,或者是戴一些特殊的眼镜,可以用人脸识别把我识别成其它人,从而仿冒其他人完成金融的开户,或者是说完成这种正规APP的身份验证等等,这些都是实实在在发生的事情,这些都是来自于人工智能算法本身的隐患和漏洞,特别是深度神经网络本身的漏洞。要克服这些问题都必须有对应的相应的手段,像我们在网络时代做的网络安全的一系列应对一样,人工智能也需要有一系列的安全技术和产品增强人工智能的安全,这个是我们所看到的人工智能目前所处的阶段和目前的一些应对的手段。
2022-11-10 19:15:11
您能讲讲新的人工智能这个算力和算法之间的发展趋势吗?
2022-11-10 19:20:18
这其实是很深的一个问题,人工智能模型包括数据变得越来越大,特别是最近人工智能生成式模型广泛地发展,包括AI作画、AI创作领域大家看到很多很好的新的效果。背后是两个原因:一方面是算法的发展,另一方面是大的数据。当然还有背后的大的算力及新的知识的融入等等。一方面我们要提高数据的质量,另一方面更多的我们要看怎么样通过合规的手段把更多的大数据引入到人工智能系统里,让我们可以用更多的高价值数据实现人工智能模型的训练和推理,这其实是未来一段时间我认为我们要长期持续解决的问题。
但是现在的现状是很多企业的商业数据、政府的数据以及个人数据在分享的时候,存在很多困难,因为背后涉及商业数据资产的流失,个人数据传输有没有授权等,本质制约了人工智能下一步发展的很多可能性。为了解决这个问题,行业内很多从业者都在进行隐私保护、机器学习、联邦学习方面的探索,我们自己也搭建了隐私保护机器学习平台,通过可用不可见的方式实现对敏感数据不融合或者集中式分布的方式实现大模型的训练和预测,最终推动人工智能在更多高价值场景的应用。
2022-11-10 19:22:26
科大讯飞现在的人工智能到目前为止,特别是新一代的人工智能,数据、算法等融合技术发展到哪个阶段了?
2022-11-10 19:24:35
刚才我也听到介绍冬奥会的情况,也非常荣幸我们也是2022年冬奥会和冬残奥会的官方自动语音转换和翻译的独家供应商,助力打造了首届沟通无障碍的冬奥会。这是和我们人工智能的发展,当下的阶段紧密相关的,刚才主持人问到人工智能从我们的实践来看发展到什么样的阶段,如果从技术上来说,人工智能是分为运算智能、感知职能、认知智能三个阶段。运算智能就是让机器能存会算,从大家都已经熟悉的deepmind的Alpha Go战胜了围棋冠军李世石,引起了大家的关注,大家都认为在运算智能上机器比人要强。特别是今年AlphaFlod2成功预测出了超过100万个物种的2.14亿个蛋白质的结构,这就是生物学上颠覆性的突破,因为它几乎涵盖了地球上所有已知的蛋白质,这大家已经可以认识到AI在计算智能方面非常大的突破,这也是我们做各种运用的基础。
第二个阶段是感知智能,就是让机器像人一样能听会说,能看会认,能跑会跳的能力。从科大讯飞的克强总理给大家介绍的翻译机,它依赖于一个是首先你说话我们能听得懂的语音识别的能力,还要机器翻译出来,还要准确率非常高,然后再把它播报出来,这个叫语音合成。这几年发展过程中科大讯飞的语音识别准确率已经超过人类速记员,而且准确率非常高,大概在中文超过98%的准确率。在语音合成方向我们超过了普通人的发音水平,像国际上非常著名的语音合成大赛叫做暴风雪竞赛,我们连续14年夺冠的。不仅仅让机器能听懂我们的说话,还要模仿人的发音,从过去2008年的时候我们需要10个小时的数据量,但是今天只要说一句话,甚至可以实现一键口音迁移,可以合成并不是很标准的普通话,四川话、东北话等等方言。两年前被有一些限制之后我们特别加大了多语种研发投入,之前用100小时数据可以达到两年前1万小时的数据达到的语音识别和翻译的效果。这是我们在感知智能方向上的不断的进展。主持人之前给我们看的视频,很多的观众或者普通的老百姓感受到的人工智能给大家带来的便利实际上就是在语音识别、图像识别、视觉识别方向获得的突破,这也是中国在国际人工智能领域技术上的一个比较好的成绩。
第三个阶段是认知智能。这就是让机器像人一样能理解会思考的能力,在今年7月份,我们科大讯飞承建的认知智能全国重点实验室,在科学常识推理挑战赛叫做OpenBookQA上也取得第一名。这个比赛就是让AI做相当于小学难度的科学常识的选择体,这也是人工智能常识推理单模型首次超过人类平均水平。但是在认知智能方向,还有非常大的空白区,因为人工智能在面向特定领域的知识推理方向已经取得比较好的进展,但是如果我们要面向常识推理的通用的人工智能方面的进展还是刚刚起步的,这其实需要我们和全球很多科学家一起共同努力。
关于我们的产品,我们是希望把系统化进行创新,尤其是技术要进行两极放大的效应。我们在语音识别上和图像识别上的突破,我们不仅仅通过技术的单点突破,还要和一些应用场景相结合,甚至会搭建一个系统化的构建的应用的体系,我们在教育方向有一个个性化学习的机器叫做学习机,可以通过孩子做一套试题迅速诊断知识薄弱点在哪,根据薄弱点来定向推题,进行针对性的训练,这就是让AI辅助孩子提高学习效率。还有智医助理,很多地方医疗资源并不发达,让医生在进行诊断的时候,我们的2017年诞生的医考机器人,它参加了国家医师综合测试的笔试,在普通人考试的里面处于前3.7%的水平,拿这样的一个机器人为我们普通医生赋能,它可以实时给诊断提出建议。所以这些在资源不均衡、不发达的地区是更加需要人工智能的应用给他们带来更多的帮助的。
2022-11-10 19:26:02
关于人工智能的伦理,您是怎么看待这个问题的?
2022-11-10 19:27:56
当下老百姓关心的是和应用相关的风险,大家最关心的就是个人数据安全和隐私保护的问题,确实有些商家在用户不知情的情况下采集了很多用户的数据进行人脸识别、营销活动,带来很多很恶劣的影响。针对这些风险,我们还是做了很多努力的,比如说大家用的讯飞输入法、讯飞听见等应用,我们跟海尔合作的家庭音响控制中心里设置有离线版本,不联网可以直接使用,讲话只有本地设备知道,数据不会在云端,它可以更好保护用户隐私。当然这对技术能力提出更高要求,因为要求离线的时候依然转写准确率得高,我们也需要不断提高技术的能力。同时我们也在努力推进半监督、无监督学习等技术的发展,因为这样AI训练所需要的数据量,对数据的标注的需要会越来越少,这样有助于帮助数据安全和隐私保护的。
大家比较关心的问题还有一个利用人工智能实施诈骗、造谣这样的违法犯罪行为。去年欧洲就有一例诈骗案是犯罪分子利用AI模仿一个CEO的声音骗走22万欧元,还有AI换脸叫做敲诈勒索。有矛就有盾,科大讯飞其实是在研究基于数据驱动的深度学习的假音检测的算法,可以自动检测出来这是人的声音还是机器合成的声音,所以未来我们可以用这样的技术为用户提供安全的预警。当然也可以结合其他技术多重加强身份认证的安全性,比如一些场景可以用区块链证书的授权来实现双向认证等来确保,可能图片加活体的识别等都有双向的认证的方法。
还会有一些把技术用于违法犯罪,我们针对性的依法打击的行动也会持续下去。所以我们也建议不仅仅是技术公司的问题,还是更多要有权威机构来牵头搭建常态化的公共演练平台,大家可以在这个平台里不断演练,不断提高打击技术犯罪的能力。
还有和日常生活相关的议题,人工智能是关系到国计民生的重大领域,因为它都存在于教育、医疗、城市建设、养老等民生重要领域,所以我们怎么样才能保证人工智能可信又可靠?我们一直强调一个词叫做人机耦合,我们觉得人机耦合是非常重要的。比如刚才我提到医疗领域,智医助理这个系统它学习了53本医学著作、几百万篇医学论文、上亿个诊断的病例,它已经具备这样的能力,可以根据病情给出自己的诊断结果。所以当人工智能和人的医生诊断不一致的时候,我们的医生就会在他的电脑上发现有一个弹窗跳出来,这就是AI提醒你,医生可以重新诊断病人的症状,从而有效避免误诊、漏诊情况。
从实际的应用来看,目前智医助理已经提供了大概累计超过4.5亿次辅助诊疗的建议。也包括像某些省一年可能提供的有价值的修正诊断都有17万多个。而且我们也可以看到后台的数据,在人和机器发生不一样意见的时候,90%都是机器是对的。所以这其实就是人工智能和人紧密协作,人机耦合达到的效果,它会降低人来诊断的风险,也会降低AI代替人做诊断的风险,这里面目前也还是没有相关法律和伦理上的支持的。所以这个我们只能作为人的辅助。
教育领域当下特别在“双减”背景下,我们希望因材施教,希望技术能够让真正的因材施教走得更近一些。所以我们做的智慧教育系统最大的作用并不是直接让AI做老师教学生,而是通过降低学生无效重复训练时间,提高老师的备课效率,解放大家的精力,才有时间做“五育”并举,更好因材施教。这是非常有价值的,而且也会让孩子更多地做素质上的提升。
所以说,AI的教育不是替代人的教育,而是更加帮助我们回归以人为本的教育。不论是医疗还是教育,还有城市里的养老等等都是涉及到国计民生的重大的领域,所以我们还是非常需要重视发展可信、可靠、可解释、负责任的人工智能,实现有效的人机耦合。我们就认为这种要有正确伦理价才会决定这个产业可以走多远,而且我们一直强调我们的价值观就是未来比人更强大的不是人工智能,而是掌握了人工智能的新人类。
2022-11-10 19:29:20
由于时间关系,我们把主持话筒交给中央广播电视总台记者高珧。
2022-11-10 19:33:28
谢谢王主任,我们先问刚刚在线上的杜总,是一位女性网友提的问题,她想问现在人工智能有没有性别?能不能有性别?未来能不能够代替女性生孩子?
2022-11-10 19:35:35
其实人工智能大家都会发现我们会用一个声音和它沟通,而这个声音经常会用一些女性的声音,我们最近在参加一个女性论坛的时候,其实都会强调说一句话“女性是人工智能的第一受益人”,因为确实人工智能会减少一些像体力的差距,也会像新的生育技术也会带来各种新的方式,其实人工智能会给我们带来更多的发展空间,尤其是大家很关心人工智能出现以后会对哪些职业发生一些变化?其实更加需要的是我们需要有社交能力,有协商能力,和艺术有关系的,创意类的审美类的而且需要有同情心的,这些很多工作发现女性会做的更好一些,所以这一块我们认为被机器取代的可能性不是很大。未来人工智能需要做的就是大量重复性的劳动,没有太多创意可言的,也没有太多同理心需要做的这种工作,这样的一些基础工作由机器做了以后,可以把我们从简单重复的劳动中解放出来,所以我们可以做更多有价值的、有创意的工作,我觉得这其实也是我们女性非常期待的,也希望女性的朋友能够受益于人工智能目前在大规模应用落地的过程当中带来的一些红利。
比如说,回家了用一个合成了你的声音的机器人给孩子讲故事,上了车用你的声音导航,听什么歌你想去哪里,甚至用你的语音进行各种各样的操控,还有像理财顾问都可以和你进行很好的对话,来解决你买买买的冲动等等。所以我们觉得,人工智能会在很大程度上给我们带来很新的状态和生活的一种方式,我觉得无论是我们的人机交互方式的改变,还是机器学习未来会给我们普通人赋能,都会让我们获得更好的技能和获得更好的生活的开始。
2022-11-10 19:36:39
我认为人工智能它不需要有性别,有一个电影叫《Her》,描述了一个男性和一个女性的机器人虚拟的声音,他爱上了她,结果发现自己是6万多个恋爱对象之一的时候他就崩溃了。我觉得不需要完全的以一种性别的方式,我们希望人工智能比你更懂你,未来我们做这种实体的机器人也好还是虚拟的机器人也好,这种陪伴性的机器人进入千家万户也都是我们每个人的愿望,也是我们科技工作者正在做的事情。这个生育方面目前还没有看到完全的替代,包括虚拟的机器人,实体的机器人进行手术上的操作,还有一些其他方面生命科技的发展,包括基因方向的突破,其实这个是可以给我们带来一些新的变化的,但是我觉得如果说完全的替代这个是不可能的,也不会是我们的新的担忧,应该我们还是强调要去做一个让我们的生活变的更美好的人工智能的方向。
2022-11-10 19:39:51
谢谢杜总,问一下田总,其实刚刚前面的问题里面我们也能看到,拍的短视频里面有一位跳街舞的老师,他觉得人工智能不会代替他的职业,像街舞、文学创作、书法、绘画跟艺术有关的职业,有可能会被人工智能所取代吗?
2022-11-10 19:43:06
首先是简单回答,我觉得不会,稍微展开一下我其实比大家还要更乐观一些,我觉得绝大多数的行业其实都不会被人工智能所取代,因为人工智能我们作为从业者来说,更多的想作为一个工具赋能人类,赋能各行各业,让我们在生产包括生活过程当中更加便捷。比如说,我们以前要去很远的地方,走路很辛苦,但是有了车有了各种各样的交通工具有了飞机就可以帮助我们拓展活动范围,提供很多的便捷。其实人工智能也是一样,更多的对于我们智力、脑力的拓展,在各个行业是给我们提供了一个很好的增强,特别是在艺术创作领域,我们现在最近正在做这一块的事情,就是AIGC、AI创作,通过人工智能的模型可以从无到有的输入一段话,就可以生成出来一段画面甚至是视频,看起来非常优美,而且有很多的细节,但是我们认为这样的东西完全不会取代艺术家,更多是可以在艺术家创作的过程当中给人们提供新的一些灵感的来源,让我们可以把自己脑中的概念很快的转化成具像的图案,让我们可以看到大致是什么样的,这样可以给我们很好的启发,让我们在已经有的知识的基础上更好的提升,大幅度的节约我们在整个创作流程过程当中的时间精力,让艺术家、舞蹈家各行各业的人成为更好的艺术家,这个我觉得也是我们努力的目标,是希望通过这种人工智能让人类生活变的更美好,而不是说给我们造成各种各样的安全隐患。
2022-11-10 19:43:39
最后一个问题。在我们日常的工作和生活当中,已经有很多的人工智能在实践了,我们最近就发现了两个在实践的人工智能,一个是相亲网站,它通过每一个录入相亲网站的个人简历信息进行大数据匹配,他觉得A和B根据大数据匹配以后你们俩可以适合在一起谈恋爱,有这样的网站做这样的事情。
第二种就是学习网站,高考对我们非常非常重要,但是面临考试就有偶然性,有主观上面的影响,有这样的网站会时刻记录你从小学、初中、高中所有的学习成绩和情况,以后不用高考了,根据你平时的表现就可以算出来你到底是适合上北大、上清华?针对这样的实践和尝试您又是怎么看的?
2022-11-10 19:45:23
先说关于高考这个事儿,我从来不认为分数能代表一个人的能力,我唯一的偶像他说这么一句话“我上大学的时候清华不要我,但我现在是清华的教授”,说明什么呢?他的考分不够,但是他的能力够了。所以我相信一个人的能力不是由分数体现的,是你整个的过程各种各样的因素,学习成绩只是一个方面,所以他其实考不到这个学校还是有很多其他的机会。
相亲网站我没有研究过,但是我觉得可靠性不高。
2022-11-10 19:50:02
人工智能与数字伦理论坛圆满结束,再此感谢所有嘉宾,感谢今天到会的专家学者和各企业的代表,也感谢今天圆桌主持的高珧记者和王春晖教授。
谢谢大家!论坛到此结束!
2022-11-10 19:51:04