今天到现在为止我们结束了整个议题,大家讨论得非常热烈,但是也有很多的问题我们还要继续进行研讨,继续进行交流。感谢大家,上午的论坛到此结束,谢谢各位。
谢谢曾教授的分享,我希望跟大家多聊聊,但是时间不够了,所以没办法过多地讨论我们可操作的人工智能治理框架。谢谢各位专家,非常高兴谢谢大家。
当然我作为来自中方的发言人,我也感谢来自英国和美国的两位参与者,以及我们本土香港的余先生,能够利用世界互联网大会的平台来讨论国际上最迫切的议题,也希望借助这个机会期待大家通过我们互联网大会人工智能工作组,我和唐总都在的这个人工智能工作组,向世界发出我们源自中国但是具备世界视野的视角和贡献。
最大化付出我们的努力增加包容性,在尊重各国主权的基础之上最大化共识、最小化差异。所以像世界互联网大会,我们昨天成立了人工智能专门的工作组,也把这些国际上的专家邀请来担任人工智能安全与治理推进计划共同的负责人,特别是肖恩·欧·海格缇跟刚刚保罗·特里奥洛讲到的“Network weresafety institute”(音)这个会议冲突的时间上,派其他的同事参加那个会议,自己来参加中国WAIC工作组的会议,也是发挥多利益相关方、多个区域性的组织解决不同的问题,最终通过一种协作的机制、互操作的机制,真正达到我们说的global into ability,我觉得这是未来非常重要的努力方向。
是的,全球的挑战需要积极的努力。
在不远的将来,AI能力的系统其实非常强大,并且它会改变我们每一个人的生活方式,如果没有很好的发展,会给我们带来一定的风险,在那个时候一个国家做一件事情可能最终都要发展成为全球,因为在一个国家发展的事情对全球化都会带来影响和变化,甚至给全球带来风险。这个时候我们需要一定的全球的决策,然后来证明某一件的开发,并且帮我们监管一定的开发,我们必须一起思考这样的方法。当这样的挑战已经发生就太难了这也是保罗·特里奥洛刚刚所说的,这也是我们未来的发展方向。
今天早上这个产业没有等着我们的监管者,所以这其实是一个挑战,但是我觉得在过去两年我们所做的进步,我们就是为了发展,全球的发展非常令人瞩目,过去两年我们也谈论了这些议程,就像曾教授说的,我们现在的问题就是一小部分领军的公司他们在这方面飞速发展,但是还有其他的方法和路径,还有很快其他的国家和产业业内的人士并没有很好地应用到AI,所以我们必须找到一个好的方法把小的群众,更好地把政府和相关的利益相关方整合起来,看一下我们如何识别和应对相关的问题和风险。
所以,我觉得首先我们要认可在不同的国家他们会有一些差异,并且打造一个更加公正、包容性、长期的关系伙伴,这也是我们希望发展的。
国际标准化三大组织以及联合国,它的角色应该是把这样Regional。在我看来,现在的lnternational network AI safety lnstitute是一个Regional的努力。我们怎么通过联合国平台,通过三大国际标准组织,类似于这样的平台真正把将近200个国家核心关切放在一起去考虑,并且是一种可持续的方式,而不是由于这个议题今年在这个国家,明年在那个国家,减弱它的可持续性,毕竟在全球范围内非常值得信赖的平台也就只有联合国的平台。
关于人工智能治理在全球的互操作性,人工智能安全只是其中一个维度,提升透明可解释性、可问责等等非常多的方面,其实都是治理的议题。人工智能安全治理应当放在全球治理体系框架下,而不应该单独的看。
我希望给一个例子,比如我们在进行人工智能安全监管和测试的时候,很多西方国家采取的是红队测试方法。它对于数据本身之前的前置过滤基本上不太做,我们在中国首先会进行数据滤掉,把有害的信息首先过滤掉,然后再进行测试。这里的互操作性就不是说让西方国家服务来到中国要先进行数据“过滤”,中国企业服务“走出去”的时候,还需要维持在中国的做法。恰恰我们要把类似于像数据“过滤”机制,如何把它转换成安全测试一部分。你不需要去修改任何一方治理体系,找到这样的接口使得我们能够维持自己监管体系和治理体系,我们可以在解决方案层面找到共同性。
在我们监管和治理方面,我们必须要在政府之间有可操作性,比如说区域之间可能会有不同优先项,因为区域文化可能会不同。监管本身就是一种试验,把一些东西放到里面进行试验,这意味着我们需要在不同区域之间进行试验,这方面可能会有一些区域的不同。总的来说这是一个非常有趣,也是非常好的标占。
非常感谢。鉴于时间的关系,要让肖恩·欧·海格提聊一下英国AI互相操作性的问题,以及在西方的问题。最后,曾毅先生来进行最后的总结,如果还有时间的话,我们每个人再进行一句话的发言,如果没有时间我们就不做部分。聊这个非常难,我们来举一些实际的案例,去年在意大利,ChatGPT被突然间禁止,因为它不满足欧盟GDPR法规,可能就会因为欧盟数据法而退出欧洲市场,这个挑战是非常多的。对于很多小的公司来说,它们根本做不到这一点。这个就会阻碍创新的发展,也会阻碍其他各方面的发展。
最后,保罗提到AI环境。这是在不断变化,我们监管模型也要不断变化来满足不同技术的变化,不是抑制创新。我们如何解决这个问题,我们需要更多国际合作来确保我们有共同的基石。在中国我们已经花了非常多的努力,去年我们提出“全球AI治理计划”,我觉得这是非常好的一步,也是非常好的机遇来解决并且保护AI,我觉得这是一个非常好的案例,AI向善,AI为所有人非常的非常好案例。
其次,我们在文化上的不同。我们会在这方面有一些摩擦,我们要理解AI取决于不同文化。不同国家间有不同的理解,所以我们要确保所有对AI理解的差异,我们要获得共识,并且不会导致摩擦和冲突,不会在国家间产生冲突,我觉得这个是非常重要的。我们也聊到数据安全以及隐私的问题,很多敏私的数据都会涉及在AI计算当中,以及在AI应用软件当中,所以如何确保满足我们数据安全合规也是非常重要的。中国是有数据安全法,欧盟有GDPR数据合规要求,如何让这些拥有共同话语是非常重要的。
首先,各个国家之间都需要进行治理,必须要去理解不同国家法则法规,一个大的框架就是非常难以获得共识。
非常感谢。当我们在聊AI治理的时候,我们聊到可信度,聊到AI信赖程度。关键就是我们要如何利用AI,这是一个非常大的话题。如何打造一个更加可互相操作的人工智能治理框架,这个是非常多的压力。
非常感谢各位先生的分享,我们要继续往下走议题,余法昌先生继续进行分享,你可以分享一下在你的垂直领域,以及相关互相操作性人工治理框架相关的见解,之后我们也将会有效进行探讨,最后在做一个总结。
这方面我再补充一点。Open AI有在美国硅谷设办公室,实际上并不是监管的角色。这些安全的部分并不想让人觉得是监管的部分,对于公司来说去理解这些东西,这个对于我们监管者来说是非常重要。对于第三方机构来说,比如它们做验证、风险也是非常重要。所以目前我们已经到达一个步骤,来得到我们产品验证,这个已经完成相关验证和实验。
我来补充一点,我们看到很多智能体之间会进行互动,实际上会对人进行互动,所以任何这些不确定性都会在这个流程中被扩大,我非常同意。
在我们现实世界中也会进行相关的行动,不管监管环境是否已经准备好了,实际上已经打开了非常多的问题,比如隐私、审计等等。如果这些智能体已经代人来进行活动,我们监管环境就会变得越来越复杂,这就是目前所面临的情况。
还有另外一个后续问题,就是我们的Agentic Agent,这是一个非常火的概念。在很多治理社区里面一直在聊这个话题,讲的就是我们安全和治理,要用我们安全来去确保网络模型治理。另一方面,行业鼓励用户更加相信模型,不仅仅是用一个答案,而是对问题排序。对于行业和用户来说,他们的意见不太一样。针对这个问题有什么看法?我使用的是ChatGPT预览版,这个模型已经采用了推理功能,所以Open AI给大家展现模型运作方式,实际上已经给到我们一些步骤,并且能够针对具体问题进行快速的回复,这是ChatGPT模型所能做的,它能做非常多的事情,能够不断分析进行微调。
这个要经过一个非常长的流程,这是我目前所在的路径,也是目前最好的机会,得到全球范围内的共识。比如说如何让我们模型进行验证。实际上你刚刚讲的点非常多,已经花了15分钟。你刚聊了非常多的点。刚刚是要回到互相操作性问题,刚这个话题已经聊了非常多,之后这部分就会把它忽略掉。
中国政府也会参与很多签署主动协议,还有针对框架,我们要获得政府以及监管者,他们必须要有专家支持,所以AI安全机构现在也是非常重要的。现在旧金山正在召开类似会议,就是针对全球AI机构,通过流程在英国、美国、加拿大,中国也加入进去。通过会议和框架协议签署,可以帮助我们更好理解,并进行测试这些模型。通过时间可以帮助我们验证AI框架治理,仍然还有很长的路要走,我觉得这是非常重要的一步,能够帮助我们达成国际共识和协议,理解什么是验证,什么是测试,如何达成共识和签署协议。
还有很多我们说的专业术语,其实我们说的都是一样的专业术语。当我们说到开源模型,我们针对这些东西,在语言和描述方面也应当达成共识,还有地缘政治风险。因为很多国家有不同监管、不同文化,所有这些要素都要整合起来是非常难的。现在还有一个流程在进行,也是非常重要的,它可以帮助我们得到国际框架,这仍然有很多事情要做。中国也是被邀请参加去年10月份第一次会议,当时在伦敦召开关于AI,我觉得很多中国企业应当加入进去全球框架开发和治理。
第二个问题就是能力,我们之前有听到政府如何发展技术理解,了解这些技术。今天早上也有看到专家说到,所有这些东西其实都是非常复杂,发展也非常快。不光针对大模型,还有整个生态系统应用发展,很多东西都可以被称为AI,要和这些所有都保持跟上步走,其实是非常难的,因为它的发展速度太快了。
11月相关会议,即使是政府还不知道谁应该去负责AI治理框架,他们也没有特定机构,美国愿意去做,但是有一些监管者,所以美国有很多讨论,是不是有一个具体的监管者,主要针对前沿AI模型。
在全球有三个主要路径针对AI治理,首先是欧盟,它们不停针对风险相关治理框架。欧盟也是制定了针对AI路径,并且它们还需要加入生成式AI加入到它们治理框架中,并且要获得最终法律版本。美国也是有这样的主动治理,这其实也会有一些问题。有一些人觉得从现在主动治理变成强制性的治理发展,但是什么时候去做这样的事情是非常复杂的。中国有一些非常明智的决策,而且是自下而上。像是Water marking(音),还有像是标准性数据,所以中国采取了非常实践性、实用性路径。但我们回头去看现在的问题是什么?说到需要国际协议的时候,问题在于我们结构,谁去负责这样的结构。在政府里来去进行管理推进AI风险,所以这是一个非常难的问题。
我和很多公司,它们就是想要基于很多模型应用落地。我也是认同刚才曾所说的,曾教授在上一场圆桌论坛中说到可操作性方面,我们应用到很多模型应用,是跨边界进行应用的。我们没有统一的框架去证明,比如像是某一个技术框架可以用在这个模型,中国在这个方面也是处于前沿领域,今天早上听到很多关于大语言模型授权。如果你使用一个模型在英国或者在美国进行开发,或者在其他国家进行开发,你如何去开发应用框架,如何更好把这个模型应用到其他应用,因为它们的规则可能是不确定的,这也是一个非常紧迫的问题。
我对肖恩·欧·海格缇主任说的我完全赞同,今天早上听到了专家的讲解,说到了应用和技术,但是没有人说到生成式AI,很多的政策决策者说到的是幻觉,以及ChatGPT、聊天机器人。但是当我们说到挑战的时候,我们还需要考虑很多生成式AI,很多AI智能体,现在发展的速度是非常快的。
刚刚肖恩·欧·海格缇讲了一个角度,监管或者是治理(governance)的难度还是在于技术有着非常巨大的变化,这个变化逻辑上应该有前瞻性,因为变化很快,而且是方方面面的,这对治理带来了很大的挑战。
所以,我们需要不停地持续的和政策决策者和科学家进行不停地对话,还有学术专家和产业的业内人士持续沟通,这是非常重要的,因为这的确对我们来说非常具有挑战性,因为不同领域内的应用以及发展速度都非常快的。
我们对于AI需要做的就是能够为人类带来普惠,以公平和公正的方式,在我们每个人和每个国家以及全球范围内都要实现这样的目标,去做其实更难,说起来比较简单,但是我们要采取的这个行动更难。这也是在不停地变化的,AI的发展非常快,对政策决定者来说它非常难,因为不知道技术发展的方向是什么样,下一步在一两年之后可能是完全不一样的技术迭代,非常快。比如体育的时候你需要考虑下一步阶段会发生什么样的方法,所以我们必须要有长效的机制去考虑未来的发展方向,因为未来的发展和你现在面临的挑战不一样,而现在它的发展非常快,有的时候当我和在英国的政策决策者进行讨论的时候,他们也是这么认为的,他们认为风险和挑战应对现在的技术,在未来三年到四年完全是不一样的。现在对于我们来说,在两年之后,可能也是不一样的。
我们请肖恩·欧·海格缇教授,肖恩·欧·海格缇主任您在这方面有什么想法呢?
谢谢曾教授。曾教授说的我也想再重复一下,刚刚曾教授讲第一点不应该仅仅是regulation应该是promotion,不应该仅仅是what not to do、what to do、what to fast,这是第一点。第二点,人工智能的监管上security和safety是两个不同的概念,就是安全这个概念和通常意义的security概念还是不一样的。
所以,我们的attention也要从人工智能可能被攻击,转换到人工智能的内部风险带来的挑战。从security聚焦到safety的讨论。谢谢。
我们讲人工智能安全的时候,您讲到security,其实我想在人工智能的治理当中,我们safety更多,因为人工智能它的不可预测性以及它的风险,由于设计的缺陷带来的不可预知的风险,这是现在人工智能治理当中技术落地讨论的非常具体的问题。
比如现在联合国17个可持续发展目标,现在据我们统计已经发表的英文1000万篇论文中只有2%是跟可持续发展相关的。其中AI用于教育、医疗占了大概6、70%,至于其他15个可持续发展的领域,在人工智能科学界的关注度非常低,在产业的关注度就更低了。原因是什么,就是你不能能够很快在其中得到经济回馈,但是作为政府和学术界来讲,我们是有责任去推进人工智能应当做的事情。所以,治理还应当将人工智能引向我们应当解决的问题,用人工智能赋能的问题,即使短期内不能带来非常明确的回报,这个时候我想政府以及学者要发挥的作用就更大了。
谢谢您的问题。我首先想讲AI Governance,它不能跟监管划等号。人工智能治理讲的两件事就是我们应该做什么,现在我们讲人工智能治理的时候讲了过多的我们不应该怎么样、注意什么样的风险防范,其实人工智能如何善用在这里讨论得比较少。
所以,先请四位从曾教授开始谈一谈AI治理本身各位的认识和思考,哪些方面是从业者、政府、社会、用户最关注的问题呢?也就是对于AI的治理作为一个整体来说,它是一个挑战并且是非常复杂的一个挑战,我们说到传统的政府管理的时候我们要考虑它的安全,同时还有软件不停地发展,还有很多的匹配、对齐问题,以及我们幻觉,特别是我们说到本地以及国际发展。另外还有我们技术不停地发展,快速迭代,我们又希望它不可以影响我们的发展,同时又可以保障我们的安全,对于AI的治理你们是怎么样的观点呢?
先请四位嘉宾聊一聊AI可互操作性,这个词本身蛮学究体的,也蛮技术、蛮专业的,AI本身治理有非常强的复杂性,AI这个技术就有很多的挑战,包括很多专家都讲了Hallucination,包括alignment对齐,当然AI本身对数据、对安全、对社会的方方面面、对产业的治理都有影响,特别是AI治理如何能够促进技术发展,但是同时又能够确保安全可控。在全球的范围内更是一个挑战了,不同地区、不同国家。
我是印象笔记的唐毅,我们是AI从业者,从应用到模型,从硬件到软件,从C到B我们都有,我们也是昨天非常荣幸获得大会表彰的杰出贡献奖,我本人也是人工智能专委会的成员,非常期待和四位专家的交流。让我们有请:中科院自动化研究所治理中心,曾毅;剑桥大学智能未来研究中心项目主任,肖恩·欧·海格缇;美国奥尔布赖特石桥集团合伙人及副总裁,保罗·特里奥洛;香港医院管理局资讯科技及医疗信息部总经理,余法昌。
下面有请另一个议题的专家和主持人,有请印象笔记董事长、首席执行官唐毅董事长主持下面的环节。专家有曾毅主任、肖恩教授、特里奥洛教授、以及余法昌总经理。
各位专家的观点都非常专业,因为时间关系都是简明扼要,特别是后面四句话,杀手级的应用、全球协作、不是在于技术而在于人、持续为人类创造美好生活、以人为本、智能向善、安全可信、促进发展,特别是韩总讲的破云冲霄。所以,人工智能从技术的发展角度来讲突飞猛进、快速迭代,刚刚专家讲的四大关键技术,无论是国内还是国内的,都要进行突破,在应用方面,应用开始发展起来比较容易,但是要做好做优也需要下功夫,特别要发挥价值、缩小数字鸿沟,在安全治理方面我们也要下功夫。我也补充一点,人工智能的应用最重要的要解决民众的难点、痛点、需求,在这个过程中要多听取民众的意见建议,这样才能够造福人类,促进经济和社会的发展。一句话概述:人工智能解民忧、广纳众议、施良谋,造福人类促进步。今天第一个圆桌论坛就到这里,谢谢各位,也谢谢各位专家。
漫长的人类历史中,这次大模型带来的技术冲击从未有过的对人类通用脑力能力的一种替代的机会。最后这句话希望是这样的,人工智能长天浩渺,安全为翼、治理为标,翱翔有序,方能破云冲霄。
坚持以人为本、智能向善、安全可信、公平普惠、创新发展,让AI不断地为人类造福。
AI治理最大的挑战不在于技术,而在于人,AI最大的风险不在于智能,而在于全球协作,这始终是AI治理的原点,也是人机共存的基点,人的技术浪潮面前,人类不能在最简单、最基础的问题上犯下根本性的错误。
从互联网和移动互联网的发展来看,互联网杀手级应用是搜索,移动性互联网的杀手级的应用最后发现是短视频,人工智能的杀手级应用还没有发现。从过去互联网和移动互联网的发展来看,一定要有大量的应用涌现,人工智能现在他们谈了很多的涌现,一定要应用足够多,尽快落地,人工智能真正杀手级的应用会真正落地,我们要真正用起来。
谢谢,两个问题各位专家简明扼要进行阐述。下面请各位专家用一句话来陈述一下你们的观点,特别是对于未来的一些期盼。
幻觉问题不能一体性解决所有幻觉问题,一定程度上通过技术手段触发,甚至一定程度上引导幻觉在严重场景下提前产生,这个时候我们其实可以通过相应的技术方法对人工智能所带来的治理挑战进行更好的解决。同时,刚刚体及当人工智能进一步跟具身智能或者是跟控制系统相结合的时候,它带来的危害更加有挑战,当我们结合了相关的管理要求、治理条例要求的基础上,在技术侧我们也可以通过检验检测、有效发现和提前触发等一系列技术手段,相当程度上对人工智能本身的发展提供进一步的保驾护航。
各位专家都讲了很多在治理方面的观察,刚才方院长提及在人文侧对它进行更好的管理,李院长提出从产业侧。我们就有一个问题,人工智能治理能不能治,接下来从技术侧跟各位汇报一下。我们强烈观察到人工智能是可以治理的,起码在技术侧有很多实现路径。我们讨论了很多,幻觉问题彻底根植有赖于整个大模型相关技术整体发展。但从治理角度彻底根治有赖于整个大模型相关技术整体发展,但是从治理的角度幻觉不仅可以从直接对模型处理来解决,还可以通过检验检测、管控和监测的一些技术手段。比如,可以对“投毒”注入攻击的行为进行有效监测这个时候安全可以相当程度上获得一定程度的保障,我们确实没办法提供100%的安全,人工智能也在快速发展。
谢谢。下面请韩主任。
同时还要前瞻布局,AI攻防、AI算力,其实算力安全也是摆在算力互联互通。我们还要打造相关AI安全和治理产品,推进相关产业。加强生态建设,包括技术生态、应用生态和产业生态,这个涉及到多个主体相关任务。最后还要加强AI安全、人才体系相关建设,总体从这些方面来推进AI安全与治理相关工作。
从空间维度,要全对象、全领域、全环境。比如现在有大模型本身安全、数据不被泄露安全、环境安全、应用合规合法相关安全。从空间维度也要确保立体,我觉得这是一个基本框架。我们从技术和管理基本逻辑来讲,我们要坚持内生AI+内生安全,技术与管理双推进。从技术方面来讲,围绕前面的认识,尤其涉及到核心关键技术,我们要进行突破。比如模型幻觉,刚才已经谈到很多,后来进行相关的攻关,包括相关的测评。打造的天干测评大模型(音)就是对这些技术理解,已成为国资委主用平台。
具体来讲,我建议主要思路还是从时间维度和空间维度,因为安全是全方位全立体。从时间来讲我们特别重视,今天总工程师也谈到从AI安全和治理整个全流程生命周期,比如从AI业务和产品设计-开发-交付部署-运营-管理监管全流程、全生命周期,我们洞察看看这里面涉及到的技术、管理以及相关治理。
我想从安全和治理方面,核心是要按照现在秉承安全可信、公平普惠,如何促进发展理念,以及围绕着去年总书记在人工智能倡议当中明确提出来,要打造可审核、可监管、可追溯、可信赖的人工智能技术目标,我们要通过技术和管理两个途径来打好AI安全和治理基本框架和相关具体规划。
下面请李院长。
目前最重要的问题,共识有了,法律法规有了,但是全球性机制,大家怎么合作落实落地是今天最大的挑战。大家都认为AI治理AI是焦点、技术是焦点,治理本身还是人的治理。人怎么样自我管理,社会怎么形成秩序。目前问题不是技术出问题,还是我们人出问题。人与人之间,数据与数据之间,机器与机器之间前所未有连在一起,但是我觉得人与人之间、国与国之间的撕裂和冲突是前所未有的。今天AI治理风险并不是来自技术本身,而是来自于我们人的合作出现巨大问题。
到了今天AI治理,用一句话来概括,“行百步者半九十”。整个世界以后形成系统性基本共识,包括各个国家、各个组织倡议和共识也很多,我们统计有300多个比较正式的。就像ChatGPT出来一样,大家都是大同小异。中美在法律法规方面进展也是不错的,尤其是欧盟。大家多了以后有点审美疲劳,今年9月22日,联合国全球数字契约,我认为这是最重要的一个文本,不管是在数字“鸿沟”还是AI治理,我觉得这个文本是最全面,也是最体现人类价值和互联网初心的文本。真正读过的人非常少,越重要的东西可能越没关注。
我之前念工科,到了文科,现在主要研究传播和治理。人工智能有几个特点,不仅耗电,也很耗公共资源。现在的计算机专家越来越像未来学家,必须要有丰富的想象力。人文社科越来越像技术专家,必须掌握很多技术术语。
4、AI安全相关技术。有几点非常关键,今天讲负责任,安全到最后全是软硬件,尤其是软件。我觉得这个负责任核心是负责任软件安全,包括软件供应链安全,以及AI供应链安全。现在AI设施越来越“关基化”(关键信息基础设施),不仅仅是赋能。看到AIGC赋能这些本身的内容,就是它对关键基础设施发起的攻击,包括AI反诈,以及AI智能算力方面的安全,我觉得这4个方面是通过我们实践谈一点观点。
3、高度重视AI跨系统和跨学科。比如说现在AI重塑纯学AI操作系统,这个也是非常重要的,包括AI For Science。这次诺贝尔奖获得已经证明这一点,包括AI对相关科学和系统进行创新性重塑和引领性再造。
2、高度重视AI工具型技术。任何一次伟大的革命都必须要有跨时代工具,这个我们重视不足。包括高质量数据不能只是停留在概念、理念,怎么样造成清洗机、蒸馏器,牵扯到数据标识、度量,包括整个处理,以及相关测量和一体化集成工具,我觉得这个里面会出大国重器,但是现在国家在这方面还弱一点。
AI技术有四大关键技术,现在需要关注,有些也取得突破,但是未来更需要。1、AI大模型本身。但这里面要高度关注多模态,多模态核心抽象出来就是空间和时间。因为Transformer比较注重空间,包括数量表达、向量都是空间,以及Secrets。但是时序上面,并且时间与空间的结合,抽象出来多模态今后最关键是这个,我觉得这个值得高度关注,当然还有其他高质量数据集、幻觉。
请李安民院长。
第三个关键词也是很多嘉宾谈到数字“鸿沟”问题,这可能也叫AI“鸿沟”。对传统企业来说它们有场景、有数据,但它们缺乏相关人才,包括资源。从传统企业到AI这步的跨越比原来到数字化跨越更大,而且人才更稀缺,包括整个AI人才都集中在几个大学里面,怎么样帮助这些企业完成这样的跨越,也是我们未来持续发展需要解决的问题。我先讲这么多,谢谢!
中远集运把所有港口、海上各种信息,包括海关信息做了一个类似像船长智能助手问答,也是付费的,效果非常好。不仅解决了船长问题,还解决了很多跨领域数据共享的问题。比如像铁矿石大宗商品与一些港口的距离,其实与期货价格是高度相关的,将来这个是不是也可以做一些金融产品,都在做很多这种尝试。在2B领域,在企业领域有很多非常大的盈利机会。
还有一个案例也很有启发性,各个停车场在装充电桩,其实充电桩与车位有关。这个创业者就在想能不能做一个移动充电桩,谁需要充电我们让充电桩找车,不是车找充电桩,他们现在开始在杭州做,就是通过人工智能匹配路径、匹配最优解,现在也做的很好,充电桩的使用率能达到97%,使用率非常高。
我们也看到国内很多很有意思的案例,刚才潘院士谈到医疗。我们看到医疗一个特别好玩的案例,原来做妇科医疗知识的团队,后来又了大模型之后,他们做了一个机器人。他们发现年轻的女性有一个很大的特征,就是她们不爱去医院,爱在网上问,我有什么问题,他们就做了一个智能问答机器人,每天日活上的很快。后来他们就与保险公司推了一个卵巢险,非常有针对些做卵巢险。做一次相关检查需要500元,但是保险上下来之后只需要300元,还可以做一次检查,所以现在这个保险卖得很好。找对了一个非常准确的场景,就会有盈利。
第二个关键词盈利问题。今天大家都谈到,大模型已经发展到非常繁荣的阶段,大家现在都考虑到未来怎么活下去、怎么产生利润的问题。现在有两条路径,第一条路径2C,2C好处就是有规模。如果做好的话,可以迅速成为独角兽。但是挑战也很大,怎么样能够杀出来,找到这么多用户最大公约数,其实是很大的挑战;第二条路径是2B,现在美国很多AI公司都在做工具,做2B聚焦场景解决方案,好处在于可以很快见到盈利。
谢谢主持人。因为时间比较紧,我用三个关键词。第一个关键词工程化,前面很多嘉宾都讲到幻觉、落地中间的问题,我们一直在关注AI落地问题,也跟很多创业公司,包括AI大模型公司做过深度交流。这里面很多一个共识,好像大模型一开始使用的感觉特别好。我们经常说一脚油门就可以踩到85分,甚至90分的样子,一个星期会取得非常大的进展。但是真正到了实际应用的时候会面临很大挑战,比如准确度要提高到99%。像媒体行业对差错率规定是万分之几,如果要把查错率控制到万分之几后面工作量大的不行,其实是特别复杂的工程化问题,已经不是技术问题。前面几位嘉宾也讲怎么样通过互相审校、校正,这其实是特别复杂的问题。
下面我们请刘湘明总。
第三,在这个基础上,人们开始逐渐把相关预训练模型与控制系统相结合。这也是大家比较火热的词,叫做具身智能。本质上是大模型-模型可以有效驱动控制系统,进一步发挥作用,我们就打破了本身数字世界与物理世界的交集。我们可以让数字世界进一步驱动物理世界发生很直接的应用场景拓展,这三点是我们看到巨大技术方面的发展。
第二,以大模型为基础,大模型不再意味着大语言模型,包括整个大型预训练模型。大型预训练模型又包括多个模态配合、多个模态融合,越来越多以空间智能为基础的多模态端到端模型进一步发展,也为我们带来特别多应用场景。在这个背景下,我们可以看到一个模型不再是简单对话聊天机器人,它可以做很多相关工作。不仅是自动化、智能化,甚至可以把以前做不到的人类基础脑类劳动进行有效的辅助,甚至部分替代。
谢谢卢书记的介绍。首先跟各位分享一下技术侧,最近大模型所呈现出的状态。第一,超大规模预训练模型的进一步发展。最开始在2022年底,ChatGPT为我们带来大模型的概念,那个时候大模型是Large language model(大语言模型)。随着这个发展,大家对1B以上的模型称为大模型,今天万亿级参数量大模型广泛发展,为我们带来很多新的可能性。作为基底模型表现也是日新月异,迭代非常快。
这个题目要从几个方面来阐述,从技术、应用、产业、安全、法理、伦理、治理等方面角度来阐述。因为时间关系,我就2个问题,加一句总结陈词。一是技术应用;二是安全与治理。技术应用就是当前人工智能技术与应用的现状面临的挑战?在哪些领域有突破?未来是如何发展、如何构想,以及如何构建?先请韩蒙主任就这个问题简要回答一下。
第二个关键词共存,共存就是和谐共存。一种事物的产生不会影响到另一个事物,这就是和谐。未来大家不用说了,未来战略、策略、应对。这个题目非常大,我们4位专家,包括我在内主持人用25分钟时间很难把这个题目说完整,肯定是计算资源不够、训练不够、数据不够。我们4位专家与我也有意愿,尽可能把它说清楚,不产生“幻觉”。
我们对话的主题就是“洞见与人工智能共存的未来”,这个题目有三个关键词“洞见”“共存”“未来”,何为“洞见”中文的意思就是明察清楚,直击本质,特别强调指引并且要掌控结果,洞见这个词用在环境比较复杂、难以判别的情景下,对它的发展趋势、变化规律、产生影响、技术方向、原理内在动力等等进行洞见。人工智能就是这么一个事物,复杂多样、极具挑战,刚刚专家都谈了很多。
下面我们进入圆桌对话的环节,第一个圆桌围绕洞见与人工智能共存的未来进行探讨,我们有请刘湘明CEO、李安民院长、方兴东院长、韩蒙主任上台。
展望未来,我们呼吁全球科技界同仁携手前行,恪守科技伦理,推进算力资源共享,加大数据供应与模型治理力度,完善人工智能工程化人才培养机制,秉承智能向善的原则,我们期望各界共同推动AI大模型生态建设,促使人工智能健康有序发展。
在战略投资方面,宜人智科聚焦与孵化AI原生应用,赋能于创业团队,构建包括中间层及各种应用的生态体系。
在能力建设方面,构建规模日益增大的模型未必就是人工智能领域的终极目标,将人工智能技术转化为具体且可行的方案和产品,对推动人工智能的发展以及实现商业价值有着至关重要的意义。宜人智科凭借长达18年的行业经验与数据积累,积极在AI领域进行布局,自主研发了智能营销、智能客服、智能风控等多类产品,像谛听智能决策、青鸟智能客服、蜂巢智能语音、灵枢智能营销、模型工厂、白泽数据平台等均在其列。在战略投资方面,宜人智科聚焦于孵化AI原生应用,赋能于创业团队,构建包括中间层及各种应用的生态体系。
在风控方面,AI反识别可通过算法标记,拦截伪造证件以及资料造假等行为,大大提高了辨识效率,降低了其他风险。我们的实践证明,通过积极的治理和技术创新,AI可以成为推动社会进步和提升生活质量的有力工具。
在风险控制方面,宜人智科构建了一整套全面的风控体系,包含AI直检、情绪识别、内容审查、AI反识别等应用,我们在智能外呼、客户服务、线上直播等场景中,一旦发现违规现象,就能够及时进行屏蔽与制止,避免合规风险和客户流失。以客服场景为例,情绪识别可以依据用户情绪,提醒客服调整沟通策略。内容审查可以在多层级的审查规则下,融合多种技术手段,达到实时检测与反馈。为避免模型被用来生成不当内容,我们建立了多层拦截机制,第一层是直接敏感词拦截,第二层是意图识别,通过单独训练小模型前置于大模型,有效拦截诱导性问题。
在算法透明性方面,宜人智科确保模型运行机制透明且输出逻辑可解释,对模型的各个环节制定统一规范,并通过自主研发模型工厂,使训练过程透明化。在数据安全方面,生成式AI可能伪造或者是生成错误信息,从而扰乱市场,极易产生有害或误导性内容,进一步危害市场稳定和资产安全。宜人智科始终严格执行数据清洗和脱密流程,保护个人隐私不受侵犯。
在价值导向方面,算法作为人工智能发展的支柱之一,存在着不透明、歧视以及模型缺陷等问题,容易引发黑箱效应,进而损害市场对人工智能的信任。宜人智科采集多元数据融入模型,运用人类反馈强化学习技术,和具有辩证观点的数据,强化训练的客观性。在业务场景中,采用检索增强生成技术,通过知识照会提升信源可靠性。
从理论研究到商业运用,人工智能通过技术创新与应用创新发挥了众多积极作用,“人工智能+行业场景”是技术发展的主流趋向。不过,人工智能技术必然存在“双刃剑”效应,在AI大模型与人们的日常交互中,也容易出现舞蹈、扭曲价值观等问题,它的价值导向问题影响着人们的获得感,它的隐私安全问题应该着人们的安全感,这对人类技术变革进程中如何捍卫核心价值是一种考验。
全球范围内人工智能日益受到高度关注,在推动其创新发展之际,如何达成有效治理,已成为各国面临的重大挑战。在此进程中,中国彰显出独特的战略思维,积极推进国际交流对话,携手各方共建技术标准与发展框架,持续加速建设大模型技术体系,完善创新生态环境,探索伦理规范建设,构建安全防范机制,助力行业健康发展。
尊敬的各位嘉宾,大家好!我是宜人智科的创始人、CEO唐宁,创业18年来主要从事金融科技与科技金融相关的工作。今天非常荣幸能够在此与诸位分享我们对于推动人工智能治理从规则迈向实践的思考与实践。
非常感谢范董事长。下面我们有请宜人智科董事会主席、首席执行官唐宁先生发言,大家欢迎。
面向未来,模型可控、不越界是底线。我们非常期待在各位领导、专家的指导下,包括和行业产业界一起,为更加开放、包容、共存向善的人类网络空间命运共同体一起努力。谢谢大家。
最后讲一下我们今年在数贸会,针对大模型安全的检测,AI基础设施、模型算法、应用服务的全链路风险评估体系,也覆盖了12大类、40多个不同类型、2000多种不同的风险,我们后面还会和众多专家、行业的协同下,今后还会朝着更加纵深化的方向发展。
另外,人工智能训练下也带来我们原来很多数据集能不能把真实数据允许放在一起的问题,今年我们拿到信通过院一个证书,“可训不可见”在人工智能训练情况下,两个数据集不必在一起,通过精密计算和训练来支持我们的“可用不可见,可训不可见”。
接下来,我们讲以工具治理之。今天很多领导和专家也讲到,我们如何能够让人工智能的发展始终朝着我们希望的轨道上前进呢?轨道的微调、轨道的预判、轨道的规则会变得非常关键。大家也看到大模型训练数据的泄露,大模型遭遇“投毒”以后它的模型完全被改变,这些已经成为大家很关注的一个焦点。我们在这方面做了梳理,从大模型安全风险地图来包括在训练阶段,也包括在算法模型以及业务应用和自身的系统平台阶段,包括训练数据整个数据的泄露和安全,以及算法相关的鲁棒性和可解释性,以及业务应用数据泄露和相关内容安全的问题,以及系统平台在网络安全和数据安全方面有很大的空间。
还有数据分类分级,数据分类分级虽然我们有工具,但是大部分是人工活、经验活,但是数据分类分级实际上是我们今天讲的数据资产化和数据保护利用一个非常重要的前提,过去数去分类分级从效率和质量都有比较多的问题,今天因为时间关系不多讲。从今年2月份开始,我们在实战中通过智能体来进行数据分类分级的提升,我们发现这个效率提升了30倍,相当于两个人原来干一年的活,相当于现在两个人20天完成。我我们当时第一个行业是教育行业,我们想是不是这个行业有这个特点,后来我们连续尝试,在教育、政府、医疗、金融、运营商、企业等七个行业,我们发现普遍提升25-30倍,这也给了我们很大的信心和启发。
另外,智能体+数据安全,数据安全当中,过去很多依靠正则表达式,或者是类似于正则表达式来发现相关的内容匹配,这里面不是误报告就是漏报告,这是一个翘翘板,对于敏感数据、敏感内容、数据泄露都是如此。
下面我和大家汇报一下我们在这方面一些成效:第一,安全运营。我们告警研判在整个事件调查、效率的提升、事件的结束效率在十倍左右,人工完成这样一个分析研判和同样的智能体大概是100倍到200倍左右,这是去年亚运会到今天,这是非常典型的场景。我们也在今年国家网络宣传周和中央网信办合设的中心举办的人工智能赋能网络安全应用的非常严格的测试中,我们也获得恶意软件检测这个赛道第一名。这也是非常典型的一个进步,因为安恒信息主要的专项并不在恶意软件检测。恶意软件检测完全依靠我们安全大模型和智能体进行赋能,可以说在几个月内就超越了所有的同行,这是整个人工智能赋能网络安全一个非常经典的案例。
第二点,在谷歌当时提出人工智能在行业应用垂域率先受益的十大场景中,安全也是十大类重要的一项。我们从去年开始,因为我们本身一直在网络安全、数据安全这个领域,所以在安全安保、安全运行这个领域,在这方面利用我们这些年在安全积累的数据、情报,结合垂域大模型开始应用,我们也做了一些有益的探索。去年的“828”我们在亚运会,相当于在第个1.0安全的垂域大模型做了一些有效的应用,在这个之后我们率先在安全场景化局部能够模拟人整个的流程和行为,因为有很多不同的场景,所以我们现在也发现比如对于网络信息安全领域内,非常典型、耗时的,或者是我们过去存在很多痛点的领域里,现在我们也感觉到有一些非常有意思的突破。比如网络安全事件的告警、分析、研判,在整个安全中这是重复性最多,是一个耗时最多的一个事情,包括数据分类分级,也包括事件的调查和闭环等等。
第一点,这次我我们能够感受到的不仅仅是一次人机交互的革命,不仅仅是人机交互体验、协作,更多的是专家经验传承的一次变革。当然我们先从交互的感受开始,但是我们发现这次逻辑推演思考跟我们如此接近之后,我们也感受到对行业的应用开始产生质的变化。
很显然人工智能到今天,我们已经很清楚地看到它似乎可以成为一个非常好的,和我们一起协作,以我们的逻辑、知识和经验来进行有效效率和生产力的工具,当然对我们这个领域内我们也做了一些有益的探索。
尊敬的各位领导、各位专家,很荣幸能够在这个场合和大家汇报一下我们在过去人工智能向善和利用的一些思考。人工智能这两年来的迅猛发展,相信各行各业以及各位专家前面讲到的,我们看到了很多的可能和合作,我们从工具视之、工具用之和工具治理之这三个角度跟大家汇报。
下面有请安恒信息董事长范渊先生发言,大家欢迎。
最后强调一点,最终人类AI系统其实是非常笨的,它是通过参数来决定预测下一步,不管你产生词汇、诗歌都是预测下一步的。我们今后怎么把大脑里的东西放进去,才能产生真正智慧力量,这个需要后面工具掌控。谢谢大家!
有时候人的科学一定要有证据,不能是“马后炮”。“马后炮”的人基本上科学水平差,一定要有前瞻性,一定要有超前思维,所以这是我们的工作。你要产生1万都可以,为什么?把它打乱以后再打回去,诗歌无非就是组合拼接,最后出来的小分子有2个,与新冠病毒还有连。也就是说,我们产生的小分子有可能成为药,这就是我今天报告内容。
最终我来讲讲诗歌的问题,ChatGPT进去一个诗歌,大模型进去一个Prompt,写个诗歌它就写出来了,但是ChatGPT是2023年年初产生的,我们文章产生小分子是在两年以前。我们黑盒子进去,癌症有关的小分子,新的小分子出来一个,因为一个不一定有用,但是出来1万个小分子,筛选以后总有1个小分子也许对癌症有用,这是我们药物试剂的原理,实际上小分子也是序列、词汇、句子。
我们靶点做得很成功,一个靶点进去,几万个小分子进去,我们很快能试验出来这个小分子是否能成功,因为时间关系我不讲太多,给你们一个想法就可以。
下面再说一个药物案例。我们做了一个筛选系统,小分子怎么与Protein靶点合在一起,我们就把它筛选出来了。比如这个靶点里面咬合程度不一样,小分子也就不一样。所谓的筛选。我们1万个药分子匹配以后,去试验才能试验成功。
我们要比ChatGPT好,你要有证据说好。我们用145个问题,这个问题是很多妈妈通用的问题。妈妈肯定会问自闭症与哪个基因有关联?就像你去问癌症是不是与喝水有关系等等。ChatGPT3.5回答不出来,因为它没有专业知识。我们的问答问题回答得很精准,我们一个问题牛了,第二个问题牛了不说明我们好,我们要统计规律超过你才是好。下面一张图就是统计规律,统计规律准确率最终比人家高很多,说明好。这说明什么?我们人类知识放到AI里面去,可以Enhance到AI,所以需要人类的知识,还是强调这一点,我们人类大脑比大模型要大100倍、1000倍。很多人问什么叫参数,参数就是人工智能神经网络里面的连线数字就是一个参数。大家知道一个线性网,比如AX+B,两个参数描述东西是一个线性,三个参数弯道到(音),四个参数很弯道。假如有1万个参数,就可以把很复杂的东西描述出来,我们人脑比大模型还更复杂,描述的东西更多。
我们加入200篇专业自闭症文章,加入30万Document。ChatGPT是红线,一进去问问题就出来了,大模型就出来了。我们是进入到绿道出来了,AI无智能无知识,大家很多人不懂。我始终强调它比人类差很多,它是统计规律。比如今天陈长汶是我朋友,陈长汶是什么,下面怎么猜,是一个教授,是一个工人,是一个农民,是一个什么……。为什么它说是教授?因为互联网上很多Document,陈长汶就是个教授,所以统计规律是教授。假如今天有一个一模一样陈长汶名字,他是一个部长,很可能陈长汶就是部长,所以它是没有知识的。我们做了Evaluation,全方位从6个维度,准确率等等Evaluation。
第一个场景,我是做自闭症问题检测,一个妈妈到医院里问很多问题,自闭症孩子3岁不说话等等。我们问系统ChatGPT行不行?当然行,ChatGPT回答不好。为什么?我们问答系统有自然语言处理大模型回答不好,我们弄一个自然语言处理,加入AIG,也就是加入很多真正专业知识。
有的公司已经可以达到人头变化、人像就可以检测这个刘亦菲是假的,或者这个公章改变一个字都可以检测,这就是人工智能防风险的一种预测。就像原子弹一样,原子弹造了以后,用不好就是问题,要通过机制来控制。因为今后人工智能还是有问题的,我通过两个场景告诉大家怎么用好人工智能。
怎么办?最近有一个研究,当然这是癌症治疗的建议,有62%准确,说明要监管。今天讲到监管就是怎么样去利用,怎样做负责任AI应用。我们讲到加入知识,当然是一方面,我们人类知识为什么强调,现在是1000亿。大家知道人类脑子是多少?至少是大模型的100倍-1000倍。为什么人类脑子有的地方比不上它,因为我们计算速度比它慢一点,实际上我们的智慧比它聪明。看一个老鼠就知道这是一个老鼠,机器算了半天没有我们智慧。所以我们人类知识加入到人工智能才能产生,我们要避免“幻觉”Closing vision(音)。最近有一个ln major baset(音),就是可以避免幻觉,最近有一家公司号称iRAP可以避免“幻觉”,这是李彦宏讲的,他自己公司弄的ln major baset RIP Retable Automatic的问题。我们要用专业的LLM Modle,比如说Medical point GPT,最后我们要利用工具。
最近美国一位4岁的孩子,妈妈带着他去看病,看了17个医生看不好。最后我问ChatGPT,把症状敲进去出来一个诊断,这个结果非常好。因为这个妈妈再把这个结果给医生,医生说有道理,一看病对症下药治好了。说明什么问题?ChatGPT可以诊断病,但是ChatGPT还是有很多问题。为什么?因为大部分都是错的,或者一半以上准确,大部分还是有很多错误。
现在中国大模型很多,预备大模型近200个。我认为大模型开发以后赚不到钱,我说清华的小师弟,现在清华有“四龙”,大概都是值200个亿。其实你没有revenue的模式,今后一定会破产,今后一定要落地,我始终提倡落地的模式。知识驱动怎么放?三个问题,放什么知识进去、怎么放、放在哪里。这里面是计算机探讨的问题。
我们可以看到,模型里面很多,我们基础模型,今后一定是行业模型、医疗模型知识放进去。行业模型还不够,场景模型。医疗里面,刚我讲的制药与疾病预测就不一样。当然下一步L3,我提出问题是什么?一定要解决模型,解决问题也要放入不同的知识。比如现在用这个方法来解决,要用这个知识。随着知识的加强,普通知识-行业知识-场景知识-问题知识,最后问题大模型出来以后,我们模型再微调改动,最后达到应用的效果,每一步都加入知识微调。
第二个论点,多个小模型还是可以用大模型什么意思?分身诸葛亮+小模型。什么意思?诸葛亮假如ChatGPT用一天,太贵了,我用3秒钟,然后小模型集合成功。最近我的同学ZoomCTO黄学东,原来中国微软第一把手。他的三个小模型合成以后,质量与ChatGPT一模一样,电只用了ChatGPT的十分之一,所以今后这个是趋向,因为不可持续性小公司根本用不起大模型,今后大概是这个情况。
大家知道里程碑Chat GPT一句话进去就产生一段文字,一句话进去产生一个图,一句话进去产生一个视频(Sora)。现在有了这个技术以后,一年以前我曾经预测,以后的东西大概要模型,小模型。是什么意思?就是省电,大模型是持续不了的,现在看来预测完全准确,比如专业词汇写诗歌的用PoemGPT就够了不需要别的。小模型有什么问题呢?还是有问题的,小模型的知识面窄有时候做不到,所以我们用了小模型“三个臭皮匠,合成一个诸葛亮”,三个小模型可以打败大模型。这是第一个论点。
谢谢大家,时间紧我们简单一点讲。
我们接下来进入第三个议题,推动人工智能从规则迈实践。推动人工智能治理从规则深入到实践,是当今国际社会面临的重要课题,随着技术的快速发展,以及广泛的应用,确保其安全、可靠、公平、透明变得越来越重要,要实现这一目标,需要多方面的努力。下面我们听听专家的观点。下面有请深圳理工大学计算机科学与控制工程学院院长、讲席教授,美国医学与生物工程院院士潘毅,有请。
设立红绿灯的过程,建立负责任的AI,既刻不容缓,又需要长期主义。谢谢大家。
非常需要强调,负责任AI的建立需要各界多方共同的努力,前面各位专家领导也提到了,这是一个非常复杂的命题,需要政府来做,一方面需要制定合理的法规政策,明确红线和监管的机制。对于社会组织、科研机构来说,对于AI的伦理和安全方面加强研究,为整个决策提供更有效的科学依据。对于我们科技企业来说,要自觉遵循道德和伦理的准则,在技术研发过程中,真正体现把社会责任融入到整个环节之中。当然对于公众来说也是一样,它是新兴的事物,要积极关注和积极参与AI发展的讨论,将每个人的意见能够融入到整个AI的发展中,共同构建负责任的AI,让AI更加更好地为人的生活和产业的发展助力。
第一,从准确性到人情味。大家讲的比较多的是怎么样保证可靠性和准确的部分,但是真正让AI更好地服务人类的话,在这里面体现人情味的部分其实是很重要的方向。第二,从显性风险被动防控到复杂的隐性风险主动防控。第三,从对话交互到有效协同。
为AI的发展设立红绿灯的过程,实际上也是今天这个论坛的主题,也是去构建负责任AI的过程。负责任AI的建立,我们从长远来看面临三大趋势:
在蚂蚁集团集团对AI应用有一个小的愿景叫“AI像扫码支付一样便利每个人的生活”,所以过程中我们开发了AI的应用,比如我们做了生活管家(支小宝)、金融管家(蚂小才)、健康管家(AI健康管家),我们还开发了CODEFUSE帮助研发的人员,让研发更加便捷,我们还不断地提升我们IIFAA基础设施,让智能体之间做更加顺畅的智能认证和互操作,让AI的服务可以人人共享。
第三,绿灯。对人类有助力的AI应用我们要加大鼓励,推出在应用的层面上。赵部长也提到,虽然AI包括大模型有这样的问题但是它是非常好的工具,我们要加大它的利用,其实做安全的也是一样,安全大家说是工具是底线,其实最终的目的还是促进AI广泛、健康的发展应用,还是从这个角度出发。只有这样才可以让AI造福门类社会,缩小AI引发的技术鸿沟。
对于蚂蚁集团来说,我们在去年年初的时候建立AI安全伦理委员会,我们也期望用“善治”应对“善智”,真正用制度引导AI驱动的业务,符合“以人为本科技向善”,蚂蚁集团所有的AI应用在出台之前都会经包括科技伦理在内的评测,以实现它在面向公众的时候做好准备。
第二,黄灯。除了技术就是做好AI制度的管理,这就是对于我们具有潜在风险AI应用领域要特别关注,刚刚有领导也讲到了,比如自动驾驶这个领域,其实智能的前景非常广阔,但是不可避免目前还存在很多伦理的问题,比如自动驾驶的汽车在路上遇到不可避免的情况下,在紧急的情况下,到底是保护整车的乘客,还是护路上的行人,这都是非常复杂的伦理问题。对于潜在风险的AI应用领域,这种情况下,面对这种情况,我们要做这样一些深度的分析和研究,在没有完全把风险研究透彻下,我们要慎重对待它的发展。
其次,对人类怎么样监管AI,人类无法监督整个超级人工智能,但是我们觉得AI可以。在这里面蚂蚁集团也和清华大学一直在持续努力、持续共同研发,我们推出了“蚁天鉴”人工智能安全检测和防护的加固平台,不断地提升整个人工智能应用的检测水平和防验(音)的水平。
第一,红灯。红灯停,就是做好风险的控制。我是做安全风控的,所以也会发现现在对于AI的利用、应用,其实我们看到有很多的“黑灰产”比我们刚刚讲的AI应用更顺畅、更快捷,现在很多用来做网络的虚假内容生成,用来做网络的攻击层出不穷。最近我们也发现对深度伪造的技术广泛应用到“黑灰产”战线获利里面,现在的态势愈演愈烈的情况。所以,对于能够违反整个人类价值观,对整个社会进行作恶的AI应用,我们必须进行防御和抵制。
如同汽车需要道路和信号的引导一样,AI的发展也不能毫无约束狂奔,必须为它设立红绿灯保障其健康前行。下面我们以蚂蚁集团实践的情况作说明。
刚刚很多专家都提到了现在整个AI应用,其实面临了很多信任风险、安全风险,我这里是以乌镇大会去年人工智能工作组提供的一个生成式人工智能发展的研究报告和共识的文件为例,里面提到了人工智能进一步发展有六大类、若干小类安全风险,既有模型自身安全风险,还有类似于网络域、现实域、认知域。
刚刚各位领导专家都讲到了很多,我们这里说人工智能如同高速行驶的汽车,它带来了很多前所未有的机遇,我们首先讲的是机遇。这在很多的研究报告以及其他资料里面都有这样的阐述,比如可以促进经济发展、社会进步、助力公益事业,包括促进科学研究这样的情况。AI发展情况让我们对AI能够进一步造福人类有更多的期待。
各位领导、各位专家、各位来宾,大家上午好!今天非常开心有这样的机会作这样一个演讲,我们今天站在科技发展的数字路口探讨AI健康的发展以及探讨现实世界和数字世界融合这样一个重要的命题。所以,我今天的题目是“为AI健康发展设立红绿灯”。
非常感谢陈院士专业精彩的演讲。下面我们有请蚂蚁集团副总裁李俊奎先生发言,大家欢迎。
人工智能智能合成数据是有用,现在生成式AI很多,哪些可以用,哪些不可以用,哪些只是做Entertainment,真正用到实际环境当中去,我觉得这里面有很多问题值得大家去探讨。我今天就讲到这里,谢谢!
刚才说如果人工智能一定需要合成数据,又有哪些挑战?人工智能产生数据挑,实际上是很多的,因为时间关系我不讲特别多。合成数据真的有用吗?答案是是的,但是要正确用途。如何完全信任生成式的人工智能,在很多工业环境当中,我们需要学习如何在极端情况下,人工智能能做出正确的判断。极端情况下很可能影响整个工厂的停产等等,你怎么去学。等着它发生再学吗?这肯定是不现实的。如果我们用第一性原理把这种极端环境给你模拟出来,产生的数据就足以让人工智能来学习,来做应对方法。合成数据本身就有很多相关问题,我这里不展开讲,可信度、安全、私密性问题,前面有些嘉宾已经谈到这样的问题。
我最后还有很简短一点与大家共享,也许我们只能利用AI生成的数据,现在已经在做很多了,怎么做,如何解决AI产生数据安全性、有效性等等一系列问题。如果不这样做,又有哪些严谨的科学证据来支持现在大语言模型进一步扩展可以导向真正意义上通用人工智能,我没有Answer,没有这样的办法。
我提出这样一个问题,这项研究是否表明大语言模型不具备产生通用智能能力,我们怎么做。当然有一个办法,就是多模态。如果真是这样,大语言模型进一步扩展,也许不会让我们获得真正意义上通用人工智能,怎么办。也就是说,大模型进一步扩大很快就会耗尽所有形式的自然生成的数据,自然生成的数据很多都是与语言相关的。
我举一个例子,你们可能就非常清楚。大语言模型基于两个基本原理,第一个原理,当我要完成一句话的时候,我完成一半的时候,下一个最好的词是什么,你给我预测出来;第二个假设要完成一个句子,中间缺了一个词,你怎么样做,这是两个最基本的原理。你发现它是一维向量里面,每个向量都有所谓的Token,这些Token可以预测。如果拓展到我刚才讲的从空间智能已经没有了,给你弄一幅图像,你说中间是一个猫,旁边是一个……,我没有,我们也不能预测,因为空间智能本身要比时序上的大语言模型要比较复杂。
这是《自然》杂志4月份发表的一篇文章,很有意思。你们知道我是做视觉计算的,看到做大语言模型的问题,我就比较有兴趣。它讲什么?几千年以来,语言的发展主要的工具、主要的作用是做通讯、沟通,而不是让我们得到智能,我们智能的发展远远要超越语言本身的发展。
第二个方面讲到通用人工智能问题,通用人工智能讲的比较多的是具身智能,下一步类能机器人。也就是说,未来也许我们会有,也许与我们一样聪明,或者一样智能,或者比我们更聪明、更智能的人类出现,是不是现在这些模型可以帮我们引导到下一步。
这是我在第一个方面提出的问题,也就是说,我们需要做范式改变,但是怎么做,我觉得脑启发是一个很重要的方向。虽然现在的规模不是很大,但是也有很多成功的例子,这是第一个方面。
假设我们不做范式改变,我们怎么解决与可持续发展竞争资源的问题。能不能开发开持续发展大模型尺度定理,如果要去做的话如何开发。大家都知道,人工智能现在到现在三起三落,或者是我们现在正在起的过程当中。你觉得会不会在某个时间段落下来,按照科学研究的规律一定会落,不知道什么时候,不知道它可以影响到哪个程度会落下来。在落下来的时候,我们要反思当初用的这么多资源,当我们遇到瓶颈的时候,如果我们不做思维的改变,如果不做研究范式的改变,我们还能持续吗?
受大脑启发的神经网络架构,至少在数量级上面,它的费电比现在训练模型或者其他大模型低一两个数量级,其实我们就是这么学的。我们也不需要这么多数据来学,人类的学习基本上是Feel sample,基本上可以说不需要很多,我们可以推理而不需要重新需要,不需要灌很多数据。从人脸识别角度,我们一辈子没看过很多。我们为什么可以从很少数据里面学到很多?这个东西应该可以推广到现在的范式改变。
从我的理解角度会提出一些问题,至少我现在没有解,但是有一个方向可以努力。我们是不是有必要推动当前基于大模型、人工智能研究范式转变,以确保全球范围之内的可持续发展。可持续发展的很多目标,如果我们一味追求可能就牺牲其他非常重要的目标。我更坚信人工智能发展迫切需要算法与计算架构的范式转变,这里不是没有。以前有一些小规模成功例子,是不是把它推到大模型,这是我们需要做的问题。
如果我们回头看看自己是怎么过来的,也就是从人本身来看,从大语言模型与人类脑袋相比较,人类脑袋是25W,随便搞一个模型训练过程可能就相当于我们几千倍、几千万倍能源消耗,还远远没有达到人脑参数和推理的能力,远远差得很多。在这样的情况下,是不是我们更应该重新审视如何设计下一代人工智能训练方法、推理方法。
从气候变化角度,所谓“碳中和”角度,那时候已经相当于三分之二的智利,智利也是很大的国家。如果我们一味追求AI的Performers,如果我们一味追求Scaling law,我们面临的问题,未来AI要牺牲很多,这本身与可持续发展应该是相违背的。
所谓尺度定理,就是Scaling law与可持续发展的关系,过去几年,大家都知道从底下Transformer开始,到GPT3再到GPT4等等,我们预计2026年不再是以这种线性发展,而是指数发展。也就是说,至少是上一个数量级。如果再想象一下,2026年再上一个数量级的情况下,那时候电力消耗远远不是现在可以描述,可能占很多。在电力消耗的同时,影响几乎所有可持续发展的指标。做人工智能研究比帮助饥饿人口更重要吗?如果从普惠角度,我们确实不应该。还是要站得远一点,看得更多一点。这个世界上不是只有AI,还有很多很重要的事情值得我们去做。
想象一下AI计算的电力消耗,我故意放老一点的图,这是2022年的图。那时候AI相关计算已经超过全球航空所费的电,这是2022年,这不是现在。现在是2024年,我们这两年发展指数级增长。当然还有更新的报告,这是今年国际能源署报告,高亮部分两年以后,AI算力相当于日本全国全年的算力。你可以想象日本在发达国家里面已经属于很前列,6-10%还只是AI部分。如果按照这样发展,电力都被AI搞走了,其他方面联合国可持续发展有17个指标,很多指标都依赖于足够的能源才可以发展,这个影响是很大的。
我再举一些例子,你大概就可以知道影响有多大。按照现在所谓Scaling law,以后参数、算力需求都呈指数级增长,我们面临的挑战确实非常大。
人工智能与可持续发展有很多博弈的成分在里面。我们看一下联合国17个可持续发展目标,可能很多人也都清楚。其中一个就是水。大家都知道很费电,可能有人不知道人工智能训练也很费水,水是联合国可持续发展非常重要的一部分。当然,还有Carbon(气候变化)引起的,它产生一系列你不可想象有多大的影响。
视觉计算讲的是空间,最近斯坦福李飞飞教授讲,我们现在要加强空间智能研究。我言归正传,人工智能与可持续发展有什么样的关系?人工智能有好,肯定大家都知道,对整个发展起到推动的作用是前所未有的。其实它也有很多不足的地方,或者是还需要改进,以及影响全人类发展的地方。
我想说一个什么样的问题?人工智能即使是到现在这个地步,依然没有办法与我们人可以比拟,我们还是有我们的优势,所以我告诉我的学生不用着急。尤其我是做视觉计算的,你就发现现在大语言模型缺很多。刚才前面有嘉宾讲过,那是时间序列上的问题。
我原来一位学生,现在在Australian National University做人工智能学院院长。他说“陈老师我给你去问了一下,陈老师是什么样的人”,它就出来了,1234567,我看前面4条与我有关系,我说这个人有什么贡献,这跟我以前经历有关系,后面3条其实没什么关系。它怎么出来的?你也知道,现在大家都在调侃说“人工智能经常是一本正经地胡说八道”,后面几条跟我完全没有关系,后面很多是我学生的工作,也不是我的工作,所以它就安在我头上。
人工智能发展到现在,前面很多嘉宾和院士们都已经谈了不少,我只谈谈重要问题。实际上人工智能发展面临各种各样的困惑,虽然我在学术界,但是学术界也面临很大问题。如果有学术界来的朋友和老师都知道,现在大模型在学术界处于非常劣势的情况下。我们没有算力,有点算力也不能跟大公司(大厂)比。在一开始ChatGPT刚出来的时候,我的博士生问我,老师我们现在没事干,你问问题,回答都有了。我们当时也很困惑。
非常高兴有机会跟大家交流。今天我讲讲人工智能可持续发展方面,我的见解和思考。其实我来这里是求教,等会儿可以看到,我没有什么结论,我谈的基本上都是寻求答案。也就是说,来问问题,来向大家请教。
下面,我们进入第二个议题:现实世界与数字世界交融的秩序与规则。现实世界与数字世界虽然存在本质区别,但在很多方面遵循类似的秩序与规则。他们相辅相成,共同促进社会的和谐与发展。下面,有请香港理工大学视觉计算讲座教授、欧洲人文和自然科学院外籍院士,陈长汶先生发表主旨演讲,大家欢迎。
人民网董事长、传播内容认知全国重点实验室主任叶蓁蓁做主旨发言。
下面有请人民网董事长、传播内容认知全国重点实验室主任叶蓁蓁做主旨发言,大家欢迎!
最后,用这16个字来结束我的汇报。人有人智,机有机智,各智其智,智智与共。谢谢大家!
我们要坚持智能向善的初心使命,在人才培养领域坚持德智体美劳全面发展,避免技术“物化”和“异化”。我们既要发挥人工智能的赋能作用,又要防止技术凌驾于人之上。从教师角度要教会学生如何思考和创造,不能只停留在知识传授和获取上;从学生角度要培养批判性思维,不能满足于人工智能推送的现成答案;从评价的角度,要改革知识记忆复现式评价,注重思维能力和综合素质评价。
将来参加乌镇世界互联网大会的也许不仅有我们在座各位专家学者,同时可能也有智能机器人,它们同样也在听、也在想、也在思考、也会提问。教育工作者就面临这样新的难题,人类能否使机器像人一样能够做到“厚于德、诚于信、勤于思、慎于言、敏于行”,这是我们教育工作者人才培养的宗旨和目标。对人工智能的智能代理是不是也能朝这个方向走,这是一个重大挑战。
第三,推理阶段(求解问题阶段)。我输进去一个问题,大模型来推理这个阶段。这就到了最后一道防线,为了避免对模型参数训练和修改,在模型推理阶段嵌入价值规则和原则,对指令引领和后处理形式,对模型输出进行动态调整,输出符合价值观。也就是说,在大模型得到结果以后,我要进行审核、监督、评价,确保输出阶段能够保证。就像央视今晚要播出新闻联播,之前最后一道关就是要审查一下,这个也是很重要的,这是输出对齐。在此基础上开展人工智能社会治理综合研究,刚才几位领导也提到,包括对就业、隐私、安全、伦理法规方面人才系统培养。
第二,生成阶段对齐。就要定义价值观相关的奖励信号,人也是这样的,你给他什么样的激励,他就朝什么方向走,模型也是这样。要定义价值观相关奖励信号,在模型内容生成过程中根据从环境中获得的奖励和惩罚等反馈信号,不断调整学习的策略,最终输出符合人类期望的内容,这个很重要。训练算法、模型推理算法,算法的背后就是奖励。所谓奖励就是价值导向,把奖励价值导向转化成为算法的策略。
第一,训练阶段对齐。也就是说,人类采用反馈强化学习对齐方法,利用带有明确价值观标签的高质量标注数据来训练大模型。什么意思?人工智能的智能来自于数据,就像人一样,你看什么书决定了人的智慧,也决定了智慧的高度。让大模型喂好的数据、喂高质量数据、喂正确的数据,它就能产生正确高价值模型。目的是让模型学习输入文本和价值观标签之间的影射关系,通过强化学习让模型学习人类的价值和偏好。人类反馈的强化学习包括模型训练、收集人类反馈强化学习、迭代过程,这是一个循环往复,不断迭代的过程,最后确保生成内容符合人类的价值观。简单的说,从训练数据开始,这是一个基础。
今天我就借此机会提出三条技术路径,我想这个技术路径对于我们怎么从技术上实现刚才四位领导所讲的意图,我认为是上下贯通、相互支撑的问题。
3、模型性能平衡难。价值对齐同时会削弱大模型的原始能力,如何平衡对齐效果和模型性能,在技术上也是一个挑战,所以需要从训练数据准入-价值对齐机制,以及评测基准三个维度系统研究解决。
2、数据与训练开销巨大。刚才赵部长提的非常专业,从现在大语言文本中挖掘有价值的知识,这项工作有专家预测在2028年将达到“天花板”。今天大部分都是从开源数据集上以获取有价值知识,这项工作就像人类从矿产资源当中挖掘有价值的稀有金属一样,它也有消耗殆尽的时刻。我们怎么创造出新的有价值知识,不断向人类自身学习那样,让人工智能也不断向前进,这本身也是一个巨大的挑战。当然,这里面的挑战不光涉及到数据,还涉及到算力,这背后的问题也很大。
这个问题前面几位专家都已经提到,今天的人工智能,大模型等其他人工智能技术,还在不同程度存在影响人类价值观,包括内容幻觉、悖逆主流价值观,因为时间关系我就不举这些例子。这里面归集起来,我认为从技术角度主要有三大技术挑战。
第二,人类对齐AI。核心是确保人们负责任的使用AI,使用者也要有这个能力。比如说我们研制出核技术,核技术使用者很重要,这两者其实是硬币的两面。具体体现在鲁棒性、可解释性、道德伦理性和可控性,这是四个核心基础要素。
所谓价值对齐蕴含着两个方面,一是人工智能与人类价值对齐;二是人类与人工智能价值对齐,这两者之间有主从关系。前者主要是创建安全,符合伦理的人工智能系统,人在设计人工智能系统开始,就要让人工智能为人服务,让人工智能科技向善,从设计阶段就将这一理念通过技术、算法、算力根植到系统内核当中去,人工智能价值对齐是内生的。
在这样的背景下,我们说如何让人工智能科技向善,确保价值正确,这是一个非常重要的挑战。所谓价值对齐,目的就是使得人工智能行为和目标与人类的价值偏好、伦理、道德、意图和目标相一致,将人工智能打造成安全、真诚、可信的智能助手,避免算法偏见、内容幻觉、隐私泄露造成歧视等问题。
今天在此背景下,我们作为教育工作者,或者作为人类要关注这几个问题,这几个问题原来很清晰,谁来教、教什么、怎么教、如何学、怎样评,这些问题原本都是人自己要规范解决的问题。而今天谁来教不仅是人可以教人,今天机器也可以教人;教什么问题过去也是由人决定的,今天人工智能也可以决定;怎么教,如何学,怎样评,更加与人工智能有深度融合和紧密联系,这些都给我们带来新的思考。
今天人工智能技术已经在下面这四个层次(数据-信息-知识-逻辑),已经能够实现与人类类似或者同等功能的很多技术。比如感知计算,感知智能就是解决底下两层问题。今天我们说的判别决策式人工智能就是基于知识,而内容生成是建立在逻辑的基础上,今天人工智能下一步发展就是朝着意识信念方向发展。
人来到世界上通过视觉、听觉、嗅觉、味觉、触觉感知这个世界,产生各种数据。在数据的基础上,形成或者挖掘有价值的信息,信息基础上再形成知识,知识基础上再形成演绎归纳推理逻辑体系。进而在此基础上协调人类所特有的意识,在意识基础上再形成信念,进而树立理想和信仰,这是教育和认知的基本逻辑。
三是人工智能正在改变人类认知逻辑。如果我们仔细分析人类怎样获取知识,进而到最终实现理想信念,这是从数据-信息-知识-形成逻辑,在此基础上进一步形成意识、信念、信仰,这是一个逐步递进的过程。
二是对人类文明的影响。我们知道人类文明起源于语言,文字解决了文明记载和传承问题,而活字印刷解决了文明传播问题。今天人工智能为代表的数字信息技术正在推动人类文明、人类科学技术,从农耕时代工业文明迈向未来智能时代信息文明,告别铅与火,走向光与电。从刀耕火种迈向未来智能社会,这个影响也是极为深刻的。
第二,人工智能正在影响人类文明和各类文化。一是文化方法的影响,人工智能正在冲击人类的主体地位,人工智能内容生成可能是人们对文化作品价值判断产生混淆,甚至在一定程度上也影响人类的原创,引发文化价值、伦理知识产权方面的问题。刚才几位领导都提到这个方面有可能产生种种新的问题,包括算法偏见将导致语言和文化多样性受损。这里面哪种声音大、哪个算法主导力量强,它就对哪个语言和文化产生重要的影响。
集中表现为两个方面:一是帮助我们做决策和预测;二是以生成式人工智能为代表的帮助我们创造知识、生成内容。这两项工作过去只有经过专业教育的人才能完成,今天人工智能已经在很多领域全方位为我们赋能。前者基于概率与数率统计中的条件概率分布集散,而后者是联合概率密度计算。因此,今天已经形成了机器智能赋能人类,并且以人类智能和机器智能两者叠加,超越过去单一智能的新格局。
首先,我谈三点认识。第一,人工智能已经成为一种认识世界、改造世界的新思维方式,以及认识和改造世界的工具手段。它正在影响我们人类的思维方式、生活方式,乃至生产关系和上层建筑。在没有信息技术人工智能之前,人从观察现象-发现规律-解决问题都是由人完成的。今天有了人工智能以后,人从观察现象到发现问题,进而找到解决问题的方案,再到最终解决方案,整个过程都可以在人工智能支持赋能下完成。
尊敬的各位领导、各位专家,大家上午好!我今天跟大家分享的报告题目是《人工智能何以与人类价值对齐》,这也是人工智能科技向善,以人为本的重要基础性问题。
感谢赵部长。下面有请中国工程院院士、同济大学校长,郑庆华先生做主旨发言,大家欢迎!
谷歌和苹果这些大公司都把问题提出来了,我们下一步怎么做,让我们的reason少一点questions,让我们的形式推理逻辑更多,都需要创新。最后,不能因为一种应用技术和应用模式存在不足而忽视它的应用价值、实践价值,当然也不能因为一种应用和技术它处在历史的高位、潮流而看不到它的不足,大模型是非常有用的工具,我们还是要抓住机遇,同时我们要不断创新,真正让大模型成为我们数字经济,成为我们信息化发展一个有利工具和思维方式。谢谢大家。
我读过很多遍谷歌2017年推出的《Attention Is All You Need》这篇文章,这里面我感受最深的不是Self Attention也不是Positional Encoding,而是最后的一句话,这篇文章最后一话讲:让我们产生迭代来更少地系列化,而且它说这是我们的下一个目标。一个月前看了苹果公司的报告,那个报告讲到它说现在人工智能的发展,现在这种大模型遇到一个很大的瓶颈,甚至它认为现在我们人工大模型并不是真正意义上的推理,更多的是一个复杂模式的匹配,这篇文章也讲了,要开放真正意义上的具有形式逻辑、推理功能的大模型,他说这是我们下一步来开发更加通用、更加智力大模型至关重要的工作。
第三,我们的人工智能安全治理,要以促进和保障人工智能发展为出发点。这中间当然也有一个要创新的问题,transformer设计的时候有一个前提是sequence-to-sequence,是序列到序列的问题,但是现实中的知识,现实中的数据,并不都是序列中的数据,特别是网络中的数据,就很难认为是序列。怎么样对非序列数据进行设计呢?我们如何设计我们更好的知识提取模式,这对我们也提出了创新的要求。
如果现在利用我们的大模型解决网络安全问题,我们也要创新,我们现在基于transformer的大模型有什么问题?它很少在这里面有时序的概念。我们讲到transformer,我理解它有很多的创新点,但是它对我来说,我印象最深的可能是它的位置编码,它的位置编码是一个创新。且不说我们transformer大模型位置编码正弦余弦交替使用的理论基础在哪里,我要讲的是我们的知识它不仅仅空间维度有关,还和时间维度有关,特别是网络中间的流量数据,它从空间维度、从时间维度来讲,它都是密切相关的,而且从空间维度来讲,它也不是线性的sequence,这种情况下我们也要加以创新,要通过创新来解决,只有新的架构才能更好地支持我们海量获取的知识,才可以更好地表征和发现我们的网络安全问题。
第二,我们利用人工智能来解决我们的网络安全问题也要靠创新。我们讲到网络安全问题,我们会提很多,比如我们要感知网络安全态势,我们要知道网上拒绝服务攻击有多少,搞人工智能之后,我们的网络扫描,特别是网络爬虫在快速上升,这些有多少?我们网上有害域名、诈骗域名有多少?这一类的东西,都可以通过我们的网络流量还加以表征。网络流量里面有一个什么关系?不进有量还有时间的概念。
我们在学习知识的时候,有两个方面:一方面我们从正确的东西去学习,另一方面我们从错误中学习。transformer这种大模型的机制,从语料中学习,还有领导讲我们要注重语料的质量,那就是强调从正确中间学习,从正确的语料进行学习,我认为这无疑是对的,但是在我们人类学习过程中,有的时候从错误中学习更深刻,比如“一朝被蛇咬,十年怕井绳”,这就是从错误中学习。大模型有没有这个本领?现在是不是这样的机制?这应该超出了我这个业余选手的范围,专业的选手会讨论。但是大模型自身的安全机制、自身的安全缺陷可能要通过创新来解决。
首先,要通过创新来解决我们人工智能本身存在的缺陷和不足。这肯定会有专家作深入的、专业的、系统的论述。我这里有一个想法,大家谈到人工智能安全问题会讲很多,比如:幻觉问题,我感觉现在的人工智能很多是以大模型为代表的,现在的大模型又是基本上或者是多数我知道的是transformer,我有点怀疑现在基于transformer的架构大模型,它解决幻觉问题会不会无解呢?
人工智能的安全治理有三个方面我们要把握好:第一,我们要高度关注和注意解决人工智能本身和人工智能在使用过程中可能产生的安全问题。第二,我们要善于、要注重用人工智能,包括用大模型来解决其他类型的网络安全问题。第三,人工智能安全治理,要以保障和促进人工智能的发展应用为一个出发点。这三点我认为哪一点都离不开创新,创新是核心,创新是灵魂。
我想就人工智能的安全治理和创新谈点体会和看法,跟大家一起讨论。
尊敬的张雁云省长、孙蔚敏总工程师、刘华代表、郑庆华院士、叶蓁蓁总裁,各位朋友们,上午好!
感谢各位出席领导的精彩致辞。我们进入论坛的嘉宾发言环节,这个环节分为三个议题展开。 第一个议题:创造以人为本的人工智能。以人为本的人工智能,核心在于智能为人,智能向善。这不仅仅是技术层面的问题,也是社会和人文层面的议题。首先,有请全国政协委员、中国网络空间安全协会理事长,赵泽良先生主旨发言,大家欢迎!
世界知识产权组织作为中国代表处,连接总部与当地官学商民合作的桥梁。我们将进一步走进官学商民各层级,特别是走进新技术、新一代新领军人物城市和园区,为大家提供更加紧密、及时和优质的服务,助力中国创新型国家建设,也助力长三角地区创新型地区建设。谢谢大家!
女士们、先生们:长三角地区作为中国经济发展最开放的一个地区,像上海、苏州是全球顶级科技集群排名第5,南京全球顶级科技集群排名第9,杭州全球顶级科技集群排名第14。当然,中国是全球顶级科技集群排名第一的国家,超过美国,人工智能在长三角地区的广泛和快速发展。
四是在人工智能未来可持续发展性方面做工作。比如人工智能赋能青年、妇女和中小企业方面推出了很多具体举措,今天因为时间原因我不多说。与国际结构横向合作方面,比如我们与国际电信联盟、世界卫生组织、世界贸易组织,共同推出关于全球人工智能健康倡议、全球人工智能知识产权与贸易相关倡议,同时还为中小企业、妇女青年提供免费培训。
三是关注人工智能大数据方面的安全性。刚才张省长提到隐私权的问题,我们现在对于监管机构推出工具包,面向企业,我们推出了导航指南。当然还有运用的工具,比如人工智能诊断工具,这些都可以免费获得。
二是进行最佳范例分享。我刚才提到欧美、澳大利亚,或者是中国,在专利商标版权、外观设计等方面,尤其是人工+智能共同创作方面,我们在收集和分享最佳范例,供大家参考。我们也会发布相关执法经验、版权问题、智能问题、生成式人工智能问题可专利性重点案例,今天在座如果需要这方面案例也可以查询我们的网站或者与我接触。
一是政策平台。制定相关法律法规、国际法律法规,目前还远不到制定相关法律法规的时候,可能还得让“子弹”飞一阵子。世界知识产权组织已经在全球召开顶级前沿科技与全球对话会,对话会已经召开10届,每一次都有1万多个官学商民的各国代表参加。参加当中主要是美国和欧洲参与比较多,我在此也是向今天在座官学商民各个方面代表,在人工智能两大创新浪潮所涉及的领域,要么是政策的制定者、技术拥有者,或者是应用者都可以参与到我们这个平台当中去,为未来相关制度建设贡献自己的力量。
从各国判例来看,至少目前美国倾向于不给保护权利,中国在相关法院判例当中,比如北京互联网法院还是判予大量参与到人工智能创作当中,授予它保护;欧洲目前也是倾向于不给予版权可保护性。在未来的过程中,世界知识产权组织到底会发挥什么样的作用,我们大概是在四个方向上发挥作用。
女士们、先生们:人工智能的发展对于知识产权也带来前所未有的影响。在这个影响当中,我们从专利领域可以看到,人工智能相关发明专利有没有可专利性,这个问题已经引起各国广泛讨论和交流。在这个领域,人工智能系统能否作为专利发明人,各国其实有不同的看法。目前我们观察到,比如说中国是不接受的,南非是接受的,澳大利亚也是接受的。在这个过程中,显然法律还需要不断的更新和适应新的变化。版权领域也是一样,我们大家熟知的Sora和Suno这些应用软件的应用。人工智能参与的相关音乐著作权等方面,未来能不能得到保护也成为大家争议的焦点。
人工智能还表现出另外一个趋势,人工智能与基础科学的深度融合,以及交叉创新。2024年诺贝尔物理学奖和化学学奖都分别颁给与人工智能、神经网络相关的科学家和人工智能赋能“阿尔法折叠”破解蛋白质结构的科学家,可以看到人工智能与基础科学的研究将极大改进加速相关领域的研究和开发进程。
从这两年情况来看,这两大科学浪潮正在深刻的融合,并深刻的改变着我们的生产生活和娱乐方式。在两大创新浪潮之中,可以看得出人工智能就排在前沿科技之首。我们也可以看到,刚才张省长提到人工智能已经走进前行百业,各个场景在不断的涌现。比如说人工智能赋能自动驾驶、人工智能赋能航天工程、人工智能赋能低空经济等,还有人工智能也赋能脑机接口,这些已经不是未来,未来已来,未来已经确确实实出现在我们生活之中。这是我们讲的人工智能第一大趋势,人工智能的产业化。
女士们、先生们:当前世界正在经历百年未有之大变局,在这个大变局当中,我想前沿科技的发展是推动这个大变局的一个核心变量。早在2022年,本组织世界知识产权组织就向全球发布了全球创新指数报告,当时提出我们正在经历两大创新浪潮。第一大创新浪潮是以人工智能、区块链、云计算、大数据、第三代互联网技术,以及元宇宙为核心的数字创新浪潮;第二大创新浪潮是以生物技术、纳米技术、新材料技术,以及其他相关技术为核心的深层科学浪潮。
尊敬的孙蔚敏总工程师、尊敬的张雁云副省长,尊敬的各位来宾,女士们、先生们,大家上午好!首先,我谨代表世界知识产权组织及邓鸿森总干事,向本次论坛的召开表示热烈的祝贺,向各位来宾表示诚挚的问候!
世界知识产权组织驻华代表刘华致辞。
下面有请世界知识产权组织驻华办事处主任刘华女士致辞,大家欢迎。
浙江省人民政府副省长张雁云致辞。
下面有请浙江省人民政府副省长张雁云先生致辞。
中国国家互联网信息办公室总工程师孙蔚敏致辞。
下面我们进入议程环节,首先有请中央网信办、国家网信办总工程师孙蔚敏女士致辞,大家欢迎。
下面,我介绍现场出席今天论坛的领导和嘉宾,他们是:浙江省人民政府副省长张雁云先生;全国政协委员、中国网络空间安全协会理事长赵泽良先生,中央网信办、国家网信办总工程师孙蔚敏女士,中国工程院院士、同济大学校长郑庆华先生,世界知识产权组织驻华办事处主任刘华女士,人民网董事长、传播内容认知全国重点实验室主任叶蓁蓁先生,以及来自中外政府部门、知名企业、院校研究机构的专家和学者等。让我们以热烈掌声对大家到来表示热烈的欢迎!
今天,我们齐聚古韵优雅的古镇,共话人工智能负责任的开发与应用。今天上午的论坛就是要探讨如何保持技术创新和应用创新活力的同时,加强规范协同,推动人工智能的健康发展,讨论如何加强数据安全治理、提升算法透明度和稳健性、强化安全规范与标准,以及重视跨学科、跨行业、跨领域的合作,共同构建更加安全可靠的人工智能生态。
尊敬的张雁云副省长、赵泽良理事长、孙蔚敏总工程师、郑庆华院士、刘华代表、尊敬的远道而来的外国专家朋友,女士们、先生们,大家上午好!
2024年世界互联网大会乌镇峰会人工智能负责任开发与应用论坛,将于11月21日上午9::20在浙江乌镇枕水酒店宫音厅举办。敬请期待!