博鳌圆桌丨AI安全和发展如何平衡?并非掣肘关系,不能一再重复无法落地的原则

博鳌圆桌丨AI安全和发展如何平衡?并非掣肘关系,不能一再重复无法落地的原则

九游会123 2025-03-27 九游J9 5 次浏览 0个评论

在人工智能快速发展的当下,如何平衡推进其应用与治理?3月26日,在博鳌亚洲论坛2025年年会上,各界专家对该问题进行了探讨。

“在广泛运用Agent(智能体)之后,AI的安全风险至少上升了一倍。”清华大学讲席教授、清华大学智能产业研究院(AIR)院长、中国工程院院士张亚勤在会上表示,“智能体是很好的技术,它能够自我规划、学习、试点并达到自己的目的,但它本身会带来很大的风险,一种是可控风险,一种是被‘坏人’所利用的风险,风险增加了两倍。能力越大,它带来的风险越高,特别是AI从信息智能到物理智能到生物智能,风险会增加很多倍,我们在用智能体的时候需要设置一些红线。

AI应用与治理平衡推进论坛现场。 澎湃新闻记者 秦盛 摄

中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅表示:“去年我和张亚勤老师讨论是不是应该暂停6个月的人工智能大模型研究,先把安全护栏做好,很多人都误解了这样的倡议,以为是不要推进人工智能的研究。其实这个倡议告诉大家的是我们构建安全护栏的速度没跟上人工智能发展的速度,但是去年的博鳌论坛上,全世界的科学家对于如何构建安全护栏是不知道答案的。但是经过了一年的探索,我们有了初步的答案。”

曾毅表示,模型能力提升并不代表安全能力自然地就好,现在有很多人工智能大模型,包括国内的人工智能大模型,在认知问题、求解能力上与GPT系列可以达到同一水平,但在伦理框架上还有提升空间,“我们有一项新研究证明,当你提升人工智能大模型安全能力的时候,对它求解能力的影响几乎可以忽略。我们尝试了十几个人工智能大模型,可以把它的安全能力提升百分之二三十,对它的问题求解能力的影响几乎可以忽略,这说明安全和发展之间不是掣肘的关系,可以做到在人工智能充分安全的情况下,它的能力几乎不受损”。

他再次强调,去年大家都重视人工智能的安全,而今年,伦理安全应该作为人工智能大模型发展的基因,应该作为第一性原理,不可删除,不可违背,同时可以做到稳健发展。

中国社会科学院大学教授、国务院原副秘书长江小涓表示,AI治理如何落地、如何实践是目前最大的挑战,“过去很多年我对AI治理方面的进展是很遗憾的,我觉得进展是很有限的,从十年前阿瑟马人工智能原则提出来一直到现在,这个原则已经讨论十年了,一个月前巴黎峰会的六项原则依旧是继承了过去的这些原则,但是落地非常有限”。

江小涓认为,需要把问题分成可以落地的方向来推进,从经济学家的角度来看,一项技术是否可以接受其实只有两个标准,一是能不能带来生产力的提高,使其创造更多的财富,二是发展的结果能不能比较公平地分享。

“从这两个原则来讲,AI的发展第一没有问题,肯定是提高劳动生产率了,但是第二个问题是不是能够比较好地被社会所有成员分享,这个问题划到经济学角度上讲比较简单,就是就业是不是充分,分配是不是公平。如果这两个问题不能解决的话,我们有什么替代的政策,比如就业的冲击出现后我们应该有新的社会保障政策来执行它,而不是一再重复那些不能落地的原则。每个时代有每个时代的价值观,当技术使这些价值观必须改变的时候,我们要改变它,而不是一再地重复包容、共享,它是落不了地的。”江小涓如是说。

对于DeepSeek带来的影响,江小涓认为,DeepSeek在从经济学的角度上来讲使人们对AI大模型发展的担忧有所减轻,把AI从垄断变成了真正竞争的产业,从技术化的能力变成产业化的能力,形成了传统市场经济中的竞争格局,“我非常相信在竞争中,市场自发会解决很多问题,而不一定要我们那么高层地去讨论非常多的原则问题”。

转载请注明来自九游会·J9国际官网 - 真人游戏第一品牌,本文标题:《博鳌圆桌丨AI安全和发展如何平衡?并非掣肘关系,不能一再重复无法落地的原则》

九游会(s-jiuyou.com)中国官网 | 真人游戏第一品牌

发表评论

快捷回复:

评论列表 (暂无评论,5人围观)参与讨论

还没有评论,来说两句吧...