强化伦理约束 引导健康发展——博鳌亚洲论坛探讨“AI应用与治理平衡”

2025-03-28 07:25:07 来源: 科技日报 点击数:

科技日报记者 王祝华

博鳌亚洲论坛2025年年会期间,人工智能(AI)的安全与治理成为焦点议题。随着DeepSeek等开源大模型实现突破,以及算力成本指数级下降、智能体技术快速演进,AI正从“信息智能”迈向“物理智能”与“生物智能”,但其潜在风险也引发了全球治理层与技术界的深度关切。3月26日,来自政府、学界、企业界多位嘉宾围绕“如何推进AI应用与治理的平衡”这一命题,展开了具有前瞻性的思想碰撞。

与会嘉宾从技术演进与伦理挑战两个维度展开深入剖析。在谈到AI技术的前沿进展时,中国工程院院士、清华大学智能产业研究院院长张亚勤说:“DeepSeek是近两年来AI领域最大最具规模性创新,也是中国对全球的贡献。”

“符号和连接深度融合的机遇看上去已经到来。”中国科学院自动化研究所研究员曾毅表示,AI发展存在符号主义和连接主义两条路径,过去二者未能实现有机融合,但如今基于生物神经网络启发的智能推理机制,逻辑推理能力与人工神经网络表征编码的深度融合已成功实现。“受大脑神经机制启发的算法创新,尤其是神经路由机制等突破性技术,将成为推动AI发展的关键。”他说。

在深入探讨AI技术的前沿进展后,嘉宾们将话题转向与之紧密相关的风险挑战方面。AI技术“一路狂飙”,其潜在风险有多少?张亚勤认为,不可控风险“至少增加一倍”,尤其是生物智能领域的潜在威胁可能“放大数倍”。“必须设置不可逾越的红线,比如禁止自我复制。人类发明技术的智慧,需与引导技术走向的智慧并重。”他说。

“AI发展应用和安全之间的关系不是相互掣肘。”曾毅指出,研究团队已经通过实验证明,提升大模型安全能力,如伦理约束,不会影响AI的认知能力、求解能力。

“伦理安全应该作为AI大模型发展的基因,作为第一性原理,不可删除、不可违背,并做到稳健发展。”曾毅说,确保AI安全的基础性地位,需要从源头融入技术。

面对技术风险防控、伦理规范落地等AI治理挑战,各国是否形成治理共识?多位嘉宾表示,尽管当前技术发展突飞猛进,但全球AI治理框架仍存在显著分歧。“过去这些年,关于AI治理的进展比较有限。”中国社会科学院大学教授江小涓指出,从经济学视角来说,AI需要解决的核心问题是效率与公平。

AI治理该由谁管?怎么管?张亚勤认为,在AI治理领域需要设立两个机构,一个负责技术与产业标准制定,另一个则承担政策协调与国际治理职能。

对此,芬兰前总理埃斯科·阿霍主张,AI治理不应依赖单一国际组织,可以借鉴欧盟制定移动通信标准的经验,由政府、企业、科研机构共建动态标准。

而经济合作与发展组织全球关系与合作主任安德里亚斯·绍尔认为:“我们需要开放的、不断学习演进的AI治理机构,并且需要多层级、多部门、更多利益相关方参与。”

责任编辑:聂慧敏

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览