(相关资料图)

【环球时报-环球网报道 记者王冬】以“经济复苏:机遇与合作”为主题的中国发展高层论坛2023年年会于25日至27日在北京举行。中国发展高层论坛作为每年全国两会后首个举办的国家级论坛,自2000年创办以来已举办22届,本届论坛是2020年后第一次恢复线下举办。

论坛期间,人工智能技术革新和未来发展成为备受关注的话题之一。3月25日,三六零集团创始人周鸿祎在CDF Talk上以“人工智能与未来安全”为题发表主题演讲时表示,中国大语言模型技术水平和国际先进水平的差距在2到3年时间。周鸿祎认为,中国发展人工智能产业应当坚持长期主义精神,迎头赶上。在场景化、工程化、产品化、商业化方面,中国拥有巨大优势,尤其在知识标注领域,中国拥有高端知识人才红利,人工智能训练师将成为新兴热门职业。

周鸿祎在接受《环球时报》记者采访时表示,发展人工智能一定要“两翼齐飞”,一方面要在核心技术上进行研发跟踪和突破。另一方面要把人工智能的能力,通过插件的方式和百行千业的产品结合,做到你中有我我中有你,让人工智能真正的像电一样输送到千家万户,这样才能产生工业革命级的效果。

周鸿祎认为,坚持长期主义,校企结合是很重要的一点。中国的国家重点实验室、高校可以专心于发展算法、研究模型,同时可以多考虑同科技公司合作,由后者来探索专利提供的问题,工程化调优的问题,产品化和场景化结合的问题,最后来解决商业闭环的问题。

“大家各自分工通力合作,避免一些研究成果停留在论文,”周鸿祎认为,国外一些企业的成功是基于前人近20年来在人工智能技术上的积累,很多开放的论文,很多开源的代码,是如今一些成果的“肩膀”。校企应该在国家的支持下,多主导做一些开源项目,不同公司不同科研机构的聪明才智及时分享,能够促进整个行业的进步。

在当天下午的人工智能引领新产业革命分组会上,相关热点话题被进一步讨论。清华大学苏世民书院院长薛澜表示,对人工智能技术的发展整体应该保持乐观的态度,但当前新技术扩散速度非常快,导致对于潜在风险的分析比较困难。

薛澜认为,人工智能技术需要考虑四方面风险。第一是技术风险,是否可以做到技术更透明、结构更稳定,消除潜在的偏见。第二是经济风险,包括是否会形成垄断,对就业的潜在影响,以及是否会改变资源分配结构。第三是社会风险,比如人工智能应用对学术界的影响已经开始。第四是政治风险,人工智能在学习过程中或诞生潜在的价值观念以及意识形态等,需要考虑此类隐含内容对社会产生的具体影响。

中国科学院自动化研究所人工智能伦理与治理中心主任曾毅在分组会上表示,人工智能的治理,绝对不是约束人工智能的发展。“没有人工智能的治理,人工智能会野蛮生长。但社会需要的是能够健康和可持续发展的人工智能,这也是全球开展人工智能治理的目的。”据他介绍,经过四到五年的探索,中国的人工智能发展已经初步建立了自己的体系,分别从数据、算法、平台和应用方面,探索发展和治理的均衡。

对于在中美摩擦等因素下,“脱钩断链”和技术封锁对中国人工智能发展可能带来的影响,曾毅分析称,相关风险的确存在,类人工智能生成等技术必须要有中国自己的替代版本,而且中国人工智能生成技术大家很快就可以看到。“至于要不要向全球开放?我们现在应该达成这样的共识——中国的技术永远不对任何一个国家封锁。”曾毅认为,最终失去机会的是禁止中国使用技术的企业。

推荐内容