人工智能发展面临挑战,如何设置红线保障人类安全?

腾讯新闻《一线》作者 祝玉婷 编辑 刘鹏

“最明显的挑战是:如果出现强大且具有自主意识的AI系统,这样的系统有可能不再听命于人类。”

在6月25-27日举行的2024年夏季达沃斯论坛上,清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜表示,这种可能性确实存在。他提出,我们要设置一个红线或防护栏,保证我们远离这样的系统。

当前人工智能发展是否存在泡沫?薛澜表示中国确实是在经历着一个市场的变化。“我觉得市场会有一个调节机制,随着市场的进一步发展,会淘汰一些不那么强的AI应用或者是公司。”薛澜指出,同时也需要去更好的观察AI的发展,在出现不好的苗头时,尽可能及早地发现问题和解决问题。

对于人工智能关键要素,薛澜总结了三方面要点:

第一是“人”的要素,顶尖人才当然很重要,但大众的态度也很重要,不同国家不同人群对AI的态度也是不同的;

第二是研究的体系和能力,需要不断有在前沿的研究能力,也需要有落地的能力,能够深入探讨技术在本地得到应用的可能性;

第三是生态系统,是由企业引领的,比如AI如何在日常生活中应用,企业在其中发挥核心作用,这套生态系统需要培育,需要创新精神。

谈及AI监管方面,他也提出了三方面挑战:

第一,步伐和速度。“技术的发展要远远快于监管制度变化的速度。我们的法律法规需要相当长的时间去调整,才能推出并且应对技术的变化。”比如GPT已经3.0发展到了5.0,但我们的监管体系仍然是2.0,所以实际上这是一个相互你追我赶的过程。

第二,AI各监管部门之间的协调非常重要。“AI带来的问题是多元的,并没有一个统一的监管机构,可以管理好AI所有方面。”

第三,地缘政治层面。比如中美之间的技术对抗,这值得监管方面去思考。

薛澜指出,人工智能的风险是客观存在的,要推动AI的应用,也要不断发展技术,包括安全技术。他提出,中美之间需要去合作、去共同应对。

另一方面还需要一个更加灵敏的政府机制,要求政府系统能不断推陈出新。“不见得是要有一个面面俱到的法律体系,因为现在短期内可能是无法实现的,但至少要有一些基于某些场景下的有针对性的法律法规。”他进一步指出。

薛澜表示,在提高人工智能安全应用方面,中美之间合作联手的机会非常多。

© 版权声明
THE END
喜欢就支持一下吧
点赞85 分享