AI发展:稳健推进与安全保障并行,平衡AI发展与监管:出路何在?

本文围绕人工智能(AI)迅猛发展背景下,探讨了应如何平衡其发展与监管的关系。通过专家观点及相关论坛讨论,展现了AI发展中存在的风险、监管与创新的矛盾分歧,以及全球治理的趋势等内容。

AI发展:稳健推进与安全保障并行,平衡AI发展与监管:出路何在?

在当今时代,人工智能(AI)正以前所未有的速度迅猛发展。这一发展态势引发了人们的广泛思考:面对AI的快速前行,我们究竟是该为其装上“刹车”,还是选择“踩油门”加速呢?如何在AI的发展与监管之间找到一个平衡点,成为了各界持续热议的焦点话题。

3月28日,在2025年中关村论坛年会期间,中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅在接受南都记者采访时,对这一问题发表了独到的见解。他指出,伦理安全研究并非是要给AI的发展装上“刹车片”,从而限制其前进的步伐。相反,它更像是一个“方向盘”,能够确保AI技术不会陷入野蛮生长、无序发展的状态。

曾毅在深入研究中发现,随着生成式AI在各个领域的广泛应用,一些潜在的风险问题已经逐渐浮出水面。例如,AI具备制造大量虚假信息的能力,这些虚假信息在传播过程中,严重影响了人与人之间的信任关系,甚至可能导致冲突的进一步加剧。尽管大家都清楚AI生成的内容并非完全可信,但仍有一部分人开始沉迷于与大模型的聊天互动中。曾毅严肃地强调,如果不及时为AI的发展设置安全护栏,那么AI所带来的风险将如同多米诺骨牌一般,波及社会的方方面面,最终可能给人类带来灾难性的后果。

“对于AI的发展,我们可以充分发挥大胆的假设和想象,但在实际推进过程中,必须要保持稳健的态度。”曾毅坚定地说道。

南都记者还注意到,在3月28日闭幕的博鳌亚洲论坛2025年年会期间,AI的治理与发展同样成为了备受关注的高频话题。不少与会者在讨论中指出,随着AI能力的不断增强,其不可控、被滥用等风险也会相应加剧,这进一步凸显了加强治理与保障安全的重要性和紧迫性。

清华大学讲席教授、清华大学智能产业研究院(AIR)院长、中国工程院院士张亚勤在论坛上表达了自己的观点。他认为,在广泛运用Agent(智能体)之后,AI的安全风险至少上升了一倍。而且,随着AI从信息智能向物理智能、生物智能等领域不断拓展,其所带来的风险将会成倍增加。因此,在应用智能体时,必须要设置一些明确的红线,以确保AI的安全使用。

然而,在关注AI安全和监管的同时,也有一部分人存在担忧,他们认为过于强调伦理安全可能会对AI的创新发展造成限制。这种“往监管走还是偏创新”的矛盾分歧,早在今年2月召开的巴黎AI峰会上就被摆到了明面上。美国副总统万斯公开抨击欧盟的“过度监管”行为,认为这会扼杀AI的创新活力。

那么,监管与创新真的是不可调和的矛盾吗?曾毅对此给出了不同的看法。他认为,监管与创新并非是相互掣肘的关系。为了证明这一点,他分享了自己今年开展的一项研究成果。在这项研究中,他将十几款大模型的安全能力提升了百分之二三十,而对模型的问题求解能力的影响几乎可以忽略不计。这一研究结果充分说明,在充分确保安全的前提下,AI的能力几乎不会受到损害。

在谈及AI全球治理的趋势时,曾毅介绍说,欧盟人工智能法采用分级方法来监管生成式AI大模型,即按照算力达到的参数来确定监管的风险等级。但他也指出,这种方法在技术上存在一些不合理之处。因为当一个AI大模型刚刚开始落地应用时,虽然其参数较小,但可能已经达到了高风险等级。对于欧盟的AI监管是否过度这一问题,曾毅明确表示,“这种分层监管、按照不同的应用领域进行监管的方式,本身并没有问题。”

同时,曾毅还提到,美国在AI监管方面并非是全然放松的状态。“万斯说得很清楚,过度监管会影响发展,但他并没有说不监管。而且,AI治理涉及到多方利益主体,需要各方协同共治。”曾毅认为,企业出于自身发展的考虑,会大力呼吁行业自律;研究机构的学者们也在其中发挥着推动技术向善的重要作用。为了确保AI技术能够稳步、健康地发展,他们都不会对AI零监管的情况“坐视不理”。

“从长远来看,我相信美国在AI理性监管方面也会有所行动。”曾毅向南都记者表示,“没有任何一个国家希望过度监管AI,但也没有一个国家会对AI完全不做任何监管。”

本文围绕AI发展与监管的平衡问题展开探讨,通过多位专家观点和相关论坛讨论,揭示了AI发展中存在的风险,以及监管与创新并非不可调和的矛盾。同时介绍了欧盟和美国在AI监管方面的情况,强调了全球协同共治对于AI健康发展的重要性。

原创文章,作者:煮酒氤氲,如若转载,请注明出处:https://www.kqbond.com/archives/7256.html

(0)
煮酒氤氲煮酒氤氲
上一篇 2025-03-29
下一篇 2025-03-29

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注