
文|郭晓静
编辑|徐青阳
12月18日,在2025腾讯ConTech大会暨腾讯科技Hi Tech Day上,清华大学人工智能国际治理研究院(AIIG)正式发布了重磅年度报告——《迈向可衡量的治理:2025年度回顾与行动建议》。
2025年,人工智能正处于一个关键的分水岭:技术正以前所未有的速度“深度嵌入”物理世界与社会机理,但是全球治理体系却陷入了“表面繁荣但实质脱节”的困境。如何在日益激烈的地缘竞争与技术失控风险中,寻找一套可操作、可执行的治理标尺,成为了摆在全人类面前的紧迫课题,此报告正是在此背景下发布。
作为这份报告的独家合作媒体,2026年,腾讯科技也将与清华大学人工智能治理研究院持续合作,围绕报告所提出的“迈向可衡量的治理”,持续推出系列内容,共同建立人工智能治理ima知识库,持续跟进人工智能治理领域的最新进展。
清华大学人工智能国际治理研究院副院长、清华大学中国科技政策研究中心副主任、清华大学公共管理学院教授梁正在Contech大会现场解读了报告的精华内容。
针对2025年全球AI发展的复杂图景,报告提炼出以下四大核心洞见:
AI正式完成从“数字助手”向“物理行动者”的跨越,智能体(Agent)与具身智能的爆发将引发全新的责任与失控风险。
算力进入ZFLOPS时代,但能源短缺与地缘政治垄断构成的“双重瓶颈”,取代模型参数成为制约发展的最大变量。
全球治理行动看似空前活跃,实则陷入“表面繁荣”,由于缺乏统一标尺,治理效能被大国博弈结构性削弱。
必须建立一套“可衡量”的治理框架,将模糊的原则转化为可操作的工具,以此对齐认知、诊断问题并引导资源投向。

回顾2025年的技术演进,报告用“迈向物理世界”来概括这一年的核心特征。这一年被视为大模型向智能体(Agent)演进的元年,AI系统不再仅仅是数字世界中被动响应的工具,而是进化为具备自主规划、决策甚至自我纠错能力的“行动者”。从OpenAI的AgentKit到智谱AI的Agentic GLM,高自主性的AI正在重塑人机交互的定位。
与此同时,空间智能与世界模型的探索,让AI开始理解三维空间的演变规律,李飞飞、杨立昆等顶尖科学家的投入,为AI从“认知智能”迈向“具身智能”奠定了基础。在自动驾驶与人形机器人领域,具身智能已走出实验室,这也意味着AI开始真正具备在物理世界执行任务并产生实质影响的能力。然而,这种能力的跃升伴随着巨大的风险:高自主AI的欺骗倾向、黑箱决策的信任危机,以及具身智能在现实环境中可能引发的责任归属难题,都成为了社会化应用必须跨越的障碍。
伴随技术狂飙突进的是基础设施的双重瓶颈。报告敏锐地观察到,2025年全球算力虽然正式迈入了“ZFLOPS时代”,但算力资源的垄断与地缘化聚集态势愈发明显。更为严峻的是,“能源+算力”的硬约束正在重塑竞争格局。
数据中心的惊人能耗使得电力成为稀缺资源,算力竞争推高能耗,能源约束反过来限制算力部署,这种恶性循环已成为制约AI落地的关键变量。在产业生态方面,虽然DeepSeek等开源模型的繁荣打破了巨头垄断,加速了中小企业的创新,但垂直领域的应用扩张也暴露了准确性不足与人机信任缺失的短板,特别是在医疗、交通等关键场景,AI误判的代价不可承受。
当视线转向治理领域,报告呈现了一幅复杂而矛盾的画面。2025年的全球AI治理看似呈现出“全方位活跃”的态势:从联合国设立全球对话机制,到七国集团(G7)宣布成立“ G7人工智能网络”,再到各国密集的立法行动,治理的声浪从未如此高涨。
中国推出了《人工智能全球治理行动计划》,坚持发展与治理并重;美国则发布了《美国人工智能行动计划》,将AI明确置于大国竞争的核心,倾向于监管松绑以保技术霸权;欧盟则在《人工智能法》与算力追赶之间艰难平衡。然而,清华大学AIIG的报告一针见血地指出,这种繁荣之下掩盖着“实质差距拉大”的危机。
全球治理行动大多停留在原则倡议的“浅水区”,多边平台议程分化,非约束性的共识声明难以转化为实际的约束力。
报告深刻剖析了造成这种“发展与治理断裂”的四大结构性矛盾。
首先是新兴技术的不确定性与治理稳定性要求之间的张力,AI作为一个“移动的治理目标”,让依赖确定性知识的传统监管总是滞后于技术突破。其次是战略认知上的割裂,许多政策实践将发展与治理人为对立,导致治理无法内嵌于创新过程。第三是国家竞争逻辑对治理合作逻辑的压制,当AI被视为国家安全的“竞争资产”而非全球“公共品”时,各国更倾向于构建排他性联盟而非普遍规则。最后是治理工具的滞后,面对系统性风险,全球缺乏一把共同的“标尺”来将宏观共识转化为具体行动。
面对这一严峻局势,清华大学AIIG在报告中提出了极具建设性的“迈向可衡量的治理”这一核心主张。报告认为,要打破当前的治理僵局,必须建立一套系统化、可操作的治理评估框架。这不仅仅是一个可比较的治理基准,更是一种战略性的治理工具。
首先,它能通过统一透明的基准“对齐认知”,减少因信息不对称导致的战略误判;其次,它能像体检一样“诊断问题”,清晰揭示各国是“强技术弱监管”还是“治理超前创新不足”,为政策调整提供科学依据。更重要的是,评估结果能够“引导投资”,将市场与政策的注意力引向那些通常被忽视但至关重要的领域,如安全技术研发与国际合作能力建设。最后,它有助于实现“规则互认”,为不同司法管辖区的治理标准提供兼容的接口,降低全球合规成本。
除了核心的可衡量治理主张,报告还提出了一系列务实的行动建议。在适应性治理方面,呼吁推广监管沙盒与标准前置,让安全伦理考量在技术研发的源头就介入其中。在国际合作方面,报告展现了现实主义的智慧,建议在激烈的地缘竞争中寻找“锚点”,即在AI安全、对齐研究和基础科学等关乎人类共同命运的领域,建立将可控竞争与必要合作区分开来的常态化机制。
此外,报告特别强调了非国家行为体的作用,肯定了科学共同体在达成“上海共识”等跨国安全共识中的努力,并鼓励企业将自愿承诺升级为可审计的实操方案。
2025年,是AI技术脱虚向实的一年,也是全球治理面临大考的一年,在一个算力爆炸、智能体涌现的时代,唯有通过可衡量的标尺建立起实质性的治理秩序,人类才能在确保安全的前提下,真正享受到人工智能带来的巨大福祉。
可衡量的AI治理:2025年度回顾与行动建议

皖公网安备 34011102002444号