人工智能安全治理研究报告(2025年)

前 言
人工智能技术以其前所未有的发展态势引领新一轮科技革命和产业变革,深度驱动经济社会发展。2025年8月,国务院发布《关于深入实施“人工智能+”行动的意见》,系统推动人工智能在全社会的普及应用与深度融合,逐步形成“以创新带应用、以应用促创新”的良性发展飞轮。技术跃迁释放价值红利的同时带来风险挑战,只有当“安全内核”嵌入“发展飞轮”,产业才能实现高质量和可持续发展。
当前,全球人工智能安全治理逐步迈向体系化、实操化阶段,各主要经济体持续推进治理框架落地,如何在产业层面构建务实有效的安全治理举措,已成为核心议题。我们深刻认识到,技术快速发展催生新风险敞口,应用场景快速延展引入复杂治理难题,应对人工智能安全治理问题需树立动态的人工智能安全观。与此同时,人工智能安全相较于传统网络安全、数据安全,风险载体愈发复杂多样、安全防御体系尚处探索阶段、安全检测评估难度加大、传统管理机制难以适配,产业界亟需一个全局性、系统化的行动框架作为指引。为此,本报告基于中国信息通信研究院前期《可信人工智能白皮书(2021年)》《人工智能治理蓝皮书(2024年)》相关研究积淀,面向产业发展凝练2025年人工智能治理宏观要求,基于《人工智能安全框架(2022年)》《人工智能风险治理报告(2024年)》相关产业积累,进一步提炼当前产业面临的人工智能安全治理挑战。报告经过深入研究与实践总结,立足本土产业实践,提出“两横三纵”的人工智能安全治理产业实践框架。该框架以“管理”与“技术”双线协同为横轴,实现制度牵引与能力支撑的深度融合;以“开发侧”“部署侧”与“应用侧”三侧发力为纵轴,实现从模型研发、系统部署到场景应用的全链条防护,旨在为产业提供一套系统性、可落地、动态化的安全治理体系。同时,我们呼吁产业各界凝聚共识、形成合力,将分散的治理努力整合为统一的系统屏障,共同构建协同共治、安全可信的人工智能生态。鉴于人工智能技术应用日新月异,本报告对人工智能安全治理的认识仍有未尽之处,恳请大家批评指正。
谨向为本报告提供指导、支持与协助的中国政法大学、中国社会科学院法学研究所、对外经济贸易大学、同济大学、深圳市腾讯计算机系统有限公司、阿里巴巴(中国)有限公司、北京百度网讯科技有限公司、中国邮政储蓄银行、上海明品医学数据科技有限公司、煤炭科学研究总院有限公司、中国移动通信集团有限公司、中国联合网络通信集团有限公司等单位及专家,致以衷心的感谢。
一、人工智能安全治理概述
(一)宏观规范要求迈向务实新阶段
2025年,人工智能技术持续快速迭代创新,多项突破性进展正推动其能力边界不断扩展。基础模型推理能力显著增强,通过构建统一的跨模态表征空间,实现图像、语音和文本等多模态应用。智能体打通“感知、决策、行动”闭环,使模型从“语言生成器”向“任务执行者”转变。具身智能驱动机器人实现高阶认知与自主学习。人工智能与基础科学深度融合,在生物化学、医药研发等科研领域取得突破性进展,驱动科研范式发生深刻变革。然而,人工智能数据安全、算法偏见、模型幻觉、情感依赖、数据污染等问题不但未被妥善解决,反而在技术深入赋能过程中被不断放大。人工智能安全治理相关问题已经成为严重阻碍技术红利释放的掣肘。
在此背景下,全球人工智能安全治理已经发生深刻转变。一是从对于宏观风险的关注具象化至产业发展中的安全风险,更加强调释放技术价值红利,有效防范化解制约产业落地的风险挑战。二是从原则性探讨转向监管落地方法与评估框架构建。国际层面,联合国设立人工智能常设机制,标志着全球协同治理进入机制化运作的新时期。监管层面,法律规范从框架原则走向实施细则。欧盟人工智能统一立法持续推进,配套标准加速制定。美国在联邦层面维持审慎立法的同时通过州层面立法,探索灵活监管路径。我国形成了以算法备案、安全评估和专项行动为核心的链条化管理方案,监管深入技术开发与产品部署的具体环节。产业实践层面,透明自律及评估量化成为重点举措。国际社会日益认识到,有效的安全治理不是技术发展的阻碍,而是释放创新红利、防范系统性风险的必要保障。
(二)技术应用发展凸显风险新态势
人工智能技术应用的安全风险突破了传统安全边界,呈现三个特点:一是风险形态层出不穷,补丁式防护思路亟需改变。基于自然语言的交互方式大幅拓宽模型攻击面,基于海量数据的“黑盒”训练方式使得模型安全威胁更具隐蔽性,新风险形态与新风险载体形成乘数效应,必须跳出传统补丁式安全防护方式的依赖,统筹技术手段与制度安排,构建覆盖全生命周期的综合安全治理框架。二是风险识别难度高,评估评测依赖安全技术与治理共识共同支撑。对于人工智能的风险识别及测试手段严重不足,难以标准化、量化如幻觉、偏差等风险指标。人工智能应用场景依赖性强、可再现度差,难以形成统一、可复用的技术检测方案。人工智能安全治理不仅依赖安全技术手段,还需要凝聚多领域多场景价值共识,对风险开展持续研判和动态评估。
三是模型能力边界不明,需从对抗“已知漏洞”迈向应对“未知风险”。
大模型能力边界不明且快速迭代,所带来的已不仅是传统安全漏洞,更包括模型自主判断失准、价值对齐失效甚至是技术失控等系统性问题。这些问题直接导致传统安全的静态防御逻辑已经失效,难以依赖事后修补或固定标准进行约束,需要构建技术、制度、生态协同的安全治理体系,在能力演进中管控系统性风险。基于此,我们要承认,我们对人工智能安全认识的局限性。当前人工智能风险的分析均基于现有技术路线、应用场景以及现阶段已暴露的风险。由于未来人工智能技术和应用的不可预见性,具有动态演化的特点,我们也需建立动态演化的人工智能安全观。
(三)产业实践需要安全治理新框架
当前,全球范围内对人工智能安全治理框架的落地需求日益迫切。产业实践表明,宏观要求转化为可实操举措、体系化完善安全治理技管能力、产业协同构建安全评估基准等问题,已成为提升安全治理效能、回应风险挑战的关键所在。基于此,本报告从宏观目标层面,将宏观要求聚焦释放技术价值、精准防范风险的产业视角和客观表述;治理要求层面,将法律法规、监管举措、标准指南等纳入相关治理要求,进一步具象化相关原则性要求;企业实践层面,以“系统性”为根本遵从,以统筹技术和管理的系统性思维应对复杂多变的风险新形态,构建风险管理及动态跟踪处置能力。以“可评估”为核心原则,深入模型开发、系统部署、应用运行阶段,摸清能力及安全边界,确保相关举措的可操作性。产业生态层面,强调基准设置、测试验证、自律披露、信息共享的重要性,凝聚多元力量,实现协同共治。报告旨在提出人工智能安全治理产业实践框架(见图1),回应产业界对构建系统化、可落地、可评估的安全治理实践框架迫切需求,同时也期望以此为推动人工智能高质量发展提供有益探索。

 

本文来自知之小站

 

报告已上传百度网盘群,限时15元即可入群及获得1年期更新

(如无法加入或其他事宜可联系zzxz_88@163.com)