近年来,以大模型为代表的前沿人工智能技术快速发展,正在深刻改变技术能力和专业知识的获取方式。然而,人工智能技术既是推动全球经济社会发展的重要力量,也可能成为新的风险放大器。如果前沿人工智能技术被恐怖组织、跨国犯罪集团等非国家行为体滥用,将会给国际社会的和平与安全带来严重的风险挑战。在这一背景下,如何在促进技术创新与防范非国家行为体滥用人工智能风险之间取得平衡,已成为全球政策界和学术界关注的重要议题。2026年2月,清华大学战略与安全研究中心(CISS)在慕尼黑分别与布鲁金斯学会(Brookings)、人道主义对话中心(HD)开展人工智能与国际安全对话,非国家行为体滥用人工智能的风险及其治理都是交流的重要议题之一。基于此,本报告重点探讨了非国家行为体滥用人工智能的可能路径,带来的相关风险及其对国际安全的影响,并分析如何从国家层面和国际合作层面防范非国家行为体滥用人工智能的安全风险。希望本报告能够为理解这一复杂议题提供参考,并为相关政策讨论贡献有益思考。
一、非国家行为体滥用人工智能的国际安全风险
人工智能(AI)技术的可及性、通用性与自主进化能力不断提升直接为非国家行为体滥用AI创造了核心条件。非国家行为体无需掌握顶尖研发技术,便可借助开源模型、商用API等低门槛渠道,轻松获得自动化攻击、智能规避防御措施、低成本放大危害影响的能力。这种趋势具体表现为AI自身的内生脆弱性被不断挖掘、AI负向应用的场景持续增加、AI技术引发的安全治理制度失灵,国际安全构成的持续冲击。
非国家行为体滥用AI一方面会放大并激化各领域已存在的应用安全风险,降低传统风险的触发门槛;另一方面,AI的内生特性与技术潜力会催生以往不存在的全新安全风险,突破传统安全治理边界,对国际安全构成多元威胁。
一方面,AI会激化已有的应用安全风险。AI可提高专业知识的可及性,使行为体更易获得或研发有害安全的武器、材料与设施。例如AI可通过赋能各行为体低成本和隐蔽地开发、运输与部署核及其他常规大规模杀伤武器(如导弹)、配套材料和设施等,实现军备扩散。而在生物安全领域,行为体可利用AI技术提升生物技术专业知识可及性,如通过绕开大语言模型安全防护可获取生物威胁原材料与关键信息或强化/改造生物因子的负面特征,开展生物恐怖主义或生物犯罪。
非国家行为体可利用AI升级既有的攻击手段,使攻击更为低廉,效果更加显著。在网络安全领域,AI可降低大规模DDoS攻击的制作和投放成本、提高其精准度、实现生成自动化、实现零代码攻击等。同样地,在认知安全领域,借助AI,不仅可以快速生产高质量的虚假信息与深度伪造内容,还能通过机器学习,可以更为精准地实现虚假信息的精准推送,加速形成“信息茧房”,在短期内可导致大规模认知偏见和极化,方便认知操纵和群体性认知欺诈。
AI对相关应用领域的赋能也暴露了安全系统的脆弱性,例如在核及常规军事安全领域中,非国家团体可提前向NC3或其他打击系统内的AI模型中植入对抗样本和恶意后门,从而掌握部分参数的调控权,以此作为勒索和威胁国家的筹码,成为新式的恐怖攻击类型之一。同样地,在认知安全领域中,AI技术可活用人类“信息过载”后容易诉诸于情绪化叙事的认知惯性,运用海量虚假信息,引导人群放弃对信息真实性的求证,转而依赖知觉、情绪判断和AI本身,削弱群体的认知能力、心理防线乃至凝聚力。
非国家行为体对AI的滥用也会对国际安全治理制度构成多重冲击,表现为挑战国际规范、模糊责任链条、淡化合作基础、加速技术逐底竞赛,从而削弱治理机制效能并使其逐步弱化。
第一,挑战国际规范与伦理共识,削弱安全治理机制的适应能力:非国家行
为体通过AI技术的模块化与平台化扩散,使之迅速在治理机制外获取类国家能力,能以去中心化和非正式方式实施跨境行为。这使得既有安全规范在责任划分、适用对象和风险分级等方面滞后于问题现状,治理原则和伦理规范难以及时回应新型风险,削弱安全治理机制对技术实践的引导与约束功能。
第二,模糊化责任链,破坏规制机制的问责与惩罚功能:非国家行为体滥用
的AI技术往往来源于多元主体的组合,如开源模型、商业平台、匿名化社群、黑市等。治理机制无法及时明确不同环节的责任归属,使得非国家行为体的滥用行为很难及时担负治理成本、被有效制裁与被惩戒,从而削弱了问责机制的威慑力,放大安全治理机制的缺陷。
第三,淡化合作基础,削弱各主体通过信息共享弥合能力不对称的可能性:
非国家行为体可以通过AI自动化分析治理机制的公开信息,通过反向工程,得出绕开机制的约束方法和风险预防盲区;也能利用全球缺乏有效溯源AI模型输出的技术鸿沟,发起假旗行动,破坏合作互信基础;更使各国、企业与社群担忧以“能力建设”为目标的治理方法反而导致非国家行为体滥用AI的活跃,从而加剧现有的AI能力鸿沟。
第四,加速AI逐底竞赛,使既有安全治理机制无效化:非国家行为体滥用AI
所制造的不确定性反而成为国家层面技术竞逐的压力来源,各主体倾向于以进攻性逻辑应对安全风险,通过加速技术研发、放款应用约束和降低伦理门槛来维持相对优势,推动安全治理目标从风险控制转向竞争,从而使得安全治理机制空心化。
二、为什么非国家行为体可以滥用人工智能
非国家行为体能够滥用人工智能,核心源于AI技术扩散与治理的失衡、安全治理中的赋能-嵌入两难,以及其可外部化风险、低成本高收益的激励结构,为滥用行为提供了可乘之机。
非国家行为体得益于AI加剧的归因难题,很少承担AI安全治理成本,从而常能外部化AI滥用风险,呈现低成本-高收益的激励结构。首先,非国家行为体可通过免费搭便车的方式,享受全球AI技术民主化和开源生态带来的治理红利,却可将滥用产生的负外部性强制转嫁给国际社会。当非国家行为体利用AI引发社会信任危机、金融市场动荡或网络瘫痪时,由此产生的系统性风险和重建成本全部由受害国政府和全球治理机制承担,使滥用行为具有吸引力。
其次,非国家行为体可利用AI的溯源模糊性,无需担忧对等报复,由此在AI实验或攻击中展先极高的风险偏好,并倾向于测试国家与国际机制出于国际声誉和利益期望不敢触及的禁区,从而引发非国家行为体滥用的极端化倾向。
最后,非国家行为体可在治理能力相对较弱的发展中国家与区域发展,利用当地的治理工具与经验欠缺,规避国际机制的溯源与追责。
三、如何规制非国家行为体人工智能滥用行为
为有效防范非国家行为体滥用人工智能引发的各类安全风险,破解现有治理滞后、协同不足等困境,亟需构建系统性的规制体系。具体可通过搭建韧性包容的协同治理框架、完善本土化与标准化兼顾的国际治理实验机制、建立赋权导向的国际能力建设支持框架,凝聚全球共识、补齐AI治理短板。
(一)构建一个具有韧性、适应性和包容性的协同治理框架
其一,应将非国家行为体纳入治理对象范畴,突破将非国家行为体视为外部威胁的治理惯性,依据组织形态、技术能力、活动领域与潜在风险水平,构建针对性风险识别机制。一方面便于实施差异化的监管义务与治理参与路径,另一方面为具备治理合作意愿的行为体提供制度接入渠道,使其参与风险标准、测试与规范共建。
其二,建立常态化的风险信息共享与协同响应机制,通过联合开展前沿AI模型测试评估、共享风险研究成果、推动评估标准的国际互认、记录AI系统风险的关键案例评判,从而保证问责透明,能积极面对突发跨境的AI滥用风险。
其三,构建具有约束力的全球治理机制与履约保障体系,可借鉴《蒙特利尔议定书》在臭氧层保护方面的经验,制定相关安全公约,明确开源模型安全审查和算法透明度方面的最低标准,并设立定期评估和资助各国的基金会与条款。
(二)构建统筹本土化与差异化、标准化与场景化的国际治理实验机制
其一,构建具有跨文化兼容的伦理标准与技术互操作体系,形成可操作的技术解决方案,提供“价值中性”的基础安全协议,鼓励各治理主体以此为基础,根据自身风险结构、技术生态与社会韧性开展本土化制度实验。
其二,搭建围绕高风险应用场景的跨域治理沙盒,对关键技术应用领域进行情景化测试,并设立相关国际机构,使统一国际标准在真实或虚拟场景中接受检验、细化与修正,并鼓励治理相关方将重要沙盒检验成果共享,方便日后治理主体调用。
其三,通过建设多层、多区域的试点网络,将分散于不同国家、平台与领域的治理经验进行系统性汇聚与比较,形成“实验-评估-标准化”的动态正反馈循环。
(三)构建以赋权为导向、兼顾包容性的国际能力建设支持框架
其一,搭建开放式的全球人工智能安全知识共享网络,弭平各国间的知识赤字,尤其是帮助发展中国家获取辨别AI滥用行为的安全知识。
其二,建立多元化的技术援助与资源共享机制,推动构建全球AI安全技术共享池,以自愿贡献非敏感的安全技术,形成全球公共产品。
其三,构建尊重自主权的赋权型合作关系,帮助发展中国家的内生治理能力,优先解决数字基础设施、数据主权保护与本土语言模型开发的核心关切。
作者:鲁传颖,清华大学战略与安全研究中心特约专家,同济大学政治与国际关系学院副院长、教授。

本文来自知之小站
报告已上传百度网盘群,限时15元即可入群及获得1年期更新
(如无法加入或其他事宜可联系zzxz_88@163.com)