人工智能x生命科学的负责任创新.pdf

执行摘要
人工智能的快速发展正在深刻重塑生命科学研究范式,为人类健康、经济发展与生态可持续性带来前所未有的机遇。从基础研究到临床应用,从生物制造到环境治理,AI正逐步成为生命科学的重要工具与变革力量。但与此同时,AI的赋能也引发了有关生物安全的新兴挑战。如何在推动技术融合和价值创造的同时,妥善应对潜在风险,已成为全球治理的重要课题。
1.人工智能赋能生命科学的积极潜力
科技进步推动21世纪的生物技术革命。生命科学以及人工智能、自动化和机器人等技术的快速发展提高了科学家出于多种目的设计生命系统的能力。这些进步对于构建更高效、更可持续和更健康的未来至关重要。
人工智能正成为推动生命科学研究范式转变与生物经济加速发展的关键力量。基础研究层面,AI赋能结构生物学、合成生物学和基因编辑等领域,加快了从靶点发现到分子设计的全过程;产业转化层面,A助力疫苗与药物的高效开发、生物制造流程的优化与自动化,显著提升了效率与可及性。例如,2024年诺贝尔化学奖的得主中,David Baker因在蛋白质设计方面的开创性工作获奖,他长期将计算方法与机器学习结合,开发蛋白质结构与功能设计工具,推动了生物工程的发展;Demis Hassabis和John Jumper则因AlphaFold系统实现高精度蛋白质结构预测,攻克结构生物学难题。这些成果凸显了人工智能与生命科学融合的巨大潜力。
此外,Al也在助力构建可持续发展的未来。在合成生物学、农业基因改造、生物能源与环境治理等领域,AI正帮助人类更系统地理解和重构自然,为应对气候变化、实现碳中和等目标提供工具。AI与生命科学的融合不是抽象的远景,而是现实中正在进行的深刻变革。
2.人工智能和生物技术的“双刃剑”效应
新一轮科技革命“双刃剑”效应突显。人工智能、量子技术、生物技术等前沿技术加速发展,在促进人类认识和改造世界的同时,也带来一系列难以预知的风险挑战,对各国安全和稳定产生深远影响,甚至将重塑全球安全格局。²人工智能和生物技术的融合,一方面加速了生命科学的认知进程与技术跃迁;另一方面也可能被误用或滥用,带来难以预测的生物风险。
随着AI在蛋白质结构预测、基因合成设计、病原体工程化等领域能力的增强,其赋能效应正向生命系统的更深层次延展。在科研和产业实践中,Al可用于自动生成DNA序列、优化病原体传播模型、加速疫苗设计和疾病机理建模,显著提高研发效率与响应速度。然而,在缺乏明确边界与配套防护机制的情境下,这些能力也可能被用于合成更具致病性的病毒株,或规避现有的检测与防御系统,进而被用于生物攻击、恐怖活动,或造成非预期的公共健康危害。部分具备生物设计潜力的前沿Al模型在未经充分风险评估和实施缓解措施的前提下以开源或开放权重的形式发布,其获取门槛低、适用范围广,因此可能被用于构建高毒性蛋白、规避核酸序列筛查,甚至突破现行生物实验室的安全规范。这一能力扩散趋势加剧了人工智能与生物风险耦合所带来的挑战。
3.生物安全是国家安全和人类未来的关键议题
生物安全不仅是科技议题,更是国家安全的重要组成部分。2020年2月,习近平总书记在中央全面深化改革委员会第十二次会议上指出:“要把生物安全纳入国家安全体系,系统规划国家生物安全风险防控和治理体系建设,全面提高国家生物安全治理能力”。同年10月,
第十三届全国人大常委会第二十二次会议于2020年10月17日表决通过了《中华人民共和国生
物安全法》(以下简称《生物安全法》),确立了各项生物安全风险防控的基本制度。
更广义上,生物安全还关联到全球灾难性风险。1918年流感大流行导致全球约5000万至1亿人死亡,占当时世界人口的2.5%-5%。⁵根据《2021年全球灾难风险评估》,由生物因素引发的灾难性风险(如自然疫情或生物武器攻击)年均发生概率约为0.1%-0.5%。虽然这一概率看似不高,但后果可能极其严重。兰德公司2024年的报告《新兴技术与风险分析:合成大流行病》进一步警告,未来5至10年合成大流行病风险位列最高等级,亟需全球高度重视。
4.人工智能诱发生物安全风险的治理挑战
近年来,人工智能对生物安全带来的潜在威胁引发了各界高度警惕。在2025年《原子科学家公报》发布的“末日时钟”声明中,人工智能与生物风险的交叉威胁自1947年以来首次成为讨论重点。声明指出:“人工智能的快速进步加剧了以下风险:恐怖分子或某些国家可能具备研发出目前尚无应对手段的生物武器的能力”,“尽管人工智能与生物研究结合带来的威胁已广受关注,但各国政府及相关科学界仍对限制人工智能介入生物研究犹豫不决,唯恐此举会阻碍重大科学突破”。82025年7月,超过35位来自A模型开发、生物科学研究以及国际和平与安全领域的领先专家,共同发布公开声明。他们强调了Al与生命科学融合快速发展的潜在风险,并呼吁政府、行业、科学界和资助者采取紧急行动,以保障这项技术的发展,防止滥用的同时实现社会益处。参与声明的专家包括图灵奖得主姚期智和Yoshua Bengio,以及被誉为“合成生物学之父”的George Church等人。⁹
多位人工智能领域的专家发出了类似警告。Anthropic首席执行官Dario Amodei曾在2023年指出,未来2至3年内A模型可能具备自动生成生物攻击手段的能力,若缺乏有效防护机制,风险将显著上升。102025年5月,Anthropic推出了其新模型Claude Opus4,该模型首次预防性启动了公司设定的“Al安全级别3(ASL-3)”标准,“正是基于对模型可能具备生物攻击能力的担忧,也部分印证了Dario Amodei此前的判断。谷歌前首席执行官、曾任美国国家人工智能安全委员会联合主席Eric Schmidt也指出AI可用于扩大病毒数据库、合成新型化学物质,增加生物威胁的可能性。¹²
生命科学领域的专家也提出了同样的担忧。蛋白质设计先驱David Baker教授和GeorgeChurch教授在《科学》期刊发表了题为:《蛋白质设计遇见生物安全》的文章,DNA合成在设计蛋白的实体化过程中发挥着关键作用。然而,与所有重大的革命性变化一样,这项技术很容易被滥用以及用于生产危险的生物制剂。³已有180多位学者与行业领袖签署《负责任的人工智能×蛋白质设计》声明指出:尽管当前Al在蛋白质设计中的益处远超潜在风险,但随着该领域持续发展,有必要引入一种新的主动风险管理方法,以防止AI技术在有意或无意间被滥用并造成危害。¹⁴
这些声音共同传达出一个信号:随着人工智能赋能生命科学的能力日益增强,建立前瞻性的模型防护标准、国内监管机制和跨国合作框架,已成为全球科技治理的迫切任务。

本文来自知之小站

 

PDF完整报告已分享至知识星球,微信扫码加入立享4万+最新精选报告

(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)