AI安全-构建负责任且可靠的系统.pdf

引言
Al已成为日常生活中一种无处不在的助力。随着AI系统在能力和普及性上的不断扩展,安全因素变得愈发重要。安全的概念可能难以定义;然而,在AI的背景下,对安全最充分的理解就是要防止意外后果的发生。另一方面,AI安全着重于保护系统本身免受外部威胁,例如一些网络攻击或内部错误可能导致严重故障,因此应纳入安全问题的考虑范畴。从基础模型的构建者到采用AI解决方案的企业,在整个AI生命周期中所有相关方必须共同承担责任,最大程度地降低这一新兴技术的风险并确保尽可能安全地加以利用。
AI安全=意味着要预防意外产生的后果,例如防止幻觉Al安全=意味着要保护AI系统免受威胁,如网络攻击和或模型偏见影响最终用户的健康和福祉。系统内部错误,这些威胁可能导致系统运行中断或严重事故。
Al安全问题会给企业带来风险,包括法律和财务责任,以及对人类造成从轻微不便到生命损失等各种后果。例如,基于偏见和不可靠数据集训练的大语言模型(LLM)更有可能提供不准确和有害的输出,对最终用户产生不利影响。尽管Al安全的具体实践在各类应用和各行各业中有所不同,但其基本原则始终如一:Al系统应通过积极追求符合伦理道德且可持续的Al最佳实践,最大限度地降低对个人、企业乃至全球造成伤害的风险。在本电子书中,我们将全面探讨Al在其生命周期中面临的安全挑战及解决方案,并深入分析如何在医疗和法律等高风险行业中应用这些原则。

Al安全的关键利益相关者
在深入探讨AI安全的复杂性之前,首先需要了解主要参与者及其角色。在AI的整个生命周期中,从最初的数据采集到模型优化,安全最佳实践是众多个人和企业的共同责任。
1.云计算服务提供商
云计算服务提供商是Al的支柱,他们提供了构建强大AI系统所需的基础设施。他们的首要任务应是采取严格的供应商审查、权限管理和物理安全措施来维护Al的安全。
·角色:提供基础的Al计算资源。

·责任:

·审查软硬件供应商。

·确保实施严格的权限管理和物理安全措施。

·实施可靠的网络安全措施,以保护AI系统。

2.模型构建者
虽然云计算服务提供商负责保护AI系统所依赖的硬件和基础设施,但模型构建者才是所有企业和行业中确保Al实践符合安全要求与道德准则的基础。安全实践应考虑模型的实施方式,并与最终用户保持一致,因为为内部使用构建的模型与作为软件解决方案对外销售的模型存在不同的漏洞。
·角色:开发和训练AI模型。

·责任:

·采用安全设计方法。

·测试漏洞和潜在危险功能。

·使AI系统遵循以人为本的价值观。

3.企业负责人和运营者
一旦AI系统为实施准备就绪,企业负责人和运营者将承担起将这些系统安全地整合到务中的责任。在企业层面上,AI安全需要实施负责任的AI系统管理以及与提供者的开沟通。
·角色:部署和维护支持Al的系统。

·责任:

·建立用户测试和红队测试工作流程,以评估模型的安全性。

·与模型构建者分享反馈,以长时间持续改进模型。

·保护用户数据隐私,确保AI使用方面的透明度。

《Al全景报告2024》
·自2023年以来,各行业生成式AI的采用率增长了17%,这凸显了采取
严格安全措施的必要性,以降低Al生成内容带来的风险。
·41%的企业依赖自定义数据采集,报告显示,通过确保数据集的多样
性和代表性,在应对模型偏见和可靠性问题方面取得了改进。
·80%的企业报告称,人类洞察力是优化AI系统的关键,强调数据多样
性、减少偏见和可扩展性是确保Al安全性和有效性的关键因素。
·86%的企业至少每季度重新训练或更新一次其机器学习模型,这凸显
了持续反馈循环在数据治理和模型评估中的重要性。

本文来自知之小站

 

PDF完整报告已分享至知识星球,微信扫码加入立享4万+最新精选报告

(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)