管理解释:监管机构如何应对人工智能可解释性问题.pdf_下载

摘要
金融机构越来越多地采用人工智能(Al)正在改变其运营、风险管理和客户互动方式。然而,复杂A模型的有限可解释性,特别是在用于关键业务应用时,对金融机构和监管机构构成了重大挟战和问题。可解释性,即模型输出向人类解释的程度,对于透明度、问责制、监管合规性和消费者信任至关重要。然而,深度学习和大语言模型(LM)等复杂AI模型通常难以解释。虽然现有的可解释性技术可以帮助揭示复杂AI模型的行为,但这些技术存在显著局限性,包括不准确性、不稳定性以及对误导性解释的易感性。
有限的模型可解释性使得管理模型风险具有挑战性。国际标准制定机构已发布—主要是高级别——模型风险管理(MRM)要求。然而,只有少数国家金融监管机构发布了具体的指导,而且它们往往侧重于用于监管目的的模型。其中许多现有指南可能并未针对先进的A模型进行制定,并未明确提及模型可解释性的概念。相反,该概念体现在与治理、模型开发、文档记录、验证、部署、监控和独立审查相关的条款中。对于复杂的AI模型来说,遵守这些条款将具有挑战性。使用第三方A模型将加剧这些挑战。
随着金融机构将人工智能模型应用于其关键业务领域,金融监管机构有必要寻求在人工智能背景下相关健全的模型风险管理与模型输出(MRM)实践。最终,可能需要在可解释性和模型性能之间做出权衡,只要风险得到适当评估和有效管理。允许使用可解释性有限但性能优越的复杂人工智能模型,或许能够使金融机构更好地管理风险并提升客户体验,前提是引入了充分的保护措施。对于监管资本应用场景,复杂人工智能模型可能被限制在特定的风险类别和敞口范围内,或受到输出下限的约束。监管机构还必须投入资源提升员工评估人工智能模型的能力,以确保金融机构能够发挥人工智能的潜力,同时不损害监管目标。

第一部分-简介

人工智能(Al)模型正越来越多地应用于金融机构的所有业务活动,从内部运营到面向客户的业务。Crisanto等人(2024)和FSB(2024)强调了金融领域最近的人工智能应用案例,发现大多数应用是为了提高内部生产效率。金融机构在使用人工智能进行关键业务应用方面似乎比较谨慎,尤其是那些涉及客户互动的应用。尽管如此,随着公司寻求从时间和成本效率、改善客户服务以及加强监管合规和风险管理中获益,预计人工智能的使用将变得更加普逼,包括在关键业务领域。
一个关键的监管/监督关注点是人工智能模型的可解释性1特别是对于关健业务活动(例如面向客户的、核心活动如承保或确定资本要求)。2虽然可解释性没有普遍公认的定义,但一些组织从各自的视角定义了这个概念。3美国监管机构将可解释性定义为“人工智能方法如何使用输入来生成输出”。4这是在FSB(2024)中引用的相同定义。另一方面,经合组织(OECD)的人工智能(Al)原则更侧重于以客户为中心,将可解释性定义为通过提供易于理解的信息,使受到人工智能系统结果影响的人能够了解其是如何得出的。IAS(2025)将有意义解释定义为向人们提供关于人工智能系统如何做出决策或预测的理解性强、透明且相关的见解。PRA(2023)将可解释性描述为模型工作原理在非技术术语下可被理解的程度。
某些AI模型结果的缺乏可解释性可能引发审慎关切。FINMA(2024)指出,某些A模型结果无法被理解、解释或重现:因此无法进行批判性评估。某些A模型的缺乏可解释性也可能使监管机构难以确定金融机构在模型使用方面是否符合现有的监管要求,特别是在关键业务领域。IAIS(2025)强调了复杂A模型缺乏可解释性所导致的模型风险,如何会导致不必要的或非法的趋势(例如低估风险)未被察觉,最终可能影响保险公司的盈利能力和资产负债表。

本文来自知之小站

 

完整报告已上传至知识星球,微信扫码加入立享4万+深度报告及1年期精选报告更新

(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)