金融业人工智能应用风险研究报告

(一)研究背景
随着金融行业数字化转型的快速发展,人工智能相关技术在金融领域的应用场景日趋广泛,已涵盖了产品创新、客服营销、业务运营及风险防控等多个业务场景,特别是大模型的出现,加速了人工智能金融业应用的进程,与此同时深度伪造、对抗样本等针对人工智能的新型攻击手法不断涌现,人工智能应用风险已引起金融业的高度关注。
(二)政策与标准
针对人工智能应用风险,国内外均提出发展和安全并重、加强监管和测评的核心思想,规范和保障人工智能的安全发展。
国内侧重于宏观审慎监管和国家战略服务,中央金融工作会议强调加快建设金融强国,全面加强金融监管,推动金融资源用于科技创新,不断优化金融服务,防范和化解金融风险。
国家网信办联合七部门于2023年公布《生成式人工智能服务管理暂行办法》,该办法旨在促进生成式人工智能健康发展和规范应用,并规定了AI服务提供方的责任义务。
金融监管总局在《银行保险机构数据安全管理办法(征求意见稿)》中提出,应当对人工智能模型开发应用进行统一管理,实现模型算法可验证、可审核、可追溯,就数据对决策结果影响进行解释说明和信息披露,建立人工智能应用的风险缓释措施等。
中国人民银行在《人工智能算法金融应用评价规范》中规定了人工智能算法在金融领域应用的基本要求、评价方法和判定标准,适用于开展人工智能算法金融应用的金融机构、算法提供商及第三方安全评估机构等;在《人工智能算法金融应用信息披露指南》中明确金融机构在使用人工智能算法提供金融产品和服务时,规范地开展算法信息披露活动,增强人工智能算法的可解释性和透明度,维护金融消费者合法权益。
国外监管更注重市场效率和消费者保护,确保金融机构在提供产品和服务的同时遵守相关法律和道德准则,同时建立完善的消费者投诉和纠纷解决机制。
美国《人工智能应用监管指南》标志着欧美人工智能政策从伦理规范向监管规制逐步转变,也显示了AI主导权开始转向通过立法和监管来谋求科技主导地位;《人工智能权利法案蓝图》中提出,在不损害公众利益的情况下,用户应可以自主选择使用人工服务替代人工智能服务。
欧盟《通用数据保护条例》等隐私及数据安全要求的发布,监管部门要求金融机构在建设和使用人工智能的同时,需满足民众对隐私保护的需求;在《人工智能法》中为人工智能制定了一套覆盖全过程的风险规制体系,提出了风险分类思路、产品规制路径、负责任创新和实验主义治理理念。
现有行业规范主要从管理和治理的角度进行要求,尚未充分针对具体应用场景,进行技术攻击视角开展深入的风险分析,在实际应用中的防护措施也讨论较少。
(三)技术发展路线
人工智能风险及防护已成为技术研究的新兴领域,其技术发展也经历了从初步探索到逐渐深化的过程。

本文来自知之小站

 

PDF报告已分享至知识星球,微信扫码加入立享3万+精选资料,年更新1万+精选报告

(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)