大模型在金融领域的应用技术与安全白皮书.pdf

摘要
大模型技术带来了AI的新一轮技术变革和产业应用。构建大模型在金融领域完善的开发框架和应用框架,可助力现有金融业务进行数字化转型。但其应用也面临着诸多风险,需要进行进一步防控。除了针对通用的大模型幻觉风险的防护围栏,还需要针对金融领域的应用进行隐私风险防控、大模型攻击防御、可解释性增强、可溯源性增强以及有害内容防控,从而更好的助力传统金融业务。除此之外,金融领域大模型治理框架的搭建、评测集的构建和人才体系的培养则有利于促进大模型在金融领域的生态体系构建。
基于此,本白皮书主要围绕大模型在金融领域的应用技术及安全防控研究,延伸至大模型在金融领域的评测框架及人才培养体系进行分析。应用技术方面,主要基于大模型的开发框架和应用框架及应用实践进行了探讨。在应用风险防控方面,主要聚焦在大模型金融领域的风险及安全防控手段,同时借鉴了国外的人工智能应用风险治理框架;而大模型评测主要聚焦在大模型的评测框架以及大模型在金融领域的评测;最后大模型人才培养体系构建则强调了人才需求、人才教育体系、跨界合作及人才评估认证。
本篇白皮书为本系列的第一本,主要围绕大模型的应用技术及风险防控技术进行撰写,分为五个章节。第一章节主要为大模
型的概述,第二章节主要聚焦于大模型的技术分析,第三章节主要聚焦于大模型的风险与防控,第四章节给出了大模型的评
测方式,第五章节则衍生到大模型发展中的人才培养。1.1大语言模型技术发展概述
语言建模(Language Model)可分为四个发展阶段,分别为统计语言模型、神经语言模型、预训练语言模型、大模型语言模型。
其中最早的统计语言模型基于统计学习来预测单词,而后演进成为神经语言模型基于神经网络方法预测单词。在神经网络语言模型中,通过使用神经网络,将单词映射为向量作为网络模型的输入来估计单词序列的概率。随着注意力机制被引入,注意力层(Attention Layers)在文本中建立了词之间的相关性,使得模型在生成下一个单词时,考虑到整体语句的意思,从而建立了Transformer架构,提升了模型理解和生成语言的能力。
但随着参数的增加,需要大量人力来标注数据,因此OpenAI提出了预训练语言模型(Generative Pre-Trained Transformer),通过无监督学习在大规模无标签语料库上进行预训练任务,在预训练中模型学会了基于前一个单词预测后一个单词。除此之外,模型还可以针对特定的任务基于更小的数据集进行微调,提升在特定领域的性能。基于此,通过不断叠加数据增加模型参数规模以及优化模型的提示工程,不仅可以解决更复杂的任务,同时也拥有了更强大的文本涌现能力i,从而演进成为大模型语言模型(以下简称“大模型”)。
大模型浪潮爆发后,国内各企业纷纷推出自研大模型,大模型应用迎来了蓬勃发展的阶段。据测算,我国2030年基于大模型的生成式人工智能市场规模有望突破千亿元人民币。

本文来自知之小站

 

PDF报告已分享至知识星球,微信扫码加入查阅下载3万+精选资料,年享1万+精选更新

(星球内含更多未发布精选报告.其它事宜可联系zzxz_88@163.com)