1.Transformer架构:该架构是由Google团队于2017年提出的深度学习模型,其核心采用自注意力机制(Self-Attention)替代传统循环神经网络(RNN),通过并行化计算高效捕捉序列数据的全局依赖关系,并基于编码器-解码器结构(Encoder-Decoder)实现特征提取与生成任务。该架构凭借对长序列的建模能力、可扩展性及跨领域适应性(如自然语言处理、计算机视觉),成为驱动大模型及生成式AI发展的基石。
2.摩尔定律:该定律由戈登·摩尔于1965年提出,指出集成电路上可以容纳的晶体管数目每隔18到24个月便会增加一倍,处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。
3.数据蒸馏技术:该技术是一种机器学习优化技术,旨在从大规模数据集中提取关键信息,生成一个更小但信息量高度浓缩的合成数据集,使得用该数据集训练的模型能接近或达到使用完整数据训练的效果。
4.MLA+MoE架构:该架构是一种结合了记忆增强线性注意力机制(Memory-Augmented Linear Attention,MLA)和混合专家系统(Mixture of experts,MoE)的神经网络架构,旨在提升模型的处理效率、扩展性和长序列建模能力。其中混合专家模型(MoE)是一种机器学习方法,将人工智能(AI)模型划分为单独的子网络(或“专家”),每个子网络专攻输入数据的一个子集,以共同执行任务,能够在预训练期间大幅降低计算成本,并在推理时间内实现更快的性能。
5.AIGC:生成式人工智能(Artificial Intelligence GeneratedContent),是指基于生成对抗网络、大型预训练模型等人工智能的技术方法,通过已有数据的学习和识别,以适当的泛化能力生成相关内容的技术。
6.MaaS:模型即服务(Model as a Service,MaaS),是将机器学习模型部署到企业端提供给用户使用的服务。通过MaaS,开发人员可以简单调用模型,无需了解复杂算法和实现细节。
7.Token:可翻译为“词元”,指在自然语言处理过程中用来表示处理文本的最小单元或基本元素,可以是单个字符,也可以是多个字符组成的序列。
8.MTP:Multi-Token Prediction(MTP)是一种用于大型语言模型(LLMs)训练的技术,旨在提高模型的训练效率、数据利用效率以及生成质量。
9.MCP:模型上下文协议(Model Context Protocol,MCP),是由Anthropic公司推出的开源协议,旨在实现大语言模型与外部数据源和工具的集成,用来在大模型和数据源之间建立安全双向的连接。
党的十八大以来,以习近平同志为核心的党中央高度重视新一代人工智能发展。习近平总书记立足世界科技发展前沿,深刻洞察人工智能的战略价值,强调其具有“溢出带动性很强的‘头雁’效应”,明确指出“加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革战略机遇的关键问题”。作为典型通用技术,人工智能已成为培育新质生产力的重要引擎。习近平总书记在中共中央政治局第二十次集体学习时进一步强调,要立足新型举国体制优势,坚持自立自强,突出应用导向,推动我国人工智能朝着有益、安全、公平方向健康有序发展。
智慧旅游是以数字化、网络化、智能化为特征,促进数字经济与旅游业深度融合,推动旅游治理、服务、营销、体验创新,提升旅游品质和产业竞争力的新型发展模式。《“十四五”旅游业发展规划》提出国家智慧旅游建设工程;2024年5月,文化和旅游部联合五部委发布《智慧旅游创新发展行动计划》,全面系统地阐释了智慧旅游治理、服务、营销、体验四个方面的发展思路与理念,其中特别强调了人工智能在智慧旅游中的场景应用。
本文来自知之小站
完整报告已上传至知识星球,微信扫码加入立享4万+深度报告及1年期精选报告更新
(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)
