智源社区 9小时前
澜舟科技参编 |《上海全球资产管理中心建设 资产管理大模型应用实践与指南》 | 1-3章节
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本报告旨在加速大模型在资管领域的创新应用,总结了行业经验,提炼出建设思路与方法。报告从场景选择、大模型选型、语料供给、算力建设等方面,构建了资管领域大模型应用框架,并提供了详细的建设路径图。报告详细阐述了基金投研助手、财报分析助手、投资顾问助手等多个应用场景,并深入探讨了模型架构、输入输出模态、参数量、开闭源、部署方式、技术能力等选型要点。此外,报告还强调了语料供给、数据清洗与处理的重要性,并对大模型微调、Prompt提示词工程、RAG、智能搜索引擎、Agent智能体等技术方案进行了深入分析。

📈 **多场景应用赋能资管业务**:报告详细介绍了基金投研助手、财报分析助手、投资顾问助手、研报写作助手、市场资讯解读助手等10余个资管领域大模型应用场景,旨在通过AI技术提升投资研究、客户服务、合规管理等业务效率与质量。

🛠️ **全方位模型选型指导**:从模型基本属性(架构、模态、参数量)、开闭源与部署方式(私有化、云端、混合云)、技术能力(生成、分析、识别、决策)和应用能力(服务、安全、可信)等多个维度,为资管机构提供了详细的大模型选型建议,帮助其选择最适合自身需求的模型。

📚 **语料供给与数据处理是关键**:强调了高质量语料数据的重要性,并详细介绍了数据采集(自建、购买、合作)、数据清洗(去脏、处理缺失值、剔除不合规、纠正不准确)以及数据处理(增删改查)的关键步骤和方法,以确保模型训练的有效性。

💡 **技术方案选择是核心**:深入分析了大模型微调(FFT、PEFT)、Prompt提示词工程、检索增强生成(RAG)、智能搜索引擎、Agent智能体以及智能体组合模式等多种技术方案,并结合资管业务场景,提出了具体的应用建议,以解决模型幻觉、知识时效性、数据安全等问题。

🚀 **路径图指引落地实践**:报告提供了一个从场景选择、模型选型到技术方案的完整建设路径图,旨在帮助资管机构系统性地推进大模型应用建设,实现业务创新和智能化转型,并强调了场景拓展创新与持续优化的重要性。

章节三  

资管领域大模型应用建设路径

4 资管领域大模型应用框架

为缓解前述困难与挑战,加速大模型在资管领域的创新应用,本报告充分总结了资管行业大模型应用案例的经验教训,综合提炼出先进的建设思路与方式方法,从场景选择、大模型选型、语料供给、算力建设等方面形成资管领域模型应用建设路径,为资管行业大模型应用提供指导建议。

上图是结合案例分析与经验总结形成的资管领域大模型应用框架,基础设施与金融语料库,包含GPU算力资源池、GPU虚拟化以及证券、基金、信托等金融行业的语料数据;大模型能力底座,根据模型能力的接入方式可划分为私有化部署与SaaS服务接入。私有化部署方式一般用于接入基础大模型能力,其主要优点在于合规性与安全性更高,可以实现数据不出域。SaaS服务方式既可接入基础大模型能力,也可接入垂直领域模型能力,其优点在于灵活性更高,可根据场景需要进行灵活切换,同时对算力资源的需求较小,但相比私有化部署方式会面临更高的合规考验;在此之上是构建大模型场景应用所依赖的组件能力,包括:Barra风险模型、Brinson绩效归因、EmbeddingRerankOCR等特定领域小模型、Workflow编排、工具集的配置与管理、提示词编排等Agent框架能力以及文档切片、向量化等RAG(检索增强生成)知识库能力;同时,为更好地管理基座模型推理服务的生命周期,还需具备一定的LLMOps能力,例如:模型注册、分布式推理部署、版本管理、推理加速、服务监控等;以这些为基础构建出的大模型应用服务可以具备意图识别、知识检索、多轮对话、内容抽取、智能推理、函数调用等多种能力,汇聚成资产管理、财富管理大模型智能体,在基金投研助手、财报分析助手、投资顾问助手、投研策略会议助手、基金合同审核助手等众多场景下支撑基金、证券、信托的各项业务开展。

3.1 场景选择

在资管行业中,大模型应用场景选择是确保项目成功与资源有效利用的关键。鉴于大模型在资管领域的应用建设尚缺乏统一的规范指导,在面对复杂多变的市场环境和客户需求时,如何精准选择大模型的应用场景,进而实现大模型应用的快速落地并产出效果,成为资管机构亟需解决的问题。本章节通过总结行业内优秀做法与相关经验,为资管领域大模型应用建设的场景选择提供建议与指导,助力资管机构合规高效地推进大模型应用建设。

在选择大模型应用场景时,资管机构应首先基于自身的业务需求进行明确定位对内部业务流程进行全面梳理,识别出对数据分析和决策智能化需求较高的环节,例如:投资研究、合规审查、客户服务、风险管理等。通过深入分析各业务环节的现状与痛点,进而精准识别出大模型技术能够发挥最大价值的领域。例如在投资研究方面,大模型可以通过分析海量数据,辅助投研人员进行投资策略的制定与优化;在合规审查方面,大模型则能够快速识别出项目资料、合同文件里潜在的合规风险,并提供相应的解决方案,提升企业的风险管理能力等等。在明确了业务需求后,应进一步聚焦核心场景,以实现大模型技术的高效赋能。建议可参照行业经验,从以下几方面进行选择。

1 资管领域大模型应用场景选择建议

(一)基金投研助手

基金投研助手作为资管行业大模型技术应用的一个重要场景,其价值和潜力正逐渐被行业所认识和挖掘。依托于先进的大模型技术,基金投研助手可以结合基金数据库和投研工具模块,模拟专业研究员的角色,识别并理解用户提出的问题,并自主调用相应的分析工具和最新市场数据,以完成一系列复杂任务。

具体而言,利用大模型技术构建基金投研助手可以在基金产品研究场景中实现以下几点应用

一是信息查询与对比分析。通过大模型的自然语言处理技术,基金投研助手将能够轻松应对用户关于基金产品、基金经理、基金公司等信息的查询需求,提供准确、全面的信息。同时,它还能对各类信息进行对比分析,帮助用户快速筛选出符合投资要求的基金产品。

二是基金筛选与组合回测。借助先进的大模型算法,基金投研助手能够根据用户设定的多指标条件,对基金进行智能筛选,提高筛选效率和准确性。此外,它还能对筛选出的基金组合进行回测,模拟其在不同市场环境下的表现,为用户提供科学的投资决策依据。

三是组合诊断与优化建议。在基金组合构建完成后,助手对组合进行诊断,分析组合的风险收益特征、持仓结构等,提出优化建议。这有助于用户及时调整投资策略,降低投资风险,提高投资收益。

基金投研助手作为大模型技术在资产管理领域的一个重要应用场景,不仅能够帮助研究人员提升工作效率,增强决策支持,还有助于优化客户服务体验,推动业务创新和提高运营效能。

(二) 财报分析助手

在财报分析场景,大模型技术的运用将为投资分析带来显著的质量改进和效率提升。大模型技术能够处理和分析大量的财报数据,自动更新和汇总各类上市公司的公开信息,包括财报公告、最新资讯和市场动态等。通过深度学习算法,大模型技术能够对这些复杂的财报数据进行深度解析,快速生成初步的财报点评,帮助用户迅速把握公司财务状况的关键变化。

此外,通过运用大模型技术可以辅助识别财务数据中的隐藏规律与潜在风险。通过解读历史财务数据趋势,助力用户更好地理解公司的长期发展轨迹,进行更为深入的横向和纵向对比分析,利用大模型的语义理解和内容生成能力,以自然语言智能问答形式为用户提供便捷快速的财务知识问答服务。

(三) 投资顾问助手

在投顾场景,大模型技术结合大数据分析、深度学习强化学习的应用,使高质量顾问式金融服务成为可能,通过实时监测市场动态,调整投资策略,以达到提高收益率及降低风险的目标,同时结合客户的风险偏好、收益预期和资产状况,提供个性化的投资建议和组合优化方向,大幅提升投顾人员的服务效率和客户体验。

通过大模型的语义理解能力,能够做到实时捕捉并精准解析客户的真实意图、情绪感知与潜在需求,从而迅速响应,提供包括但不限于账户综合诊断、快速资产配置、持仓产品深度分析、客户安抚及产品营销话术生成等专业服务。同时,大模型强大的信息检索与整合能力,能够迅速搜集并呈现与用户话题紧密相关的新闻资讯及研报信息,生成专业观点和投资建议。投顾人员在这些能力的辅助下也可以有效提升服务水平,做到轻松应对客户的各类投资问题,为其提供更高质量、更个性化的投资顾问服务。

(四) 研报写作助手

研报写作助手作为资产管理行业大模型技术应用的关键场景,正在逐渐展现出巨大价值和应用潜力。依托先进的AI大模型技术,投研写作助手能够模拟专业分析师的角色,高效提取和整理历史文档信息,并以自然语言对话形式与用户进行多轮交互,从而生成高质量的研究报告。

在具体应用中,投研写作助手通过一系列核心功能提升研究人员的工作效率和文档处理质量:

一是多轮对话式信息提取与整合。基于用户的多轮自然语言指令,结合检索增强生成(RAG技术和思维链Chain of ThoughtCoT技术,投研写作助手能够从海量历史文档中提取所需数据和关键信息,并进行智能分析和整理,确保用户获取内容的准确性和相关性。这使得写作流程更加便捷,并显著节省时间。

二是自动生成高质量研究文档。助手以精心设计的模板为基础,为用户自动生成演讲稿、研究总结等文档,确保结构清晰、内容全面,且具备专业性。无论是投资策略报告还是行业分析点评,助手都能灵活调整写作风格和数据表达方式,满足不同场景需求。

三是内容可控与高安全性保障。系统从输入到输出全程提供数据安全保障,采取多层次的隐私保护措施,并支持对生成内容的可溯源管理功能,确保生成的段落有据可依,减少内容失误和数据泄露的风险。这为资产管理行业提供了极高的可靠性和安全性。

四是数据驱动的智能分析。投研写作助手能够调用最新的市场数据和研究工具模块,支持用户进行深入分析,如投资组合回测与优化建议。借助大模型的强大推理计算能力,助手为用户提供精准的对比分析与策略调整支持,助力高效决策。

五是定制化和灵活配置。投研写作助手具备高度的定制能力,可根据不同金融机构的需求灵活配置内容模板和功能模块,为企业提供更贴合实际业务场景的写作支持。

总而言之,智能投研写作助手不仅能帮助研究人员提升报告撰写效率,保证文档内容的高品质和数据准确性,还为金融领域的创新发展提供了强有力的技术支撑,推动投资研究从流程化走向智能化。

(五) 研报问答与观点总结助手

基于大模型能力研报问答与观点总结助手可以深度整合研报阅读与分析的各个环节,为投研人员提供前所未有的高效工具

面对海量的研报资源,助手能够自动提炼每份报告的精华内容,生成简洁明了的摘要,帮助投研人员迅速掌握全文的核心观点。这不仅大大节省了阅读时间,更使得投研人员能够专注于对关键信息的深入分析与思考。

依托大模型能力,助手可以支持智能问答功能投研人员只需提出自己关心的问题,助手便能迅速检索相关研报,抽取原文信息,并生成精准答案。这一过程,如同一位经验丰富的分析师在旁,随时为投研人员答疑解惑,极大地提升了知识获取和积累的效率。

此外,还能够对不同机构的研报观点进行智能分类与总结。特别是针对同一行业或同一家上市公司,往往存在多篇研报的深度研究,传统模式下依赖人力逐篇阅读,需要耗费大量的时间成本。借助大模型的能力,可以帮助投研人员快速提炼不同研报的核心观点,提供全面、客观的分析结果帮助更好地理解市场动态与趋势,进而优化投研人员的工作流程,提升他们的决策质量与效率

(六) 投研策略会议助手

在资产管理领域,基于大模型的智能会议助手能够对投研策略会议音视频文件进行智能解析并实施结构化处理,快速解读会议内容提取核心信息。提供电话或视频会议的智能录写及摘要生成服务,助力用户从繁杂的信息海洋中迅速捕捉关键要素,辅助生成摘要观点提升信息转化效率

同时助手可支持内容溯源与会议原文智能定位用户可便捷地查阅当前摘要所依据的原文内容支持会议原文进行标记编辑、多种格式下载以及语句级别的音频同步定位,可以为用户提供极大的操作便利与灵活性,以满足不同场景下对会议信息的多样化需求。

建设基于大模型的智能会议助手不仅有助于提升从业人员对会议信息的处理效率与质量,更将为业务的科学决策与高效管理提供强有力的技术保障,是推动资管行业智能化转型的重要方向。

(七) 风险合规助手

利用大模型技术可以实现对法律法规、监管政策的全面解析与实时追踪,提供合规审查、合规咨询、合规风险管理等全方位的合规服务,确保企业能够迅速掌握并适应相关法律法规与行业标准,有效避免因信息不对称或理解偏差导致的合规风险。

基于大模型技术建设资管合规助手可以显著提高合规管理的效率和质量,以合规审查为例,传统的合规审查工作往往依赖于人工操作,不仅耗时费力,且易受人为因素和主观意识影响。而基于大模型的合规助手能够自动化处理各类合同、协议等法律文件,快速识别出文件中的合规隐患,并提供修改建议,极大地减轻了合规人员的工作负担、提升整体运营效率。

此外,合规助手还可具备合规咨询和风险预警能力,帮助企业识别潜在的合规风险并生成相应的解决方案,以自然语言对话形式提供精准、专业的合规问题解答与指导,帮助企业有效应对复杂多变的合规挑战。还可以辅助企业进行合规档案的管理,确保所有文件和记录的完整性、及时性和准确性。通过上述服务,可以帮助企业建立一个健全、智能的合规管理体系,以提高业务办理的透明度和信任度、防范合规风险。

(八) 基金合同审查助手

基于大模型的合同审核助手是专为资产管理行业各类公告审阅打造的智能工具,旨在通过大模型语义理解及生成优势创新性提供自动审阅平台,一方面帮助审阅人员从重复、冗杂的工作中解放生产力,提升审阅全面性、准确性及时效性,一方面也为企业沉淀审阅规则、业务知识库及相关数字资产。

审核助手支持用户自主维护调试模板中审阅规则提示词,包含各类业务性质的上下文勾稽校验、合理性检查及基础纠错比对提醒等,后续一旦有同类型的产品合同、招募说明、租赁协议等都可自动复用模板审阅规则,实现分钟级别内生成AI审阅结果,用户最终只需一键复核即完成全链路作业。此外,助手还可提供一键溯源、一键修正/批注、模板管理、版本比对、智能抽取、多人协同交互等功能,让AI审阅和真实业务流程自然融合,实现业务全周期的高效流转与精准把控,减少培训成本和操作复杂度,实现整体业务提质增效及业务风险规避。通过持续的反馈、学习和优化,审阅助手能够不断提升自身服务质量,真正成为用户在审阅场景的得力助手,颠覆传统作业模式,为企业沉淀审阅数字分身。

(九) 基金销售市场营销助手

基金销售场景中,销售人员需要大量精准信息与素材内容来支撑其营销活动。通过利用大模型技术构建基金销售市场营销助手能够实现快速分析海量的市场信息和客户数据,优化营销策略,生成精准的营销文案,以满足客户的特定需求。

利用大模型智能体可以自动化生成包括文案、图表及视频在内的多元化营销素材,实现精准营销的全方位覆盖。在面向机构客户的智能投顾服务中,可以依托大模型智能体实现对客户资料与风险偏好的深入分析进而提供个性化、定制化的投资建议。这些应用不仅有助于提高基金公司的市场营销工作效率,还可以增强客户体验,为公司带来显著价值增益

(十) 产业链投资研究助手

产业链投资研究助手依托大模型的深度学习能力与海量数据处理能力,可以研究人员提供一套全面、精准且高效的产业链分析解决方案。

该助手能够深入产业链的每一个细微环节,从原材料供应、生产制造、主营产品到市场销售,进行全方位、多层次的智能解析。通过对产业链数据的深度挖掘与智能分析,快速构建出产业链知识图谱,揭示产业链上下游的关键环节、潜在风险以及增长机会,为研究人员与投资决策人员提供科学、客观的决策依据。

在研究过程中,基于大模型的产业链研究助手不仅能够辅助生成详尽的产业链分析报告,还可以支持对产业链中企业、产品、市场等多维度信息进行智能对比与关联分析,对于用户关心的特定问题提供精准、深入的解答,让资产管理者能够轻松地从海量数据中抽丝剥茧,迅速把握产业链的动态变化与未来趋势。

(十一) 市场资讯与宏观政策解读助手

基于大模型强大的自然语言处理能力,市场资讯与宏观政策解读助手能够从纷繁复杂的市场资讯和政策文件中,快速而准确地提炼出关键信息,为资产管理者提供决策支持。

首先,助手可以具备强大的信息收集与整理能力。能够自动化地监控国内外新闻媒体、行情点评、政府公告、研究报告等多源信息渠道,实时抓取最新资讯。依托大模型能力,助手能对收集到的海量信息进行快速分类、筛选和去重,确保研究人员接收到的是最相关、最有价值的市场动态。

其次,在宏观政策解读方面,助手可以利用其先进的语义理解和逻辑推理能力,对中央银行的货币政策报告、国家发展规划等重要文件进行深度分析。它不仅提炼出政策的核心观点,还能评估政策变动对宏观经济环境的可能影响,比如利率调整如何影响债券市场的收益率曲线,财政刺激措施对股市的长期影响等。更重要的是,通过对比分析历史政策,助手能够帮助资产管理者识别出政策趋势的变化,从而做出更加精准的投资判断。

此外,助手还可具备高度的互动性。当资产管理者遇到难以解析的信息或政策条款时,可以通过对话形式向助手提问,获得即时的解释建议。这种人机协作的方式,不仅大幅提升了信息处理效率,也为资产管理者提供了更为个性化的信息解读服务。

(十二) 行情日报写作助手

大模型凭借其强大的信息处理和语言生成能力,能够为资产管理领域的行情日报写作提供强有力的辅助。在面对每日海量的市场数据和新闻资讯时,大模型能够快速检索、汇总和整理关键信息,生成行情日报的初稿。这一过程不仅大幅提高了写作效率,还确保了信息的准确性和时效性。

在早评环节,助手可以针对性收集并解读当日热点事件,为投顾人员或理财师提供及时、准确的市场前瞻,帮助其快速完成早盘点评报告;在收评环节,助手则会深入分析行情走势、板块表现及当日热点或异动情况,为投顾人员或理财师总结市场全貌,提供有价值的投资参考。

此外,行情日报写作助手还可以具备高度的可定制性与灵活性,能够根据不同投顾、理财师或投资者的具体需求,生成个性化的日报内容。这一特性不仅增强了日报的实用性与针对性,更有利于提升投资者的阅读体验与满意度。

(十三) 资产配置报告生成

大模型技术以其卓越的数据处理能力和语言生成能力,为资产管理领域提供一种高效的资产配置报告生成工具。在面对复杂的市场数据和多变的投资环境时,大模型能够迅速整合各类资产类别信息,包括股票、债券、商品等市场的最新动态宏观经济指标和行业分析报告,从而生成全面的资产配置报告。

依托专业领域小模型自动生成资产配置关键指标,借助大模型能力进行信息整合并生成简洁明了的报告摘要,帮助投资经理和分析师迅速把握市场的核心趋势。这不仅大大节省了报告编写的时间,更使得专业人士能够专注于策略的深入分析和优化。

此外,大模型还能够支持智能问答功能。在实际使用过程中,资产管理者可以与助手进行互动,提出具体问题或需求,助手将迅速响应,提供精准的答案和建议。例如,当资产管理者需要了解某一特定事件对资产配置的影响时,可以直接询问助手,助手将从海量数据中快速检索相关信息,生成详细的分析报告。

通过自动化生成高质量的资产配置报告,资产管理者可以更高效地管理投资组合,为投资者创造更大的价值。

(十四) 资管知识库问答

资管知识库问答场景中,大模型技术的运用可以为企业内部的信息检索与知识管理带来显著改进。通过将大语言模型与外部知识库相结合,企业能够构建一个高效、智能的知识问答系统,有效解决员工在查找业务知识、业务规章制度等信息时面临的种种困难。

具体而言,企业可以将内部积累的大量制度文件、法律法规、产品文档、系统手册及培训材料等整合向量知识库。当员工提出问题时,大模型会基于语义相关性向量知识库检索相关信息,并基于这些信息生成准确、全面的答案回复。这一模式不仅提高了信息检索的效率,还确保了答案的权威性和准确性。

此外,企业知识库问答助手根据员工的角色和需求,配置个性化的知识库权限。这意味着员工可以便捷地获取到与其工作密切相关的信息和知识,而无需在海量文档中费力查找。

针对某些时效性要求高、字段数量有限且查询逻辑简单的结构化数据,如理财产品的税费、最新净值以及资产的最新利率等,可以将知识库问答助手与业务系统直接对接通过后台同步结构化数据库或提供API接口,实现对这类结构化数据的实时查询,从而辅助员工做出更为准确和及时的决策。

总体而言,大模型在企业知识库问答场景中的应用,不仅有助于提升企业内部信息检索与知识管理的效率和质量,还有利于促进员工之间的信息共享与交流,为企业的智能化转型和持续发展提供有力支撑

(十五) 智能化办公流程

在智能化办公流程中,大模型技术的引入实现对RPAOCR及定制化系统流程的智能调度与编排,显著提升办公效率。通过大模型增强交互与需求理解能力,用户仅需通过自然语言对话即可完成复杂的办公流程。

员工个人投资申报流程为例,大模型的应用可以极大地简化原本繁琐的操作步骤。员工无需再登录多个系统进行手动操作,只需在客户端通过对话方式提供必要信息,大模型便能自动调度RPA机器人、OCR平台及相关系统API接口,完成从信息获取到填报确认的全过程。

此外,大模型在智能化办公流程中的应用还可以体现在多个方面,例如:处理邮件并核对信息、合并文档并处理打印任务、预订会议室等。这些功能的实现不仅有助于节省员工时间提高办公效率,还可促使整个办公流程更加智能化、便捷化。

(十六) 智能代码辅助助手

在智能代码辅助场景,大模型技术的运用为软件开发带来了显著的质量改进和效率提升。大模型凭借其强大的自然语言处理能力和深度学习算法,能够理解和分析复杂的编程需求,自动生成高质量的代码、注释以及符合规范的变量和程序接口。

具体而言,在代码生成方面,大模型能够根据开发者的需求,快速生成结构清晰、逻辑严谨的函数模板或代码框架。这不仅减少开发者手动编写重复性代码的工作,还提高了代码的一致性和可维护性。同时,大模型还能为生成的代码自动添加注释,降低代码阅读和理解成本。

在变量和程序接口生成方面,大模型能够遵循行业标准和最佳实践,自动生成符合规范的变量名和程序接口。这不仅提高了代码的可读性和易用性,也有助于开发者在团队协作中更好地进行代码交流和共享。

此外,智能代码辅助助手可以通过系统工具、IDE插件、API接口等多种方式,将大模型的能力与开发者的日常工作紧密结合。开发者可以随时随地利用这些工具获取大模型的智能支持,从而提高开发效率和代码质量。在资产管理、财富管理业务相关系统开发中,这种跨平台、多样化智能化的代码辅助服务显著提升IT研发效率,为软件开发带来革命性变化。

以上场景大都经历了资管机构、模型服务提供商等行业成员的技术评估与可行性论证,初步具备一定的场景赋能经验,建议可以在场景选择过程酌情参考。与此同时,资管机构也应同样重视场景的拓展创新与持续优化。场景创新是大模型应用建设的生命力所在。随着技术的发展和市场的变化,原有的应用场景可能不再适应新的业务需求。因此,资管机构需要不断探索和挖掘新的业务需求,拓展大模型应用场景的能力范围,以保持竞争力。这要求机构需要具备前瞻性的思维,通过市场调研、客户反馈和行业趋势分析,预测未来可能的需求变化,并据此调整和创新大模型应用场景。

另一方面,持续优化现有场景应用也是提升大模型技术应用效果的重要途径。资管机构应建立定期的评估机制,对已实施的大模型应用场景进行效果评估,收集用户反馈,分析应用过程中存在的问题和不足。根据评估结果,及时调整和优化模型参数、算法逻辑或场景应用设计。同时,关注行业内的最佳实践和新技术的发展动态,及时将先进的技术和方法应用到现有场景中,保持当前大模型应用的先进性和竞争力。

3.2  大模型选型

(一) 模型基本属性选型

1.选择大模型架构

大模型应用建设过程中,合理选择模型架构是确保模型性能和应用效果的关键。常见的大模型架构包括TransformerMixture of Experts (MOE) Diffusion等。Transformer架构凭借其强大的并行处理能力和对长距离依赖的有效捕捉,已成为自然语言处理领域的主流架构,广泛应用于文本生成、机器翻译等任务。MOE架构通过将模型分解为多个专家模块,每个模块专注于处理特定类型的输入,从而实现模型的高效扩展和并行处理,适用于大规模数据集和复杂任务。Diffusion架构则在生成任务中表现出色,通过逐步添加噪声和去噪过程,生成高质量的图像和音频数据,广泛应用于图像生成、语音合成等领域。企业在选择模型架构时,应根据具体应用场景和业务需求,综合考虑模型的性能、计算资源和开发周期等因素。例如,对于需要处理长文本的任务,可以选择Transformer架构;对于需要高效扩展和并行处理的任务,可以选择MOE架构;对于生成高质量图像和音频的任务,可以选择Diffusion架构。通过合理选择模型架构,企业可以充分发挥大模型的优势,提升应用效果和用户体验。

2.明确输入输出模态

在大模型应用建设中,明确输入输出模态是确保模型有效处理和生成数据的基础。常见的输入输出模态包括文本、图片、视频和音频等。文本模态适用于自然语言处理任务,如文本生成、情感分析、问答系统等,模型需要具备强大的语言理解和生成能力。图片模态适用于计算机视觉任务,如图像分类、目标检测、图像生成等,模型需要能够有效地处理和分析图像数据。视频模态适用于视频理解、动作识别、视频生成等任务,模型需要具备处理时序数据和多模态信息的能力。音频模态适用于语音识别、语音合成、音乐生成等任务,模型需要能够处理和生成高质量的音频数据。企业在选择输入输出模态时,应根据具体应用场景和业务需求,明确模型需要处理的数据类型和格式,选择合适的模态处理技术和工具。例如,对于需要处理多模态数据的任务,可以选择多模态融合模型;对于需要处理时序数据的任务,可以选择时序模型。通过明确输入输出模态,企业可以确保模型能够高效、准确地处理和生成所需的数据,提升应用效果和用户体验。

3.选取合适的参数量

在大模型应用建设中,选取合适的参数量是确保模型性能和资源利用效率的关键。大模型的参数量通常分为千亿、百亿、十亿和亿等不同级别。参数量的选择需要综合考虑模型的性能需求、计算资源和应用场景。参数量较大的模型(如千亿参数)通常具有更强的表达能力和泛化能力,适用于处理大规模数据集和复杂任务,但需要更多的计算资源和更长的训练时间,适合大型企业和科研机构使用。参数量适中的模型(如百亿参数)在性能和资源消耗之间取得较好的平衡,适用于大多数企业的业务需求,能够处理中等规模的数据集和任务。参数量较小的模型(如十亿或亿参数)则更适合资源受限的场景,如边缘计算和移动设备,能够快速部署和运行,但可能在处理复杂任务时表现不如大参数量模型。企业在选择参数量时,应根据具体应用场景和业务需求,评估模型的性能需求和计算资源限制,选择最合适的参数量。例如,对于需要处理大规模数据集和复杂任务的场景,可以选择参数量较大的模型;对于资源受限或对实时性要求较高的场景,可以选择参数量较小的模型。通过合理选择参数量,企业可以确保模型在性能和资源利用之间取得最佳平衡,提升应用效果和用户体验。

(二) 开闭源、部署方式选型

1.模型开闭源选型

在大模型应用建设过程中,选择开源或闭源模型是重要的决策点,每种选择都有其独特的优势和不足。开源模型的优势在于透明度高、社区支持广泛、成本低廉。开源模型的代码公开,应用方可以自由查看和修改,有助于发现和修复潜在问题,提高模型的可靠性和安全性。此外,开源社区活跃,应用方可以获取丰富的文档、教程和工具支持,加速模型的开发和部署。开源模型还具有较高的灵活性和可定制性,能够根据具体需求进行调整和优化。然而,开源模型的不足之处在于缺乏官方的技术支持和维护,可能导致兼容性和稳定性问题。此外,开源模型的安全性和合规性需要应用方自行评估和保障,增加了企业的管理负担。相比之下,闭源模型的优势在于技术支持强、安全性高、合规性好。闭源模型通常由专业公司开发和维护,提供官方的技术支持和定期更新,确保模型的稳定性和性能。闭源模型还具备完善的文档和培训体系,便于企业快速上手和使用。然而,闭源模型的成本较高,需要支付授权费用和维护费用。此外,闭源模型的透明度较低,应用方无法查看和修改代码,可能限制了模型的定制化和优化空间。企业在选择开源或闭源模型时,应综合考虑自身的技术实力、预算限制和业务需求,选择最适合的模型类型。

2.模型部署方式

在大模型应用建设中,选择合适的部署方式是确保模型高效运行和管理的关键。常见的部署方式包括私有化部署、云端部署和混合云部署,每种方式都有其独特的优势和不足。私有化部署的优势在于数据安全性高、可控性强,企业可以完全掌控硬件资源和软件环境,确保系统的稳定性和可靠性。此外,私有化部署不受网络条件的影响,适用于对网络依赖性较低的场景。然而,私有化部署存在初始投资大、运维复杂、扩展性有限等问题,当业务需求突然增加时,可能需要较长的时间来采购和部署新的硬件资源。云端部署的优势在于灵活扩展、按需付费、便捷管理,应用方可以根据实际需求随时调整算力规模,无需担心硬件资源不足的问题。然而,云端部署的数据隐私保护相对较弱,可能存在数据泄露的风险,需要应用方采取额外的安全措施。企业在选择部署方式时,应综合考虑业务需求、预算限制、技术积累和安全要求,选择最适合的部署方式,以实现最优的资源配置和业务目标。

(三) 模型技术和应用能力选型

1.模型技术能力的选型

模型技术能力是大模型选型过程中的另一重要依据,主要涵盖生成能力、分析能力、识别能力和决策能力四个方面。生成能力是指模型能够根据输入数据生成新的文本、图像或其他形式的输出,适用于内容创作、对话生成等场景。分析能力则强调模型对数据的深入理解和分析能力,能够从大量数据中提取有价值的信息和洞见,适用于市场分析、风险评估等任务。识别能力指的是模型在图像识别、语音识别等感知任务中的表现,能够准确识别和分类各种对象和事件,广泛应用于安防监控、智能客服等领域。决策能力则侧重于模型在复杂决策任务中的表现,能够根据输入数据和业务规则做出合理的决策建议,适用于投资决策、运营管理等场景。在选型过程中,资管企业应根据自身的业务需求和应用场景,综合考虑模型的技术特点和性能指标,选择最适合的模型技术能力。例如,对于需要生成高质量文本的场景,可以选择生成能力较强的模型;对于需要进行复杂数据分析的任务,则应选择分析能力突出的模型。此外,还需关注模型的可扩展性和灵活性,确保模型能够适应未来业务发展的需求。

2.模型应用能力的选型

除了模型技术能力外,模型应用能力的选型也是确保大模型顺利应用的重要因素。模型应用能力主要涵盖服务能力、安全能力和可信能力三个方面。服务能力是指模型在实际应用中提供的功能和服务水平,包括响应速度、并发处理能力、应用方界面友好性等。良好的服务能力能够提升应用方体验,增强应用方满意度和忠诚度。安全能力则是指模型在数据处理和传输过程中保护数据安全和隐私的能力,包括数据加密、访问控制、安全审计等措施。在金融资管等行业,数据安全和隐私保护尤为重要,模型必须具备强大的安全能力,确保数据不被泄露或滥用。可信能力则强调模型的透明性和可解释性,能够向应用方清晰展示模型的工作原理和决策依据,增强应用方的信任感。在选型过程中,企业应综合评估模型的服务能力、安全能力和可信能力,选择能够满足业务需求和合规要求的模型。例如,对于需要处理大量并发请求的场景,应选择具备高效服务能力的模型;对于涉及敏感数据的场景,则应选择安全能力突出模型。此外,还需关注模型的合规性和伦理问题,确保模型的应用符合相关法律法规和社会伦理标准。

3.3 技术方案选型

(一)大模型微调

大模型微调技术是一种在已有的预训练大模型基础上,通过在特定数据集上进一步训练,以调整模型参数使其更适应特定任务的技术。这一技术主要分为全量微调(Full FinetuningFFT)和参数高效微调(Parameter-Efficient Finetuning,PEFT)两大类。

全量微调(FFT)是一种较为直接的方法,它使用特定的数据对预训练大模型进行二次训练,更新模型的全部参数,使模型在特定数据领域达到更好的表现。然而,这种方法存在显著的局限性。首先,全量微调需要消耗大量的计算资源,训练成本较高。其次,由于模型参数全面更新,可能会出现灾难性遗忘问题,即模型可能会忘记之前学习到的通用知识或在其他任务上的能力。此外,全量微调还面临模型部署和维护的繁琐问题。

为了克服全量微调的局限性,参数高效微调(PEFT)应运而生。PEFT的核心思想是冻结预训练模型的大部分参数,仅对部分参数进行训练,以实现模型在特定任务上的性能提升。这种方法在提高微调效率的同时,还能有效缓解灾难性遗忘问题。

PEFT的具体方法包括前缀调优(Prefix Tuning)、提示调优(Prompt Tuning)以及低秩适配器(LoRA)等。前缀调优通过在模型输入层之前添加可训练的前缀嵌入来影响模型的输出。这些前缀嵌入与原始输入拼接后一起输入到模型中,而模型的其他部分保持不变。提示调优则是在输入序列前增加一些特定长度的特殊字符(Token,以增大生成期望序列的概率。低秩适配器(LoRA)方法则基于预训练模型具有较低的内在维度假设,通过在预训练模型中引入一个额外的由低秩矩阵组成的线性层,并使用特定任务的训练数据来微调这个线性层,从而实现对模型的高效微调。

尽管大模型微调技术在提升模型性能方面具有显著优势,但在实际应用中也面临诸多困难和挑战。首先,算力是制约大模型微调技术广泛应用的关键因素之一。模型参数众多、结构复杂,微调过程需要大量的计算资源GPU显存、内存等,这对于普通开发者或小型机构来说或将难以承受。其次,大模型微调技术涉及多个学科知识,需要具备扎实理论基础和实践经验的专业人才。此外,时间成本和失败概率大也是大模型微调技术面临的挑战之一微调过程需要投入大量时间和精力进行数据清洗、验证和筛选,同时还需要进行多次实验和超参数调整,以确保微调效果。然而,即使经过精心设计和调试,微调结果也可能并不理想,甚至可能出现性能下降的情况。

鉴于大模型微调技术在算力、人才、时间成本失败概率等方面的挑战,以及资产管理、财富管理领域的行业特点,本文建议资管机构在建设大模型应用的过程中尽量不做模型的微调训练,使用预训练大模型结合领域知识和规则进行后处理,可能是一个更为稳妥和高效的选择。

(二)Prompt 提示词工程

Prompt提示词工程核心在于通过精心设计和预先调试的提示词,引导大语言模型(LLM)在回答用户问题时产生更加精确和符合预期的回复。这一技术通过在用户提问时,将预设的提示词与用户的具体问题相结合,构建出一个完整的查询语句提交给大模型。这些提示词中包含了明确的指令和约束条件,旨在限制和导向大模型的内容生成过程,使其输出能够紧密贴合用户的实际需求或特定的业务逻辑。简而言之,提示词工程就像是为大模型提供了一个答题模板,教会它如何按照既定的规则来回答问题。

值得注意的是,Prompt提示词工程通常不会单独使用,而是会与其他高级应用框架(如RAG检索增强生成Agent智能体等)相结合,共同发挥作用。这些框架能够进一步增强大模型的理解能力、信息检索能力和交互能力,从而在资产管理和财富管理领域实现更加智能化和个性化的服务体验。通过不断优化提示词设计和应用框架的整合,资产管理和财富管理领域可以为用户提供更加精准、高效和贴心的服务体验。

(三)检索增强生成(RAG

检索增强生成RAGRetrieval-Augmented Generation)是一种创新的自然语言处理解决方案,它巧妙地将检索与生成能力相结合,旨在提升大模型在处理具体任务时的准确性和效率。RAG模式的核心在于其强大的本地知识库管理与构建能力,它首先对非结构化数据,如各类文件资料,进行精细的切片与分段处理。随后,这些文本片段经过Embedding(向量化)编码,并被高效地存储在向量库中,形成一个庞大的资源候选池,为后续的向量检索提供基础。

5 Promp提示词工程

当用户提出查询问题时,系统首先会利用检索模块,在资源候选池中快速定位并检索出与用户问题最为相似的文本片段。这些片段不仅包含了与用户问题直接相关的信息,还可能蕴含着更广泛的上下文背景。接下来,这些片段会连同用户的问题一起被送入大模型中进行处理。在这一过程中,Prompt提示词工程将发挥重要作用,通过设计Prompt提示词,指导并约束大模型的内容生成过程对大模型的输出进行精细调控,确保能够基于这些上下文知识片段生成出既准确又符合用户期望的答案。

在资产管理、财富管理领域,RAG技术方案的应用可以为多个关键场景带来显著优化。例如,在财报分析助手中RAG能够自动检索并分析历史财报数据,快速定位关键财务指标和趋势,从而为用户提供更加深入和准确的财报分析报告。在风险合规助手中RAG能够实时检索最新的法规、政策以及内部合规要求,帮助机构快速识别潜在的风险点,确保业务操作的合规性。在基金合同审查助手中RAG能够自动审查基金合同的各项条款,快速定位并指出潜在的风险点和合规问题,从而有效降低投资风险。而在企业知识库问答中RAG能够充分利用企业内部的知识库资源,快速响应用户的查询需求,提供更加准确和及时的业务知识检索支持。

6 检索增强生成(RAG)技术方案

通过检索增强生成RAG技术方案的应用,可以使用本地知识补足大模型的能力边界,很好地解决通用大模型在幻觉、知识时效性、数据安全、可解释性等方面的问题它不仅有助于提高信息处理的效率和准确性,还可以增强大模型场景应用的用户体验定制化程度。随着技术的不断发展,RAG有望在更多场景发挥重要作用,为金融机构和客户之间的互动带来更加智能、高效和便捷的体验。

(四)智能搜索引擎

智能搜索引擎模式下,针对用户的提问,会先调用百度、必应等互联网搜索引擎或调用企业内部的搜索引擎去检索相关知识,将相关知识与原始提问组装成一个携带提示词的查询语句给到大模型,由大模型基于相关知识做总结回复。这种模式可以实现端到端的信息搜索,如果是传统模式,用户需要根据关键词或者标题先检索到相关网页或文章,再阅读网页或文章的内容全文来寻找答案,在这种模式下,大模型将代替用户去完成网页全文的阅读这一步骤,直接将总结好的答案生成出来,进而提升信息检索效率。

7 智能搜索引擎应用方案

(五)Agent智能体

Agent智能体是一种集成了先进人工智能技术和大模型的智能系统,它具备感知环境、进行决策并执行动作的能力。一般情况下,Agent智能体以大语言模型为核心驱动,通过融合规划技能、记忆模块和工具使用能力,实现对复杂任务的高效处理。

8 Agent智能体模块组成

基于大模型的Agent智能体可以划分为大模型规划技能记忆模块工具使用几个部分:

其中记忆能力包括了短期记忆与长期记忆,短期记忆指的是专注于当前情境的上下文信息(比如:直接写入 Prompt 提示词当中的上下文知识),这类信息通常会受到有限的上下文窗口限制,因为会占用大模型输入的字符(Token数;长期记忆指的是智能体的历史行为和历史思考过程,一般通过外部向量数据库来存储,以便在处理重复任务或相似任务时能借鉴历史经验,提高处理效率和确保前后一致性。

工具能力可以使大模型通过外部环境来获取信息或完成相关子任务,例如:通过调用必应搜索API来获取互联网上的专家知识、调用代码解释器让大模型具备理解代码逻辑的能力,以及调用数学计算引擎使大模型完成不太擅长的数理计算任务等。

规划能力是Agent理解问题并寻找可靠解决方案的关键,它通过将复杂问题分解为必要的操作步骤或子任务来回应用户请求。常用的一种规划方式是思维链(Chain of Thought方法,串行地一步步拆解复杂问题。比如:让大模型分析两支公募基金的业绩表现这个任务,Agent智能体会通过规划能力,分析出需要先调用相关工具查询指定两支产品的历史净值指标,然后调用工具查询收益率指标,接着调用工具查询最大回撤指标等,最后将这些可以评价基金产品业绩表现的指标放入Prompt提示词的上下文传给大模型,由大模型再生成最终的分析结论。

执行能力顾名思义,就是对外部工具的调用、对记忆模块的检索,最后基于领域知识生成最终结果。这几种能力组合在一起,可以使大模型脱离简单对话场景,逐渐向完成复杂任务的目标进化。

9 大模型Agent智能体技术方案

上图是大模型Agent智能体应用方案,在智能体的运作过程中,它首先会接收来自用户或外部系统的请求。这些请求可能涉及多种不同的任务类型,如数据处理、信息检索、决策支持等。大模型则负责任务规划和拆解,将用户的需求分解为多个子任务。这些子任务可以由不同的小模型、API接口或数据库来具体处理。例如,子任务AB由小模型AB分别处理,产生输出A和输出B;子任务C通过API接口处理,产生输出C;子任务D则通过访问数据库来获取输出D。所有这些输出随后被汇总到大模型中,进行总结提炼,进而生成最终答案并反馈用户。

在资产管理、财富管理领域,类似基金投研助手、投资顾问助手、投研策略会会议助手、智能代码辅助助手等场景应用中建议可采取Agent智能体的应用方案。

(六)智能体组合模式

智能体组合模式是一种任务拆分与智能体协作的架构设计模式,核心思想是利用多个智能体之间的协作,以分布式和并行处理的方式提高任务处理效率和准确性。该系统会将一个复杂任务拆解为多个简单子任务,由不同的智能体(Agent)分别处理,然后将各智能体的结果进行汇总,生成最终答案。这种方式更加符合“术业有专攻”的思想,让每个智能体(Agent)仅专注于对具体一个业务领域的知识进行学习与处理,对于跨领域问题,通过多智能体的相互协作来完成,这样可以有效缓解不同领域知识之间相互交叉,导致单一智能体频繁出现幻觉、回复混乱等影响应用效果和使用体验的问题。

10 智能体组合模式

智能体组合模式具体执行过程如下:

1.任务拆解与智能体选择:当用户发起提问请求时,系统根据Prompt提示词首先将任务拆解为多个独立子任务。例如,一个业务报告生成任务可以被拆解为数据收集、数据分析、结果汇总等几项子任务。

2.智能体执行任务:智能体选择器根据任务需求,选择最适合的智能体(例如,数据处理智能体、图像识别智能体等)来执行每个子任务。

3.结果集成与输出:各智能体完成任务后,系统会将它们的输出结果进行整合,由大模型统一生成最终结果。

4.智能体优化:随着每次任务的完成,系统会根据最终结果的表现对智能体选择器的规则进行优化,不断调整选择标准,以提升任务分配的合理性和效率。

智能体组合模式可以使智能体应用变得更加灵活、扩展方便,提升复杂任务的处理效率与执行效果,适用于跨领域、多任务的业务场景。

3.4 语料供给

(一) 资管行业数据获取

1.资管行业数据采集

在大模型应用建设过程中,高质量的语料数据是确保模型性能和准确性的基础。目前获取行业数据通常采用自建和购买两种方式。自建数据是指企业通过自身的业务活动积累的数据,如研究报告、财务报告、金融相关法律法规、政策制度、尽职调查报告、金融专业术语等。这些数据具有高度的针对性和专业性,能够更好地反映企业的业务特点和客户需求。为了确保数据的质量和完整性,企业需要建立健全的数据采集和管理系统,采用先进且合规的数据采集技术数据API接口等,从多个渠道获取数据。此外,企业还可以通过合作共建行业数据平台,与其他机构共享数据资源,丰富数据来源。购买数据则是通过第三方数据供应商获取所需的语料数据。这种方式的优势在于数据来源多样、覆盖面广,但需要仔细评估数据供应商的资质和数据质量,确保数据的可靠性和合法性。无论是自建还是购买数据,企业都应严格遵守相关法律法规,确保数据的合法性和合规性,避免侵犯个人隐私和商业秘密。

与此同时,结合《上海高质量推进全球金融科技中心建设行动方案》等政策指导,建议依托监管机构、数据联盟等单位组织开展多元合作,打造资管行业大模型语料数据库,实现行业语料数据的高质量供给与互惠共享,推动资管垂类大模型创新应用。

2.资管行业数据清洗

数据清洗是确保资管行业数据质量的重要环节。当前数据清洗主要包括如下步骤:

首先是去除脏数据,即删除包含错误字符、格式不一致、严重逻辑错误或重复记录等无法通过修正恢复正常的数据;对于可修正的格式不一致等情况则进行格式统一。其次是处理缺失值和异常值等坏数据问题,对于缺失值可根据数据的分布特征、业务逻辑等采用合适的插补方法,或者在某些情况下,如果数据缺失比例过高且对整体分析影响不大时可考虑删除;对于异常值,需依据业务场景判断是真实异常还是数据错误,若是错误可通过删除或替换等方式解决。再者是剔除不合规数据,严格依据相关法律法规和企业内部的数据使用政策,对非法或涉及敏感信息的数据进行删除处理,确保所有数据都符合要求。最后是纠正不准确数据,通过核对原始数据源、利用业务逻辑进行校验以及与其他可靠数据进行对比等方法,确保数据的准确性。

在数据清洗过程中,企业可以借助自动化工具和算法提高清洗效率和准确性,同时要根据数据的特点和清洗要求合理调整工具和算法的参数。此外,需建立完善的数据质量管理机制,明确数据质量标准,定期对数据进行全面检查和针对性维护,确保数据质量持续保持在较高水平。同时,数据清洗工作需要保证有足够的人力、物力等资源投入,并严格遵循规范流程,每一个步骤都应有详细记录,以备后续审计和追溯。

(二) 资管行业数据处理

1.资管行业数据处理

在大模型应用建设中,数据处理是将原始数据转换为模型可用形式的关键步骤。数据处理主要包括增删改查四个操作:增,即增加新数据,通过数据采集和整合,不断丰富数据集,确保模型训练的多样性和全面性;删,即删除无效或冗余数据,去除对模型训练无益的数据,提高数据质量和模型性能;改,即修改错误或不准确的数据,通过数据校验和修正,确保数据的一致性和准确性;查,即查询和检索数据,通过建立高效的数据索引和查询机制,快速获取所需数据,提高数据处理效率。数据处理过程中,企业需要建立标准化的数据处理流程和规范,确保数据处理的科学性和规范性。同时,利用现代数据处理技术和工具,如数据仓库、数据湖、ETL工具等,提高数据处理的自动化水平和效率。

2.资管行业数据标注

数据标注是将原始数据转化为带有特定标签的数据集,从而便于模型训练和验证。在资管行业中,数据标注需依据企业的具体业务需求开展定制化工作。

首先,要谨慎确定数据标注标准与要求,详细明确标注的类别和规则。这需要综合考虑资管业务逻辑、模型训练目标等因素,以此确保标注的一致性和准确性。例如,对于金融文本数据,可依据文本所表达的情感倾向标注为正面、负面或中性;对于交易数据,可按照交易指令类型标注为买入、卖出或持有等操作,同时对于一些特殊交易情况(如撤单、挂单等)也应有相应标注规则。

其次,需精心选择合适的标注工具和方法,可在人工标注、半自动标注或全自动标注等方式中抉择。在选择时,要充分考虑数据量大小、标注难度以及标注成本等因素。人工标注适用于数据量较小且标注规则复杂、需要专业知识判断的场景,比如对复杂金融产品的特殊交易场景标注;半自动标注结合了人工和自动优势,可在一定程度上处理数据量较大且部分规则明确、部分需要人工判断的情况;全自动标注则适用于数据量极大、标注规则简单且清晰的场景,但需注意其可能存在的错误率,需要有后续的检查机制。

最后,必须建立严格的标注质量控制机制。可通过随机抽样、交叉验证等方法,对标注数据进行多轮检查和比对,及时发现并纠正标注不一致或错误的情况,以此确保标注数据的质量和整体一致性。

在整个数据标注过程中,企业还需要高度重视数据安全和合规性问题。要采取严格的数据加密、访问控制等安全措施,确保标注过程中的数据不被泄露、篡改或被不法分子滥用,同时保证所有操作都符合相关法律法规以及行业监管要求。

3.5 算力建设

随着大模型应用的逐渐深入,算力建设已然成为资管机构必须面对的重要课题。当前对算力资源规格型号的选择愈发多样化,异构芯片的应用也越来越普遍。从图形处理器(GPU神经网络处理器(NPU,再到各种定制化芯片,每一种芯片都有其独特的优势和适用场景。然而,这种多样化的算力环境也带来了前所未有的挑战,使得传统的裸金属模式已经越来越难以满足当今大模型应用建设的需求。

下图是结合行业先进做法,总结形成的AI算力中心建设框架,最下层通常可包含多个算力节点,每个节点配备不同数量的GPUNPU核心资源(例如:英伟达A10、英伟达H20、华为昇腾910b等高性能处理器)。通过虚拟化技术将这些算力节点整合为一个弹性资源池,同时支持PytorchTensorflowPaddlePaddleKeras等多种深度学习框架以及底层CUDAAscendRocmNeuWare等计算引擎。此外,算力中心还应包括算力资源管理、GPU算力配额管理、算力调度管理等关键组件,确保资源的合理分配和高效利用。通过节点管理、资源组划分、资源队列、显卡绑定和弹性伸缩等功能,AI算力中心能够灵活应对不同规模和需求的大模型应用开发任务,支持从研究探索到产品部署的全过程,加速人工智能特别是大模型应用的研发和创新。

11 AI 算力中心建设框架

本章节将从算力设施的类型与特点、算力设施的对比分析、算力国产化趋势等部分展开具体讨论并结合行业经验提出一定建议。

(一) 算力资源的选取依据

1.算力设施的类型与特点

构建资管领域大模型之初,应用方需同步选好算力基础设施资源,综合考量设施性能、成本效益、安全性等多个要素。算力基础设施中,选取算力芯片的依据主要包含模型大小、训练数据集规模以及预期训练速度等。当前支持大模型开发、应用的算力设施包含中央处理器(CPU)、图形处理器(GPU)、张量处理器(TPU)、神经网络处理器(NPU)、现场可编程门阵列(FPGA)等。中央处理器(CPU)具备通用性强、单线程性能好、能耗比高的特点,能够用于执行各种类型的计算任务,适合于逻辑判断、内存管理和文件操作等非并行计算任务。同时,相较于其他类型处理器,中央处理器(CPU)在处理单线程任务时表现出色,适用于需要高度精确控制的应用场景,在小规模模型训练、推理以及数据预处理等任务中表现突出。图形处理器(GPU)具有并行计算能力强、内存带宽大的特征,且当前配套的开发工具丰富。支持混合精度训练(如FP16)的高端图形处理器(GPU),能够显著提高训练效率并减少能耗。张量处理器(TPU)具备高效能低功耗、集成度高的特征,特别适合执行大规模神经网络的训练和推理。相比传统GPUTPU能够在更低的功耗下实现更高的计算效率。张量处理器(TPU)内置高效的存储子系统和通信接口,有效减少了数据传输延迟。神经网络处理器(NPU)具备低延迟高吞吐量、能效比高、定制化程度高的特征,通过硬件加速技术实现了低延迟和高吞吐量的数据处理能力,特别适合实时性要求高的应用。

2.算力设施的对比分析

资管大模型同样需根据应用需求,选取算力资源部署方式。目前,大模型算力资源的部署方式主要包括私有化、云端和混合云三种模式,每种模式都有其独特的特征和适用场景。

(1)私有化部署

私有化部署具备数据安全性高、可控性强的特征,但存在初始投资大、运维复杂、扩展性有限等局限。私有化部署能将所有数据和计算资源集中在企业内部,数据传输和存储都在企业内部网络中进行,降低了数据泄露的风险。另一方面,应用方可以完全掌控硬件资源和软件环境,根据业务需求进行定制化配置,确保系统的稳定性和可靠性。但同时,建立和维护私有数据中心需要较大的初始投资,包括购买服务器、网络设备、存储设备等硬件设施,以及相关的软件许可费用。私有数据中心需要专业的运维团队进行日常管理和故障排除,增加了企业的运营成本。相对于云平台,私有数据中心的扩展性较差,当业务需求突然增加时,可能需要较长的时间来采购和部署新的硬件资源。资管行业中对于数据安全性和合规性要求极高的场景,如客户信息管理、交易执行与结算等可考虑采用私有化部署方式进行算力资源配置。

(2)云端部署

云端部署具备灵活扩展、付费成本可控、管理便捷的特征,但存在一定的安全风险、并发延迟风险。云平台提供弹性计算资源,应用方可以根据实际需求随时调整算力规模,无需担心硬件资源不足的问题。费用方面,应用方只需为实际使用的资源付费,降低了初始投资成本。同时,云平台提供完善的管理工具和服务,应用方可以通过简单的界面进行资源管理和监控,降低了运维复杂度虽然云平台提供了多种安全措施,但在某些极端情况下仍存在数据泄露的风险,需要应用方采取额外的安全措施。云端部署更适合用在保密度相对较低的通用场景中,且此种方式将有助于资管行业中的中小型企业快速应用大模型。

(3)混合云部署

混合云部署结合了私有化和云端的优点,应用方可根据业务需求灵活选择资源部署方式。其中,应用方可在本地处敏感数据理,利用云端资源可以进行弹性扩展。敏感数据和核心业务可以部署在私有云中,而辅助业务和非敏感数据可以部署在公有云中,实现数据分级管理。同时,混合云平台通常支持多种云服务提供商,应用方可以根据需求选择最适合的云服务。通过合理分配资源,应用方可以在保证性能的前提下,最大限度地降低总体拥有成本。但另一方面,混合云架构需要更复杂的管理和协调机制,此种方式对于团队的技术能力存在要求。对内多部门协作、对外业务合作广泛、具备技术储备的资管企业可尝试采用此种方式应用算力资源。

(二) 算力国产化趋势分析

1.国产算力的发展现状

在芯片领域,国内企业陆续推出了高性能AI芯片,这些芯片在计算性能、能效比等方面逐步接近国际先进水平,部分产品已在金融、安防、医疗等重点行业得到应用。在服务器和数据中心领域,国内企业通过自主研发和技术创新,推出了多款高性能计算服务器和存储系统,不仅满足了国内市场的需求,还在国际市场上崭露头角。此外,国产算力设施在软件生态建设方面也取得了重要突破,多家企业与高校、科研机构合作,推动了国产化软件工具和框架的开发与应用,为国产算力设施的普及奠定了坚实基础。在金融资管领域,国产算力设施的应用不仅提升了数据处理和模型训练的效率,还增强了数据安全性和合规性,为金融机构的数字化转型提供了有力支撑。

2.国产算力的发展趋势

随着数字经济的快速发展和国家战略的推进,国产算力正朝着规模化、智能化、绿色化方向发展。一是规模化建设成为主流趋势。各地纷纷加大对国产计算中心的投资力度,推动数据中心的规模化建设和运营,以满足快速增长的算力需求。二是智能化技术的应用日益广泛。通过引入人工智能、大数据等先进技术,国产计算中心能够实现更高效的资源调度和管理,提升整体运行效率和服务质量。三是绿色化发展成为必然选择。面对日益严峻的能源和环境挑战,国产计算中心积极采用节能技术和可再生能源,推动绿色数据中心建设,降低能耗和碳排放。此外,国产计算中心还注重与产业的深度融合,通过与金融、制造、医疗等行业的合作,提供定制化的算力解决方案,助力各行业的数字化转型和创新发展。未来,国产计算中心将在技术创新、生态建设、市场拓展等方面持续发力,为我国数字经济的高质量发展提供强大的算力支持。


4-8 章节 后续发布


Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

资管 大模型 AI应用 金融科技 建设路径图
相关文章