
【编者按】本研究立足行业实践与境外经验,揭示出大模型“算法黑箱”在赋能从业者与服务投资者场景中引发的信任危机与合规挑战,而破解这一困局需要构建兼顾技术特性、商业逻辑与监管需求的治理框架。基于境外经验比较,本文提出行业驱动与监管协同的治理路径:基金公司应前置合规风控要求,优化模型学习机制,落实信息披露与风险告知义务,筑牢投资者信任;监管部门可通过差异化监管、完善行业标准,共同推动可解释性建设规范发展。
以大语言模型为核心的生成式人工智能(AI)正引发金融行业的效率革命。生成式AI指模拟输入数据的结构和特征以生成派生合成内容的AI。基金行业中,生成式AI已赋能从业者使用、投资者服务两大场景。但在提升效率的同时,可解释性问题也日渐凸显,即生成过程无法被清晰解释,“算法黑箱”难以溯源。但若详尽披露技术细节,或与基金公司的知识产权保护相冲突,甚至出现安全风险。
我国数字经济相关立法已初步形成生成式AI规制体系,但针对可解释性问题,还没有明确的规定,仅《国家人工智能产业综合标准化体系建设指南(2024版)》提出,要规范人工智能全生命周期的伦理治理要求,其中包括可解释性的技术要求与评测方法。以可解释性为抓手构建合规框架,是规范生成式AI在基金行业应用的重要路径。
生成式AI在基金行业已形成多维度渗透,Morgan Stanley、Wells Fargo、J.P.Morgan等金融机构陆续部署生成式AI应用。在数据分析层,生成式AI可以高效解析新闻、财报、舆情等异构信息,打通非结构化数据价值链条。在投研决策层,可以通过深度学习构建市场趋势预测与资产定价模型,辅助投资组合优化。在风险管理层,可以持续监测交易合规边界,动态构建风控指标模型。在合规运营层,可以覆盖员工申报智能问答、专户合同条款审查、固收交易语料分析及双录材料审核等。生成式AI在“信息处理-策略生成-合规风控-流程执行”等核心环节,体现出系统提升基金前中后台业务效能与风控精度的优势。
然而,从业者使用生成式AI过程中,也存在可解释性挑战。大模型决策过程和输出结果难以被清晰解读,如在投资决策中,基金经理和投资者需要理解决策的逻辑和依据,以判断决策可靠性。另外,金融市场本身具有高度复杂性,受政治、经济、心理等多种因素影响,而大模型基于历史数据进行训练,难以涵盖所有潜在因素。再者,若训练数据存在噪声、缺失或偏差,更加难以做出合理清晰的解释。
生成式AI能通过对客户浏览历史、交易记录、咨询问题等多源数据的深度学习,精准洞察投资者的投资目标、风险承受能力和投资偏好等,再依据投资者的个性化特征,从海量基金产品中筛选并构建适配的投资组合,根据市场动态、持仓情况,生成个性化的市场解读、投资建议等内容,及时推送给投资者,该模式无疑更能得到投资者的信赖。目前市场上已有一些大模型或智能投顾助手在这方面做出积极实践。
但面向投资者时,生成式AI可解释性挑战更为突出。投资者难以知晓推理过程,所以当推荐的投资组合出现收益波动或未达预期时,投资者或对生成式AI的可靠性产生质疑。在市场突发“黑天鹅”事件时,大模型也无法准确解释市场异动。部分投资者认为,生成式AI的可解释性是其知情权的一部分[1]。若可解释性低,投资者会怀疑智能投顾给出的资产配置建议是推荐了高度关联公司利益的产品。但是,如果将基金公司的专有算法毫无保留地公开,又不利于知识产权保护,甚至使公司面临技术攻击。
基金行业投资者服务的核心在于构建投资者信任,生成式AI的深度应用拓展了信任构建的空间,而可解释性问题成为了进一步建立投资者信任的瓶颈。如何构建有效的可解释性监管框架,已成为各司法辖区的共性核心议题。
欧盟自2016年起就开始探索对AI的监管体系构建,最具代表性的是2024年通过的《人工智能法案》[2]。作为全球首部全面规范人工智能的法律,是可供借鉴的立法之一。(欧盟AI法规政策梳理见附表1)
针对可解释性问题,2022年《数字服务法案》就已有规范,尤其是涉及算法决策和内容推荐的部分,要求大型在线平台对AI生成的内容和决策提供清晰的解释。2024年《人工智能法案》更进一步对于通用型人工智能(GPAI)提出了透明度要求。《人工智能法案》第13条第1款[3]概括规定了高风险AI的可解释要求、第2款[4]规定高风险AI应提交使用说明。值得借鉴的是,第3款[5]具体规定了使用说明应提供的信息。此外,《人工智能法案》第86条还规定了个体决策的解释权[6],明晰了个体有权要求部署者进行解释的情况。
美国AI监管呈现出“以行政命令推进、以标准指南引导、联邦和州分级监管”的多元特征。2025年5月,众议院通过名为《一项宏大美好法案》的预算协调法案,其中包含一项禁止各州制定AI法规的10年禁令,旨在限制各州AI监管权。(美国AI法规政策梳理见附表2)
在此背景下,目前主要可参考的综合性监管依据是《关于安全、可靠和可信地开发和使用人工智能的行政命令》(第14110号行政命令)。行政命令第2节第(a)款提出了对AI进行评估测试的必要性[7],以及对评估测试的要求[8],该款还提出“本届政府将帮助开发有效的标签和内容来源机制,以便美国人能够确定内容何时是使用人工智能生成的”。要言之,该行政命令要求相关企业向联邦政府提交与模型训练、开发和生产相关的活动计划等信息。企业还需要在向用户发布新功能前进行测试,并将结果提交至联邦政府。另外,行政命令指出应建立内容认证和水印指南。
我国香港地区在2025年4月公布了《香港生成式人工智能技术及应用指引》(以下简称《指引》),该份《指引》提出“以应用为本”和“风险分级”的核心理念,其“四层次”风险系统与欧盟《人工智能法案》相似,分门别类设置了监管策略。(我国香港地区AI法规政策梳理见附表3)
针对可解释性问题,《指引》在2.3.2节安全透明原则中提出了对模型层面和服务层面的要求[9]。接着,还以开源模型为例,指出了安全透明和商业秘密之间的权衡问题[10]。
《指引》区分了技术开发者和服务提供者。在3.1节对技术开发者提出了具体要求[11],此外还提出“人工智能系统应内置来源核查、事实查证及验证机制”。在合规团队的工作内容上,也给出了详细指导[12],要求开发者披露训练数据来源、模型架构及评估指标。对于服务提供者,《指引》也提出了高标准,要求当人工智能系统输出的内容无法被验证时,应主动向用户发出提示。更进一步,在3.2.1节还要求服务提供者提供详细的服务说明和使用指南[14]。
不仅如此,我国香港地区作为国际金融中心,对生成式AI在金融行业的应用尤为关注,特别强调金融投资者和客户应对个人资料和偏好行使控制权[15]。在《指引》的附录2.2.2节中,还特别针对金融行业作出提示[16],强调要给予用户选择权,确保用户在选择不使用时应能及时终止相关服务。
总体而言,我国香港地区在制定生成式AI监管规则时,秉持着一种务实的策略。针对具体问题进行了详细规制,但又与技术发展之间保持着一定平衡,具有重要借鉴价值。
新加坡主要是将监管职能分别纳入各个行业监管部门,通过发布非约束性的指南和建议实施AI治理。(新加坡AI法规政策梳理见附表4)
针对可解释性问题,新加坡《生成式人工智能治理模型框架》(以下简称《框架》)的执行摘要建议第(3)项提到:“尽管终端用户可能看不到开发过程,但围绕基本安全和卫生措施的有意义透明度是关键。”《框架》在正文“可信的开发和部署”一节中,具体提出业界应围绕最佳实践进行开发和安全评估[17]。并且,《框架》形象地将可解释性与透明度比作“食品/成分标签”,向下游用户提供信息,意义在于“将披露标准化有助于模型之间的可比性,并促进更安全地使用模型”。
对于应披露的内容,《框架》给出了示范性规定[18],值得借鉴。对于披露详细程度,《框架》指出可以根据透明的需要和保护专有信息的需要进行调整,业界需要达成共识,政府和第三方也可以协助[19]。由此可见,新加坡虽然规定了具体披露内容,但围绕基线仍保留一定弹性空间。
立足中国特色金融文化的治理哲学,参考借鉴境外AI监管智慧的精髓,基金行业可构建以市场自律为核心、监管引导为支撑的双层治理机制,探索金融治理中国范式,又契合技术伦理全球共识的创新路径。对于可解释性,有学者提出两个关键维度:一是“面向用户”的可解释性,以用户可理解的方式呈现模型决策逻辑,满足透明度规范要求;二是“面向隐藏层”的可解释性,通过解析内部隐藏层机制,支撑透明度的技术实现。[20]基金公司需差异化推进两个维度的能力建设,监管部门可加以引导,推动行业生成式AI可解释性建设规范发展。
基金公司面向用户时,即在赋能从业者和服务投资者场景中使用生成式AI时,应在前端交互界面或用户协议中披露注明:(a)该生成式AI应用使用的宏观技术原理;(b)参与模型设计、实施、管理、监督和审查的人员情况;(c)建模训练和模型测试的数据来源、清洗情况等;(d)模型的稳健性、可靠性等性能。上述信息应是面向用户披露的最低要求。若有重大更新,还应以足以引起用户注意的方式进行提示,发布更新日志,或重新签订用户协议。
《互联网信息服务算法推荐管理规定》第16条明确了算法决策告知义务。[21]据此,基金公司若作为算法控制者,必须显著标识算法的部署情况,充分提示算法的潜在风险。该义务旨在保障用户知晓AI算法决策的存在,从而自由地选择AI算法决策或人工决策。同时,该义务不涉及复杂的技术细节,因此,境外监管机构也往往将其设置为刚性规范并要求严格执行。
基金公司在生成式AI大模型部署的前期,就应该注重合规风控的前置化介入。即算法的搭建需要以法律法规、行业规章、内部规则为依据,先从法律构成要素中提取合规特征,再将该特征写入算法中,进行特征算法的模型构建。
如果在设计初期,算法就是以法律逻辑为基础进行构建的,那么之后基金业务行为的特征转化为数据行为特征后,对于监管者审查而言更易于理解。如此,后续的报告也能对算法进行法律化解释,有利于审查者进一步审查模型可靠性。
多家中美研究机构联合发布的有关大型语言模型可解释性技术的综述中[22],详细讨论了传统微调和基于提示的两种训练范式在超大规模模型中的应用及其解释技术,指出要使模型更具可解释性可能会最终降低其决策质量。可解释性与性能之间的关系推演可见下图:
研究表明,预训练语言模型常常表现出捷径学习的问题,其仅依赖数据中的表面特征(如个别关键词)来预测结果,只能反映局部统计偏差而缺乏因果逻辑支撑,导致模型在特定数据分布下表现良好,但在实际应用中(尤其是面对分布偏移或对抗性干扰时)性能显著下降,例如改动少数关键词则可能导致模型输出天差地别。所以,基金行业甚至是所有金融、科技公司共同面临的课题是,未来在技术上应重点研究解决模型捷径学习问题,以促进模型的泛化能力和可解释性提升。
目前,众多基金公司并非自己开发AI大模型,而是选择接入头部AI公司开发的成熟产品,监管机构和行业组织应针对不同接入方式设置不同责任架构,总结如下表:
监管部门可充分考虑AI大模型平台方和基金公司等部署使用者的不同角色和特点,区分披露要求,制定差异化监管策略。例如,对于开源版本私有化部署接入模式,鉴于平台方的中立性,而部署方拥有算法设计和再训练能力,应要求部署方承担更高程度的披露责任,而平台方侧重于协助说明义务。
目前各国所提倡的AI算法透明与可解释性要求,以算法开源为主要方法。这一方法在算法透明的规范层次中属于“软法”[23],受到商业秘密的制约,完全意义上的算法公开很难实现。故目前可信性成为了可解释人工智能的检验标准。衡量可信性的指标主要是从系统中提取得到的可信证据。在评估可信性时,通常考虑训练数据的可信性、学习模型的可信性和预测结果的可信性[24]。(目前评估AI可信性方法的相关文献梳理见附表5)
监管部门可引导行业构建一套既科学全面又合理可行的基金业人工智能系统可信度量评估模型,将度量评估转化为提升人工智能系统输出结果可信度的有效手段[25]。关于评估时点,可以要求基金公司在初次部署和每次重大更新生成式AI应用时,提交详细评估报告。还可参考欧盟《人工智能法案》第86条设置个体要求解释的权利。
从理论逻辑看,可解释性监管的目的是平衡创新效率与金融安全。欧盟“基于风险”的分级监管、美国多元监管模式、中国香港“应用为本”的务实策略及新加坡灵活弹性的“软法”机制,虽路径各异,但均试图在商业秘密与监管透明之间寻找平衡点。这为构建差异化监管体系提供了镜鉴:避免“一刀切”式监管抑制技术创新,而是通过设计“面向用户”与“面向隐藏层”的二维框架,化解商业秘密保护与监管披露要求的内在冲突。
在实践层面,基金公司应主动在二维框架内加强可解释性能力建设:面向用户时,应恪守信息披露义务和算法风险告知义务;面向隐藏层时,应将合规风控要求嵌入算法设计全流程,在技术上优化模型捷径学习。监管部门可以进一步区分平台方与部署方的责任,重点关注可信度评估,通过政策引导与标准支持,推动形成具有行业特色的治理范式。
值得注意的是,生成式AI技术仍在快速迭代,系统复杂度持续提升,模型治理机制、跨机构数据协作与隐私保护框架等关键议题亟待深化研究。基金行业需立足中国特色金融文化的制度禀赋,在守正与创新中进一步构建可信、可靠、可解释的AI应用体系,以期持续夯实人民群众的金融信任基础,以自主技术革新不懈助力金融强国建设。