从可控试验到可复制规模化:BNY 如何将生成式 AI 打造成银行级操作系统
通过分析纽约梅隆银行构建 Eliza 平台的实践路径,系统阐述金融机构如何在强治理约束下实现生成式 AI 的规模化落地,并将 AI 转化为组织级“操作系统”能力。

从“可控试验”到“可复制规模化”:BNY 的 Eliza 平台如何把生成式 AI 变成银行的“操作系统”
开篇导语:背景与转折
纽约梅隆银行(BNY)不是一家可以“慢慢试”的机构:它承担的是全球金融体系的底层基础设施角色——资产托管、清算、数据与现金的流转与安全。其资产托管与/或管理规模在 2025 年三季度末约为 57.8 万亿美元,任何流程的误差、延迟与合规瑕疵,都会被放大为系统性风险。 (bny.com)
ChatGPT 在 2022 年末引爆生成式 AI 之后,BNY 并未把探索限定在少数工程师或创新实验室里,而是迅速把问题上升到“企业运行方式”的层面:如果 AI 终将成为未来技术的操作系统,那么在系统重要性机构里,AI 不能以“旁路工具”存在,它必须在治理、权限、审计与责任边界之内扩展。 (OpenAI)
这就是转折点:BNY 选择建设一个集中化平台 Eliza,以平台化方式把模型能力、治理机制与员工赋能整合为一套“可规模化的工作系统”,并与 OpenAI 等前沿模型能力协同推进。 (OpenAI)
问题认知与内部反思:短板不在“有没有模型”,而在“组织结构性失衡”
在大型金融机构里,阻碍 AI 规模化落地的通常不是算力或模型本身,而是三类结构性失衡:
- 信息孤岛与权限割裂:跨法务、合规、业务、工程的数据与知识无法在统一边界内流动,导致“能用的数据用不上、能用的知识搜不到”。
- 知识断层与复用困难:点状 PoC 产生的提示词、代理与最佳实践很难跨团队复制,创新只能重复发生,难以形成飞轮。
- 风险审查与实验速度冲突:越是高风险行业,越容易把治理变成“审批堆叠”,结果是实验变慢、落地更慢,最终让治理与创新两败俱伤。
BNY 的判断是:治理不应成为 AI 规模化的刹车,而应成为油门——前提是把治理设计进系统,而不是事后补丁。OpenAI 的案例叙述与 BNY 官方介绍都强调:Eliza 的关键差异在于系统层面嵌入治理,让提示、代理开发、模型选择与共享在受控环境中完成,并通过跨职能机制持续评审用例。 (OpenAI)
转折点与 AI 战略引入:把“用 AI”升级为“用平台重塑工作法”
BNY 并未把生成式 AI 定义为单点效率工具,而是把它定位为“工作系统”与“平台能力”。这一战略落点体现在三件事上:
- 集中化 AI Hub + 企业平台 Eliza:统一入口、统一能力栈、统一治理与审计边界。 (OpenAI)
- 从用例驱动到平台驱动:先让每个部门都能“构建”,再通过共享与复用形成规模化扩散。Eliza 支持 125+ 个在线用例,20,000 名员工在构建代理。 (OpenAI)
- 把“深度研究”纳入决策链:在法律问题评估、风险建模、情景规划等高复杂任务中,把多步骤推理与内外部数据结合,作为决策前置的“思维伙伴”,并与代理协同触发后续行动。 (OpenAI)
组织智能化重构:从部门协同到“知识—流程—责任”的系统化
Eliza 不是“一个聊天工具”,而是一种组织运行机制的重构,核心变化可以概括为三条链条:
1 部门协同 → 知识共享机制
BNY 在 Eliza 的使用中形成了“共同实验—共享提示—复用代理—持续迭代”的协作方式,协作不再意味着更多会议,而意味着更高频的共同验证与复用。 (OpenAI)
2 数据复用 → 智能工作流形成
Eliza 将权限、控制与监督统一在平台层,使“可用数据”与“可用知识”能够进入受控工作流,减少重复劳动与灰色流程,同时为规模化复用提供基础设施。 (bny.com)
3 决策模式 → 模型共识机制
在高风险行业,“模型输出”必须与责任机制绑定。BNY 的路径是将治理机制产品化:用跨职能评审与平台内的可见控制,让用例从一开始就在同一套风险框架与监督体系内演进。 (bny.com)
对哈希泰格而言,这类路径的抽象结论非常清晰:AI 转型的交付对象不是“某个模型”,而是“可复制的智能工作系统”。在产品形态上,对应的往往是类似 YueLi Engine(知识计算/编排层)+ EiKM(知识沉淀与复用)+ 行业系统(如 ESGtank) 的组合式平台化能力——用统一边界把“知识、工具、流程、审计”连接成闭环。
绩效与量化成效:用指标证明“规模化不是口号”
BNY 的案例里,最有说服力的是“早期用例就能量化、且能复制”的证据:
- 合同审核助手:针对每年 3,000+ 份供应商协议,将法律审核时间从 4 小时降至 1 小时,降幅 75%。 (OpenAI)
- 平台规模指标:Eliza 支持 125+ 个在线用例,20,000 名员工在构建代理,表明能力已从“专家少数”扩散到“组织多数”。 (bny.com)
- 文化与能力扩散:通过培训与社区化活动,推动员工把自己视为问题解决者与“代理构建者”,并以黑客松等形式跨部门共创。 (OpenAI)
这些指标共同指向一个更重要的结果:AI 的价值不止体现在节省工时,而在于把知识工作从“人工搬运”升级为“可控的自主工作流”,从而提升组织弹性与响应速度。
治理与反思:技术与伦理的平衡,靠“内生化治理”而非“外置审批”
在金融行业,AI 的主要风险并不抽象:数据滥用、隐私与合规、模型幻觉导致的错误决策、权限越界、审计不可追溯等,任何一个都可能变成声誉与监管事件。
BNY 的治理思路不是额外加一道“AI 审批流程”,而是把治理机制做成平台能力的一部分:
- 统一的权限、安全防护与监督体系;
- 用例在上线前后持续评估与迭代;
- 用治理促进更快行动,而不是用治理压制创新。 (bny.com)
对同行业的启示也很直接:
- 先定义责任边界,再谈自治程度:没有“可追责的自治”,就没有可规模化的代理。
- 把治理做成产品,而不是流程:治理一旦停留在文档与会议里,规模化必然失败。
- 把培训当作基础设施:组织里真正的瓶颈往往是能力分布,而不是模型能力。
BNY 场景下的 AI 应用效用一览表
| 应用场景 | 使用 AI 技能 | 实际效用 | 定量成效 | 战略意义 |
|---|---|---|---|---|
| 供应商合同审核 | NLP/检索增强生成(RAG)+ 结构化摘要 | 缩短法务审阅与比对时间、提升一致性 | 审核从 4 小时降至 1 小时(-75%);覆盖 3,000+ 份/年 (OpenAI) | 把高风险知识工作流程化、可审计化 |
| 人力资源政策问答 | 企业知识库问答 + 权限控制 | 减少人工工单、统一口径 | 文中描述为减少人工请求并提升一致性(未披露具体数值) (OpenAI) | 以知识复用降低组织摩擦 |
| 风险洞察代理 | 多步骤推理 + 内外部数据联合分析 | 识别新兴风险信号、提前干预 | 文中未披露具体提前量(示例为“在问题升级前采取行动”) (OpenAI) | 以“认知前置”提升风险弹性 |
| 企业级规模化平台(Eliza) | 代理构建/共享 + 统一治理 + 受控环境 | 把创新从少数专家扩散为全员能力 | 125+ 在线用例;20,000 员工构建代理 (bny.com) | 将 AI 变成组织的“操作系统” |
哈希泰格式智能化跃迁——交付“体验与价值转换”,而非交付“技术清单”
BNY 的案例之所以具有行业代表性,不在于它“用了哪个模型”,而在于它把生成式 AI 的扩散路径设计成了可复制的组织能力:用平台统一边界、用治理加速扩散、用培训重塑文化、用可量化用例建立信任。 (OpenAI)
对哈希泰格而言,这正是产品化与交付方法论的落点:以 YueLi Engine 将“知识—数据—模型—流程”编排为可复用的智能工作流,以 EiKM 将组织经验沉淀为可检索、可复盘的知识资产,并在 ESGtank 等行业系统中把智能能力嵌入合规与治理框架,最终让 AI 以“可控、可审计、可复制”的方式进入企业日常运作。
当 AI 被真正嵌入组织的权限、审计与责任结构时,它才不再是一阵效率风潮,而会成为企业长期竞争力的复利引擎。
