高盛安全AI平台:防火墙内大模型部署与影响

Nanonets

高盛已成功部署内部人工智能平台——GS AI平台,这标志着这家金融巨头在拥抱先进技术方面迈出了重要一步。该举措旨在提高公司整体生产力,并优先考虑严格的安全、合规和治理控制,为其他高度受监管的行业树立了先例。

GS AI平台的核心在于其完全在高盛强大的防火墙内部运行,托管着一系列大型语言模型,包括OpenAI的GPT-4、谷歌的Gemini、Meta的Llama和Anthropic的Claude,以及专有的内部模型。员工可以通过类似于面向公众的AI工具的简单聊天界面访问这些功能,从而发起新的对话并利用最新的模型。该平台灵活的架构支持多模型编排,能够智能地将诸如代码请求或文档摘要等任务路由到最合适的模型,而无需用户重新训练。这种方法确保了各种用例的高质量结果,并允许无缝的模型切换。

平台设计的基石是其严格的安全和合规框架。所有AI交互都通过一个安全的合规网关,该网关应用提示过滤、数据匿名化和策略检查。这可以防止敏感信息传输到模型,并确保输出符合公司和监管规定。传输到任何模型API的数据都经过加密,敏感的提示或响应在系统内被屏蔽。该平台维护所有AI交互的完整审计跟踪,为合规团队提供详细的信息交换、所用模型和用户身份记录。对特定模型和数据库的访问根据员工角色、部门和用例进行精细控制,同时令牌级过滤会分析每个提示,在处理前剥离或替换客户姓名或账号等敏感数据,从而防止数据泄露并阻止不允许的内容。

该平台最早且最具影响力的应用之一是协助软件开发人员。高盛已将AI编码助手直接集成到流行的集成开发环境(IDE)中,如VS Code和JetBrains。这些AI工具提供实时代码建议、补全、解释,甚至可以提出错误修复、在语言之间翻译代码,或生成样板代码和测试用例。为确保安全,所有AI生成的代码都在沙盒中运行,并经过公司标准的代码审查流程和自动化测试管道,然后才能部署,从而确保了人工监督和质量控制。公司还在内部提供微软和谷歌的代码模型,提供冗余并允许进行性能比较。

除了现成的解决方案,高盛还针对内部用例对模型进行了广泛的定制和微调。一个关键方面是利用高盛庞大的专有数据存储库(包括金融文本、代码存储库和研究档案)来训练AI模型。这使得AI的知识扎根于公司特定的语境。开源和内部模型都在这些数据上进行训练,确保输出符合内部标准、缩写和历史背景。该系统还利用检索增强生成(RAG),使AI能够实时提取相关的内部文档,以提供精确的、有来源支持的回答。此外,“银行家副驾驶”或“研究助理”等专业变体根据部门特定需求进行了调整,多尺寸模型策略则将更大、更复杂的模型保留给真正具有挑战性的问题,而使用更小、更快的模型来处理简单任务。

GS AI平台对组织的影响是巨大的。开发人员报告称,编码周期加快了20%以上,发布后错误减少了15%。像IPO文件起草这样的任务所需时间已从几周大幅缩短到几分钟,AI处理了大约95%的工作。文档翻译和监管比较,曾经耗时数小时的工作,现在只需几秒钟。自2025年6月向超过46,500名员工广泛发布以来,该平台的采用率已超过50%,目标是到2026年实现100%的使用率。这一成功归因于强有力的变革管理,包括每个业务部门的“AI倡导者”、培训研讨会,以及首席执行官大卫·所罗门和首席信息官马可·阿根蒂等高管的明确信息——AI是增强而非取代工作。新员工也将AI用作导师,加速他们融入复杂的代码库和内部流程。

展望未来,高盛正在试点Cognition开发的自主AI软件工程师Devin。与需要分步指令的现有AI助手不同,Devin可以接受一个高层目标,制定计划,编写代码,测试,并提出解决方案供审查。这项试点侧重于自动化不那么吸引人的任务,例如更新遗留代码或迁移系统,旨在清理积压工作并通过与现有AI工具相比可能将产出提高三到四倍来加速交付。该试验也是Devin在高盛严格合规框架内运作能力的关键测试,未来有可能集成到GS AI平台中,允许员工委托复杂任务进行自主完成。

高盛的AI战略为受监管行业的首席信息官们提供了一个引人注目的案例研究。它表明,通过周密的架构和强大的控制,即使是金融等敏感行业也能有效利用生成式AI来自动化日常工作、发掘洞察并增强决策,而不会损害安全性或合规性。该公司“防火墙内”的方法使其全体员工能够访问先进的AI模型,培养了一种协作心态,将AI视为强大的合作伙伴,有望重新定义银行的工作流程。