金融机构选择“本地化AI”而非云端的原因
信用卡公司VIEW CARD在债权管理业务中引入了生成式AI。值得关注的是其引入形式。该公司并未采用云端模式,而是选择了在自有服务器上运行的“本地化”诉答文书生成系统“Court”。这一选择表明,金融行业的AI应用已超越了单纯提升效率的层面。
债权管理,尤其是诉讼相关文书的制作,是一项对准确性和机密性要求极高的工作。将包含客户信息、交易记录、法律主张的文件发送至外部云端服务,伴随着巨大风险。生成式AI的便利性与金融机构必须守护的数据保密性。解决这一两难困境的答案,正是引入本地化AI。
在自有防火墙内运行AI模型。这种方式能显著降低数据外泄的风险。许多曾对应用生成式AI犹豫不决的管理者,特别是金融、医疗、法律领域的负责人,其最大的担忧正在于此。Ippu Senkin与VIEW CARD的案例,提出了“在保障安全的前提下应用AI”这一现实解决方案。
“ChatSense”的文字转录功能与分化的战略
同样成为新闻焦点、面向大企业的AI平台“ChatSense”,发布了文字转录邮件共享功能。该服务以云端形式提供。从两者的比较中,可以窥见AI引入过程中一个清晰的“战略分岔点”。
ChatSense解决的是会议纪要、客户往来邮件等“信息的可视化与共享”。它适用于对保密性要求相对较低、更重视速度与协作的业务。另一方面,VIEW CARD选择的本地化AI,其目的在于“实现高度机密性定型业务的自动化”。
管理者或CTO在为本公司引入AI时,首先应追问这个分岔点:“将哪些业务、在何种环境下实现自动化?”这并非是在“全部委托云端”与“全部内部构建”之间二选一。根据业务特性,选择最优环境的混合型方法,才是现实的答案。
本地化AI引入的具体成本与门槛
那么,企业自行构建并引入本地化生成式AI系统,需要多少成本和技术实力呢?这是许多管理者关心的现实课题。
首先,会产生硬件成本。要让最新的生成式AI模型流畅运行,需要搭载高性能GPU的服务器。例如,若引入一台NVIDIA的A100或H100,初期投资将达到数百万日元(约合数十万元人民币)的规模。不过,如果处理的业务仅限于“诉答文书生成”这类特定的定型文档生成,也可以使用更小型的模型或性能较低的GPU来运行。通过这种方式,也存在将初期投资控制在数十万日元(约合数万元人民币)左右的选择。
其次,是软件与运营成本。需要将开源的生成式AI模型(如Llama 3、Mistral等)下载到自有服务器上,并针对本公司业务进行调优(微调)。这一过程离不开拥有AI工程师或MLOps专业知识的人才。如果公司内部没有此类人才,通常需要委托外部系统集成商,其开发费用也需以数百万日元(约合数十万元人民币)为单位。
然而,这里出现了重大变化的征兆。随着代码生成AI(Claude Code、GitHub Copilot)的进化,AI系统构建与维护本身的门槛正在降低。即使公司没有全栈工程师,由具备一定IT素养的员工利用这些工具搭建系统框架的时代已经到来。这意味着,中小企业也可以将本地化AI作为现实选项进行考量。
行政与企业“AI共创”开辟的新模式
另一则新闻是,藤泽市的SDT株式会社与富山县滑川市就生成式AI应用签订了合作协议。这展示了“AI共创”的新形态。这是一种将地方政府面临的行政课题与科技企业掌握的AI专长相结合的模式。
这一合作的有趣之处在于,双方互补了彼此所欠缺的资源。地方政府拥有提升居民服务这一明确使命,以及相应的预算与(匿名化后的)数据。另一方面,科技企业则具备实现AI应用的技术能力,以及快速开发产品的敏捷性。
这种“行政×企业”的共创模式,也可应用于民营企业间的合作。例如,缺乏本地化AI构建专长的中小企业,可与当地的IT企业协作。企业提供业务知识与数据,IT企业负责技术实现。由此,便开辟了一条无需自行筹措高昂初期投资或高级人才,即可获得安全AI解决方案的道路。
实践步骤:如何在公司内部考量“本地化AI”
为管理者或CTO认真考量为本公司业务引入本地化AI时,提出以下四个具体步骤。
步骤1:绘制业务的“保密性”与“定型度”图谱
首先,以“机密性高低”和“定型性高低”两个维度评估所有业务。机密性高(如客户个人信息、财务数据、知识产权等)且定型性也高(可手册化、文档格式固定)的业务,是本地化AI的最优先候选。VIEW CARD的“诉答文书生成”就符合这一象限。另一方面,机密性低但定型性高的业务(如内部手册制作、公司内部报告草拟),则首选云端型AI。
步骤2:从小规模PoC(概念验证)开始
贸然进行大额投资是危险的。首先,从候选业务中挑选出最小、成果最易衡量的任务。例如,“基于特定合同条款的通知文自动生成”等。针对此任务,尝试在公司内部的高性能PC或测试服务器上运行开源轻量AI模型。利用云端服务(使用AWS的PrivateLink、Azure的Private Endpoint)构建虚拟私有环境进行PoC,也是成本效益较高的选择。在此阶段,评估其精度、速度,以及最重要的“公司内部的接受准备情况”。
步骤3:判断自研与外包的平衡
PoC成功后,决定正式引入的方法。请评估公司内部是否拥有以下资源:
- 基础设施知识人员:能够进行服务器管理、网络设置的人才
- AI实施人员:能够下载、调优开源AI模型的人才
- 业务领域知识人员:深刻理解待自动化业务的人才
如果这些条件都具备,则存在自研的道路。如果不具备,则现实的做法是外包给系统集成商,或寻找前述“行政×企业”型的地域协作模式。若此判断失误,即使系统建成,也可能因无法融入业务而最终被闲置,导致“AI死藏”现象。
步骤4:预先建立安全与治理框架
与技术探讨并行,最重要的是治理设计。即使是本地化部署,AI生成文档的责任最终仍在于人。至少需要制定以下规则:
- 人工审核流程:对AI生成物进行最终确认、批准的责任人与流程
- 使用日志管理体系:完整记录何人、何时、以何种输入、获得了何种输出
- 模型更新政策:为应对新法律或公司内部规定,AI模型再学习的频率与步骤
若技术先行,治理滞后,则将承担巨大风险。
选择云端,还是本地化?答案就在业务之中
VIEW CARD的案例表明,生成式AI应用并非“云端一边倒”,而是展现了多样化的未来。摆脱将所有业务委托给外部服务的SaaS依赖。这体现了企业将自身核心数据与业务流程置于自身管理下进行进化的经营姿态。
另一方面,本地化也并非所有问题的答案。在要求速度与灵活性的业务中,云端型AI的优势是压倒性的。关键在于深入分析自身业务,判断“何处存在安全自动化的空间”。
AI已不再是实验阶段的技术。如今,金融机构已开始在债权管理这一核心业务中实际应用,各行各业的经营者们,是时候将目光投向公司内部的“高机密性定型业务”了。这第一步,并非始于云端还是本地化的技术讨论,而是源于“我司的宝贵资产是哪些业务”这一经营层面的追问。


评论