🇯🇵 日本語 🇬🇧 English 🇨🇳 中文 🇲🇾 Bahasa Melayu

AI“军事用途”争议揭示企业治理新标准

“无分善恶”但“须担责任”:AI军事用途争议的本质

据报道,美国新兴AI公司Anthropic与美国国防部发生对立。该公司坚持限制其开发的AI模型“Claude”用于军事目的,并与政府展开了激烈争论。与此同时,日本国内有观点指出:“生成式AI本身无分善恶——但‘不决定其使用方式的经营者’负有责任。”

乍看之下,这似乎是遥远世界的话题。然而,这两则新闻凸显了摆在所有企业经营者面前的同一个问题:是否明确制定了“贵公司允许在何种范围、以何种方式使用AI”这一根本方针。

认为军事用途这种极端例子与商业应用无关,是为时过早的想法。自家AI无意中助长歧视性招聘筛选、被用于生成竞争对手的机密信息、制造虚假营销文件——这些风险潜藏于所有方针模糊就引入AI的企业之中。Anthropic的对立,象征着AI开发者不得不为自己的技术用途划清界限的时代已经到来。而这,也是使用AI的企业同样需要具备的治理能力。

从史克威尔艾尼克斯案例学习“用途限定”的现实解法

那么,具体该如何做呢?线索就在同样成为新闻的史克威尔艾尼克斯控股公司(SE HD)的案例中。该公司利用AI,将漫画编辑业务中每年耗费约3000小时工时的“分镜稿(分格与台词的草稿)”清稿、完稿工作进行了效率化。

这里的关键在于,设定了“不学习画风”这一明确限制。模仿特定作家的画风,存在损害著作权和创作者个性的风险。因此,该公司将AI的用途严格限定在“描线”、“贴网点”等编辑辅助性工作上。

这是一个极具启发性的判断。AI的可能性在于“无所不能”,但在商业中真正创造价值的,却在于“决定不让它做什么”这一经营判断。史克威尔艾尼克斯实践了一条明确的界限:在最大限度发挥AI能力的同时,不涉足创意的核心部分以及法律与伦理风险。

请试着代入贵公司思考。在销售部门引入ChatGPT时,是否有“允许用于起草给客户的个别邮件”,但“禁止生成虚构客户案例或性能数据”这类方针?在人事部门,是否有“允许用于优化招聘启事文案”,但“禁止自动生成分析应聘者社交媒体的报告”这样的界限?

制定“AI使用政策”的5个实践步骤

模糊的方针无法指导现场行动。以下,提出可立即执行的AI使用政策制定步骤。

1. 识别风险领域: 将公司业务分类为“信息发布”、“客户应对”、“内部资料制作”、“数据分析”、“开发”等,列出各领域可预见的最大风险(信息泄露、虚假陈述、助长歧视、侵犯著作权等)。

2. 创建按工具划分的许可清单: 设定按工具和部门划分的使用许可级别,例如“ChatGPT Enterprise全公司许可”、“图像生成AI仅限设计部”、“代码生成AI仅限开发部”等。原则上应禁止无限制使用。

3. 规范输入数据规则: 这是最重要的。明确禁止将机密信息、个人信息、客户数据输入AI工具。实际上,在本媒体运营中,检查合同时也使用机密信息匿名化后的版本,绝不输入原始数据。

4. 设定输出物的验证流程: 强制规定AI生成的文档、代码、分析结果必须由人工最终确认。特别是对外发布的内容或作为决策依据的数据,需要建立验证其出处和合理性的流程。

5. 构建持续审查机制: AI技术和相关法规变化迅速。应建立每季度审查一次政策、纳入新风险和最佳实践的机制。

成本与实施:中小企业也能从今天开始的具体策略

或许能听到“虽说要治理,但没有资源”的声音。然而,活用现代的AI工具,可以以惊人的低成本实现。

首先,政策制定本身就可以利用AI。例如,向Claude 3.5 Sonnet发出指令:“我公司是中小型制造业。想在销售和行政部门开始使用生成式AI,请起草一份控制风险的使用政策草案”,它就能在几分钟内生成符合行业特点的具体条款文案。然后由管理层讨论,使其血肉丰满。

其次,是技术性控制。在全公司引入ChatGPT Enterprise(每月约30美元/用户),即可通过管理员界面进行“禁用特定功能”、“限制向外部网站发送数据”等设置。若需要更精细的控制,选择Microsoft Copilot for Microsoft 365(每月30美元),则可利用“商务聊天”模式,仅让其学习、参考公司Microsoft 365环境内的数据,从而大幅降低数据泄露风险。

成本方面,在向全体员工分发昂贵的企业版之前,从“被许可部门的被许可成员”开始分阶段引入更为现实。根据我们的咨询经验,成功的案例通常是先由后台负责人和CTO牵头,启动有限的试点项目,验证政策的有效性。

Anthropic的决定所揭示的“竞争优势源泉”

在我看来,Anthropic优先公司政策而非政府合同的背后,不仅仅是伦理观,更包含着商业战略上的判断。那就是确立“负责任的AI开发者”这一品牌价值

消费者和商业伙伴关注的已不仅是技术能力,还包括将该技术如何应用于社会的理念。明确制定公司的AI使用方针并对外传达,这已不再是合规成本,而可能成为提升企业可信度、吸引优秀人才和志同道合客户的强有力的差异化因素

“我公司虽使用AI,但为最大限度尊重客户隐私与创造性,将依据以下方针进行严格管理”——这样的信息,将塑造未来时代的企业价值本身。

经营者的责任:定义技术的“容许范围”,而非“可能性”

生成式AI本身无分善恶。但其输出对社会产生的影响,显然存在善恶之分。Anthropic与国防部的对立、史克威尔艾尼克斯的用途限定、以及追问“不决定使用方式的经营者之责任”的论述,全都指向同一个结论。

AI是强大的经营资源。然而,如同所有强大的资源一样,其运用需要明确的方针和持续的管理。对经营者的要求,不是谈论AI的“可能性”,而是根据自身业务和价值观,果断定义其“容许范围”。

这不能全权丢给技术部门。经营高层自身负有理解风险、制定方针、并使其渗透组织的责任。AI军事用途的争议向我们表明,已无人能逃避这一责任。

何不先从将“公司AI使用基本方针(草案)”列入下一次经营会议的议题开始呢?

评论

标题和URL已复制