一、ISO/IEC 42001:2023 4.3 标准原文
原文:组织应明确人工智能管理体系的边界和适用性,以确定其范围。在确定该范围时,组织应考虑:
——4.1 中提及的各种外部和内部因素;
——4.2 中提及的要求。
该范围应作为成文信息,予以提供。
应根据人工智能管理体系的范围,确定组织在满足标准中关于人工智能管理体系、领导作用、策划、支持、运行、绩效、评价、改进、控制和目标等方面的要求时开展的活动。
二、条款解读说明
2.1 为什么AI管理体系范围比传统体系更容易失真
AI管理体系范围确定看似与其他ISO管理体系类似,但实际难度更高。原因在于AI活动往往分散、嵌入、外包且变化快。一个组织可能没有专门的“AI部门”,却在营销、客服、运营、研发、法务甚至个人办公中广泛使用生成式AI;也可能没有自研模型,却深度依赖第三方模型服务;还可能同时存在正式AI产品和大量非正式AI使用行为。如果仍然用传统“按部门、按地点、按产品”方式机械划范围,很容易把真正高影响的AI活动排除在体系之外。
因此,4.3在42001中非常强调结合环境和相关方要求来定范围。换句话说,范围不能只看组织想管什么,还要看组织实际上在哪里因AI承担责任、在哪里因AI受到约束。如果客户、监管者和社会舆论实际关注的是组织某项AI能力,而组织却在范围声明中把它排除掉,这样的范围通常难以被认为是合理范围。
2.2 4.3中的关键判断维度
| 判断维度 | 具体含义 | 常见偏差 | 建议输出 |
|---|---|---|---|
| 业务边界 | 哪些业务线、产品、服务或职能涉及AI活动 | 只纳入“官方AI项目”,排除大量实际使用场景 | 业务范围说明 |
| 技术边界 | 自研、外采、嵌入式和平台型AI能力的纳入方式 | 采购模型和云服务被视为“不是我们的AI” | AI能力边界说明 |
| 组织边界 | 哪些法人、部门、团队和责任链进入AIMS | 范围只写总部,忽略关键业务子公司或外包链条 | 组织范围声明 |
| 责任边界 | 第三方依赖、外包开发、供应商和合作方如何纳入治理 | 把外部依赖完全排除在体系视野外 | 责任边界表 |
| 可执行性 | 范围既要覆盖真实高风险,也要具备实施条件 | 范围写得很大,但内部无落地机制 | 实施优先级和阶段计划 |
2.3 范围不是“越大越好”,而是“越真实越好”
不少组织担心范围太窄显得不成熟,于是把所有业务和所有AI相关活动全部写入AIMS范围;也有组织为了降低实施压力,只写一个试点团队或单一产品,把大部分实际高风险活动排除出去。这两种做法都不稳妥。前者的问题是体系容易失去可实施性,后者的问题是体系容易失去真实性。
成熟的范围确定通常遵循两个原则。第一,优先覆盖那些已经形成外部责任压力、内部管理需求或较高影响风险的AI活动。第二,在范围表述中清楚说明纳入对象、边界条件和外部依赖,而不是用一句笼统的“适用于本公司AI相关活动”带过。范围真正重要的,不是好不好看,而是后续审核、运行和改进时能否站得住。
三、实施要点
3.1 先盘清组织真实AI活动,再谈范围
- 范围界定前应先盘点组织有哪些AI相关活动,包括自研、采购、嵌入式功能、试点项目、对外产品能力和内部办公应用。
- 没有活动盘点,范围很容易凭印象决定,最终漏掉真正重要的治理对象。
- 建议以业务场景和责任后果为主线,而不是只看技术归属。
3.2 用“责任承担点”而不是“技术所有权”划边界
- 组织是否拥有模型源码,并不是唯一判断标准。更重要的是:谁在使用AI输出做业务决策、谁对外提供AI能力、谁因AI系统行为被客户和监管问责。
- 若组织虽然不训练模型,但用第三方模型服务面向客户提供业务功能,这部分通常也应纳入AIMS视野。
- AI治理的范围,首先应围绕责任,而不是围绕代码归属。
3.3 在范围声明中写清纳入对象、边界条件和排除理由
- 一个有效的范围声明至少应说明:适用的组织单元、业务场景、AI产品或服务类型、涉及地点或平台、关键第三方依赖,以及暂不纳入的对象和理由。
- 如果确实采用分阶段推进,也应明确当前阶段范围和后续扩展计划。
- 写得越清楚,后续审核和内部执行越少争议。
3.4 把关键外包和第三方依赖纳入责任边界说明
- 范围可以不把外部供应商当作组织内部单元,但不能忽略其对体系有效性的影响。模型供应商、数据提供方、外包开发方和托管平台都应在责任边界中被明确说明。
- 特别是关键控制高度依赖第三方时,更要在范围说明和接口机制中写清责任分工。
- 否则,体系会出现“内部看似完整,关键环节实际无控制”的空心化风险。
3.5 让范围随着业务和治理能力逐步演进
- 范围不是一成不变的。随着AI场景增加、治理成熟度提高、认证目标变化或监管要求升级,组织应重新评估范围是否仍然真实。
- 在AI应用快速扩张期,建议至少在管理评审和重大变更时重审范围。
- 范围不更新,体系很快就会变成管理“过去的AI”,而不是“现在的AI”。
四、常用工具与实施方法
| 工具/方法 | 适用目的 | 实施建议 | 输出成果 |
|---|---|---|---|
| AI活动盘点表 | 识别真实AI场景和治理对象 | 覆盖对外产品、内部工具和第三方能力 | AI活动清单 |
| 范围边界分析图 | 说明组织、业务和技术边界 | 结合组织结构、系统架构和供应链关系绘制 | 范围边界图 |
| 责任界面矩阵 | 明确内外部职责分工 | 重点覆盖模型、数据、部署和运营阶段 | 责任分配表 |
| 分阶段实施路线图 | 在控制可实施性前提下逐步扩展范围 | 为试点到全面推广设定过渡计划 | 范围演进计划 |
| 范围声明模板 | 规范范围文字表达 | 写明纳入对象、边界和排除说明 | 正式范围声明 |
五、典型案例
案例一:组织把AIMS范围只限定为单一AI试点,导致主业务风险游离在外
- 背景:企业正在做一个对外展示型AI试点项目,同时其主业务中已有广泛AI辅助定价和推荐能力。
- 问题:为了降低实施难度,组织初期仅将试点项目写入AIMS范围,实际高影响业务并未纳入。
- 4.3动作:重新按责任承担点盘点AI活动,将面向客户的核心AI能力纳入范围。
- 结果:范围从“便于认证”转向“真实治理”。
- 启示:范围若与真实责任不一致,体系很难建立公信力。
案例二:采购外部大模型服务却试图排除在范围外
- 背景:组织未训练自有模型,但深度集成第三方生成式AI能力,向客户提供问答和建议功能。
- 问题:团队最初认为“模型不是我们开发的”,所以相关能力可不纳入AIMS。
- 4.3动作:改按组织对外责任划界,将采购型AI服务纳入治理边界,并单独说明供应商责任接口。
- 结果:范围声明更符合实际业务承担。
- 启示:AI治理不能只看技术归属,更要看业务责任归属。
案例三:集团企业通过分阶段扩展范围避免体系失控
- 背景:集团下属多个子公司都在开展AI应用,成熟度差异明显。
- 问题:若一次性全部纳入,体系实施压力过大;若只纳入总部,又无法回应实际高影响场景。
- 4.3动作:先纳入高风险业务单元和共性平台能力,并为后续扩展制定路线图。
- 结果:范围兼顾了真实性与可执行性。
- 启示:分阶段推进可以接受,但前提是当前范围要真实、后续扩展要明确。
六、成文信息管理要求
4.3通常需要形成正式范围声明,并辅以边界说明和责任界面材料。对AI管理体系而言,仅有一句简短范围文字通常不够,组织还应能够证明为什么这样划界、边界之外是什么、边界之内如何管。
| 建议文件或记录 | 关键内容 | 责任角色 | 审核价值 |
|---|---|---|---|
| AIMS范围声明 | 适用组织、业务、AI活动、地点和边界说明 | 管理层/AIMS负责人 | 证明范围已被正式确定 |
| AI活动和责任边界清单 | 纳入对象、外部依赖、排除项和理由 | 业务/产品/采购/安全 | 证明范围建立在事实基础上 |
| 范围评审记录 | 确定范围时的判断依据和管理决策 | AIMS团队/管理层 | 证明范围不是随意设定 |
| 范围更新记录 | 业务变化、供应商变化或扩展计划引发的修订 | AIMS团队 | 证明范围具备动态维护能力 |
七、常见误区及踩坑提醒
| 误区 | 典型表现 | 正确做法 |
|---|---|---|
| 范围只按组织方便程度来划 | 真正高影响AI活动被排除在外 | 按责任承担点和实际应用场景划界 |
| 没有自研模型就不需要纳入AIMS | 采购或集成型AI责任被忽略 | 把采购、集成和运营型AI一并考虑 |
| 范围声明写得越大越好 | 体系覆盖空泛,实施和证据都跟不上 | 追求真实、清晰和可执行的范围 |
| 第三方依赖不算范围问题 | 关键治理链路断在供应商接口处 | 在范围说明中明确责任界面和控制边界 |