AI风险管理框架(AI RMF 1.0)
作者:微信文章说明:本公众号非该标准第一翻译人,之前已有同行翻译并发布。本翻译文稿与其他翻译稿无直接对应关系及参照关系,翻译本文纯属个人阅读习惯。故读者无须纠结与文章内容无关的问题。为避免其他不必要争议,尊重其他译者,本文不申请“原创”。欢迎在文末链接下载中英文全版。
NIST AI 100-1
AI风险管理框架(AI RMF 1.0)
本出版物可从以下网站免费获取:https://doi.org/10.6028/NIST.AI.100-1
2023年1月
美国商务部 Gina M.Raimondo,秘书
美国国家标准与技术研究院 Laurie E.Locascio,NIST主任兼商务部负责标准和技术的副部长
本文档中可能会标识某些商业实体、设备或材料,以便充分描述实验程序或概念。这种标识并不意味着国家标准与技术研究所的推荐或认可,也不意味着实体、材料或设备一定是最适合此目的的。
本出版物可从以下网站免费获取:https://doi.org/10.6028/NIST.AI.100-1
更新计划和版本
AI风险管理框架(AI RMF)旨在成为一份动态文件。
NIST将定期审查该框架的内容和有用性,以确定是否需要更新;预计不迟于2028年,将进行一次有AI社区正式投入的审查。该框架将采用两个数字的版本控制系统来跟踪和识别主要和次要的更改。第一个数字将代表AI RMF及其配套文件的生成(例如1.0),并且只会在重大修订时发生变化。次要修订将在生成号后使用“.n”进行跟踪(例如1.1)。将使用版本控制表跟踪所有更改,该表标识了历史记录,包括版本号、更改日期和更改描述。NIST计划经常更新AI RMF手册。对AI RMF Playbook的评论可以通过电子邮件发送至AIframework@nist.gov并将每半年进行一次审查和整合。
编译 老烦的草根安全观
2025年2月
目录
执行摘要 3
第1部分:基础信息 5
1.框架风险 5
1.1了解和应对风险、影响和危害 6
1.2AI风险管理面临的挑战 7
2.读者 11
3.风险和可信度 15
3.1有效可靠 16
3.2安全 17
3.3可靠性和弹性 18
3.4可问责性和透明性 18
3.5可解释和可理解性 19
3.6隐私增强 20
3.7公平性——管理有害偏见 21
4.AI风险管理框架的有效性 21
第2部分:核心和概况 22
5.AI RMF核心 22
5.1治理(GOVERN) 24
5.2 映射(MAP) 27
5.3测量(MEASURE) 30
5.4管理(MANAGE) 33
6. AI RMF用例画像 34
附录A: 36
其他AI参与者 37
附录B:AI风险与传统软件风险的区别 39
附录C:AI风险管理和人机交互 41
附录D:AIRMF的属性 43
执行摘要
人工智能(AI)技术具有巨大的潜力,可以改变社会和人们的生活——从商业和健康到交通和网络安全,再到环境和我们的星球。AI技术可以推动包容性经济增长,支持改善世界条件的科学进步。然而,AI技术也带来了可能对个人、团体、组织、社区、社会、环境和地球产生负面影响的风险。与其他类型技术的风险一样,AI风险可以以多种方式出现,可以分为长期或短期、高概率或低概率、系统性或局部性、高影响或低影响。
AI RMF指的是一个AI系统,它是一个工程或基于机器的系统,可以为给定的目标集生成预测、建议或影响真实或虚拟环境的决策等输出。AI系统旨在以不同程度的自主性运行(改编自:经合组织AI建议:2019;ISO/IEC 22989:2022)。
虽然有无数的标准和最佳实践可以帮助组织减轻传统软件或基于信息的系统的风险,但AI系统带来的风险在很多方面都是独特的(见附录B)。例如,AI系统可能会根据随时间变化的数据进行训练,这些数据有时会发生显著和意外的变化,以难以理解的方式影响系统功能和可信度。AI系统及其部署的环境通常很复杂,因此很难在故障发生时进行检测和响应。AI系统本质上是社会技术性的,这意味着它们受到社会动态和人类行为的影响。AI风险和收益可能来自技术方面的相互作用,以及与系统使用方式、与其他AI系统的相互作用、操作人员以及部署环境相关的社会因素。
这些风险使AI成为一种独特的具有挑战性的技术,无论是在组织还是社会内部都需要部署和利用。如果没有适当的控制,AI系统可能会放大、延续或加剧个人和社区的不公平或不良后果。通过适当的控制,AI系统可以减轻和管理不公平的结果。
AI风险管理是负责任地开发和使用AI系统的关键组成部分。负责任的AI实践可以帮助将AI系统设计、开发和使用的决策与预期目标和价值观保持一致。负责任的AI的核心概念强调以人为本、社会责任和可持续性。AI风险管理可以通过促使设计、开发和部署AI的组织及其内部团队更批判性地思考背景和潜在或意外的负面和正面影响,来推动负责任的使用和实践。了解和管理AI系统的风险将有助于提高可信度,进而培养公众信任。
社会责任是指组织“通过透明和道德的行为对其决策和活动对社会和环境的影响”的责任(ISO 26000:2010)。可持续性是指“全球系统的状态,包括环境、社会和经济方面,在不损害子孙后代满足自身需求的能力的情况下满足当前的需求”(ISO/IEC TR 24368:2022)。负责任的AI旨在产生公平和负责任的技术。期望组织实践符合“专业责任”,ISO将其定义为“旨在确保设计、开发或部署AI系统和应用程序或基于AI的产品或系统的专业人员认识到他们对人类、社会和AI未来产生影响的独特地位”(ISO/IEC TR 24368:2022)。
根据2020年《国家AI倡议法案》(P.L.116-283)的指导,AIRMF的目标是为设计、开发、部署或使用AI系统的组织提供资源,以帮助管理AI的许多风险,促进AI系统可信和负责任的开发和使用。该框架旨在自愿、维护权利、非特定部门和用例无关,为各种规模、所有部门和整个社会的组织实施该框架中的方法提供灵活性。
该框架旨在为组织和个人(此处称为AI参与者)提供提高AI系统可信度的方法,并帮助促进AI系统的负责任的设计、开发、部署和使用。经济合作与发展组织(OECD)将AI参与者定义为“在AI系统生命周期中发挥积极作用的人,包括部署或操作AI的组织和个人”(见附录A)。
AI RMF旨在实用,随着AI技术的不断发展适应AI环境,并由不同程度和能力的组织实施,以便社会能够从AI中受益,同时保护其免受潜在危害。
该框架和支持资源将根据不断发展的技术、世界各地的标准格局以及AI社区的经验和反馈进行更新、扩展和改进。NIST将继续使AI RMF和相关指南与适用的国际标准、指南和实践保持一致。随着AIRMF的投入使用,将吸取更多经验教训,为未来的更新和额外资源提供信息。
该框架分为两部分。第1部分讨论了组织如何构建与AI相关的风险,并描述了目标受众。接下来,我们分析了AI的风险和可信度,概述了值得信赖的AI系统的特征,包括有效和可靠、安全、可靠和有弹性、负责和透明、可解释和可解释、隐私增强和公平,以及对其有害偏见的管理。
第2部分包括该框架的“核心”。它描述了四个具体功能,以帮助组织在实践中应对AI系统的风险。这些功能——GOVERN(治理)、MAP(映射)、MEASURE(测量)和MANAGE(管理)——进一步细分为类别和子类别。虽然GOVERN适用于组织AI风险管理流程和程序的所有阶段,但MAP、MEASURE和MANAGE功能可以应用于AI系统特定的环境和AI生命周期的特定阶段。
与该框架相关的其他资源包含在AI RMF手册中,该手册可通过NIST AI RMF网站获得:https://www.nist.gov/itl/ai-risk-management-framework.
NIST与私营和公共部门合作开发的AIRMF是针对2020年《国家AI倡议法案》、国家AI安全委员会建议以及《联邦参与制定技术标准和相关工具计划》所要求的更广泛的AI工作的。在该框架的开发过程中,通过对正式信息请求的回应、三次广泛参与的研讨会、对一份概念文件和两份框架草案的公众评论、多个公共论坛的讨论以及许多小组会议,与AI社区的接触为AIRMF 1.0的开发以及NIST和其他机构进行的AI研发和评估提供了信息。将加强该框架的优先研究和额外指导将被纳入相关的AI风险管理框架路线图中,NIST和更广泛的社区可以为该路线图做出贡献。
页:
[1]