风险管理框架旨在提高人工智能的可信度

摘要 美国商务部国家标准与技术研究院(NIST)发布了人工智能风险管理框架(AIRMF1 0),这是一份供设计、开发、部署或使用人工智能系统的组织自愿使

美国商务部国家标准与技术研究院(NIST)发布了人工智能风险管理框架(AIRMF1.0),这是一份供设计、开发、部署或使用人工智能系统的组织自愿使用的指导文件,以帮助管理许多人工智能技术的风险。

AIRMF遵循国会为NIST制定框架的指示,并与私营和公共部门密切合作制定。它旨在随着技术的不断发展适应AI领域,并被组织以不同程度和能力使用,以便社会可以从AI技术中受益,同时也受到保护免受其潜在危害。

“这个自愿性框架将有助于开发和部署人工智能技术,使美国、其他国家和组织能够提高人工智能的可信度,同时根据我们的民主价值观管理风险,”商务部副部长唐格雷夫斯说。“它应该加速人工智能的创新和增长,同时推进——而不是限制或损害——公民权利、公民自由和所有人的公平。”

与传统软件相比,人工智能带来了许多不同的风险。AI系统接受的数据训练会随着时间的推移发生变化,这些数据有时会发生显着且出乎意料的变化,从而以难以理解的方式影响系统。这些系统在本质上也是“社会技术”的,这意味着它们受到社会动态和人类行为的影响。这些技术和社会因素的复杂相互作用可能会产生人工智能风险,影响人们的生活,从他们使用在线聊天机器人的经历到工作和贷款申请的结果。

该框架使组织能够以不同的方式思考人工智能和风险。它促进制度文化的变革,鼓励组织以新的视角对待人工智能——包括如何思考、交流、衡量和监控人工智能风险及其潜在的积极和消极影响。

AIRMF提供了一个灵活、结构化和可衡量的流程,使组织能够应对AI风险。遵循这一管理人工智能风险的流程可以最大限度地发挥人工智能技术的优势,同时降低对个人、团体、社区、组织和社会产生负面影响的可能性。

标准与技术部副部长​​兼NIST主任LaurieE.Locascio表示,该框架是NIST为培养对AI技术的信任所做的更大努力的一部分——如果该技术要被社会广泛接受,这是必不可少的。

“AI风险管理框架可以帮助任何行业和任何规模的公司和其他组织启动或增强他们的AI风险管理方法,”Locascio说。“它提供了一种新的方式来整合负责任的实践和可操作的指导,以实施可信赖和负责任的AI。我们希望AIRMF能够帮助推动最佳实践和标准的发展。”

AIRMF分为两部分。第一部分讨论组织如何构建与AI相关的风险,并概述可信赖的AI系统的特征。第二部分是框架的核心,描述了四个具体功能——治理、映射、测量和管理——以帮助组织在实践中应对人工智能系统的风险。这些功能可以应用于特定上下文的用例和AI生命周期的任何阶段。

NIST与私营和公共部门密切合作,开发AIRMF已有18个月。该文件反映了NIST从240多个不同组织收到的关于框架草案版本的大约400套正式评论。NIST今天发布了一些已经承诺使用或推广该框架的组织的声明。

该机构今天还发布了一份自愿性AIRMF剧本,其中提出了导航和使用该框架的方法。

NIST计划与AI社区合作,定期更新框架,并随时欢迎对剧本的补充和改进提出建议。2023年2月底收到的评论将包含在将于2023年春季发布的更新版剧本中。

此外,NIST计划推出一个可信赖和负责任的AI资源中心,以帮助组织将AIRMF1.0付诸实践。该机构鼓励组织制定和分享他们将如何在特定环境中使用它的资料。意见书可发送至AIFramework@nist.gov。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。