英国政府:ISACA数字信任生态系统框架(DTEF)保障 AI 环境
这一认可不仅关乎我们自身组织,它反映了评估AI系统可靠性的合作努力。这关乎为参与AI生态系统的各方提供一套完整的工具,突显了我们共同致力于增强对AI的信任的承诺。通过这项举措,ISACA及其DTEF Beta应用将进一步助力构建一个能够确保人工智能系统安全、透明且符合伦理标准的环境。
本文发布在英国政府官网:https://www.gov.uk/ai-assurance-techniques/isaca-digital-trust-ecosystem-framework-dtef-beta-application-to-assure-ai-environments
ISACA 的“数字信任生态系统框架”(DTEF)为企业提供了一个整体框架,该框架将系统思维(即一个领域的变化会对另一个领域产生影响)应用于整个组织。因此,该框架包括六个领域:文化、新兴技术、人为因素、指导和监管、架构、支持和赋能。
该框架适用于正在制定人工智能战略或实施人工智能工具的中高层管理人员和从业人员,以及正在寻求在人工智能中建立信任和可信度的技术指导的人员。
该框架不是规定性的或狭隘的,它包括详细的实践、活动、成果、控制、关键绩效指标(KPI)和关键风险指标(KRI),从业者可以使用这些来进行实践和评估。值得注意的是,DTEF与ISO 27001、NIST CSF、ITIL等现有框架保持一致,因此已经采用这些框架的企业其实已经在执行 DTEF 中涵盖的许多任务。更重要的是,DTEF并不仅关注AI单一领域,而是旨在适用于众多领域,以保证其在不同学科中的适用性和有效性。
ISACA计划于今年三月发布DTEF,将让更多受众接触到其全面的方法。
该框架鼓励人工智能的应用者在实践过程中考虑风险和缓解措施。例如,它建议组织应考虑其希望实现的目标,可能发生误用的情况,以及组织应如何训练模型以安全可靠地执行任务。它还涉及人机交互和结果验证的要素来提供保障。
下列领域相互依赖,应全面考虑:文化、新兴技术、人为因素、指导和监管、架构、支持和赋能。
适当的透明度和可解释性
DTEF 指导各组织与用户沟通,确保用户能够理解人工智能的引入并了解它所发挥的功能。为避免误解,组织应明确人工智能在流程和服务组合中的作用。
这在性质上与 GDPR 对个人数据的要求类似,即组织必须在如何使用这些数据方面保持透明,并向数据主体做出明确解释。在应用 DTEF 之后,与人工智能相关的实施工作应该针对所有利益相关者采取类似的方法。选择、建立和维护数字关系需要所有相关方的信心和透明度。
相关度最高的领域:文化、人为因素、指导和监管、支持和赋能。
问责制和治理
治理是贯穿整个框架的一个关键主题,特别是因为人们常常认为 AI 的本质可能容易“失控”。该框架鼓励企业对 AI 生命周期中涉及的所有利益相关者进行问责和审查,确保实施适当的控制手段、相关的监控措施和更广泛的GRC(治理、风险管理和合规)功能。
相关度最高的领域:新兴、人为因素、指导和监管。
我们采取这种方法的原因
该框架与人工智能密切相关,可用于为一系列新兴技术系统提供保障。人工智能的应用范围可能不仅局限于组织的技术或安全部门,因此会产生跨部门和业务单元的影响。
正如英国 AI 白皮书中所提出的基于原则的 AI 安全方法,ISACA 的框架反映了 AI 系统的流动性,并鼓励企业从不同的角度审视提案。框架的广度意味着组织可以评估技术、实践和伦理方面的安全问题,管理并审查其 AI 使用的商业和财务案例。DTEF 鼓励组织重新审视在应用过程中产生的指标和输出结果,并使用兼容的成熟度评估框架不断审查其保证。
使用该技术给企业带来的好处
DTEF 使企业能够从战略角度审视潜在的 AI 部署。它鼓励企业考虑使用和部署AI 的目标文化(因此有可能揭示文化障碍)。此外,它有助于解决 AI 参与者的预期边界问题,控制输入变量,并定义支持用户体验的控制措施,最终帮助组织确定运行、控制和管理 AI 系统所需的资源。
利用该框架,企业能够全面考虑使用 AI 的商业和财务案例。然后,企业可以决定是否将 AI 嵌入其服务价值链中。这种明了的战略方法更有可能发现那些仅靠战术或技术团队可能无法识别的风险,并提高实现预期实施效益的可能性。
ISACA的DTEF不仅仅是一个框架,它是助力组织在AI时代构建数字信任的战略合作伙伴。通过提供风险管理、透明度和治理的全方位方法,DTEF成为了负责任且成功的AI实施的基础。
AI采纳的影响深远,对这一技术负责任的治理至关重要。对于参与AI生态系统的个体来说,DTEF将成为塑造一个信任与透明在科技发展中扮演重要角色的未来过程中的一笔宝贵财富。