ISACA Blog|2026年网络安全从业者需要回答的五个关键问题

编者按: 进入2026年,《ISACA Now》博客将聚焦那些将在新的一年塑造数字信任格局的核心议题。在本周系列文章的今天这一篇中,我们梳理出未来几个月内所有网络安全从业者都应重点关注的问题。更多安全资源,请参见ISACA官网。

展望2026年,关于网络安全的讨论正变得愈发直接、也更具分量。董事会、监管机构和高管团队不再满足于“我们有安全投入”这类笼统说法——他们更关心这些投入是否经得起推敲、是否真正有效,以及是否与实际业务风险对齐。

人工智能(AI)的快速落地、对第三方依赖的不断加深,以及身份系统持续被滥用,正在重塑责任的边界。如今,评判网络安全领导者的核心标准,已不再是部署了多少控制措施,而是能否清晰阐明自己的决策逻辑、权衡取舍与最终成效。

在此背景下,专业可信度将取决于你能否精准回答少数几个关键问题。以下五个问题,正日益成为决定信任度、影响力和职业地位的关键:

关键问题 1:AI当前在哪些环节做决策?如果AI判错了,谁来负责?

AI早已不是实验性技术。在许多组织中,它已在影响重大结果——从访问权限审批、欺诈识别,到客户服务乃至员工筛选。这些决策往往牵涉法律、财务和伦理后果,但责任归属却模糊不清。

AI决策的责任常分散在技术、数据、法务和业务等多个团队之间,且组织内部往往连“AI到底在哪里做决策”都缺乏清晰视图。这种模糊性正变得越来越难以向董事会和监管方交代。

现实正在发生转变:人们不再把AI视为单纯的技术能力,而是将其看作一套决策系统。这意味着必须建立相应的治理机制、透明度要求和人工干预路径。具体而言,这包括:建立AI资产清单、明确与业务责任挂钩的所有权归属,以及设定可操作的人工覆盖机制。

残酷的事实是:很多组织以为有了AI政策就等于有了治理。但真正能在实践中展示“AI决策如何被监督、质疑和纠正”的,寥寥无几。

网络安全从业者不必拥有每一个AI系统,但必须帮助组织在日益复杂的决策环境中,建立起可见性、风险评估和保障机制。

关键问题 2:我们能否用业务语言,而非技术术语,说清自身的网络风险状况?

多年来,董事会一直要求安全负责人用支持决策的方式沟通风险。很多人以为自己做到了——但实际上,高管们看到的往往是“做了什么”,而非“暴露在什么风险之下”。

仪表盘、成熟度评分和技术指标或许能体现工作量,却很少帮高管理解真正重要的东西。随着经济压力加剧、监管趋严、事件成本攀升,这种脱节已难以为继。领导者需要做出权衡,而他们期待安全团队提供清晰、可操作的依据。

许多组织的风险偏好声明过于抽象,难以指导实际决策。当所有事项都被描述为“零容忍”或“不可接受”时,团队反而失去了优先级判断和取舍的依据。

因此,行业正转向基于场景的风险评估,并尝试用财务语言量化风险。精确度并非首要,可辩护性才是关键。董事会希望知道:哪些场景最值得警惕?当前暴露程度如何?拟议的投资又能在多大程度上切实降低风险?

一个常见误区是把“信息全面”等同于“洞察深刻”。事无巨细地汇报,反而让决策者无所适从。

无法弥合这一鸿沟的安全人员,将难以影响优先级;而能有效沟通者,则将越来越多地参与投资决策、风险偏好设定乃至企业战略制定。领先企业已开始通过真实场景测试风险偏好,迫使组织明确:哪些风险真的可以承受,哪些绝不能妥协。那些系统性采用网络风险量化方法的组织,已能更顺畅地将风险转化为高管可行动的语言。

关键问题 3:哪些第三方或供应链依赖可能对我们的业务造成实质性中断?我们对这一判断有多大把握?

第三方风险已不再是边缘问题。由于供应商高度集中、云服务依赖、SaaS平台普及以及离岸服务模式盛行,少数几家供应商就可能引发不成比例的运营或声誉危机。

更广义的风险甚至超出合同约定的第三方范畴:软件供应链、开源组件、托管平台和自动更新机制,都已成为实质性的风险敞口,却常常缺乏明确的所有权和可见性。

令人不安的现实是:许多组织直到某个供应商或依赖项真正出问题,才意识到它有多关键。年度问卷和通用评级或许能覆盖范围,却提供不了深度洞见。这种做法正越来越不符合董事会和监管机构的期望。

在不少企业,软件供应链风险实际上是被默认接受的——仅仅因为该依赖广泛存在或替换成本太高。

如今的问题不再是“这个供应商有没有评估过”,而是“管理层是否清楚一旦该依赖失效会带来什么影响,以及我们是否有能力应对”。这要求我们减少泛泛而谈的评估,转而聚焦于业务影响和现实场景,并辅以持续监控,而非一年一度的形式审查。

许多供应链风险管理项目追求“覆盖广度”,却忽视“后果严重性”,恰恰在最不该放松的地方制造了虚假的安全感。

安全从业者必须深入影响采购、合同谈判、系统架构乃至退出策略——而不仅是停留在合规检查层面。清晰阐述供应链风险敞口,正成为一项核心能力。

关键问题 4:我们是在保护系统,还是在守护业务真正珍视的东西?

数字化转型已模糊了传统系统边界。如今的业务服务横跨云平台、API、第三方和遗留系统。然而,许多安全计划仍执着于保护单个系统,而非业务真正依赖的服务与流程。

这种脱节在董事会和高管眼中日益明显。他们关心的是服务连续性、客户信任和合规义务,而不是某个系统是否满足某项控制标准。若安全投入无法对齐这些目标,其价值将受到质疑。

因此,企业安全架构、业务流程映射和恢复能力正重回讨论中心。预防固然重要,但韧性、遏制能力和可恢复性正成为衡量成败的新标尺。

在不少组织中,安全架构已悄然脱离业务现实,导致团队高度合规,却在真实冲击面前准备不足。

那些真正理解组织如何创造价值、并能据此调整防护策略的安全人员,将更能支撑战略目标,而非仅仅被动应对威胁。

关键问题 5: 我们是否真正清楚:谁(或什么)能在我们的环境中行动?依据什么权限?

身份已成为最受攻击、却最被低估的攻击面。大多数成功入侵不再仅靠恶意软件,而是利用凭证、令牌、会话和过度授权的账户。尽管在身份管理平台投入巨大,许多组织仍无法清晰掌握“谁(或什么)能在环境中执行操作”。

多数身份管理体系是逐步拼凑而成的——一个工具接一个工具,一个例外接一个例外。很少有体系是为“大规模自主代理”时代设计的。

而今,智能体AI(Agentic AI) 的兴起让这一挑战雪上加霜。AI代理将自主认证、访问数据、触发工作流,甚至跨系统修改配置,全程可能无需人类持续介入。这催生了一类全新的“非人类身份”,其权限、行为和生命周期都亟需治理。

到2026年,组织将被要求证明:

  • 能全面看清人类与非人类身份;

  • 具备严格的生命周期管控;

  • 明确特权访问的所有权;

  • 能基于行为检测异常身份活动。

同样重要的是,必须明确规定AI代理的行动边界,以及何时必须升级至人工干预。

许多组织误以为只要IAM项目有预算,身份风险就已受控。实际上,权限的授予往往仍模糊不清、约束松散。

对安全从业者而言,身份管理已不再是平台选型问题,而是支撑AI治理、供应链信任和运营韧性的核心风险学科。

拥抱责任:网络安全的新使命

2026年,网络安全从业者将面对的问题,本质上并非技术问题,而是关于清晰度、责任归属与专业判断的问题。

这要求整个行业重新重视共同标准、职业道德和系统性专业成长。像ISACA这样的组织,正通过全球认可的框架、指南和教育,帮助安全、风险与审计专业人士在日益复杂的环境中坚定前行。

我们的职业正在从“技术卓越”迈向“决策问责”。未来的专业价值,将不再由我们部署了什么决定,而取决于我们是否真正理解自己的选择、能否清晰解释,并敢于为之负责。