趋势与观点 | 在AI经济中实现数字信任
企业运营会经历漫长的创新周期。在每个周期中,公司必须考虑当时的技术带来的干扰。
数字化干扰并不是什么新鲜事,那么为什么这次感觉不同呢?
技术变革的步伐一直在加快,使创新周期变短。当前创新浪潮中的最大干扰力量是人工智能(AI)。
人工智能比其他技术更具颠覆性,因为它能够模仿人类的认知功能,如学习、推理和解决问题。人工智能算法可以适应不同的情况,并从不同的数据集中学习。他们可以比人类更有效地分析复杂的数据模式,并根据该分析做出预测或建议。这些功能彻底改变了业务决策。
AI经济
由于这些原因,人工智能被广泛视为生产力和经济增长的引擎。“AI经济”是指人工智能技术开发和使用所产生的经济活动。据《福布斯》报道,麦肯锡(McKinsey,一家全球咨询公司)预计,到2030年全球经济活动将达到约13万亿美元。普华永道(Pricewaterhouse Cooper)的观点更为激进:同年将达到15.7万亿美元。
竞争和FOMO(害怕错过)正在推动许多公司迅速采用人工智能——通常没有进行全面的尽职调查,而人工智能的动态性质使这变得更加困难。
Gartner确定了数字化颠覆的四个要素:
业务:市场、商业模式、开发、定价、交付
技术:设计、创新、使用
行业:流程、标准、方法、客户
社会:文化、习惯、运动
人工智能如何影响四个颠覆性要素?
业务
-
人工智能可以分析大量数据,使组织能够做出更好、更快的数据驱动决策。人工智能驱动的数据分析工具和决策支持系统可以从客户数据、市场趋势和其他来源提供可操作的见解,以微调策略。
-
供应链运营可以通过预测需求、改善库存管理、简化物流和降低成本来进行优化。
-
在风险管理和欺诈检测领域,人工智能分析工具摄取大量数据,以识别可疑活动或异常的模式。算法可以从过去的事件中学习,并适应新出现的威胁。
技术
人工智能正在推动其它技术趋势。
-
人工智能为包括无人机和自动驾驶汽车在内的自主系统创造了动力。
-
自然语言处理(NLP)驱动ChatGPT等模型,这些模型可以生成连贯且上下文相关的文本。NLP支持聊天机器人和虚拟助手等应用程序。
-
由于与边缘计算的融合,人工智能可以在边缘设备上运行。EdgeAI正被用于工业物联网和智能家居解决方案之中。
行业
-
由于人工智能分析工具的出现,企业需要处理的数据量呈指数级增长。
-
可以分析客户行为、购买历史和偏好,以大规模地个性化客户体验。这可以在多维的基础上完成(例如,跨行业)。
-
当B2B和B2C公司使用基于人工智能的工具来改善定价方面时,它们已经能够将EBITDA(利息,税项,折旧和摊销前的收益)提高2至5个百分点。
社会
-
人工智能正在重塑工作场所。一些工作角色正在转变,预计AI经济将带来新的工作机会。然而,某种程度的工作流失是不可避免的。
-
新的人工智能工具使制作令人信服的假视频,音频和文本变得便宜且容易。错误信息和信息传播对个人的健康和社会产生负面影响。
希望利用AI经济的公司必须培养其利益相关者(消费者、员工、投资者、社区成员)的信心。在一项麦肯锡 2022 年进行的研究中,全球72%的受访者表示,在购买之前了解公司的人工智能政策很重要。建立数字信任势在必行。
追求数字信任
数字信任的六要素是:
基于ISACA 2023年数字信任状况报告
与任何数字化转型计划一样,基本治理、风险和合规(GRC)方法具有普遍适用性。你的人工智能业务战略已被明确说明并在整个公司传播。相关数字风险的量化和缓解方法已经确定,并处于管理之中。
组织文化和“高层基调”始终是成功治理的关键。鉴于人工智能的独特性质,它们呈现更为紧迫的特质。组织各级的所有员工都必须承担个人责任,以确保负责任地使用人工智能——它不能局限于一个职能领域(通常属于IT)。即使在IT内部,也可能有一些职能并不将负责任的AI视为“在职位描述中”。
为了加强人工智能战略与公司GRC计划之间的相互关系,必须制定成文的人工智能道德政策。该政策将包括:
-
指导组织内使用人工智能的道德准则。例如:透明度、隐私、人权、社会福利
-
承诺遵守与人工智能相关的法律、法规和行业标准
-
强调人工智能系统中公平的重要性,以及如何减轻基于性别、年龄和社会经济背景等特征对个人或群体的偏见和歧视
-
提高人工智能系统和算法的透明度
-
制定负责任地处理数据的准则,包括用户数据隐私和获得数据处理的知情同意
-
认识到维护人工智能系统和数据安保的重要性
-
需要人力监督和问责制,以及如何实现这一点
-
致力于培训员工并提供资源,以支持他们在维护伦理人工智能标准方面的责任
-
让其他利益相关者参与进来并征求反馈的方法,以解决组织负责任地使用人工智能的问题
-
描述本组织将如何处理人工智能系统和实践的持续评估、监测和改进的框架
虽然人工智能可以带来许多好处,但它也带来了与道德、隐私和社会影响相关的挑战。公司必须致力于负责任地使用人工智能,并优先考虑数字信任来解决这些问题。
编者按: 本文于2023年7月5日首次发表于ISACA官网News and Trends/Newsletter/@ISACA。文章内容仅代表作者本人观点。
作者:Caren Shiozaki, CGEIT, CEDS, CDPSE, LPEC。
翻译:李京(Randy Li),CGEIT,ISACA微信公众号特邀通讯员,关注IT治理、信息安全。
校对:张锋,CISA,CIA、CISP、ISACA微信公众号特邀通讯员。