ISACA中国发布《可信人工智能治理调研报告》:揭示人工智能治理现状与未来路径

ISACA中国今天正式发布《可信人工智能治理调研报告》,该报告围绕可信人工智能治理展开,深入探讨了全球人工智能治理的现状、行业实践及未来发展趋势。报告指出,尽管人工智能技术在多个行业中得到广泛应用,但企业在技术应用、数据安全、伦理治理等方面仍面临诸多挑战,亟需加强治理框架的建设和优化。
可信AI.png

人工智能应用现状:技术规划为主,投入两极分化

报告显示,当前人工智能应用主要集中在技术服务/咨询业和金融/银行业,应用场景多集中于客户服务和经营管理。然而,大多数企业仍处于技术规划阶段,成熟度较低。在技术使用模式上,多数企业自研能力不足,主要依赖外部产品。人工智能投入方面,企业呈现两极分化:45%的企业投入不足100万元人民币,而15%的企业投入超过2000万元人民币。尽管部分企业投入巨大,但多数企业认为业务改进效果“一般”,投入产出比有待优化。

主要挑战:技术障碍、数据安全与算法合规性

在人工智能应用过程中,企业面临的主要挑战包括技术障碍(如算法复杂、集成性低)、数据安全(如隐私保护、数据可靠性)和算法合规性问题。报告指出,27%的企业最关注数据安全和隐私保护,31%的企业强调数据可用性与隐私平衡,显示出数据管理仍是人工智能应用的核心难题。此外,16%的企业面临算法偏见或歧视风险,尤其是在金融行业,投诉率最高,表明算法公平性治理亟待加强。

伦理治理:关注度不足,未来重要性凸显

尽管伦理性问题目前关注度较低,但其重要性将日益凸显。报告显示,仅24.2%的企业在选择人工智能模型时考虑伦理问题,反映出伦理治理在技术开发中的优先级较低。未来,企业需更加重视公平性、透明性和可解释性,以确保技术的可持续发展。

行业实践:互联网、医疗、金融等行业各具特色

在行业实践中,互联网、医疗健康、智能制造和金融行业均结合自身特点,针对数据隐私、算法安全等问题采取了相应的风险应对策略。例如,医疗行业通过审批流程使数据泄露率降低30%,显示出行业治理的显著效果。电信/通信行业对人工智能风险评估的重视度最高(50%),表明不同行业在治理策略上存在显著差异。

未来展望:加强治理框架建设,推动可信人工智能发展

报告指出,未来企业应明确治理责任,制定统一政策,建立建设规范和质量衡量标准,开展专业团队职责定位和能力建设,平衡技术与伦理,建立闭环评估机制并加强协作培训。行业需建立标准化框架,加强数据管理、伦理审核、安全防护及评估认证机制,以推动可信人工智能发展,让其更好地服务社会。

安永中国网络安全与隐私保护咨询服务主管合伙人、ISACA中国行业发展委员会主席高轶峰先生牵头了本次调研报告项目开发。“这份《可信人工智能治理调研报告》凝聚了我们对AI治理现状的深入分析与未来发展的思考”,他表示:“希望通过这份报告,帮助企业更好地应对技术、数据安全和伦理挑战,推动可信人工智能的落地与实践。


ISACA中国发布的《可信人工智能治理调研报告》为企业在人工智能治理提供了重要的参考和指导。ISACA中国区总经理陈红梅女士表示:“可信人工智能的落地需要技术能力与治理框架的双向驱动。ISACA发布的数字信任生态系统框架DTEF助力企业在人工智能与风险控制之间找到平衡。ISACA将持续发挥专业优势,通过框架、培训与资源整合,支持企业实现风险可控、价值可期的AI应用。”

谨向以下人员表示诚挚的谢意!(排名不分先后)

开发小组成员:
陈蓓华,某工业科技公司网络与信息安全官
滕怡飞,李锦记IT审计经理
刘歆轶,非夕机器人信息安全总监
曹昉赫,某互联网公司隐私与数据合规负责人
万雪莲,太平金融科技服务 (上海)有限公司信息安全专家
陈圣,ISACA志愿者

专家评审:
蔡俊磊,万豪国际集团亚太区信息安全副总裁
陈伟,北京谷安天下科技有限公司董事长
姜敏,普华永道风险控制合伙人
闫振平,深圳前海微众银行审计部总经理
支云龙,丰田金融服务(中国)有限公司审计经理

本项目得到ISACA中国行业发展委员会IDC的指导:

高轶峰,IDC主席/安永(中国)企业咨询网络安全与隐私保护咨询服务主管合伙人
朱易,IDC委员/立信深圳所合伙人
李瑞荣,IDC委员、泰康保险集团信息安全部总经理
刘桃松,IDC委员
汪自强,IDC委员
秦峰,IDC委员

本站用户请登陆后下载报告全文