趋势与观点 | AI战略:解码中国人工智能治理战略

“橘生淮南则为橘,生于淮北则为枳,叶徒相似,其实味不同。” 这句出自《晏子使楚》的话在人工智能颠覆性变革的时代也同样适用。不同国家因地缘政治和所处技术发展环境的差异,在监管或鼓励某一领域人工智能发展方面,不同国家或地区政府采取的监管力度、提供的激励措施以及整体态度存在明显的不同和不一致。各国如何通过法律法规规制出适合本国国情的治理战略是抢占制高点和发展机遇的关键。

根据“2023年斯坦福人工智能指数”对127个国家的立法记录的分析显示,包含 “人工智能” 的法案被通过成为法律的数量,从2016年的仅1个增长到2022年的37个。1由此可见,各国政策制定者对人工智能的兴趣正在上升。

人工智能治理原则上存在两种对立思想立场。一种是以欧盟为代表主张“以风险为路径”(Risk-based approach)的治理原则,“风险预防至上”的原则即指在安全性获得证明之前应该停止新的研发,防范人工智能发展可能带来的风险。另一种是以美国为代表主张“推进值得信赖的人工智能”( Promoting the Use of Trustworthy AI)的治理原则,“技术发展无须审批”的原则即指在危害性获得证明之前还应该继续研发,鼓励和促进技术的发展。2

人工智能治理框架上也存在横纵两种框架。一种是“横向治理框架” (horizontal approach),指的是对人工智能系统采取统一治理的监管模式。一种是“纵向治理框架” (vertical approach),指的是对特定人工智能应用领域进行针对性立法的监管模式。3

然而一个关键性的问题出现了:相较于欧盟和美国,中国人工智能治理战略框架和蓝图的构建将如何?中国对人工智能的态度究竟是统筹兼顾,还是秉持中庸之道?这需要我们深入的思考和探索。

欧盟人工智能战略

  • 以“横向治理框架”为基础4 ,对所有人工智能应用场景建立统一的、一般化的监管框架,提炼人工智能治理共性,对人工智能监管治理的全领域通用性立法。

  • 实施人工智能系统全生命周期统一治理,涵盖技术投放市场前的阶段或投入使用期间乃至整个生命周期,重点对高风险人工智能系统的服务提供者在各个阶段设置清晰、全面的监管要求。

  • 界定责任主体定义并且对多方主体统一治理,明确应承担的一般以及特殊合规义务,涵盖供应链上不同经营者包括供应商、部署者、分销商、进口商、通用及生成式人工智能系统相关基础模型的提供者等主体。

  • “以风险为路径”的分级监管治理思路,基于风险等级对人工智能系统分级并制定差异化的监管措施,侧重于个人健康、安全和基本权利产生的影响或导致的歧视/偏见对人工智能系统造成的风险。将新兴技术纳入现有风险体系,以期确保人工智能治理体系框架的灵活性和完整性。

  • 提出人工智能监管沙盒,支持、促进监管者和创新主体之间的沟通协作,以推动创新主体合规地研发、测试、验证创新性人工智能应用。

美国人工智能治理战略

  • 结合“横向治理框架”和“纵向治理框架”的治理模式,拜登总统出台宏观监管政策与人工智能权利法案蓝图,起到横向监管作用,明确并落实垂直行业领域主管部门在各自职责范围内对人工智能的纵向监管。

  • 以“推进值得信赖的人工智能”为目标,减少开发和部署的不必要障碍,保护美国的技术、经济和国家安全、公民自由、人权、法治、隐私和尊重知识产权等核心价值观。

  • 建立和部署符合民主价值、保护公民权利、公民自由和隐私的自动化系统。

  • “以问责明确的可信人工智能”的监管机制,明确所应当承担的可问责性义务,促进负责任的采用人工智能,强调人工智能系统的公平性、透明度和数据隐私。

  • 在州一级层面已经建立/准备引入人工智能有关的法案。5

中国人工智能治理战略

  • 以“纵向治理框架”为基础,对特定人工智能技术类型、特定领域应用采取精细化治理的监管模式,针对算法推荐服务、深度合成、生成式人工智能服务等不同人工智能应用领域进行针对性立法。设置转致性条款,将监督检查和法律责任归拢到我国网络安全法、数据安全法和个人信息保护等三部基础性法律中。

  • 以算法作为切入点,侧重于确保人工智能不被用于“危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定”,重点规制高风险类算法应用,特别针对具有“舆论属性”或“社会动员能力”的算法。

  • 建立被广泛运用的算法备案系统平台,串联不同行业不同领域人工智能供应链上多方责任主体,勾勒出人工智能系统体系全貌。

  • 以行业为线索,依据特定技术特点和在各行业内技术应用特色进行分级分类的垂直监管。

  • 采取敏捷迭代的监管方式,结合快速发展的人工智能新兴技术及其应用的复杂特征可能产生的问题与风险,加快修订/出台新的规范制度标准,迅速回应算法及人工智能在特定领域引发的社会问题。6

虽然考虑到人工智能发展充斥着不确定性和不稳定性,以及中美欧所处的人工智能技术发展的环境有所不同,但是均已开始尝试法律规制人工智能的手段。尽管立场和战略各有千秋,但是监管是必要的——不但不会为投资者带来沉重的隐形合规成本,减缓/阻碍人工智能开发领域百花齐放的创新发展,相反,正确的治理战略能够营造有利的法治环境。考虑到遵守合规监管的成本以及进入行业的门槛较高,监管会有利于将不良行为者拒之门外,还会吸引更多优质投资者进入该领域,从而促进人工智能产业的健康发展。

中国人工智能治理的核心驱动力

中国人工智能治理的核心驱动力有三大核心目标。7

第一个目标是,发展人工智能技术以符合当今中国社会主义核心价值观。考虑到在飞速发展的互联网信息时代,人工智能广泛应用使得信息快速传播,导致信息内容领域对社会及公共利益可能会带来潜移默化的影响。政府担忧网络信息内容的传播危害国家安全、社会稳定和国家利益,因此将人工智能治理的首要目标聚焦内容治理。

第二个目标是,以监管创新促进人工智能在监管治理领域应用落地,以防范可能/已出现的伦理道德、法律风险、社会稳定和国家经济等问题。中国人工智能治理环境受到更多政治因素的约束,因此由政府监管作为我国人工智能治理的抓手,好处在于一是考虑到法律的滞后性不会对人工智能市场新兴技术的研发和投资增加负担,符合“科技向善”原则,引导人工智能技术向着健康、良性的方向发展。二是帮助服务提供者提出针对性专业监管指导,帮助监管者和立法者及时了解新技术,消除信息壁垒并促进敏捷治理。

第三个目标是,营造有利于人工智能健康发展的法治环境,为我国跻身创新型国家前列和建设经济强国奠定重要基础。中国以技术推动领域应用、产业升级和经济转型,促进经济发展、提升综合国力和国际竞争力,加快建设科技强国,实现高水平科技自立自强,加速集中资源鼓励科技创新发展。

中国人工智能治理的监管趋势

根据《国务院2023年度立法工作计划》明确将《人工智能法草案》列为“预备提请全国人大常委会审议”的法律案,可见顶层通用立法《人工智能法》已经正式进入立法进程。下述为人工智能治理领域的五大监管趋势。

一是加强领域标准化顶层设计。我国在人工智能领域的顶层设计和法律规制方面正在稳步推进并日益完善的进展中。国务院在《关于印发新一代人工智能发展规划的通知》顶层设计明确采取“三步走”的战略目标,第二步战略(2020年-2025年)要求“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。各界持续推进人工智能治理领域的国家标准、行业标准、地方标准、团体标准等标准化工作。国家标准化管理委员会成立国家人工智能标准化总体组,全国信息技术标准化技术委员会设立人工智能分技术委员会,推进制定人工智能领域的国家标准。我国组建国家科技伦理委员会,负责指导和统筹协调推进全国科技伦理治理体系建设工作。8

二是完善治理监管体系框架。基于我国现有人工智能法律法规,在保持各项法规之间监管思路的延续性和逻辑自洽的基础上,结合横纵两个框架的特点,从整体人工智能技术及应用领域进行通用立法,逐步完善人工智能治理监管体系框架,使其具有更高水平和更广泛的适用范围,与我国现有法律法规的既定内容进行更缜密的衔接和整合。

三是秉持包容审慎的监管态度。考虑到我国已经在人工智能关键领域适度放宽责任主体义务,对人工智能市场的发展释放出积极的信号。我国将“完善与创新发展相适应的科学监管方式”并采用与国家宏观经济发展相适应的监管思路,通过监管沙盒、试点、示范应用等方式支持、促进人工智能新事物应用落地,鼓励人工智能特别在商业社会和研究应用领域的创新发展,并且激励外商对中国人工智能领域的投资。此外,我国出台一系列多元化、多层次的人工智能产业发展鼓励和支持政策,聚焦自动驾驶汽车和人工智能医疗等领域。在技术自主创新方面,鼓励和推动人工智能算法、算力、数据资源、框架、软件、芯片及配套软件平台等基础技术的全链路、全生态的技术自主创新。在应用场景创新方面,支持专精特新“小巨人”、独角兽、人工智能/互联网初创企业等积极开展场景创新。

四是推进多元主体参与治理。我国鼓励各行业、各领域不断探索优化人工智能应用场景,支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等多元主体在人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。不同主体在人工智能治理框架下将扮演不同的角色,有助于确定社会权益的分配边界和规则,推进人工智能的良性可持续发展。

五是支持开放共享的合作精神。我国人工智能发展规划重点任务包括鼓励构建开放协同的创新体系,推动公共数据、基础设施等资源的共享开放,促进各类通用软件和算力、共性技术、公共数据资源、仿真训练等技术平台等开放共享。同时,鼓励和支持高等院校、科研机构、企业和其他组织建设人工智能算力基础设施、开源开发平台和开源社区,开展算力资源市场化交易,引导各行业合理有序使用算力资源,提升算力基础设施利用效能。

战略,大多数人把”略”当作了重点,却忽略了“战”的根本目的。如果撇除那些虚实莫辩的理论,以及不世出的预判天赋,最关键的就是——行动力。就像ISACA最新发布的白皮书《人工智能革命的前景与危险:风险管理》9  中提到用户已经在一场需要立即采取行动的滚雪球行动中遥遥领先。然而,中美欧之间的地缘政治和技术发展阶段的差异导致了不同的发展轨迹和走向。《孙子兵法》中提到的“以战养战”和《司马法》的“以战止战”之间的博弈,中美欧究竟谁能更胜一筹,笑到最后?中国将如何顺应新兴技术创新应用与发展方向,构筑一个可信、可控、可问责且能灵活应对的人工智能治理体系,如何推动技术发展与风险管控双重目标的实现,提供一个人工智能治理战略的“中国方案”,让我们拭目以待。

参考法规10

中国人工智能主要的监管及算法治理规则:

  • 国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局于2021年12月31日发布《互联网信息服务算法推荐管理规定》,自2022年3月1日起施行。

  • 国家互联网信息办公室、中华人民共和国工业和信息化部、中华人民共和国公安部于2022年11月25日发布《互联网信息服务深度合成管理规定》,自2023年1月10日起施行。

  • 国家互联网信息办公室、国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局于2023年7月13日发布《生成式人工智能服务管理暂行办法》,自2023年8月15日起施行。

中国其他监管及算法治理规则:

  • 国务院办公厅于2017年7月8日印发并实施《新一代人工智能发展规划》。

  • 国家新一代人工智能治理专业委员会于2019年6月17日印发实施《新一代人工智能治理原则——发展负责任的人工智能》。

  • 国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部于2020年7月27日发布《国家新一代人工智能标准体系建设指南》。

  • 中共中央办公厅于2020年12月7日发布《法治社会建设实施纲要(2020-2025年)》。

  • 全国信息安全标准化技术委员会于2021年1月15日发布《网络安全标准实践指南—人工智能伦理安全风险防范指引》。

  • 国家互联网信息办公室、中央宣传部、教育部、科学技术部、工业和信息化部、公安部、文化和旅游部、国家市场监督管理总局、国家广播电视总局于2021年9月17日发布《关于加强互联网信息服务算法综合治理的指导意见》。

  • 国家新一代人工智能治理专业委员会于2021年9月25日发布《新一代人工智能伦理规范》。

  • 中共中央办公厅、国务院办公厅于2022年3月20日发布《关于加强科技伦理治理的意见》。

  • 科技部、教育部、工业和信息化部、交通运输部、农业农村部、国家卫生健康委于2022年7月29日发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》。

  • 科学技术部于2023年4月4日发布“关于公开征求对《科技伦理审查办法(试行)》意见的公告”。

  • 全国信息安全标准化技术委员会秘书处于2023年8月30日发布《网络安全标准实践指南—生成式人工智能服务内容标识方法》。

欧盟的主要的人工智能监管及算法治理规则:

  • 欧洲议会于2023年6月14日通过《人工智能法案》草案(EU AI Act draft)。

  • 欧洲议会和欧盟委员会于2022年9月28日出台《关于使非合同性民事责任规则适应人工智能的指令的提案》(EU Commission’s AI Liability Directive)。

  • 欧盟委员会于2020年12月15日公布《数字服务法案》The Digital Services Act (DSA) 和《数字市场法案》The Digital Market Act (DMA)的草案。 

美国主要的人工智能监管及算法治理规则:

  • 美国白宫于2023年5月23日公布一系列围绕美国人工智能使用和发展的新举措并更新发布《国家人工智能研发战略计划》(The National Artificial Intelligence R&D Strategic Plan)。

  • 美国国家标准与技术研究院(NIST)与私营和公共部门合作,于2023年1月26日制定《人工智能风险管理框架》(Artificial Intelligence Risk Management Framework)。

  • 美国白宫科技政策办公室(OSTP)于2022年10月4日发布《人工智能权利法案蓝图:让自动化系统为美国人民服务》(The Blueprint for an AI Bill of Rights: Making Automated Systems Work for The American People)。

  • 美国政府问责局于2021 年 7月6日发布《人工智能:联邦机构和其他实体的问责框架》(Artificial Intelligence Accountability Framework)。

  • 美国总统行政办公室于2020 年 12 月3日发布政策文件《促进可信赖的人工智能在联邦政府中的使用》(Executive Order on Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government)。‍

参考文献:

1“2023年斯坦福AI Index公布:一个围绕AI极度兴奋与炒作的时代”,2023年 4月4日

2“强人工智能的治理与法律挑战”, 季卫东,2023年 5月15日

3Carnegie Endowment for International Peace,“Lessons From the World’s Two Experiments in AI Governance”, Matt O’Shaughnessy, Matt Sheehan, 2023年2月14日

4“从传统治理到敏捷治理:生成式人工智能的治理范式革新”, 宁宣凤 , 吴涵 , 吴舸 , 崔月柳 和 刘畅,2023年 8月3日

5安杰世泽律师事务所, “《2023全球生成式人工智能监管研究报告》”, 丁震宇,周博华,2023年 9月28日

6金杜律师事务所, “路未央,花已遍芳——欧盟《人工智能法案》主要监管及激励措施评述”, 张凌寒,于琳,2023年 7月14日

7Carnegie Endowment for International Peace,“China’s AI regulations and How they got made”, Matt Sheehan, 2023年7月

8腾讯研究院, “迈向负责任 AI:中国 AI 治理趋势与展望”, 曹建峰,2023年 9月28日

9ISACA- “The Promise and Peril of the AI Revolution: Managing Risk”, 2023年 9月

10IAPP- “Global AI Legislation Tracker”, 2023年 9月

 

作者介绍

唐雅琪(Andrea Tang)任职于某知名咨询公司,ISACA中国微信公众号特邀通讯员小组组长。作为首席开发人员撰写ISACA®出版的白皮书,包括《ISACA个人信息保护能力成熟度评估最佳实践指南》《洞察中国个人信息保护法》《风险视角下中国企业数字化转型应对指南》,在ISACA Journal上多次发表专业文章,包括《中国跨境数据传输和数据本地化要求》《中国个人金融信息保护》《云端隐私治理和隐私工程》《隐私风险管理》《AI满足GDPR合规》等。她曾担任香港浸会大学商学院隐私保护特邀讲师。所持证书包括FIP, CIPP/E, CIPM, ISO 27001LA。