新加坡人工智能治理的实践探索及启示

新闻资讯
xxxxxxxxx

随着人工智能技术的不断深入应用,人工智能治理已受到全球高度关注。2022年5月,新加坡推出全球首个人工智能治理测试框架和工具包,以通过标准化测试来验证人工智能系统,这一举措使得新加坡在人工智能治理实践领域又一次走在全球前列。还值得一提的是,新加坡是我国申请加入的《数字经济伙伴关系协定》(DEPA)的三大发起国之一,而探索负责任使用人工智能监管框架是协定涉及的一项重要内容。因此,新加坡在人工智能治理领域的理念和实践值得我们关注和借鉴。

新加坡认为,建立可信生态是发展数字经济的关键。自2018年以来,一直致力于有关人工智能伦理和治理的持续探索,先后发布人工智能治理框架、组织实施和自评估指南以及人工智能治理案例汇编等,近期又推出了名为“A.I.Verify”的全球首个人工智能治理测试框架和工具包,系统、深入地指导各类组织机构开展人工智能安全风险治理,以负责任的方式开发部署人工智能。
新加坡在人工智能治理实践中采用了“原则+指南+工具”的一整套方案,其大致进展为:
2019年1月,在世界经济论坛会议上发布《人工智能治理模型框架》(第一版),为私营部门组织机构提供详细且易于实施的指导,落实人工智能关键伦理和治理问题,其目的是促进公众对技术的理解和信任。《人工智能治理框架》由新加坡信息通信媒体局和个人数据保护委员会联合推出。
2020年1月,发布改进后的《人工智能治理模型框架》(第二版),相比第一版,实现更好的相关性和可用性,推进治理原则不断落地。同时,作为治理框架的配套指南,发布《组织实施和自我评估指南》,帮助各类组织机构评估其人工智能治理实践与模型框架的一致性,还提供了有用的行业实践示例。该评估指南是与世界经济论坛第四次工业革命中心合作的成果,有60多个机构参与了相关工作。同期还发布了《人工智能治理案例汇编》,汇集不同行业、规模的组织如何根据治理框架来有效地实施负责任的人工智能治理。
2022年5月,推出名为“A.I.Verify”的人工智能治理测试框架和工具包(最低产品版MVP)。新加坡认为这是世界上首个以客观和可验证方式展示负责任人工智能的测试框架和工具包,将负责任和值得信赖的人工智能概念落地,可帮助企业提高其人工智能产品和服务透明度。人工智能开发者和拥有者可以通过一套定量和定性相结合的标准化评测方式,来验证其人工智能系统是否符合声称的性能。目前,该测试框架和工具包还处于试点阶段,包括亚马逊、谷歌、微软、新加坡电信、渣打银行在内的来自不同领域、不同规模的10家企业已经开展了试用并提供了反馈,相关意见将用于更新版本。新加坡还计划将其提升为国际范围内使用的测试框架和工具包,并为国际标准的制定作出贡献。

新加坡人工智能治理框架是由信息通信媒体局和个人数据保护委联合发布的一个通用性框架,先后已发布两个版本,各行业和组织机构可结合自身情况作出灵活调整,其目的是应对人工智能开发应用带来的风险问题,从而更好地建立用户的信任。治理框架的核心内容和思想主要体现为:先从顶层确立两大原则,然后从四个关键维度提出规范性要求和评估清单,指导组织机构自愿开展自我评估和改进,更好地促进负责任人工智能的实施。
总体来说,新加坡在人工智能治理实践中采用了“原则+指南+工具”的方式,最大特点就是系统、持续、务实地推进治理原则的落实,引导各类组织机构开展负责任人工智能治理。其以下三大具体做法值得借鉴学习。
列出详细问题清单,指导各方自我评估和改进
新加坡在出台《人工智能治理模型框架》后,又发布《组织实施和自我评估指南》。该指南以模型框架中描述的四个关键领域为基础,详细列出了包含5个维度共计60多个问题的评估清单,具有很强的指导性和可操作性。5个维度分别是:部署人工智能的目标、内部治理结构和措施、确定人类参与人工智能增强决策的程度、开发部署运营管理、利益相关者互动和沟通策略。新加坡希望通过这套指南帮助组织机构以系统的方式评估其人工智能治理过程,识别潜在差距并加以改进,以确保企业的AI方案符合人工智能治理模型框架。
发布实践优秀案例,开展示范引导和对标学习
为了帮助各类机构更好地理解人工智能治理框架,新加坡在出台的治理框架文件中,用专栏等方式列出了一些企业在某些方面的实践做法。例如在内部治理结构方面,列举了几家公司较为详细的架构设置和职责分工。另外,还发布了两卷人工智能治理案例汇编,较为详细地展示了不同机构如何实施与治理框架相一致的人工智能治理实践,供其他机构参考借鉴,以达到示范引领的作用。
推出测试框架和工具,促进“过程检查+技术测试”落地
新加坡推出的“A.I.Verify”人工智能治理测试框架和工具包,从评测角度提出了一个具有很强落地指导性的人工智能治理解决方案。“A.I.Verify”通过“过程检查+技术测试”的标准化方式,从透明度、可解释性、可再现性、安全性、鲁棒性、公平性、问责制、人类监督等方面验证人工智能系统是否符合声称的性能。该工具包将为开发者、管理者和商业伙伴生成报告,在一定程度上为人工智能企业提供客观和可验证方式的展示,证明其是否履行了治理责任,从而提高企业和其利益相关者的透明度,有助于建立用户信任。
从新加坡出台的一系列人工智能治理政策指导文件和工具可以看出,新加坡政府对推动人工智能可信向善发展的行动力。新加坡认为,在全球人工智能伦理和治理中,其治理方法在促进技术创新同时,又达到保护消费者利益的目的,可以作为全球重要参考。新加坡出台非强制性的治理框架、发布有实操性的评估指南,以及建立治理评测框架和工具包等做法确实可供借鉴学习。结合当前我国人工智能治理实际,提出以下两点建议。
明确各方主体责任,从“管理+技术”两方面构建安全可信的人工智能生态
新加坡在人工智能治理实践中充分运用“管理+技术”模式,将人工智能治理原则加以落地。在管理方面,新加坡人工智能治理框架的一个重点是要求建立内部治理架构和责任体系,帮助组织机构将人工智能伦理治理原则纳入到熟悉的或已存在的治理架构中,从过程上保证履行治理框架提出的各项要求,从而更好地建立用户信任。我国可结合当前科技伦理治理和网络安全工作责任制建设等,设计建立人工智能安全风险治理责任制度。无论是融合传统的风险管理体系,还是建立新的风险管理体系,在建立人工智能安全风险治理责任制方面,需要从两个层面明确责任,一方面明确人工智能系统开发设计单位、部署使用单位、数据提供方等主体的安全责任;另一方面明确各类组织机构内部相关人员的角色和责任,把相关治理原则落实到实际工作中。
加大先行先试力度,为形成兼顾创新与安全的人工智能治理体系奠定基础
业内专家认为,当前人工智能治理面临的最大挑战是没有一套比较成熟的体系来规制其潜在的风险。从国际趋势来看,一些国家和地区正在抓紧人工智能治理的研究和探索,例如,欧盟推出人工智能立法草案;美国预计于2023年初推出人工智能风险管理框架。新加坡不仅将人工智能治理从原则层面迈向实操层面,而且开始探索为人工智能治理提供工具化、平台化服务。我国在战略上也高度重视这一挑战,如在规范互联网信息服务算法推荐、深度合成管理,以及网联汽车数据管理、金融应用等专门领域已经开展了积极探索,但从人工智能加快与各领域融合应用的需求来看,政策指导的覆盖面和落地性还不够,亟待加强体系化设计和考虑。建议可积极鼓励我国人工智能试验区或先导区,以及相关行业领域,结合自身条件,大胆推进这方面的先行先试,探索在促进技术创新和规制潜在风险之间找到平衡点,推出类似人工智能融合应用安全风险管理指南的政策性文件,在试点基础上总结经验,从而为建立全国性规制体系提供实践参考。