万字长文详解:人工智能系统可解释性要求的法律规制
来源:腾讯研究院
作者:曹建峰 腾讯研究院高级研究员
摘要:当前,因“算法黑箱”而导致的人工智能系统的不透明与不可解释问题是人工智能信任与问责的一大困扰。在这样的背景下,国内外立法开始从权利、义务等不同角度对人工智能的可解释性进行规制,提出了算法解释权、算法说明义务等规则。但可解释性要求的有效落实仍面临着技术可行性、经济成本、法律规则和价值冲突、社会需求差异等多方面挑战。面向未来,人工智能可解释性要求的实现,需要法律、技术、市场、规范等多种力量共同发挥作用,侧重通过“算法说明书”、算法相关信息披露等方式增进算法透明、促进用户理解。
当前,人工智能应用的持续创新和广泛普及,主要得益于以深度学习为代表的机器学习技术的发展进步。机器学习技术使得人工智能系统可以自主进行感知、学习、决策和行动,但这些所谓的“学习算法”(Learning Algorithm)却为“黑箱问题”(Black Box Problem)所困扰。 虽然人们可以知晓一个算法模型的输入和输出,但在很多情况下却难以理解其运作过程。人工智能开发者设计了算法模型,但通常却不决定某个参数的权重以及某个结果是如何得出的。这意味着,即便开发者可能也难以理解他们所开发的人工智能系统。 对人工智能系统如何运作缺乏理解,是人工智能带来诸如安全、歧视、责任等新的法律、伦理问题的一个主要原因。作为“黑箱”的深度学习模型易于遭受对抗攻击,容易产生种族、性别、年龄等方面歧视,可能导致追责困难。在医疗、借贷、刑事司法等攸关个人重大权益的应用场景中,人工智能的不透明性尤其是有问题的。 因此,考虑到人工智能的不透明性和不可解释性,对人工智能进行适当的监管和治理显得尤为重要。 在实践中,人工智能的规模化应用推广,在很大程度上依赖于用户能否充分理解、合理信任并且有效管理人工智能这一新型伙伴。为此,确保人工智能产品、服务和系统具有透明性(Transparency)与可解释性(Explainability)是至关重要的。 实际上,各界已经将透明性和可解释性确立为人工智能研发应用的一个基本的指导性原则。 在伦理层面,欧盟发布的《可信人工智能的伦理指南》(Ethics Guidelines for Trustworthy AI)将可解释性作为可信人工智能的四个伦理原则这一,将透明性作为可信人工智能的七个关键要求之一。联合国发布的首个全球性人工智能伦理协议《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence),提出了人工智能系统生命周期的所有行为者都应当遵循的十个原则,其中就包括“透明度和可解释性”。中国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》针对人工智能提出了包括透明性和可解释性在内的多项伦理要求;中国国家互联网信息办公室等9个部门联合发布的《关于加强互联网信息服务算法综合治理的指导意见》将“透明可释”作为算法应用的基本原则,呼吁企业促进算法公开透明,做好算法结果解释。 在技术层面,自从2015年美国国防高级研究计划局(DARPA)提出可解释人工智能(Explainable AI,简称为XAI)研究项目以来,XAI已日渐成为人工智能领域的重要研究方向,研究人员和主流科技公司纷纷探索技术上的和管理上的解决方案,IEEE、ISO等国际标准制定组织则积极推动制定与XAI相关的技术标准。 在立法方面,无论是在中国,还是在美国、欧盟等其他国家和地区,人工智能都已进入了立法者和监管者的视野。个人信息、人工智能等方面的国内外立法尝试从权利、义务、责任等不同角度对人工智能的透明性和可解释性进行规制。 虽然可解释性要求已经成为人工智能监管的一个重要维度,但可解释性要求的有效落实依然面临着诸多困难和挑战。例如,可解释性要求的落实至少需要回答五个关键问题:向谁解释?为什么解释?何时解释?如何解释?解释的方法是什么?除了这些问题,人工智能系统的可解释性要求也面临着与个人隐私、模型安全、预测准确性、知识产权等诸多其他价值追求相平衡的问题。 本文旨在厘清这些问题,并从技术和产业发展的状况出发,为人工智能可解释性要求的法律规制之完善优化提出具体可行的思路。 人工智能 可解释性要求及其立法现状 (一)人工智能系统的可解释性及其价值 一般而言,解释(Explanation)是指“说明某事的含义、原因、理由等”。根据这一定义,人工智能系统的可解释性意味着通过提供关于决策和事件如何产生的信息,来促进利益相关者和AI系统之间的交互,但开发者、领域专家、终端用户、监管者等不同的利益相关者对于AI模型具有不同的解释需求。 联合国的《人工智能伦理问题建议书》将人工智能的可解释性界定为:“让人工智能系统的结果可以理解,并提供阐释说明”,也包括“各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果”。美国国家标准与技术研究院(NIST)在其研究报告《可解释人工智能的四个原则》(Four Principles of Explainable Artificial Intelligence)中提出了可解释的AI系统的四个基本特征: (1)解释(Explanation),即AI系统对其决策过程和结果提供依据或理由; (2)有效性(Meaningful),即AI系统提供的解释对于目标受众而言是清晰易懂的; (3)解释准确性(Explanation Accuracy),即解释可以准确反映AI系统产生特定输出的原因,或者准确反映AI系统的运作过程; (4)知识局限性(Knowledge Limits),即AI系统只有在其设计条件下对其输出具有充分的信心时才可运行。 因此,AI系统的可解释性不仅关注AI系统的特定输出结果,而且关注AI系统的内在原理和运作过程;例如,负责信贷审批的AI系统需要向用户解释为什么拒绝发放贷款,推荐系统需要让用户理解基于用户的搜索历史、浏览记录、交易习惯等个人数据进行个性化推荐的基本原理。 在解释的分类上,业界一般区分事前解释(Ante-Hoc Explanation)和事后解释(Post-Hoc Explanation)。 事前解释一般指自解释模型(Self-Interpretable Model),是可以被人类直接查看和理解的算法模型,即模型自身就是解释。比较常见的自解释模型包括决策树、回归模型(包括逻辑回归)等。 事后解释通常是由其他软件工具或者人工方式生成的解释,旨在描述、说明特定算法模型如何运作或特定输出结果如何得出。对于具有“黑箱”属性的深度学习算法,通常只能诉诸事后解释。事后解释分为局部解释(Local Explanation)和全局解释(Global Explanation):局部解释聚焦于理解算法模型的特定输出结果,全局解释侧重于对算法模型整体的理解。 此外,英国信息专员办公室(ICO)在其发布的指南《解释人工智能的决策》(Explaining Decisions Made with AI)中区分基于过程的解释(Process-Based Explanation)和基于结果的解释(Outcome-Based Explanation),并从解释所涉内容的角度提出了解释的六个主要类型: (1)原理解释,即说明AI系统作出决策的理由; (2)责任解释,即AI系统开发、管理和运行过程中的参与人员,以及对决策进行人工审查的联系人员; (3)数据解释,即AI系统的决策使用了哪些数据以及是如何使用的; (4)公平性解释,即为确保决策的公平性和非歧视性而采取的步骤和措施; (5)安全和性能解释,即为确保AI系统的决策和行为的准确性、可靠性、安全性和稳健性而采取的步骤和措施; (6)影响解释,即为监测、评估AI系统的使用及其决策对个人和社会的影响而采取的步骤和措施。英国ICO的分类对于理解可解释性要求的具体解释内容具有较大参考意义。 人工智能的可解释性与透明度、责任、问责等概念密切相关。透明度意味着保障用户等相关对象对AI系统的知情,包括将在产品或服务中使用AI系统的事实告知用户,也包括给用户提供关于AI系统的适当的信息,在必要时甚至包括源代码、数据集等。因此,人工智能的可解释性与透明度息息相关;具体而言,增进透明度是人工智能的可解释性的一个主要目标,而可解释性则是实现人工智能的透明度的一个有效方式。此外,在很多时候,AI系统的可解释性要求主要是为了确保能够对AI系统进行问责并让相关行动者承担责任。因此可以说,AI系统的可解释性要求本身不是最终目的,而是实现诸如责任、问责等其他目的的手段和前提条件。 增进AI系统的可解释性具有多方面的价值: 第一,增强用户对AI系统的信任。用户信任是AI系统的可用性的一个重要条件。在现实中,用户对AI系统的不信任,往往源于用户不理解AI系统的内在决策过程,不知道AI系统如何作出决定。尤其是在诸如金融、医疗、司法等高风险的应用场景中,如果AI模型缺乏可解释性,就可能不被用户信任。DARPA的研究发现,相比于只提供决策结果的AI系统,用户更倾向于既提供决策结果又提供附带解释的AI系统。 第二,防范算法歧视,确保AI系统的公平性。增进AI系统的可解释性,有助于人们对AI系统进行审计或者审查,进而可以识别、减少、消除算法歧视。 第三,支持内部治理,帮助打造可信的、负责任的AI系统。开发者只有充分理解AI系统,才能及时发现、分析、修正缺陷,进而才有可能打造出更加可靠的AI系统。 第四,从人机协作的角度看,用户只有理解AI系统,才能更好地与之进行交互,在实现AI系统的预期目的的同时,帮助AI系统更好地进行改进和完善。 第五,解决人工智能造成损害的法律责任难题,对人工智能进行解释可以帮助探查因果,进而有助于实现法律责任的目的,包括实现法律责任的预防目的。正因如此,可解释性要求已经成为人工智能的法律规制的一个核心考量。 (二)人工智能可解释性要求的立法进展 全球来看,欧盟《一般数据保护条例》(GDPR)较早对人工智能算法的可解释性进行法律规制,主要体现在GDPR第22条。GDPR第22条重点规制产生法律效果或类似的重大效果(如影响信贷、就业机会、健康服务、教育机会等)的完全自动化决策(Solely Automated Decision-Making,即完全通过技术方式作出的决策,不存在人类参与)。 具体而言,对于完全自动化决策,一方面,数据主体的知情权和访问权至少涉及以下三个方面:(1)告知存在该项处理的事实;(2)提供关于内在逻辑的有意义的信息;(3)解释该项处理的重要性和预想的后果。 另一方面,数据主体有权请求人为干预,表达其观点并提出质疑;根据GDPR前言部分(Recitals)的内容,数据主体的权利甚至包括获得解释的权利和挑战该项决策的权利,即所谓的“算法解释权”。 中国对人工智能透明度和可解释性的法律规制,在很大程度上借鉴了欧盟GDPR的立法思路。 首先,根据中国《个人信息保护法》第7条规定的公平、透明原则,以及第44条赋予个人的知情权、决定权,AI系统在处理个人信息时需要对用户保持必要的透明度。 其次,该法第24条对基于个人信息的算法自动化决策作出了专门规定:一是,要求个人信息处理者保证算法自动化决策的透明度和结果公平、公正,此为透明度要求;二是,对于旨在进行个性化信息推荐的算法自动化决策应用,个人可以选择退出(Opt-Out),此为退出权;三是,对于对个人权益有重大影响的算法自动化决策,个人享有要求说明的权利和拒绝个人信息处理者仅通过自动化决策方式作出决定的权利,此为算法说明权。这些规定尤其是第24条的规定被认为是构成了中国版的算法解释权。 中国国家互联网信息办公室出台的《互联网信息服务算法推荐管理规定》则提出了算法解释义务,核心是对算法相关信息的公示义务和对算法决策结果的说明义务。具体而言: 一是,提供算法推荐服务需要遵循公平公正、公开透明等原则。 二是,算法推荐服务提供者需要制定并公开算法推荐服务相关规则。 三是,该法规鼓励算法推荐服务提供者优化检索、排序、选择、推送、展示等规则的透明度和可解释性。 四是,算法推荐服务提供者需要告知用户其提供算法推荐服务的情况,并公示算法推荐服务的基本原理、目的意图和主要运行机制等。 五是,算法推荐服务提供者需要向用户提供便捷的关闭算法推荐服务的选项。 六是,对于对用户权益造成重大影响的算法应用,算法推荐服务提供者需要提供说明并承担相应责任。 总结来看,中国对人工智能可解释性的法律规制主要有两个路径: 其一,一般性地给AI系统的开发者施加公开算法相关信息、优化算法可解释性等义务,从而促进用户对AI系统整体的理解; 其二,在个案意义上,对于给个人权益造成重大影响的算法决策结果,通过配置算法解释或说明的权利与义务来保障用户权益,并解决用户与开发者之间信息和权力不对称的问题。 但在实践中,这两种路径依然面临着一些问题,例如算法解释相关的权利与义务应适用于哪些AI系统?为了全局可解释的目的,AI系统的哪些信息需要对外提供以及应当以什么方式提供?如何确保解释的准确性和有效性?等等。 人工智能 可解释性规制面临的问题分析 首先,虽然立法可以对算法解释提出一般性要求,但可解释性要求的实现却并非易事,不仅面临因“算法黑箱”而带来的技术挑战,而且需要考虑诸多因素,下文将一一进行分析。 其一,对象。技术开发人员、终端用户、监管者等不同的利益相关者对算法解释的需求是有差异的。而且普通用户感兴趣或能理解的因素及其复杂程度,可能与专业的审查人员或法律调查人员需要的恰当信息存在很大不同。例如,普通用户可能想知道为什么AI系统作出了特定的决策,以便于能够有理由质疑AI系统的决策,如果用户认为决策是不公平的或错误的。专业人员则需要更全面的、更多技术细节的解释,以便于评估AI系统是否满足可靠、准确等方面的一般性要求或者监管要求。这意味着普通用户需要的往往是明白易懂的、非技术语言的解释,而非充斥着技术细节的详尽解释。不向普通用户提供详尽的解释可能有悖常理,但在实践中却是有益的。为了解释AI系统及其输出结果而给普通用户提供底层的数学公式,即便这可能是技术上最准确的解释,但普通用户却不大可能理解。普通用户也许只是希望确保AI系统的输入与输出是公平合理的,而非希望对背后的计算具有深层次的理解。因此,明白不同利益相关者的真正需求才是至关重要的,而不是采取一刀切的路径。 其二,应用场景。应用场景的不同也可能影响提供解释的时间与方式。并非所有的应用场景都需要对AI算法模型及其决策结果做出事无巨细的解释,这取决于AI算法决策是否对受众的合法权益产生实质性的影响。例如,对于在餐厅分配位置或自动整理手机相册的算法,与审批贷款或辅助判刑的算法,就需要区别对待。如果一刀切地要求提供详尽的解释,缺乏合理性和必要性。所以欧盟的人工智能法草案按照应用场景的不同将AI系统分为高风险、有限风险和最小风险,并只针对高风险AI系统提出了算法解释义务。 其三,时间与地点。从目前的技术来看,要求AI面向全部应用场景,实时地、大规模地提供解释颇具挑战性且难以实现。行业中的可解释AI实践更多聚焦于不同应用场景下的事后解释。 其四,解释的关联性或者说解释的目的。为什么需要进行解释?AI系统的目的与应用场景至关重要。相比于执行影响较小的任务的AI系统(如推荐电影的AI系统),AI系统被用来进行影响人身安全或财产安全的决策时(如医疗诊断、司法审判、金融借贷等),需要更多的投入与深度的解释。 其五,技术与经济可行性。一些先进的、复杂的AI系统在向人类解释其运作时可能存在技术限制。在经济可行性上,也需要考虑成本维度,大规模地提供解释所需成本与投入也需要考虑在内,以避免不合理的细节或严格的要求阻碍有价值AI系统的部署。尽管投入足够的时间、精力、专业知识与正确的工具,通常可以知晓复杂AI系统是如何运作的,理解AI系统的行为背后的原因,但如果在实践中不加区分地要求解释,不仅在规模应用上欠缺经济可行性,而且可能适得其反地阻碍具有巨大价值的(例如拯救生命)AI系统的应用部署。因为解释的成本十分高昂,所投入的技术资源也更加巨大。如果采取一个极高的标准,要求AI系统的每一个结果都做到完全可追溯并提供详尽的解释,那么这在实践中可能极大地将AI系统限制在最基本的技术(如静态的决策树)。这最终会极大地限制人工智能的社会与经济效益。比如,一个医疗算法,如果每次诊断结果都要求提供详尽的解释,可能这个算法永远无法投入使用,产生价值。因为每次输出一个决策,可能得花费数天时间来提供解释。 其次,需要考虑可解释性要求与效率、准确性、安全、隐私、网络安全、商业秘密、知识产权等其他重要目的之间的平衡问题。一些形式的透明性和可解释性看似有吸引力,但却可能带来相当严重的风险,而且对于增进责任与打造信任几乎无甚助益。例如,披露源代码或单个用户的数据,无助于理解AI系统如何运行以及它为何做出特定决策,但却可能让AI系统被滥用或操纵,给用户隐私与商业秘密带来显著风险。 实际上,分享、开放源代码是最低端、最无效的算法透明与解释方式;因为AI系统太过复杂,即使技术专家也无法测量。所以开放源代码无助于普通用户理解AI系统。此外,算法不是越透明越好,例如,把算法变得简单,可以增加可解释性,同时却可能让算法更不准确。这是因为AI模型的预测准确性和可解释性之间存在着天然的紧张关系。实际上,在可解释与准确性之间,如果AI应用对性能要求不那么高,则可解释性可以超过准确性;如果安全是优先的,则可解释性可以让位于准确性,只要存在能够确保问责的保障措施即可。 正如联合国《人工智能伦理问题建议书》所指出的那样,公平、安全、可解释性这些原则本身是可取的,但在任何情况下这些原则之间都可能会产生矛盾,需要根据具体情况进行评估,以管控潜在的矛盾,同时考虑到相称性原则并尊重个人权利等。 人工智能 可解释性规制的未来进路 从以上分析可知,对人工智能系统进行解释是一件非常复杂的事情,而且中国现行立法还远未形成一个统一的规制路径。无论解释的出发点是权利,还是义务,抑或是责任,都尚未确立清晰明确的规则。面向未来,对人工智能的透明度和可解释性进行规制,需要法律、技术、市场、规范等多种力量共同发挥作用。 (一)立法宜遵循基于风险的分级分类分场景监管思路 常识告诉我们,技术应用不可能完美无缺、永不错误,那种认为技术应用应当符合绝对性要求的观点是偏颇的、误导性的。在这个意义上,新技术治理应当是风险导向的,不是为了彻底消除风险,而是对风险进行有效管理。因此,立法不宜采取过度严苛的监管要求,避免在透明度与可解释性方面对AI算法应用提出“一刀切”(One-Size-Fits-All)的要求,也不宜简单粗暴要求公开算法的源代码等技术细节;而是需要采取包容审慎的立场,建立分级分类分场景的监管方式,支持AI算法应用不断创新和发展,兼顾政府、科技企业以及社会公众的整体利益,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。 具体而言,在人工智能可解释性要求的实现方式上,首先,披露AI算法模型的源代码是无效的方式,不仅无助于对AI算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全;其次,不宜不加区分应用场景与时空场合地要求对所有的算法决策结果进行解释或说明;再次,侧重应用过程中的披露义务,部署AI系统的主体对于任何披露与记录要求负有责任,需要披露AI系统实质性参与决策或与人类互动的事实,披露应当以清晰易懂、有意义的方式提供关于AI参与的关键任务的模式;最后,避免强制要求披露用来训练AI模型的数据集,这不仅不具有可操作性,而且容易与版权保护冲突,侵犯用户的数据隐私或违反合同义务。 此外,法律对AI系统的可解释性要求应侧重满足终端用户的需求。到目前为止,AI系统的可解释性主要服务于AI开发人员和监管者的需求,例如帮助开发人员排查漏洞并改进AI系统,帮助监管者对AI应用进行监管。而非让终端用户可以理解AI系统。2020年的一项研究发现,企业部署可解释人工智能更多是为了支持工程开发等内部目的,而非增强用户或其他的外部利益相关者的透明度和信任。因此,为了促进用户对AI系统的理解,一种可行的思路是,借鉴食品营养成分表、产品说明书、药品或医疗器械的使用说明、风险告知等既有的信息披露机制,针对符合条件的AI系统建立“算法说明书”机制。欧盟的人工智能立法采取了类似的思路,欧盟人工智能法草案遵循分类监管的思路,针对高风险的AI系统提出了较高的透明度和信息提供要求,即开发者应确保高风险AI系统的运作足够透明,向用户提供使用说明(Instructions of Use)等信息,并披露系统开发者的基本信息、高风险系统的性能特征、监督措施以及维护措施等信息。 (二)探索建立合理适度的、适应不同行业与应用场景的人工智能可解释性标准 法律治理固然重要,但可解释人工智能的实现也离不开技术人员和技术社群的直接参与。到目前为止,XAI已经成为人工智能领域最重要的发展方向之一,但正如美国DARPA关于XAI的回顾报告所发现的那样,XAI的进展仍十分有限,面临着诸多难题和挑战。当前最重要的是建立人工智能可解释性的技术标准。在这方面,首先需要明确的一个关键问题是,人工智能的评价标准不应是“完美级”(Perfection),而应在与既有流程或人类决策对比的基础上,界定评价AI系统的最低可接受标准。所以即使AI系统需要解释,也必须考虑可解释的程度。因为要求AI系统满足可解释性的“黄金标准”(远远超过既有的非AI模式即人类决策所要求的),可能不当地阻碍AI技术的创新性使用。因此需要采取折中路径,考虑技术限制与不同可解释标准需要的利益权衡,以便平衡使用复杂AI系统带来的好处与不同的可解释性标准带来的实践限制。笔者认为,用户友好型的解释应当是准确的、清晰的、明确的、有效的,且考虑不同应用场景的需求,以提高对AI系统的整体理解:解释是否准确传递了支撑AI系统的推荐的关键信息(Key Information)?解释是否有助于对AI系统整体功能的理解?解释是否清晰(Clear)、明确(Specific)、相关(Relatable)、可执行(Actionable)?解释是否适当考虑了敏感性(Sensitivity)?例如用户的敏感信息。 具体可以从以下方面来推进AI可解释性标准: 第一,针对AI系统的每一个应用场景都提供可解释性标准的指南,是不现实的,但可以针对一些示范性的应用场景提供可解释标准的指南。这能够给行业和企业提供有益参考,来平衡不同AI模型的性能与不同标准的可解释性要求。 第二,对于政策相关方而言,发布AI可解释的最佳实践做法案例集,以及具有负面影响的负面做法,都是值得尝试的。包括用以提供解释的有效的用户界面,以及面向专家和审计人员的记录机制(例如详细的性能特征、潜在用途、系统局限性等)。 第三,可以创建一个说明不同级别的可解释性的图谱。这个图谱可被用来给不同行业与应用场景提供最小可接受的衡量标准。例如,如果某个失误的潜在不利影响是非常微小的,那么可解释性则不怎么重要。相反,如果某个失误是危及生命财产安全的,则可解释性变得至关重要。类似地,如果用户可以容易地摆脱算法自动化决策的约束,则对深入理解AI系统的需求就不那么旺盛。 (三)支持行业自律,发挥市场的力量来促进可解释性人工智能的发展 根据美国科技行业的经验,可解释人工智能的工作应主要由企业与行业主导而非由政府强制监管,采取自愿性机制而非强制性认证。因为市场力量会激励可解释性与可复制性,会驱动可解释人工智能的发展进步。 一方面,从市场竞争的角度看,为了获得竞争优势,企业会主动提高其AI系统、产品与服务的可解释程度,从而让更多人愿意采纳或使用其人工智能应用,进而维持自身的市场竞争力; 另一方面,从用户的角度看,用户会用脚投票,即如果用户不理解AI系统的运作,在使用AI系统、产品与服务时可能存在顾虑,这意味着可解释性不足、难以被用户理解的AI系统、产品与服务将无法获得用户的持久信任,因而用户对此类AI应用的需求也会降低。 就目前而言,主流科技公司纷纷重视AI的可解释性研究与应用,已在积极探索人工智能可解释性的实现方式。 例如,谷歌的模型卡片机制(Model Cards),旨在以通俗、简明、易懂的方式让人们看懂并理解算法的运作过程,对模型的输入、输出、模型架构、性能、局限性等进行描述。 IBM的AI事实清单机制(AI Fact Sheets),旨在提供与AI模型或服务的创建和部署有关的信息,包括目的、预期用途、训练数据、模型信息、输入和输出、性能指标、偏见、鲁棒性、领域转移、最佳条件、不良条件、解释、联系信息等。面向未来,应着重通过最佳实践做法、技术指南、自律公约等行业自律措施来支持可解释人工智能的发展。 (四)替代性机制和伦理规范作为对可解释性要求的有益补充 虽然可解释性是完善AI技术的最优解之一,但并非所有的AI系统及其决策都可以解释,或者都需要解释。当AI系统过于复杂,导致难以满足可解释性要求,或是导致解释机制失灵、效果不乐观时,就要积极转变规制的思路,探索更多元化、实用化的技术路径。 目前在技术上主张的是采取适当的替代性机制,如第三方反馈、申诉机制与人类审查介入、常规监测、审计(Auditing)等,这些替代性机制可以对AI算法的决策起到监督和保障作用。 例如,第三方标记反馈机制允许人们针对AI系统提供使用上的反馈,常见的标记反馈技术包括用户反馈渠道(“点击反馈”按钮)、漏洞奖励机制等。 用户申诉机制能够对AI系统及其开发者形成有效监督,也是实现AI可责性的重要保障。中国的《信息安全技术个人信息安全规范》《网络安全标准实践指南》等标准都对用户的投诉、质疑、反馈以及人工复核等机制作出了具体规定。 常规监测包括严格且持续的测试、对抗测试等,旨在发现系统中的问题并及时改进。 审计机制作为确保AI可责性的重要方式,是对AI算法应用情况的记录、回溯和追查,通过算法审计可以达到反向解释的作用,降低算法黑箱的不良影响。 此外,考虑到监管的滞后性和技术的持续迭代性,伦理原则、伦理指南、伦理审查委员会等伦理规范和落地制度将能发挥更大价值,即使对于不具有可解释性的人工智能应用,也能确保企业以可信的、负责任的方式予以部署、使用。 结语 人工智能的透明性和可解释性,连同公平性评价、安全考虑、人类AI协作、责任框架等,都是人工智能领域的基本问题。随着人工智能监管的持续加强,立法对人工智能系统的透明性和可解释性规制也将走向深入。 一个首要的问题是,监管者在针对人工智能系统设计透明性和可解释性要求时,需要考虑他们想要实现什么目标,以及在特定情境下如何更好地匹配这些目标。因为透明性和可解释性本身不是目的,而是增进责任与问责,赋能用户,打造信任与信心的方式和手段。 将来立法在设定可解释性要求与标准时,不仅需要考虑受众需求、应用场景、技术与经济可行性、时空等因素,而且需要考虑可操作性、务实性,同时还需要注重做好与效率、准确性、安全、隐私、网络安全、知识产权保护等目的之间的平衡。很难遵从或者遵从成本很高的可解释标准会阻碍AI系统的应用。如果在所有的情形下都要求最详尽的解释,而不考虑实际的需求,则可能会阻碍创新,也会给企业及社会带来高昂的经济成本。 所以,适当的可解释性标准不应超过合理且必要的限度。举例而言,社会不会要求航空公司向乘客解释为什么飞机采取了算法决定的航线。类似地,一个相似的务实性、情境特定的路径应适用于AI系统的可解释性标准要求。就像取得驾照,相信汽车可以安全驾驶,并不需要人人都成为专业的汽车工程师一样,当使用AI系统时,解释并不总是必须的。 最后,“算法说明书”在增进算法透明、促进用户对算法的理解上的价值,值得进一步探讨论证。 本文原稿载于《月旦民商法杂志》第76期(2022年6月号)