当前位置:首页>媒体矩阵>战略前沿技术

战略前沿技术

不损害人工智能创新的十项监管原则

访问次数: 465 次    作者: 远望智库开源情报中心 亿竹 编译    发布时间: 2023-09-25

0

美国人工智能( AI)研究智库——数据创新中心(Center For Data Innovation)今年发表题为“不损害人工智能创新的十项监管原则”报告。

一.人工智能监管背景

随着人工智能(AI)的不断改进,利用该技术提高生产率和生活质量的机会将在许多经济领域蓬勃发展,包括医疗卫生、教育、交通等。作为回应,政策制定者提出了各种各样的法规,以解决对这一波即将到来的AI系统可能造成伤害的担忧。最小化人工智能系统的潜在危害是一个重要的目标,但最大化人工智能系统的潜在利益也是如此。实施这些法规中的许多提议,特别是以其当前的形式,可能会产生严重的后果,因为人工智能的许多潜在好处——包括利用该技术拯救生命和提高生活水平的机会——可能会因制定不当的监管而被推迟或剥夺。

人工智能(AI)有潜力创造许多重大的经济和社会效益。然而,对这项技术的担忧促使政策制定者提出了各种法律法规来创造“负责任的人工智能”。但是,许多提议可能会损害人工智能创新,因为很少有人考虑“负责任的人工智能监管”需要什么。这份报告提出了十条原则,以指导政策制定者起草和评估不损害创新的人工智能监管提案。

政策制定者希望人工智能系统不会造成伤害,但他们没有掌握创造不伤害人工智能创新的法规的艺术。政策制定者在为人工智能制定法规时应该牢记十条关键原则,以免阻止或阻碍创新。

二、人工智能监管十项原则

(1)人类的偏见

决策者不应该歧视人工智能;人工智能系统应该和人类保持同样的标准。一般来说,如果一件事对人类来说是合法的,那么它对人工智能系统来说也应该是合法的。例如,如果保安人员验证进入建筑物的人的身份是合法的,那么使用人工智能系统来做同样的事情应该是合法的。禁止或惩罚公司使用AI而不是人类来完成任务,会抑制技术的使用。惩罚可以采取不同的形式,但包括让AI达到更高的标准,或者在使用AI之前,公司必须满足额外的义务。相反地,如果一件事对人类来说是非法的,那么对AI系统来说也应该是非法的。例如,如果销售某件艺术品或音乐侵犯了他人的知识产权,那么无论是人类还是AI系统制作了该作品就无关紧要了。

亲人类偏见的一个示例是对提供服务的职业许可的排他性要求,例如在医疗卫生和法律领域,当可以提供类似的人工智能服务时。职业许可证旨在通过限制从业人员来保护消费者。然而,医疗许可委员会或律师协会——由该领域的专业人士组成,他们可能不想与AI系统竞争——可以阻止组织提供人工智能服务,即使这些服务的表现与获得许可的专业人士一样好,甚至更好,因为AI系统无法获得执业许可。例如,大多数律师协会限制非律师提供法律服务,从而限制了基于AI的法律工具的发展。

(2) 调节绩效,而不是过程

为了解决对安全性、有效性和偏见的担忧,监管者应该监管AI系统的性能,而不是制定公司必须遵循的具体流程和方法的规定性规则。为AI系统建立基于性能的指标,让消费者、企业和政府有机会更好地比较不同系统的性能,并设定最低性能要求。比如,监管者不应该制定严格的基于合规的规则,比如要求贷款人使用不同的数据集来训练他们的信用评分模型,而是应该制定基于绩效的规则,比如要求贷款人验证他们的信用评分模型能够准确评估所有受保护个人类别的风险。允许企业确定实现预期目标的最佳方式,这给了它们最有效地遵从所必需的灵活性。此外,基于绩效的监管可以确保企业达到预期目标,而不是简单地在合规措施列表上打勾。

(3)监管部门,而不是技术

由于决策者无法预测AI的所有未来用途,有些人建议监管技术本身,而不是具体用途。但AI是一种通用技术,有许多潜在的应用。正如厨师、士兵和外科医生手中的刀是不同的,AI的风险和收益也取决于如何使用它。监管机构在不同的部门对刀进行不同的处理,例如为医院使用的解剖刀、用于食物准备的刀和工业应用中电动工具上的刀片创建独特的工作场所安全标准。同样,如果需要规则,决策者应该为特定部门的特定AI应用创建狭窄的规则,如医疗卫生和交通,而不是AI本身。驾驶汽车的AI系统应该与股票自动交易或疾病诊断的系统区别对待,即使它们使用类似的底层技术。强迫所有部门对AI使用相同的规则可能会对一些部门施加过多或重复的要求,而对其他部门提供不足的要求。为特定的AI应用程序创建规则,允许对特定行业有更深入专业知识的监管机构为AI应用程序设置适当的规则。例如,保险监管机构可能已经考虑了如何应对难以理解的信用评分模型带来的风险,因此保险公司是否使用机器学习模型无关紧要。

(4)避免AI近视

促使人们呼吁监管AI的许多担忧实际上与AI无关。例如,白宫的《人工智能权利法案蓝图》列出了一些问题,如招聘实践和信用评分中的偏见,当出现不利结果时缺乏追索权,以及消费者隐私不足。然而,这些问题都不是AI独有的。监管者应该专注于解决更广泛的问题,而不仅仅是涉及人工智能的那部分问题。监管机构的目标永远不应该是解决,例如,只涉及AI的有偏见的招聘实践,而是所有有偏见的招聘实践。此外,狭隘地将AI作为一个问题来关注,忽略了将人工智能作为解决方案的一部分的机会,例如考虑人工智能的使用如何能够为现有的招聘实践注入更多客观性,并减少人类偏见。

然而,许多人专注于人工智能,而忽视了更大的格局。这种短视行为分散了解决整个问题的持续努力,并可能使那些一直致力于更广泛问题的人靠边站,同时将有限的公众和媒体注意力集中在问题的相对较小的部分。例如,对人脸识别技术导致的错误逮捕的担忧占据了许多新闻标题和政策辩论,包括国会听证会,忽视了可能会减少美国错误逮捕数量的更广泛的警察改革问题。同样,禁止执法机构使用人脸识别的举措肯定会阻止该技术用于任何错误逮捕,但它不会解决更大的错误逮捕问题。通过将AI与问题的其他部分分开处理,它忽略了AI作为解决方案的一部分的潜在作用。

(5)精确定义人工智能

政策制定者应该精确定义AI,以避免无意中将其他软件和系统纳入新法规的范围。AI涵盖了广泛的技术,并集成到许多硬件和软件产品中。如果政策制定者只想监管无法解释的机器学习或深度学习系统,他们就不应该在监管中使用广泛的AI定义。例如,欧盟的人工智能法案最初包含了如此广泛的AI定义,以至于微软Excel等基本电子表格软件可能都在它的范围之内。

在监管中使用过于宽泛的AI定义,会给那些开发或部署集成基本分析或自动化的产品和服务的人带来巨大成本。使用清晰明确的AI定义可以避免市场的不确定性。

(6)实施现有的规则

AI不免除组织遵守规则。许多法律和法规,如涉及工人安全、产品责任、歧视等的法律和法规,无论是否涉及AI都适用。在这些情况下,通常不需要针对人工智能的新法规。例如,公司必须遵守禁止歧视雇佣的法律,无论在决定雇佣某人时是涉及人还是计算机。同样,贷款人必须遵守公平贷款规则,不管他们是否使用AI系统来评估信用风险。为了应对对AI的担忧,监管机构应该解释他们将如何执行关于使用新兴AI产品和服务的现有法规,为采用这些工具的人提供指导,并就任何潜在的担忧领域寻求公众反馈。事实上,美国平等就业机会委员会和消费者金融保护局等机构已经宣布了最近的工作,利用他们现有的权力和使命来解决算法公平性的问题。

(7)确保收益大于成本

为了产生净积极影响,任何监管干预的好处都应该大于成本。在考虑成本时,决策者不仅应该考虑直接的合规成本,还应该考虑间接的生产率、创新和竞争力成本——例如利用新兴技术实现社会和经济效益的机会减少,以及国内企业在将这些技术推向市场方面的投资减少。但是,技术监管的这些间接成本可能是巨大的,甚至超过直接合规成本。考虑这些成本似乎是显而易见的,但政策制定者往往很少关注技术监管的成本,尤其是当他们认为(往往是错误的)监管必然会刺激创新,因此成本分析是多余的。例如,欧盟委员会发言人回避了关于人工智能法案经济成本的问题,称几乎没有证据表明该法律“将通过增加用户的信任来促进AI的吸收,从而增加需求,并为AI提供商进入更大的市场提供法律确定性。”

一些政策制定者忽视监管成本的一个原因是,他们认为与某些基本权利相比,成本无关紧要。例如,欧盟对《AI法案》的影响评估打消了人们对该法可能将某些产品挡在市场之外的担忧。在考虑对一个假设的基于人工智能的招聘软件的影响时,影响评估指出,“尊重有关的基本权利(在这种情况下:非歧视)胜过经济活动的损失。”

但这种肤浅的评估忽略了一个显而易见的可能性:AI招聘软件的使用可能会通过对求职者进行更客观的评估,减少招聘中现有的歧视。当考虑所有成本时,监管的净影响可能是负面的,尤其是如果设计不当的话。

(8)优化法规

即使监管有净积极影响,决策者仍应努力实现利益最大化和成本最小化。通常有多种方法可以达到相同的结果,因此决策者的目标应该是找到实现监管目标的最有效方法。不必要的监管成本导致企业将资金从其他业务活动转移到合规性上,这让消费者的处境更糟。

那些支持新法律法规的人通常不愿意讨论他们的成本,因为承认这些成本会阻碍对他们提案的支持。然而,忽视成本或对提高成本的人采取敌对态度会造成一种与如何改进政策提案的建设性对话背道而驰的政策环境。此外,立法往往要经过多轮修订,而决策者往往不会更新其影响评估。

(9)平等对待公司

政策制定者应该平等对待所有公司,创造一个公平的竞争环境。政策制定者经常建议将小企业从他们的立法提案中豁免,因为他们认识到他们的提案会带来小企业可能无法承受的高额合规负担,并且他们可以通过将他们的规则仅适用于大企业来更容易地通过他们的提案。但是解决这个问题的办法应该是全面减轻这些负担,而不是只把它们强加给大公司。此外,如果某些义务对于保护消费者免受某些产品或服务的侵害是必要的,那么所有公司无论规模大小都应该遵守这些规则。同样,政策也不应该根据公司所在的国家而区别对待公司。同样,如果某些规则的目的是保护消费者,那么这些规则应该平等地适用于所有公司。豁免国内企业遵守一些规则通常更多的是出于保护主义,而不是保护消费者。

(10)寻求专业知识

制定有效的法规需要相关的技术和行业专业知识。不幸的是,决策者不知道也不可能知道一切。正如欧盟委员会本身在《人工智能法案》的影响评估中指出的,“鉴于人工智能发展的复杂性和快速性,主管当局往往缺乏必要的资源、专业知识和技术工具来有效监督人工智能系统的使用对安全和基本权利构成的风险。”为了解决这一缺点,政策制定者应该让人工智能专家,特别是来自他们试图监管的部门的专家,参与监管过程。

让专家参与的一种方式是监管沙盒,这意味着为不适合现有监管框架的企业提供一个将其产品推向市场的机会。作为暂时免除特定规则的交换,企业向监管机构提供有关其运营的详细信息,企业和企业利用这些信息为消费者提供有效的监督和保护,并制定永久性的新规则来解决成功的业务模式。监管沙箱有利于企业、监管机构和消费者:企业可以将产品和服务推向市场,监管机构可以收到他们需要的信息来设计适当的规则,消费者可以获得创新的业务。

监管机构还应该确保他们的团队拥有人工智能和数据读写技能,以了解新技术。例如,他们可以为自己的员工寻求技术培训,或者聘请首席技术专家提供技术建议。然而,监管机构应避免雇用对人工智能或创造该技术的公司有先入为主偏见的技术专家。理想情况下,监管机构应寻求独立和客观的专业技术知识。例如,美国国家标准与技术研究所(NIST)对人脸识别系统和其他生物识别技术的准确性进行技术审查。这些类型的独立技术审查可以帮助监管机构根据对人工智能的可信评估制定规则。

三、结论

人工智能有潜力对经济和社会产生实质性的积极影响。但是决策者不应该认为技术进步是理所当然的。设计不良的法律和法规可能会延迟或阻碍可以拯救生命、提高工资和改善生活质量的技术采用。因此,政策制定者应该谨慎行事,并以这些核心原则为指导,以便他们对负责任的人工智能的追求不会导致不负责任的监管的产生。


发表评论