当前位置:首页>媒体矩阵>战略前沿技术

战略前沿技术

英国人工智能新方法详解

访问次数: 730 次    作者: 远望智库开源情报中心 亿竹 编译    发布时间: 2023-09-26

0

英国科学、创新和技术部(DSIT)于2023年3月29日发布了一份人工智能(AI)白皮书,描述了其监管人工智能的新方法。该提案旨在创建一个支持创新的监管框架,通过创建与不同部门使用人工智能相关的风险成比例的规则来促进公众对人工智能的信任。它还承诺建立一个监管沙箱,将监管者和创新者聚集在一起,让他们更好地了解监管如何影响新兴的人工智能技术。

与欧盟(EU)不同,英国在人工智能方面的做法短期内不会专注于新的立法。取而代之的是,它将专注于制定指导方针,赋予监管者权力,并只在必要时采取法定行动。下面先解释白皮书的核心内容,然后再分析其优缺点。

一、特定环境监管是什么意思?

根据英国科学、创新和技术部(DSIT)发布的白皮书,针对具体情况的监管侧重于结果,而不是为整个行业或技术制定规则。针对特定背景的监管将基于人工智能的特定用途可能产生的结果,如医疗诊断、机械折旧或服装退货,并可以区分不同部门的背景,如关键基础设施或客户服务。特定背景的人工智能法规承认,特定领域的所有人工智能技术都有不同程度的风险。这种监管权衡了特定人工智能使用的风险和放弃人工智能使用而错过机会的成本。DSIT认为,针对特定背景的人工智能监管将有助于英国利用该技术的好处。

二、英国对AI的定义是什么?

在白皮书中,DSIT将人工智能定义为“具有‘适应性’和‘自主性’的产品和服务。”“在将人工智能定义为适应性强时,白皮书旨在解决解释人工智能逻辑和结果的困难,因为该技术基于推断模式和联系进行训练和操作,这些模式和联系不易被人类理解或其程序员最初的设想。自主性描述了为人工智能技术的结果分配责任的难度,因为该技术可以在没有人类意图或控制的情况下做出决定。通过关注适应性强和自主的产品和服务,英国政府希望其人工智能定义经得起未来考验,而不是关注机器学习或大型语言模型(LLM)等特定方法或技术。

三、英国目前对人工智能的监管情况如何?

在英国,各个监管机构之间的协调和执行不一致,包括健康和安全执行局、平等和人权委员会以及竞争和市场管理局,管理人工智能。这种不一致的协调是白皮书呼吁全系统协调的原因,以澄清谁对跨领域的人工智能风险负责,并避免重复要求。

一些不同类型的法律和法规已经涵盖了人工智能,包括2010年《平等法》,以防止根据受保护的特征进行歧视;《英国通用数据保护条例》公平处理个人数据;《产品安全法》;电子设备、医疗器械和玩具的特定产品立法;和消费者权益法来保护消费者。其他相关法律包括1998年《人权法》、《公共部门平等义务法》、《2018年数据保护法》以及特定部门的公平要求,如《金融行为管理局手册》。

四、提议的人工智能框架的目标是什么?

DSIT将提议的人工智能框架描述为支持创新、相称、可信、适应性强、清晰和协作。新的监管框架将适用于英国经济的所有部门,依靠与现有立法的互动来实施框架,除非必要,否则不会引入新的法律要求。政府希望通过不立即(如果有的话)引入新的立法来最小化域外影响;但这种方法不会改变现有立法的域外影响。

此外,DSIT称其监管框架有三个目标:

(1)推动增长和繁荣,使负责任的创新更容易,减少监管不确定性,并在人工智能领域获得长期的市场优势。

(2)通过解决人工智能的风险和保护基本价值观来增加公众对AI的信任,这反过来将推动AI的采用。

(4)加强英国作为全球人工智能领导者的地位,使其对创新者和投资者保持吸引力,同时最大限度地减少与其他国际方法的跨境摩擦。

这个监管框架不会影响与数据访问、计算能力、可持续性或“内容制作者和人工智能开发者的权利平衡”有关的问题。

五、英国监管AI的五大原则是什么?

在白皮书中,英国政府重点关注政府认为应该管理人工智能的五项原则,以促进负责任的技术开发和使用。这五项原则的应用最初将由监管者自行决定,随后可能会有一项法定义务要求监管者适当考虑这些原则。

(1)安全性、可靠性和稳健性

人工智能应用程序应该是安全的,可靠的,健壮的,并带有谨慎管理的风险。根据这一原则,监管机构可能会采取措施,确保人工智能在整个生命周期中是安全的;评估人工智能带来风险的可能性,以采取相应的措施来管理这些风险;并定期测试人工智能系统的功能、弹性和安全性,以创建未来的基准。

(2)适当的透明度和可解释性

人工智能创新者和企业必须适当透明,并能够解释他们的AI决策过程和风险。适当水平的透明度和可解释性被定义为“监管者拥有关于AI系统及其相关输入和输出的足够信息,以对其他原则产生有意义的影响。”监管机构可能会将产品标签和技术标准作为收集这些信息的选择。监管者还需要澄清特定人工智能技术的适当和可实现的可解释程度。

(3)公平

AI应该是公平的,不歧视个人或商业成果,也不损害他们的合法权利。监管机构可能需要使用相关法律,如《2010年平等法案》、《1998年人权法》、《公共部门平等义务》、《英国通用数据保护条例》、《2018年数据保护法案》、《消费者和竞争法》以及特定部门的公平要求,制定并发布适用于其监管领域内人工智能系统的公平描述。

(4)问责制和治理

管理AI的监管措施需要充分地让AI生命周期中的适当行为者对人工智能的结果负责。监管者必须确保对法规遵从性有明确的预期,并且可能需要使用治理程序来鼓励法规遵从性。DSIT承认,在AI产品的生命周期中,谁应该被分配责任还不清楚,因此不建议在这个阶段进行干预。相反,DSIT将召集专家、技术人员和律师来考虑未来的适度干预。

(5)争议和补救

用户和其他利益相关者需要明确的途径来质疑人工智能造成的任何伤害。政府希望监管机构澄清现有的途径,并鼓励和指导受监管的实体,以确保受影响的各方可以通过非正式或正式的渠道明确质疑有害的人工智能结果。

六、在新框架下,监管机构将做些什么?

虽然DSIT的白皮书没有提供监管AI技术的现有监管机构的详尽列表,但所描绘的监管框架取决于授权这些监管机构制定针对具体情况和跨部门的人工智能方法。这篇论文解释说,创建一个新的专门针对AI的监管机构会给整个监管机构列表带来更多的复杂性和混乱。目前AI的监管机构包括健康和安全执行局、平等和人权委员会以及竞争和市场管理局,但该列表可以包括白皮书中没有提到的其他机构。

根据人工智能的新方法,这些监管机构将采取以下措施:

(1)采取相应的、支持增长和支持创新的方法,重点关注特定AI带来的特定风险。

(2)考虑采取相应的措施解决优先风险,考虑由政府或为政府进行的风险评估。

(3)设计、实施和执行适当的监管要求,将新的AI监管原则整合到现有流程中。

(4)制定联合指南,以支持AI遵守原则和相关要求。

(5)考虑工具,如保证技术和技术标准,如何支持法规遵从性。

(6)参与政府对框架的监测和评估。

七、英国将如何实施这一注重原则的框架?

白皮书中定义的人工智能五项原则将首先在现有法规中实施,并得到中央政府职能部门的支持。监管机构将首先实施这些原则,以适应人工智能的背景和使用。监管机构还将合作找出实施这些原则的障碍。政府将发挥核心支持作用,以确保该框架按比例运作,并有利于AI创新。

只有在必要的情况下,政府才会出台新的立法,制定进一步的措施,要求监管机构适当考虑这些原则,即授权监管机构实施与其部门或领域相关的原则。

八、政府将如何评估其人工智能框架?

政府界定了七项中央职能,这将有助于政府确定框架是否有效,并确定提高清晰度和协调的机会:

(1)监控、评估和反馈

政府将通过从行业、监管机构、政府和民间社会收集相关数据,评估该框架的跨经济和特定部门影响。它还将支持和装备监管机构,以监测和评估制度的内部。通过跟踪框架的有效性、相称性和对创新的影响,政府希望提供改进建议、可能需要额外干预的情况以及反馈循环和利益攸关方参与的必要情况。

(2)支持原则的一致实施

政府将制定和维护中央监管指南,以帮助监管机构实施AI原则,确定可能妨碍实施的障碍,并解决监管机构解释原则的不一致和差异。政府将利用这些任务进一步监测这些原则的相关性以及是否需要对其进行调整。

(3)跨部门风险评估

政府将建立一个跨经济和全社会的人工智能风险登记册。跨部门风险评估职能将支持监管机构的内部风险评估;监控、审查和优先处理已知和新的风险;明确新风险中的责任;支持监管机构之间的合作;确定风险覆盖范围的差距;并分享风险评估的最佳做法。

(4)支持创新者(包括试验台和沙箱)

政府将消除创新障碍,最大限度地降低法律和合规风险,以帮助人工智能创新者驾驭监管格局。根据首席科学顾问Patrick Vallance爵士的建议,政府还将建立一个多监管机构的人工智能沙盒。沙盒将测试监管框架如何运作,以及监管机构或政府是否应该解决不必要的创新障碍。政府将首先在一个人工智能投资高的行业试点一个多监管机构沙箱,并计划随着时间的推移将这一能力扩展到更多的行业。政府倾向于一个沙箱,向参与创新者提供技术专家和监管专家的定制建议,帮助他们克服监管障碍。

(5)教育和意识

政府将引导企业、消费者和公众在AI和AI监管领域导航。政府还将鼓励监管机构利用宣传活动教育AI用户有关风险。

(6)地平线扫描

政府将监测AI的新兴趋势和机遇,积极召集利益相关者讨论人工智能监管框架如何支持AI创新和应对AI风险,并支持进一步的AI风险评估。

九、确保与国际监管框架的互操作性 

政府将支持英国与国际合作伙伴在人工智能监管方面的合作,方法是监测英国原则与全球方法的一致性,并利用跨境协调使英国框架与国际司法管辖区保持一致,并创建监管互操作性。

DSIT希望这一新的监管框架的适应性和相称性将有助于它为面向未来的AI监管设定全球规范。例如,基础模型是通用AI,它针对各种任务对大量数据进行训练。因为确定基础模型如何工作、它们的能力和它们的风险具有挑战性,所以框架对中心功能的使用以及对保证技术和技术标准等工具的潜在使用可能有助于最小化它们的潜在风险,同时允许基础模型进入英国市场。DSIT还承认,基础模型生命周期中的责任问题将越来越重要,因为模型中的任何缺陷都会迅速影响到所有下游产品。

然而,白皮书认为,对有限责任公司和其他基金会模式采取具体的监管行动为时过早。干预过快可能会妨碍英国在各种用例中采用这些模型的能力。相反,英国将监测和评估LLM的影响,探索标准和其他工具是否能够支持负责任的创新,然后让监管者与行动者合作并对模式发展做出反应。对于有限责任公司,白皮书建议监管机构可以就适当的透明度措施发布指导意见。英国政府将监测和评估这些模型,直到监管机构和标准可以干预,以支持良好的治理和实践。

十、英国想要可信人工智能的工具

DSIT认为,可信人工智能的工具对于负责任和安全地采用AI至关重要。白皮书建议将这些工具分为两类,以帮助符合其提议的监管框架。

第一类包括人工智能保证技术——包括影响评估、审计、性能测试和正式验证方法——可能有助于英国AI保证行业的发展。这些技术将测量、评估和描述AI在其整个生命周期中的可信度。这些技术没有具体说明,但政府将在2023年春季推出一个投资组合。

第二类由AI技术标准组成,这些标准提供了跨供应商的共同理解,当实现时,表明符合框架的原则。AI技术标准将包括风险管理、透明度、偏见、安全性和稳健性方面的通用基准和实用指南。政府将与行业、国际合作伙伴、英国合作伙伴和英国AI标准中心合作。

英国政府表示,它将对人工智能技术标准采用分层方法:

第一层将提供跨监管权限的一致性和共同基础。监管机构将寻求采用非特定部门的标准,并可用于支持五项AI原则的跨部门实施。

第二层将使治理实践适应特定背景下AI的特定风险,以便监管机构可以鼓励采用针对偏见和透明度等问题的新标准。

最后,监管机构可以在适当的时候鼓励采用特定部门的技术标准,以支持遵守特定部门的监管要求。

十一、关于人工智能的全球对话

英国计划继续与国际伙伴密切合作,支持AI带来的积极的全球机遇,并防范全球风险和危害。政府打算继续其国际合作努力,以了解、影响和加强全球监管和非监管发展。此外,政府将继续采取包容性的方法,帮助伙伴国家建立对AI的认识和能力,并支持其他国家实施负责任和可持续的AI监管。

英国还计划继续在经济合作与发展组织(OECD)AI治理工作组中发挥积极作用;AI全球伙伴关系;G7;欧洲委员会AI委员会;联合国教育、科学及文化组织;以及国际标准化组织和自主智能系统伦理开放社区等全球标准组织。英国将继续与欧盟、欧盟成员国、美国、加拿大、新加坡、日本、澳大利亚、以色列、挪威和瑞士以及其他国家政府合作,发展它们的人工智能方法。

十二、英国AI新监管框架的下一步计划

在接下来的六个月里,英国政府和DSIT将与关键利益相关方——如公共部门、监管机构和民间社会——就该框架进行磋商。然后,政府将公布其回应,并发布监管机构实施该框架的跨部门原则和初步准则。政府还将发布AI监管路线图,以建立该框架的中央政府职能,并试点新的AI沙盒。最后,政府将委托研究项目对潜在的合规障碍,生命周期问责制,如何实施该框架,以及报告AI风险的最佳做法。

在未来6至12个月内,政府和DSIT将建立举措和伙伴关系,以履行该框架的核心职能。政府还将鼓励监管机构发布指导意见,帮助解释人工智能原则将如何在其职权范围内适用。此外,政府将就中央监测和评估职能如何运作提出建议,并公开这些建议供利益攸关方协商。最后,政府将继续发展其多监管者沙箱。

12个月后,政府将履行框架的核心职能。它还将鼓励仍需要发布指导意见的监管机构,发布跨经济体AI风险登记册,并在测试试点沙盒后开发其监管沙盒。此外,政府将公布第一套报告,评估AI原则如何发挥作用以及中央职能如何发挥作用。这些报告将分析原则的管理特征——实施是否有利于创新、相称、可信、适应性强、清晰和协作——同时还考虑新迭代或法定干预的需要。最后,政府将更新其核心职能的人工智能监管路线图,以确定它是否能长期发挥作用,或者独立机构是否更有效。

英国人工智能的新监管框架有四个关键优势,将有利于其科技行业。

(1)焦点较窄

该框架的范围狭隘地聚焦于AI成果,而不是AI产品。它使用了AI的灵活定义,定义了AI的特征——无论它们是自适应的还是自主的——而不是具体的算法特征或产品类型。这种狭窄的焦点和灵活的定义将使英国能够更好地应对新的风险,即使技术在快速发展。

(2)监管沙盒

创建一个多监管机构的AI沙箱将允许创新者与监管机构合作,开发最佳实践,帮助AI产品安全上市。监管沙盒将有助于增加各个部门监管机构的专业知识,以便他们能够支持未来AI创新的开发和采用。

(3)没有新的立法

通过不引入新的立法,而是专注于原则框架和监管者授权,英国的人工智能方法使用宽松的监管来支持AI的发展和采用,并解决特定部门和跨部门的监管问题。当辅之以注重结果或伤害的方法时,宽松监管可以识别和纠正有害影响,而不会对无害行为施加成本或惩罚。一个明显的例子是,白皮书承认现在干预基础模型还为时过早,因为现在的任何干预都可能对英国采用新技术及其应用产生不利影响。

(4)国际意识

承认英国不是唯一关注AI的国家将有利于英国提升其人工智能和技术中心地位的能力。政府对国际协调的承诺将减少英国科技公司进入其他市场的障碍。随着其他地区和国家磨练他们的AI框架,即欧盟的人工智能法案和美国的人工智能权利法案,这种前景将是至关重要的。为了提高效率,英国决策者可能不得不花费大量的国际政治资本,特别是为了抵御欧盟的监管压力。


发表评论