欧洲为基于风险的AI规则制定计划以提高信任度和接受度

源节点: 822535

欧盟立法者提出了他们的 基于风险的建议 用于在集团的单一市场内规范人工智能的高风险应用。

该计划包括禁止少数被认为对人们安全或欧盟公民基本权利过于危险的用例,例如中国式的社会信用评分系统或某些类型的人工智能大规模监控。

根据该提案,人工智能的大多数用途不会面临任何监管(更不用说禁令),但所谓的“高风险”用途的子集将受到事前(之前)和事后(之后)的特定监管要求的约束。 )投入市场。

对于某些人工智能用例(例如聊天机器人和深造品)也有透明度要求,欧盟立法者认为,可以通过通知用户他们正在与人造物进行交互来减轻潜在的风险。

计划中的法律旨在适用于在欧盟内销售AI产品或服务的任何公司,而不仅限于总部位于欧盟的公司和个人-因此,与欧盟的数据保护制度一样,其范围将是域外的。

欧盟立法者的首要目标是建立公众对如何实施AI的信任,以帮助促进对该技术的采用。 委员会高级官员谈到要发展一个与欧洲价值观一致的“卓越生态系统”。

委员会执行副总裁玛格丽特·维斯塔格 (Margrethe Vestager) 在新闻发布会上宣布通过该提案时表示:“今天,我们的目标是使欧洲在安全、值得信赖和以人为本的人工智能的开发和使用方面成为世界一流。”

“一方面,我们的法规解决了与AI的特定用途相关的人类和社会风险。 这是为了建立信任。 另一方面,我们的协调计划概述了会员国应采取的必要步骤以促进投资和创新。 为了保证卓越。 所有这些,以确保我们加强整个欧洲对AI的采用。”

根据该提案,强制性要求被附加到人工智能应用的“高风险”类别中-意味着那些 存在明显的安全风险或有可能威胁到 欧盟基本权利 (例如非歧视权)。

该法规的附件 3 列出了将受到最高级别使用监管的高风险人工智能用例的示例——委员会表示,它将有权通过代表行为来扩展该用例,因为用例人工智能不断发展,风险不断演变。

就目前引用的高风险示例而言,可分为以下几类:自然人的生物特征识别和分类; 关键基础设施的管理和运作; 教育和职业培训; 就业,工人管理和自营职业; 获得和享受基本的私人服务以及公共服务和福利; 执法; 移民,庇护和边境管制管理; 司法和民主程序。

由于法规主要针对欧盟内部市场,因此将AI的军事用途明确排除在范围之外。

高风险应用程序的制造商在将其产品推向市场之前,将有一系列事前应遵守的义务,包括用于训练其AI的数据集的质量以及对设计和使用的人员监督程度以及后续的事后需求(以事后监控的形式)。

其他要求包括需要创建AI系统的记录,以进行合规性检查并向用户提供相关信息。 AI系统的健壮性,准确性和安全性也将受到监管。

欧盟委员会官员建议,人工智能的绝大多数应用将不属于这一高度管制的类别。 那些“低风险”人工智能系统的制造商将仅被鼓励在使用时采用(无法律约束力)行为准则。

违反特定AI用例禁令规定的罚款最高占全球年营业额的6%或30万欧元(以金额较大者为准)。 违反与高风险应用程序相关的规则的情况可能会扩大至4%(或20万欧元)。

执法将在每个欧盟成员国中涉及多个机构-该提案打算由现有(相关)机构(例如产品安全机构和数据保护机构)进行监督。

鉴于国家机构在监管人工智能规则时将面临额外的工作和技术复杂性,这对国家机构的充足资源提出了紧迫的问题;以及如何避免某些成员国的执法瓶颈。 (值得注意的是,欧盟的《通用数据保护条例》也在成员国层面受到监督,但由于缺乏统一有力的执行而受到影响。)

还将建立一个欧盟范围内的数据库,以创建在欧盟中实施的高风险系统的注册簿(由欧盟委员会管理)。

还将成立一个名为欧洲人工智能委员会(EAIB)的新机构,以支持该法规的一贯应用-仿照欧洲数据保护委员会,该指南为应用GDPR提供指导。

根据人工智能某些用途的规则,该计划包括协调欧盟成员国对人工智能发展的支持的措施,例如通过建立监管沙箱来帮助初创企业和中小企业开发和测试人工智能驱动的创新,并通过前景有针对性地提供欧盟资金来支持人工智能开发人员。

内部市场专员蒂埃里·布雷顿(Thierry Breton)表示,投资是该计划的关键部分。

“根据我们的数字欧洲和地平线欧洲计划,我们每年将释放 20 亿欧元的资金。除此之外,我们希望在未来十年(我们称之为‘数字十年’)每年产生私人投资和欧盟范围内每年 140 亿欧元的集体投资。” “我们还希望拥有 19 亿欧元,用于资助下一代欧盟 [COVID-XNUMX 复苏基金] 下的数字投资,并部分投入人工智能领域。”

制定AI规则一直是欧盟主席Ursula von der Leyen的关键优先事项,她于2019年底上任。白皮书已出版。 去年,跟随一个 2018 AI欧盟战略 - Vestager说,今天的提案是三年工作的高潮。

布雷顿补充说,为企业应用人工智能提供指导将为他们带来法律确定性和欧洲的优势。 “信任……我们认为对于人工智能的发展至关重要,”他说。 [人工智能的应用]需要值得信赖、安全、非歧视——这绝对是至关重要的——但当然我们也需要能够了解这些应用程序到底是如何工作的。”

“我们需要的是指导。 尤其是在一项新技术中……我们将成为提供指导方针的第一大洲–我们会说:“嘿,这是绿色,这是深绿色,这也许有点橙色,这是禁止的” 。 因此,现在如果您想使用人工智能应用程序,那就去欧洲吧! 您将知道该怎么做,您将知道该怎么做,您将拥有对合作伙伴非常了解的合作伙伴,并且,顺便说一句,您也将来到该大陆,在那里您将拥有地球上创建的最大数量的工业数据在接下来的十年中。

“因此来到这里-因为人工智能与数据有关-我们将为您提供指导。 我们还将拥有实现该目标的工具和基础架构。”

今天的提案的一个版本 上周泄漏 - 导致 环境保护部呼吁加强计划,如 禁止在公共场所进行远程生物特征监测。

如果最终提案确实将远程生物特征识别监视视为AI的特别高风险应用-执法部门原则上禁止在公共场合使用该技术。

但是,使用并未得到完全禁止,但在一些例外情况下,在有效的法律依据和适当监督下,执法人员仍然可以使用它。

保护受到攻击太弱

对委员会提案的反应包括批评执法部门的豁免过于广泛,以及担心解决人工智能系统歧视风险的措施还不够。

刑事司法非政府组织“公平审判”说,如果法规要包含与刑事司法有关的有意义的保障措施,则需要进行重大改进。 在声明中发表评论, 非政府组织法律和政策官员格里夫·费里斯(Griff Ferris)说:欧盟的提案需要进行根本性的改变,以防止在刑事司法结果中对歧视进行严格的处理,保护无罪推定并确保 对AI在刑事司法中的有意义的责任。 

“立法缺乏任何防止歧视的保障措施,而对'维护公共安全'的广泛豁免完全削弱了与刑事司法相关的很少保障措施。 框架必须包括 严格的保障措施和限制,以防止歧视和保护公正审判的权利。 这应包括限制试图描述个人资料并预测犯罪风险的系统的使用。” 

欧洲公民自由联盟(Liberties)也抨击了该非政府组织的漏洞,称该漏洞将允许欧盟成员国绕过对有问题的人工智能使用的禁令。

“存在太多被允许使用的技术问题,例如使用算法预测犯罪或让计算机评估边境管制人员的情绪状态,这两种方法都构成了严重的人权风险,并构成威胁。欧盟倡导官Orsolya Reich在一份声明中警告说。 “我们还担心警察可能以危害我们基本权利和自由的方式使用面部识别技术。”

德国海盗党议员帕特里克·布雷耶也警告说,该提案没有达到所谓的尊重“欧洲价值观”的标准。欧洲议会议员是签署致委员会信函的 40 名议员之一 上星期 然后警告说,该提案的泄漏版本在保护基本权利方面还远远不够。

“我们必须抓住机会,让欧洲联盟将人工智能带入符合道德要求和民主价值观的境地。 不幸的是,委员会的提案未能保护我们免受性别公正和对所有群体的平等对待的危险,例如通过面部识别系统或其他种类的大规模监视。”布雷耶在对今天正式提案的回应中说。

“我们公共场所的生物识别和大规模监视,配置文件和行为预测技术破坏了我们的自由,并威胁到我们的开放社会。 欧盟委员会的提议将把公共场所自动面部识别的高风险带给整个欧盟,这与我们大多数人民的意愿背道而驰。 拟议的程序要求仅是烟幕。 我们不能允许这些技术歧视某些人,以及对无数人的虚假指控。”

消费者权利保护伞组织 BEUC 也迅速提出批评,攻击委员会的提案在消费者保护方面薄弱,因为它的重点是监管“非常有限的人工智能用途和问题”。

Beuc总裁Monique Goyens在一份声明中说:“欧洲委员会应该更加专注于帮助消费者在日常生活中信任AI。人们应该能够信任任何以人工智能为动力的产品或服务。 “高风险”,“中风险”或“低风险”。 欧盟必须采取更多措施,以确保消费者拥有可执行的权利,并在出现问题时获得补救和补救。”

科技行业组织 Dot Europe(前身为 Edima)——其成员包括 Airbnb、苹果、Facebook、谷歌、微软和其他平台巨头——对该提案的发布表示欢迎,但在撰写本文时尚未提供详细评论,称其正在制定它的位置。

其他科技游说团体迫不及待地对人工智能的繁文缛节进行攻击,声称这项监管将“在欧盟新兴的人工智能产业学会走路之前对其进行压制”,作为华盛顿和布鲁塞尔的一项科技政策智库(数据创新中心)表示。

CCIA行业协会还迅速警告“不要为开发人员和用户提供不必要的繁文tape节”,并补充说  单靠欧盟并不能成为欧盟的领导者 AI.

今天的提案开始了在欧盟共同立法程序下进行大量辩论的开始,欧洲议会和成员国通过欧盟理事会需要对草案发表意见,这意味着在欧盟机构就欧盟立法达成共识之前,可能会有很多变化。泛欧AI法规的最终形式。

委员们拒绝透露今天什么时候可以通过立法的时间表,只是说他们希望其他欧盟机构可以立即介入,并希望尽快完成这一程序。 但是,该法规可能要过几年才能批准并生效。

该报告已更新,反映了对委员会提案的反应

资料来源:https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

时间戳记:

更多来自 Techcrunch的