加拿大概述人工智能开发者自愿行为准则

加拿大概述人工智能开发者自愿行为准则

源节点: 2220916

加拿大政府为人工智能开发人员制定了自愿行为准则,以防止他们的系统被用来创建有害或恶意内容。

目前,加拿大创新部与民间社会和行业专家等各利益相关者正在就该准则进行磋商,该准则预计将在 C-27 号法案之前出台,该法案还包含《人工智能和数据法案》(AIDA)。

磋商还将确保立法者小组在 XNUMX 月议会复会之前及时更好地了解人工智能技术。

强制性保障措施

根据 卡尔加里先驱报该代码将要求人工智能开发人员采取保护措施,确保他们的技术不会被用于恶意目的,例如网络攻击、冒充真人或任何可能欺骗人们泄露个人数据或提供法律或医疗建议的行为。

犯罪分子利用生成人工智能来克隆人们的声音,并在假装遇到麻烦后利用它们来骗取他们的朋友和家人的现金。

在加拿大,随着 ChatGPT 等生成式人工智能平台的推出,专家们一直在推动政府控制人工智能行业,这些平台可以创作散文、歌词和文本,并生成逼真的图像、视频和文本。声音的。

该技术具有改变行业的潜力,但也可能被不法分子滥用和误用。

现在,加拿大政府希望自愿准则“足够稳健,以确保生成人工智能系统的开发者、部署者和运营商能够避免有害影响,建立对其系统的信任,并顺利过渡到遵守加拿大即将出台的监管制度。” ”

加拿大创新部还表示,政府“打算优先考虑对生成人工智能系统的监管”。 该代码的计划包含在 16 月 XNUMX 日星期三发布的一份文档中。

也可以参考: 凯特琳·朗 (Caitling Long) 公开反对 DC 锁定数字资产的尝试

存在Shutterstock

原创内容和人工智能内容的区别

根据该文件,人工智能开发人员将被迫建立系统,使人们能够区分人工智能内容和人造创作,并确保人类监督。

这并不是加拿大独有的现象,欧盟还要求 Meta 等在线平台对任何人工智能生成的内容进行标记,作为打击错误信息举措的一部分。 

在美国,谷歌、Meta、OpenAI、Athropic、亚马逊、微软和 Inflection 等科技公司 自愿同意 与白宫合作,致力于负责任且安全的人工智能开发。 他们致力于为人工智能内容添加水印并保护市场免受网络攻击和歧视。

该行为准则还涉及用户的安全,呼吁人工智能公司确保其系统安全可靠。

除此之外,自愿准则还要求开发人员严格检查其系统,以避免“低质量数据和非代表性数据集或偏见”。

在此之际,生成式人工智能被指控犯有以下行为: 对少数群体的偏见.

监管难题

与此同时,16 月 XNUMX 日星期三发布的同一份文件还谈到了包含 AIDA 的法案,称其旨在“适应人工智能技术的新发展”,并将为监管生成型人工智能提供“法律基础”。

然而,该法案因过时而受到批评。 根据 国家邮政局该法案于 2022 年 XNUMX 月提出。这意味着它是在 ChatGPT 及其其他竞争对手(例如 Google Bard 和 Microsoft Bing)推出之前编写的,“这意味着它实际上早于生成式 AI 系统的出现。”

该法案也受到批评 被匆忙,没有其他利益相关者足够的投入,因此需要进行广泛的修订,以明确它将管理哪些人工智能技术以及如何管理。

自从 ChatGPT 推出以及随后生成人工智能的蓬勃发展以来,来自全球各地的立法者一直在绞尽脑汁地尝试制定一个监管框架来管理该技术。 

从 中国 对于美国和欧洲来说,人工智能监管一直是领导人试图在促进创新和维护用户安全之间取得平衡的热门话题。

分享这个帖子

时间戳记:

更多来自 元新闻