你能相信人工智能来保护人工智能吗?

源节点: 1884060

在 9 月 XNUMX 日的数据峰会上在线加入当今领先的高管。 登记 点击此处.


既然 AI 正在进入 IT 架构的主流,那么当暴露于企业无法控制的数据源时,确保它仍然安全的竞赛正在进行中。 从数据中心到云再到边缘,人工智能将不得不应对各种各样的漏洞和越来越复杂的威胁,几乎所有这些都将由人工智能本身驱动。

与此同时,鉴于人工智能可能会成为我们的医疗保健、交通运输、金融和其他对支持我们现代生活方式至关重要的行业的支柱,风险将越来越高。 因此,在组织开始将 AI 推入这些分布式架构的深度之前,暂停片刻以确保它能够得到充分保护可能会有所帮助。

信任与透明

在最近接受 VentureBeat 采访时, IBM 首席人工智能官 Seth Dobrin 注意到建设 对整个 AI 数据链的信任和透明度 如果企业希望从其投资中获得最大价值,这一点至关重要。 与在受到病毒和恶意软件攻击时只能关闭或窃取数据的传统架构不同,人工智能面临的危险要大得多,因为它可以被教导从端点接收的数据中重新训练自己。

“端点是一个收集数据的 REST API,”Dobrin 说。 “我们需要保护人工智能免受中毒。 我们必须确保 AI 端点是安全的并被持续监控,不仅仅是为了性能,还为了偏见。”

为此,Dobrin 表示 IBM 正在努力建立 对抗性鲁棒性 在 Watson 等平台的系统级别。 通过实施 AI 模型来询问其他 AI 模型以解释其决策过程,然后在这些模型偏离规范时纠正这些模型,企业将能够以当今快节奏的数字经济的速度保持安全态势。 但这需要转变思维方式,从寻找和阻止恶意代码转向监控和管理人工智能对看似普通数据的反应。

已经有报道开始传播关于操纵数据以欺骗人工智能以有害方式更改其代码的许多巧妙方法。 吉姆·登普西加州大学伯克利分校法学院讲师和斯坦福网络政策中心的高级顾问说,可以创建听起来像 ML 算法的语音,但不是人类的音频。 图像识别系统和深度神经网络可能会因人眼无法察觉的扰动而误入歧途,有时只需移动一个像素即可。 此外,即使犯罪者无法访问模型本身或用于训练模型的数据,也可以发起这些攻击。

预防和应对

为了解决这个问题,企业必须关注两件事。 首先,说 Dell Technologies 全球首席技术官 John Roese,它必须投入更多的资源来预防和应对攻击。 大多数组织都擅长使用 AI 驱动的事件信息管理服务或托管安全服务提供商检测威胁,但预防和响应仍然太慢,无法充分缓解严重违规行为。

这导致企业必须实施的第二次变革,说 Rapid7 首席执行官科里·托马斯:用更多的人工智能增强预防和应对能力。 对于大多数组织来说,这是一颗难以下咽的药丸,因为它本质上为 AI 提供了对数据环境进行更改的余地。 但托马斯说,有一些方法可以让人工智能在它最擅长处理的安全方面发挥作用,同时将关键能力保留给人类操作员。

最后,归结为信任。 人工智能现在是办公室里的新手,所以它不应该拥有金库的钥匙。 但随着时间的推移,随着它在入门级环境中证明其价值,它应该像任何其他员工一样赢得信任。 这意味着当它表现良好时给予奖励,在它失败时教导它做得更好,并始终确保它拥有足够的资源和适当的数据,以确保它理解正确的事情和正确的方式去做。

VentureBeat 的使命 将成为技术决策者获取有关变革性企业技术和交易知识的数字城镇广场。 了解更多

来源:https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

时间戳记:

更多来自 人工智能– VentureBeat