从我们本周的 MCubed 网络讲座中了解如何建立对您的 AI 应用程序的信任

源节点: 1357712

特别系列 您已经收集了所有数据,训练了最好的模型,并构建了最出色的应用程序,但潜在用户对人工智能的不信任意味着采用率低于预期。

或者你在金融领域工作,刚刚找到了解决欺诈问题的完美人工智能解决方案,尽管你似乎无法让你的团队加入,因为没有人确定它是否与即将到来的立法兼容。

在这两种情况下,为流程添加可解释性可能会对您大有帮助,这就是为什么 第三集 在我们的自由 立方体 有关实用机器学习的网络讲座系列将深入探讨可解释人工智能 (XAI) 的世界。在 4年 十一月 格林尼治标准时间 1100 点(欧洲中部夏令时间 1200 点),纳皮尔的首席数据科学家 Janet Bastiman 博士将向您展示如何利用可解释性来构建信任和面向未来的系统,同时消除您可能已经遇到的一些误解。

作为高度监管的金融领域的从业者,巴斯蒂曼博士将为您提供对当今法规和行业趋势的见解,以帮助您明确可以做什么和应该做什么。她还将介绍一些案例研究,以说明何时以及如何纳入 XAI 措施,以确保过多的开放性不会适得其反,并导致坏人利用您的系统。

Bastiman 博士在数据科学领域拥有 20 多年的经验,非常熟悉电信、营销和金融等行业的特殊性,并且知道在实施和改进人工智能产品时对于初创企业和老牌企业来说什么是重要的。她也是一个 狂热的支持者 他拥有机器学习测试方面的博士学位,是英国皇家统计学会数据科学部门的委员会成员,拥有分子生物化学和数学学位以及计算神经科学博士学位。

因此,请在 1100 月 4 日 XNUMX GMT(格林尼治标准时间)这一天保留您的日历,并且 加入我们的行列 免费一小时的机器学习新闻和解释——我们非常期待在那里见到您。

如果您注册,我们甚至会在当天向您发送提醒。也许它会激发你更深入地研究这个主题,或者帮助你解决一些你已经有一段时间的问题。说到这里:我们总是感谢主题提案,使 立方体 系列非常有用,所以如果您有任何与 ML 相关的问题,请告诉我们,我们将在接下来的剧集中对其进行调查。 ®

资料来源:https://go.theregister.com/feed/www.theregister.com/2021/11/02/mcubed_machine_learning/

时间戳记:

更多来自 注册