为什么好的聊天机器人需要上下文,而不是基于树的流程

源节点: 1352945

在示例中,您有兴趣参观某个景点并想了解门票价格,因此您会问:

令人惊讶的是,尽管聊天机器人具有相关的 API 集成,但并不知道答案。

通过一些指导,聊天机器人会将您重定向到引导式(基于规则)对话流程。 它建议你应该说“买票” 首先,然后是 “门票价格”,最后“云雾森林”来得到答案。

还不是很接近。

绝大多数虚拟代理都使用自然语言理解(NLU)模型,但用户仍然因不自然的对话而受到阻碍。

人们不能简单地通过说一个 NLP 平台比另一个平台更好或更差来解释聊天机器人的智能。 这是一个方便的理由,但在本例中并非如此。 为什么? 训练有素的 NLU 模型的目的是帮助将输入(用户话语)映射到输出(用户意图)。 例如,两者 “送咖喱鸡披萨到阳光大道20号”“我想要鱼和薯条” 参考相同的“食品订单”意图。

然而,意图检测到此为止。 作为对话设计者或开发人员,您需要考虑意图检测后会发生什么。 它被称为 上下文 尽可能给予直接回应。

在现实生活中,如果你和你的朋友在封锁数月后终于见面,你们俩记得的上次旅行中的所有时刻都会塑造出 上下文。 它具有特定的参数,例如城市名称和沿途遇到的人。 背景也是容易消失的,这意味着如果你和你的朋友多次见面谈论其他事情,你首先想到的并不是新冠疫情之前的假期时刻。

当您对聊天机器人进行编程时,您可能希望对用户说出的特定信息执行某些操作。 例如,虚拟代理的一个好主意是在对话会话期间主动提取食物名称和送货地址并提交到内存状态(上下文)。 当用户已经在路径中说出相同的信息时,机器人不应询问相同的信息。

不幸的是,今天的一些聊天机器人无法记住与用户进行有用对话的基本参数,用户最终将不得不向聊天机器人重复关键细节以帮助其进行。

以下是一些可能性:

  1. 仅在某些低代码软件中的树状对话设计工具下设计快乐路径
  2. 将意图视为流程中的转折点或检查点,而不是客户心目中的目标
  3. 向软件工程师展示对话思维导图或流程图,但没有关于用户纠错和聊天绕道的规范
  4. 与具有有限成功/失败状态流程的 Web 或移动应用程序不同,在非线性应用程序中难以计算大量排列

这次,聊天机器人提取它在票价查询意图中寻找的实体。 这些是参与者和景点。 由于有足够的数据来查找票价,聊天机器人会显示一些相关的丰富卡片。

估计你犯了一个错误。 你通过说纠正错误

而不是后备(“抱歉,我没听懂”),该消息导致基于参数的意图。 聊天机器人已经记住了您喜欢的景点站点,现在只考虑新的参与者信息。 它还知道你处于票价查询状态,所以不需要你重复,它就会告诉你新的总价。

您继续提到您是当地公民。

同样,无需您重复景点站点和人数并更改当前对话主题,聊天机器人就会根据收集到的所有更新信息查找门票价格。 成功!

Source: https://chatbotslife.com/why-good-chatbots-need-context-not-tree-based-flows-f083db0ed635?source=rss—-a49517e4c30b—4

时间戳记:

更多来自 聊天机器人生活